很多人在学习深度学习的时候会遇到一个疑惑,那就是深度学习可解释差这个说法是否准确。这个拗口的词汇相信大家对其义也不甚了解。虽说这个词汇不好理解,但是这个词汇确实是一个十分重要的概念,我们要想学习深度学习知识就不能忽略这个词汇。那么深度学习可解释差到底是什么意思呢?下面我们就给大家介绍一下这个词汇的意思。 首先我们给大家解读一下“解释”的含义,其实解释的意思就是在观察的基础上进行思考,合理地说明事物变化的原因,事物之间的联系,或者是事物发展的规律。而深度学习可解释性差,意思就是我们很难去说明一条样本数据灌进一个神经网络出来这样一个预测结果的原因,这造成的直接后果就是很多时候我们不清楚如何针对一个神经网络做优化。 我们怎么去解释这个词汇的意思呢?其实我们可以从一个线性回归模型考虑。就拿现在大家最关心的房价来说,房价的因素有很多,我们主要就是说两种,第一就是面积,第二就是到市中心的距离。我们认为一个房子的房价受房屋大小和到始终细腻距离两个因素影响,而且到市中心距离这个因素的印象力很大,比房屋面积大100倍。我们还可以针对每个权重和偏置做假设检验,来看看这三个因素有没有哪些是无显著影响的。对于这种只有两个因素的线性模型,我们甚至还可以将模型的函数图像画出来,直观地检查模型与数据拟合程度如何。对于线性模型,我们很清楚每一个权重和偏置的含义是什么。所以我们可以有很多明确的优化方案。这就是线性回归的相关思想知识。 当然神经网络有很多的结构,也有很多的特点,第一个特点就是神经元多,参数众多;第二个特点就是结构分层,且隐含层众多;第三个特点就是神经网络的参数对应的特征不是人工设计的,是神经网络在学习过程中自己选择的。我们根本不知道我们的神经网络模型到底学习了写什么,我们不知道每一个参数的含义是什么,所以我们无法解释整个模型的运作机制,自然也无法得出明确而又针对性的优化方案。 其实深度学习的缺陷有很多,可解释性差也是深度学习目前最大的缺陷之一。所以说,可解释性差总是让深度学习解释事物不是那么完美。因此,我们还需要发现一些更好的方式去弥补这个缺陷,这是深度学习发展的方向之一。相信这篇文章给予大家更多的一些思考和启发,同时也发现深度学习还有很长的路要走,不过路越长说明就业的机会也更多,大家好好加油吧。
谷歌人工智能写作项目:小发猫
优点:
(1)具有自学习功能神经网络可解释性。例如实现图像识别时,只在先把许多不同的图像样板和对应的应识别的结果输入人工神经网络,网络就会通过自学习功能,慢慢学会识别类似的图像。
自学习功能对于预测有特别重要的意义。预期未来的人工神经网络计算机将为人类提供经济预测、市场预测、效益预测,其应用前途是很远大的。
(2)具有联想存储功能。用人工神经网络的反馈网络就可以实现这种联想。
(3)具有高速寻找优化解的能力。寻找一个复杂问题的优化解,往往需要很大的计算量,利用一个针对某问题而设计的反馈型人工神经网络,发挥计算机的高速运算能力,可能很快找到优化解。
缺点:
(1)最严重的问题是没能力来解释自己的推理过程和推理依据。
(2)不能向用户提出必要的询问,而且当数据不充分的时候,神经网络就无法进行工作。