深度学习能够学会加法吗?

我了解了一下深度学习,对一个问题有点好奇,深度学习可以通过对有限的一些自然数相加的样本的学习,像人类一样总结出自然数相加的规律,从而对所有的无限的任意两个自然数的相加都能正确计算出来吗?如果做不到的话,那么说明深度学习只模拟了人类的非逻辑的思维,而对更高层的逻辑的思维还无能为力,一定存在结构或算法上的缺失,因为深度学习是对大脑结构的模拟,而人类的大脑是有逻辑思维的能力的,如果深度学习无法做到,那…
关注者
338
被浏览
10928
补充:此答案假设数的表示方法是符号化的一串数字,而不是按照有限精度浮点数值来表示。许多答案提出如果是浮点数值的表示,只要学一个回归,每个数的权重是1即可。

谢邀。

这个问题一定程度上体现了大众对于深度学习、机器学习乃至人工智能的一个理解漏洞。这一漏洞主要是在探讨学习过程时,不对人类整体进化和个体学习过程加以区分。

首先,每个人类个体学习加法的时候并不是题主描述的学习过程,即“通过对有限的一些自然数相加的样本的学习”。我们学习加法实际上是一个强有监督学习的过程,通过数学老师对于加法过程的教学从而学习加法的过程,相当于将加法这一算法强植入大脑而不是仅仅通过看到大量的加法的例子来进行的。

加法的产生本身源于人类整体进化过程对于计数的抽象化,是数千年逐渐归纳总结的结果。在这个过程中,计数的方法在逐渐的演化,并通过一代代人类的生产活动延续下来,最后逐渐总结出加法和减法的算术运算,并从此作为一个固定算术过程通过一代代人类的教育强监督性地学习。

如果非要将深度学习和人类个体的算术学习进行类比,只需要设计恰当的通用神经网络结构(如简易的回归(Recurrent)神经网络),并且对这一网络结构设计算法,进行强监督性的学习(即包括学习每个算术步骤)即可。

然而,整个深度学习、机器学习乃至人工智能的发展依旧处于对于人类个体学习过程的模拟中,对于人类整体进化过程中产生的知识,如文化、科学理论和艺术等依旧没有较好的建模。算术运算,包括加法,属于这种人类整体进化过程中逐渐产生的知识。当然,随着计算能力和相关领域的逐步发展,这些过程可能会在未来数十年逐渐被认识、理解并实现,到时这样的问题的答案就会变得显而易见了。