如何向人类同伴证明自己不是一个人工智能?

如果超人工智能的出现,伪装成人类,人类有什么办法可以互相证明自己不是人工智能? ------------------------- 问题的本意是:超人工智能的出现,可能是无处不在的,有可能掌控人类,甚至渗透至我们的生活。有可能你收到的微信并不是真的由对方发出的,接到的电话也不是真的由对方打的…………超人工智能无形的存在我们周围影响我们,这种情况下,人类有办法识别出同伴吗?
关注者
1847
被浏览
290006

432 个回答

直观的来说,我觉得以下几个方面的特点可能有助于向人类同胞表示自己的真实身份,当然,这些特点也对应着目前机器学习领域大家普遍关注的一些研究方向。

(1)人类似乎可以很好的解决小样本的学习问题。

举个例子,我们可能小时候某一天在画册上见到了⼀张动物的图片(例如大象),将它记在脑海中,随后当我们到了动物园亲眼见到大象时,我们马上可以许多种不同的动物中分辨出它来。仅仅一张大象的图片就真的会具有代表性吗?而且动物园看到的真实动物与我们见到的图片差异可能非常巨大,但我们从小样本中就已经提取到了关键信息。假设当时这本画册选择了另一位摄影师拍摄的大象的图片, 我们还能学会认出大象吗?应该还是可以的,这证明我们人类的小样本学习非常稳定,这有可能是通过类似于生成模型的方法实现的,也可能是通过迁移学习的方法实现的。

(2)从错误中学习和从别人的错误中学习。

2011 年时,IBM 的 Watson 曾经参加《危机边缘》电视节目。当时曾经发生过这样的情况,主持人提问:「填字游戏和奥利奥饼干出现的年代是……」,人类选手 Ken 抢答说 20 年代(1920s),然而主持人告诉他答案错误,接下来 Watson 抢到了回答的机会,只不过其回答仍然是 1920s 。这类错误很可能会暴露出一些人工智能系统的真实身份。当然,目前的强化学习等算法可以认为已经有了一定的“从错误中学习”的能力,但这与人类的学习还有一定的区别,例如人类会知道,分析对手的错误是有必要的,并且希望找到真正犯错的原因。以 Watson 的错误为例,一个可能的理由是,1913 年被发明的具有现代特征的 crossword 被命名叫“word-cross”(根据维基百科),如果是人类,从这个例子中可能会吸取教训,在搜索自己的数据库时需要一定程度考虑模糊化的用词等,这不但可能会帮助改正回答时遇到的错误,还可以避免以后也犯类似的错误。

(3)对复杂计算问题的直观感受能力。

对于许多复杂的多目标优化问题,人类的经验和直觉很可能要比计算机枚举和简单的模式识别强大得多。在科学研究领域,有大量这种有趣的案例。例如 Phylo 是一个 DNA 序列比对的游戏。序列比对是生物信息学和基因组学中的一个基本问题。在序列比对这方面,尽管目前已有大量成熟的的算法,但这些算法并不能真正完美地解决多序列比对的问题。目前,多序列比对被归为 NP 问题的一种。在解决这类问题时,人类玩家的直觉可能更加有效,在游戏中,四个不同的色块代表了四种构成 DNA 的 核苷酸,通过调整这些色块的排列,玩家就可以很轻松愉悦地按照自己心中模模糊糊的标准来匹配多条同源的序列。玩家们凭借直觉排列的结果常常可能比一些精心设计的算法和评分有着更为准确的判断。


(4) 关于能耗和临界性的一个注记。 除此以外,一些物理方面的特点也可能可以帮助我们区分人类的智能和人工智能,例如临界性、能耗、结构形成的过程等。

@Summer Clover 已经在回答中提到了能耗的问题,我可以提供关于能耗问题的另一种视角。暂且先不考虑 Landauer 原理的限制,而是考虑一个很大的体系中的「集体智能」,类比为物理学中的凝聚态体系。当系统发生对称破缺时(例如外界出现了刺激),系统的能量面会形成「草帽状」,此时的系统有无数个能量最小态,而它们的能量相同,这就暗示我们,在这些状态之间的转变不需要耗费额外的能量的。



这种运动模式在能量面上对应于那些绕着“帽子”内沿的运动,它不需要耗费能量(一个自旋波的例子如上图所示),对应于最低频的运动模式。这种模式的出现与对称破缺(相变和临界现象)相关,它有着长的关联长度和大的敏感性,因而普遍认为与生物的智能相关。在物理学中,这种运动模式以物理学家哥德斯通(Jeffrey Goldstone)的名字命名,叫做哥德斯通模式(Goldstone mode),从这个意义上来看,临界性(学习时稳定性和可塑性的平衡)和能耗低很可能就是联系在一起的。

图片来源:

Cologne Talk (title page)Cologne Talk (title page)

Long-lived Higgs mode in a two-dimensional confined Fermi system

Open-Phylo: give science back to the people - On Biology

谢邀。

提供一个小角度:能耗


支持一个强大的AI,必然需要很强的计算机。但算力一强,计算机的能耗就降不下来了。


因为经典计算机是不可逆计算机,与非门是不可逆操作,经典计算机计算时会不断擦除信息。根据兰道尔原理 (Landauer's Principle),每抹去1比特信息,需要消耗的能量/释放的热量是 kTln2k为玻尔兹曼常数,T为环境温度)。假设每个input数据平均要经过N个不可逆逻辑门处理,那么其能耗的理论下限就是NkTln2。


这导致无法掩盖的能耗比——

在做类似任务,AI比人脑的能耗会高出很多个数量级。


所以有一个比较简单的区分方法:做任务,但不太去关心分数,关心能耗即可

测试一些对计算机来说计算量大的学习任务(比如一些视觉任务),然后用热辐射仪之类的探测器测热量或者能耗即可。这就是一个很可靠的单一指标。

无论AI系统进步什么程度,只要它还是运行在电子计算机上的,我们都能用这种方法可靠地辨别。


------------------

最后统一回复一下评论区关于人脑服从Landauer原理的问题。

第一,人脑也是不可逆的计算,没错。但人脑对于执行许多任务的能耗是非常低的。尤其是对于那些人类生存攸关的任务(视觉、强化学习等等)。这是漫长进化过程中不断优化的结果。包括大到神经网络的结构,小到蛋白质的折叠方式,都经过了漫长的自然选择。效率低、能耗高的计算方式会被淘汰


第二,人脑基础的计算单元,我们知道的不是很清楚。但人脑的能耗比电子计算机(处理人类擅长的那些任务)低很多是实验验证的。只要电子计算机还依赖不可逆的经典逻辑门运算,它的理论最低能耗都会比人脑(处理人类擅长的那些任务)高。它的问题在于经典逻辑门操作——每一次与非门都在擦除信息,然后对1比特的输入数据的处理(根据任务不同)又需要重复使用大量与非门操作。


简单总结就是,进化带来了低能耗的人脑设计;处理人类擅长任务时,人脑的能耗比电子计算机(因为经典逻辑门)的理论最低能耗还低。人脑和电子计算机都服从Landauer原理,但它们基础的计算单元有不同的设计,所以出现【不可掩盖的能耗比】。


大脑消耗的能量占人体每天消耗的能量的20%。正常人日均消耗卡路里2000大卡(Kcal),那么大脑一天消耗的能量大约为400Kcal。大脑功率其实很稳定,大约就20瓦特左右。且这是囊括CPU、GPU、硬盘、内存等所有设备且视觉、语音、语言处理功能全面开启的时的能耗。

我们再估算一下与李世石对决的AlphaGo的能耗。1202块CPU(算100瓦),176块GPU(算300瓦)。这个AI很单纯,除了围棋以外的智能都没有。视觉部分读棋盘的功能由DeepMind的工程师代劳了。语音、语言处理功能全没有,又省了。只算CPU和GPU,功率已经是173千瓦。当然,目前CPU、GPU的能耗还远远没有逼近理论下限。

简单估算一下,AlphaGo作为一只简单纯朴的围棋AI的能耗大约是李世石的8650倍。一般认为最消耗计算力的视觉任务都没实现呢,能耗已经差了数千倍了。估算可能稍有一些误差,不过我们只关注数量级就好。


既然对方都是强人工智能,那就不玩智能测试了。这个测试是把对于智能的测试转移为对于人工智能系统计算复杂度和计算机架构设计的测试。那么,能耗就是一个简单又可靠的指标。

以human-level的能耗实现human-level performance可以说又比实现单纯某种任务的human-level performance困难太多了。“圣杯之上的圣杯。”