人有2样能力,机器永远无法超越

2019-11-29
为什么机器不可能代替人类?

740995cae15fe1d3aceb3b58267d861f.jpg

编者按:本文来自微信公众号笔记侠,作者张晓泉,笔记达人胡萝卜,创业邦经授权转载。

内容来源:2019年9月10日的“AI商学院商业领袖论坛”上,香港中文大学终身教授、香港中文大学商学院副院长张晓泉进行了以《人与机器的角逐》为主题的精彩分享。

邀您阅读前,先思考:

  • 人工智能为什么不可能是完美的?

  • 为什么机器不可能代替人类?

大家好。在人工智能的历史发展中,人与机器展开了很多次角逐,发生了许多有意思的事情,今天我就来为大家讲几个故事。

一、图灵的故事

在我办公室里有一台机器,叫“乘法器”,它有100年的历史。百年前,法国人就发明了这种机器,用来处理较大的数字乘法。

比如输入数字“128”,再摇动右边的摇杆输入数字“21”,就会算出乘积是“2688”。那时还没有电子计算机,所以这就是人们用来加速计算的一个机器。

后来,英国人发明了小巧一点的乘法机,计算也很准确。再之后,德国人在二战时发明了Enigma Machine,一种加密用的机器:输入“A”时,机器可能显示的是“C”。这样加密后的信息就可以直接发给友军,即便敌方截获了信息,也很难破解。

图灵(笔记侠注:1912年6月23日1954年6月7日,英国著名数学家、逻辑学家、密码学家,被誉为“计算机科学之父”、“人工智能之父”,是计算机逻辑的奠基者)在此做出了巨大的贡献,他在德军和英军对战时破解了德方的加密体系。

图灵是一位天才数学家,他有许多著名的贡献——

第一,他提出了著名的“图灵机”。图灵说,有一种逻辑计算结构,可以把它想成一个虚拟机器,不需要实际造出来,所有问题简化为二进制的0和1之后,通过逻辑计算就可以得到最终答案。

图灵机的概念后来果然成为现实,我们现在使用的所有编程语言都可以说是 “图灵完备”(笔记侠注:让一切可计算的问题都能被计算,这样的虚拟机或编程语言就叫做是“图灵完备”的)。

第二,图灵在自己的一篇论文中提出“图灵测试”。测试让一个人类考官提问,左边回答的是计算机,右边是人类回答,当人类考官无法判断哪个是计算机,哪个是人的时候,则可以认为该计算机通过了图灵测试。

今天的智能手机也已经实现了图灵测试,比如微软的“小冰”、iPhone的“siri”、亚马逊的“Alexa”等等。

但同时图灵测试也给人类带来了一个巨大的问题:图灵测试让人们认为,人工智能的终极目标就是让机器变得像人一样。

很多人认为计算机在以后真的会变成人、替代人,人类会失业,或是计算机要毁灭人类。所有这些想象,都是从图灵测试中来的。

这个假设实际根本就是错的。爱因斯坦曾说过一句话:“只有两样东西是无穷的,第一是宇宙,第二是人类的愚蠢,而我对前者是否无穷并不肯定。”

大仲马也说过:“让我最无奈的是,人类的思维是有限的,但人类的愚蠢却是无限的。”

很多心理学家都总结过人类会犯的各种错误,诺贝尔奖获得者Daniel Kahneman(丹尼尔·卡尼曼)在其著作《思考,快与慢》中总结了他和其他学者发现的非常多的人类的谬误,他说:

“在很多场景下,人类做出的决策,都与正确、理性的决策相差甚远。”

这些谬误意味着,犯错误这件事会永远困扰着人类。不是因为人类想犯错,也不是因为人类教育程度不高,而是因为人类大脑的设计并不完美,在快速处理一些问题时,人类大脑会选择走捷径,这时聪明的人类也会犯愚蠢的错误。

也就是说,人类并非完美的物种。所以,我们人类为什么非要让计算机把超越人类作为最终目标呢?我们真的需要计算机像人类一样做决策吗?

完美模拟人的智能机器,实际上也并不智能,当一个机器完全模拟了人的智能,就会像人一样犯各种错误,没有什么智能可言。

我们可以定义一下“弱人工智能”(ArtificialNarrow Intelligence),比如AlphaGo下围棋的能力很强,但你让它开车它就不会了;微软的人脸识别功能也非常好,但让它以同样的算法下围棋它却做不了,这些单一用途的人工智能都叫做“弱人工智能”。

而强人工智能(ArtificialGeneral Intelligence),则是机器可以做人类做的任何事。我们说人工智能的时候常常会想到强人工智能,但恰恰是弱人工智能才能够在很多场景帮助人类做更好的决策。

以目前机器学习的发展来看,强人工智能一方面不容易实现,另一方面也没有必要实现。

因此我们得出三个结论:

  • 完全模拟人的机器并不智能;

  • 人工智能的发展不一定非要完全依赖于模拟人;

  • “弱人工智能”强于“强人工智能”。

二、费曼的故事

理查德·费曼(笔记侠注:1918年5月11日1988年2月15日,1965年诺贝尔物理学奖得主)是著名的物理学家,他曾讲过一个故事——

某天下午,费曼坐在巴西的一家咖啡馆中思考,看见一个卖算盘的日本人,正在向咖啡馆推销算盘,这个日本推销员说用算盘更便于记账(当时还没有计算机),但是咖啡馆老板表示不想买。

咖啡馆老板说:既然你说这个东西计算很快,那我随便找一个顾客(后来找到了费曼),你们两个比试一下,看看机器和人,谁的运算更快。

比试开始,首先是算加法,费曼的速度完全没办法和算盘比,他还没读完数字,日本推销员就已经用算盘算出得数了;

后来费曼说要增加难度,算乘法,这时用算盘需要更多步骤,所以费曼和算盘的速度差不多了;

这下,日本推销员也说了,这不行,我们要找一样更难运算的——开立方根。费曼同意了,于是咖啡馆老板随机选定了1729.03这个数字。

费曼作为一个物理学家,碰巧知道12的立方是1728(一英尺等于12英寸,求立方体体积时,这种运算是很常见的),所以他只需要知道剩下的1.03怎么开立方了;

很快,在几秒钟内通过使用“泰勒公式”算出了小数点后5位的得数,给出了答案12.0025,这个数字和正确答案12.00238的误差是10万分之一,而几分钟后日本推销员才喊出12,费曼完胜算盘。

人与机器的角逐,实际上各有优劣:人的直觉和经验是机器无法模仿超越的,而机器在弱人工智能方面也是胜过人类的。

我的一个信神的朋友跟我讨论人工智能时说:“我不相信人工智能会比人厉害,因为神是万能的,人就是神造的,所以人造的东西肯定不如神造的好。”我问他:“那计算器呢?”

一个简单的人造计算器没有智能,但是可以在计算6位数乘以6位数的乘法上胜过人类。一百年前那个人造的手摇计算机在计算速度方面就已经超过人了。

机器确实有比人做得更好的地方。但是在需要直觉和经验的场景下,机器往往无法胜过人。

人和机器在做决定时,用的是两种不同的方法:人是用直觉,直觉是人将各方面知识聚集在一起形成的,直觉让人快速得到一个解决答案;而机器则用的是“梯度下降”算法,这是在求解机器学习算法的模型参数时,最常采用的方法之一。

机器做决策只有这一个方法,就是先让人类找到“损失函数”,机器做的就是让损失函数最小化,从这方面看,机器没有任何智能——人写出损失函数,然后让机器执行优化算法。

所以,对机器的期望不能太高:机器在弱人工智能层面可以做得很好,但是用梯度下降的范式不可能产生强人工智能。

现在我们常说的人工智能,与以前的人工智能最大的区别是:以前,人通过写计算机程序来制定规则,然后输入一些数据,让计算机算出结果;而现在,是人把数据和结果输入进去,通过监督和非监督学习的算法,让机器来学习并得到规则。

以前的人工智能叫做“专家系统”,是基于规则的,现在的人工智能则更多是让系统根据数据,去自动优化而学习底层逻辑。

就如所有机器一般,人工智能在某个方面可能很强大,但是复杂的算法常常被掩盖在简单的界面里,使用者在不理解底层逻辑的情况下使用,就会产生极坏的效果。就好比把机关枪交给一个三岁的小孩去用,结果会难以想象。

举几个例子:

有一位美国朋友给我发来一张Uber的自动驾驶汽车的照片,我从中发现一处不对劲的地方:左转红灯亮起的时候,车居然向左转弯行驶了。

后来我们讨论了这个问题,原来,在训练自动驾驶时是使用了人类驾驶数据记录的,有人在左转红灯亮的时候左转过,导致机器学习到了这样一个行为。

可见,人并不是一个完美的物种,如果机器完全向人学习的话,也会学到人的一些坏毛病。

几年前,几位北航的教授做过一个研究,在北京地铁可以看到,人们从一个站口进去,又从另一个站出来,可以画出一些曲线,把人分成几种类型:例如可以看到游客会去圆明园、香山;购物者会去西单、王府井;而小偷的行为曲线与正常人群是非常不一样的。

于是,利用人工智能,分析所有人的行为轨迹,而找出小偷,是可以的。

但是还有另一种分析方法,则是比较危险的。美国新泽西州的一位警察总监女士,她说:“我们用了大数据技术,能够算出什么样的人会比较容易犯罪,并算出他们在什么时候会犯罪,这样就可以提前预警”。

这让我想起科幻片《少数派报告》,这里面最大的问题就是,这样的计算依赖的是人不可改变的数据的平均值:平均来讲,黑人的犯罪率更高,但是并不代表每个黑人的犯罪率都高,用平均值算出来的结论如果推广开来,对黑人的个体就是很不公平的,而在很多场景下更是很危险的。

也就是说,从算法上讲,我们不能只看平均效果值,而是要看个体。这与抓小偷的区别在于:美国的警察总监抓罪犯的方法,是根据对方的年龄和肤色这些自身无法改变的因素来判断的,这样会冤枉好人;而前面抓小偷的方法,则是根据对方的行为,根据行为的判断就没有问题。

很多人工智能算法,试图追求的都是平均效果,但如果聚焦到人的话,结论就会完全相反。可见,人工智能不是万能的,结果要靠人去解读,人和机器要一起合作才是最优的。

我认为人工智能有两个非常深刻的课题需要解决:第一是过度拟合的问题(假如给了系统太多的自由度,让它学到一些不该学的东西,那么它在样本内的表现很好,但是样本外就很差了);第二是因果关系的问题(即便能发现两个变量的强相关关系,也不能代表其中一个导致了另一个的发生)。

这两大挑战,是人工智能目前急需解决的问题。

三、冯·诺依曼的故事

冯·诺依曼(笔记侠注:1903年12月28日1957年2月8日,数学家、计算机科学家、物理学家,是20世纪最重要的数学家之一,也是现代计算机、博弈论、核武器和生化武器等领域内的科学全才之一,被后人称为“现代计算机之父”、“博弈论之父”)是人类历史上一位非常聪明的人。在我看来,他应该超过了爱因斯坦,是最聪明的人。

1945年之前,他参与“曼哈顿计划”,为美国研制原子弹作出了贡献;接着,他又开始研究计算机,帮美国研发出来第一台计算机。

图灵是将计算机逻辑结构想清楚,冯·诺依曼则是把计算机体系真正实现出来(现在我们的计算机还在沿用所谓冯·诺依曼体系),所以二人都是“计算机之父”。

冯·诺依曼还对经济学有重大贡献。他在1944年和Morgenstern发表了一本博弈论的著作,直接影响了经济学的方法论,直到今天我们经济学中的很多研究还在用他们的博弈论思想和他们提出的“效用函数”这样的工具。

可惜的是,诺贝尔经济学奖于1969年首次颁奖,而冯·诺依曼在1957年就去世了。

冯·诺依曼在数学、物理学、工程学、经济学、管理学等诸学科的贡献也都极为重大。而不同学科的研究方向都各不一样,目标也不一样,比如:

传统的计算机科学和机器学习人工智能,都是在做预测,可以锻炼出很强的预测能力,如同“地心说”本是一个错误的理论,但根据这个理论,人们能预测到明天的太阳会东升西落,并算出日出和日落的时间,所以“地心说”可以做出很好的预测,但是不能做出很好的解释;

解释能力来自于对底层运行机制的了解,这个是经济学家感兴趣的主题。 举例来说,“进化论”可以解释人类为什么是从猿猴进化而来的,但却没办法预测我们人在未来会进化成什么样子,所以“进化论”有很强的解释能力,但是没有很强的预测能力。

有没有办法能让人在这两方面同时做好?目前因为学术分工,计算机科学家在研究方法上把预测能力推向了极致,而经济学家也有很多方法把解释能力推到极致。

把两者结合起来,是我们的终极目标。在这方面做得最好的是诺贝尔经济学奖获得主赫伯特·西蒙(1916年6月15日2001年2月9日,20世纪科学界的一位通才,其研究工作涉及经济学、政治学、管理学、社会学、心理学、运筹学、计算机科学、认知科学、人工智能等领域)。

西蒙是目前人类历史上唯一一位同时获得了经济学最高荣誉“诺贝尔经济学奖”和计算机科学最高荣誉“图灵奖”的人。他对各个领域都贡献巨大。

我们需要像他和冯·诺依曼这样的人,既懂得经济学的底层逻辑,能够透过现象看本质,又具有科学家的思维,能用计算机科学思维做出很好的预测。

人工智能的两大挑战(过度拟合和因果关系),也许可以用经济学的方法来指导。经济学的因果分析方法在过去20年间得到了非常大的发展,而这些模型对计算机科学家来说是很陌生的。

我认为人工智能和经济学因果关系研究的未来发展,需要互相参考对方的方法,也许根据冯诺依曼的理论发展出来的经济学方法,最终能解决一些困扰着根据图灵的理论发展出来的人工智能的挑战。

通过上面三个小故事,我们回顾了过去100年间人和机器的角逐。结论实际上很简单:

我们不需要担心机器替代人类,也不需要机器以人类智慧为最终目标。当机器的强大运算能力和人的强大经验结合起来的时候,当经济学的因果分析方法能给人工智能的两大挑战提供解决方案的时候,人工智能的终极目标就实现了。

人工智能是真正的人(人类)工(工具)结合的智能。谢谢。

*文章为作者独立观点,不代表笔记侠立场。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

来源:笔记侠