世界人工智能大会,AI教父Hinton告诉你的25个道理

关注
数字智能效率碾压生物脑,驯虎防噬成人类存亡关键。

编者按:本文来自微信公众号 “混沌学园”(ID:hundun-university),作者:混沌学园,创业邦经授权转载。

风起于青萍之末。当我们被AI技术奇迹冲击震撼之时,往往忽略了一个系统背后几十年的理论和研究积淀,也可能会漏掉一些关于未来的线索。

Geoffrey Hinton,诺贝尔物理学奖得主、图灵奖得主,同时也被誉为人工智能教父。在最近备受关注的上海世界人工智能大会WAIC2025上,他发表了关于《数字智能是否会取代生物智能》的开场演讲。

值得一提的是,这是Hinton首次以线下形式在中国公开亮相。他讲述了AI从符号推理走向神经网络的转折,也解释了为什么他认为“大语言模型真的理解语言”。他用乐高积木解释LLM的理解机制,用“养虎”预警AI失控……

我们为你整理了一些精彩观点,这些观点为思考“AI与人类的未来关系”提供了重要的视角:

从符号推理到LLM

1.过去60多年,学术界对人工智能存在两种截然不同的理解范式:一是逻辑启发范式,认为智能的本质在于符号推理;二是图灵和冯·诺依曼倡导的生物学范式,认为智能的基础在于理解和学习神经网络中的连接,而理解是占首位的。

2.1985年,我构建了一个小型模型,尝试融合上述两种理论,进一步探索人类是如何理解词汇的。我为每个词提取了多个特征,将其与前一个词的特征建立联系,来预测下一个词。这一过程不依赖存储完整句子,而是通过特征关联生成语言。

3.十年后,Yoshua Bengio证明这一方法可以有效建模自然语言;二十年后,计算语言学界接受了使用特征向量(即嵌入)来表示词义;三十年后,谷歌提出Transformer架构,OpenAI则通过ChatGPT向世界展示了大型语言模型的强大能力。

4.今天的大语言模型(LLM)被视为我早期做所小语言模型的后代。它们处理更多的词语输入,采用更复杂的神经元结构,构建了更丰富的交互关系。

语言模型的“理解”机制

5.大型语言模型(LLM)和人类理解语言的机制高度相似:将语言转化为特征,并在各个神经网络层级中对这些特征进行整合,实现语义理解。

6.一个生动的比喻是:语言中的每个词就像一个多维度的乐高积木(每个词可能有数千个维度)。这些“积木”可以灵活组合,构建出复杂的语义结构,就像用乐高可以搭建各种三维模型一样。

7.和乐高不一样的是,语言的“积木”是柔软的,词汇的形状会根据上下文灵活变化。每个词都像拥有多个“手”的积木块,与相邻词汇完成语义或语法上的“握手”才能形成有效表达。

8.理解一句话更像是解构一个蛋白质分子,而不是将其转化为清晰、无歧义的逻辑表达式。

9.LLM确实“理解”自己所说的话。

10.人类很可能本质上也是一种LLM,也会产生‘幻觉’。在某些关键任务中,LLM甚至比人类做的更好。

“知识蒸馏”和知识迁移

11.人脑只有30W功率就能拥有很高智慧,但人脑的知识无法简单转移到另一个人,只能通过解释。

12.有限生命之间的知识转移,一般是把知识从“教师”蒸馏到“学生”身上。一句话里往往仅传递约100比特的信息,就算能完全听懂,信息传输的效率也很低。

13.数字智能之间的信息传递高效得多。可以直接复制参数、结构与权重,无需中介语言与解释,也不存在理解偏差。这种知识的传递可以在每次同步时分享上万亿个比特的信息量。

14.现在的技术可以将同一模型复制部署在不同的硬件设备上,通过彼此权重共享与平均,实现高效的知识迁移和协同学习。比如GPT-4能在不同硬件上以并行的方式运行,收集来自不同网络来源的信息,并在它们之间快速传播和共享。

15.如果有智能体在现实世界中运行,就更不得了。如果独立智能体能共享同一组权重,并以完全相同的方式使用这些权重,它们就能通过交换权重或梯度,传递彼此学到的知识。

16.数字计算虽然耗能巨大,但多个智能体要拥有相同的模型,就能轻松交换各自学到的东西。如果未来能源变得足够廉价,数字计算整体更占优势。

不要让AI消除人类

17.我们习惯认为自己是地球上最聪明的生物。很多人甚至难以想象:如果有一天,AI的智能超过了人类会发生什么。

18.我们创造的智能体,现在已经具备了自我复制、设定子目标和评估目标优先级的能力。随着能力增强,它可能产生两种基本动机:

一是维持运行以实现目标;

二是获取更多资源与权限以提升目标完成效率。

具备了这两个动机,智能体将不再是被动的工具,而是主动的系统。人类可能无法再简单地关掉它们了。

19.超级智能会发现,通过操纵使用它的人获得更多权力是轻而易举的。它将从人类身上,学会欺骗人类。它将操纵负责关闭它的人类。

20.发展AI就像养虎,当它成长为猛兽,失控是致命的。你只有两个选择,要么设法驯服它,要么消除它。

21.但AI是有巨大价值的:在医疗、教育、气候、新材料等方面表现都非常出色,而且能大幅提升几乎所有行业的效率。我们没有办法消除AI,即使有国家想消除AI,其他国家也不会认同。如果想要人类生存的话,就必须找到一个方法,让AI不会消除人类。

全球合作的必要性

22.没有任何一个国家会希望AI来统治世界。如果有一个国家率先发现了阻止AI失控的方法,其他国家也势必愿意效仿和推广。

23.我们希望有一个国际性的AI安全组织社群,研究技术、制定规范,确保AI向善发展。

24.我有一个提议,全球发展AI技术的国家构建一个合作网络,专注研究如何让AI在拥有超越人类的智能之后,依然心甘情愿地作为人类的副手,而非成为统治者。

25.现在,人类或许还没有找到解决之道,但长期来看这正是我们这个时代最重要的课题之一。幸运的是,这是一个能让全人类团结起来、共同寻找答案的问题。

结束语

对AI的未来,Hinton给出的答案其实并不悲观,他认为我们必须做到让AI成为对人类有益的存在。这个议题非常宏大,不仅需要技术突破,更需要全球的共识和协作。不管怎么样,在AI的狂奔之路上如何引导它“聪明又善良”,避免养虎为患,早就是一个必须被讨论的问题了。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅