比尔盖茨最新分享:AI 产生的Deepfake和虚假信息,让社会风险上升,AI将夺走人们的工作,也会继承我们的偏见并虚构事实!

2023-07-14
如果一个超级 AI 设定了自己的目标,会发生什么?如果这些目标与人类的目标冲突怎么办?我们应该根本不制造超级 AI 吗?

图片


AI 技术在进步的同时,又会给社会带来怎样的风险,人们真的会丢掉工作?那么又是谁会丢掉工作?

比尔盖茨在本周发表了一篇名为《The risks of AI are real but manageable》的文章,分享出了对 AI 风险的关注,以及较为乐观的态度,盖茨认为我们可以通过历史的经验和合作来应对这些风险。

此外,盖茨也在呼吁政府、企业和个人积极应对,并强调了技术发展和监管之间的平衡,以下为这篇博客的全文,总共分为四个部分:

  • AI 产生的Deepfake和虚假信息

  • AI 对社会的风险变得更容易

  • AI 将夺走人们的工作

  • AI 继承我们的偏见并虚构事实

enjoy ? ~

AI 会不会影响选举结果?如果未来的 AI 决定不再需要人类并试图消灭我们,该怎么办?

这些都是合理的问题,对它们引起的关注需要认真对待。但是,我们有充分的理由相信我们可以应对这些问题:这不是第一次重大创新引入了需要控制的新威胁。我们以前就做到了。

无论是汽车的问世还是个人计算机和互联网的兴起,人们都经历了其他改变的时刻,并且尽管经历了很多动荡,但最终都变得更好。在第一辆汽车上路不久之后,就发生了第一次车祸。但我们没有禁止汽车的使用,我们采取了限速、安全标准、许可要求、酒驾法规和其他交通规则。

我们现在正处于另一个深刻变革的早期阶段,即 AI 时代。这类似于限速和安全带出现之前的不确定时期。AI 的发展速度如此之快,以至于我们不清楚接下来会发生什么。我们面临的重大问题涉及当前技术的运作方式、人们将如何恶意使用它以及 AI 将如何改变我们作为一个社会和个人。

在这种时刻,感到不安是很自然的。但历史表明,我们有能力解决新技术带来的挑战。

盖茨以前写过关于 AI 将如何彻底改变我们生活的文章。它将帮助解决以前看似无法解决的问题,例如健康、教育、气候变化等。盖茨基金会将其作为优先事项,并且首席执行官马克·苏兹曼最近分享了他对 AI 在减少不平等方面作用的思考。

在这篇文章中,盖茨承认经常听到和读到的担忧,其中许多他不仅认同,同时还解释了对这些问题的看法。

从迄今为止关于 AI 风险的所有已经写过的内容来看,有一件事很明确:没有人拥有所有答案;另一件明显的事情是,AI 的未来并不像一些人认为的那么悲观,也不像其他人认为的那么乐观。风险是真实存在的,但盖茨对能够管理这些风险持乐观态度。在讨论每个关注点时,会回到几个主题上:

  • AI 造成的许多问题都有历史先例。例如,它将对教育产生重大影响,但几十年前手持计算器和最近允许在教室里使用计算机也产生了重大影响。我们可以从过去的经验中学习到成功的方法。

  • AI 引起的许多问题也可以通过 AI 的帮助来解决。

  • 我们需要调整现有法律并采用新法律,就像现有的欺诈法律必须针对在线世界进行调整一样。

在这篇文章中,盖茨将重点关注已经存在或即将出现的风险。无论是在十年内还是在一个世纪内达到这一点,社会都需要面对深刻的问题。如果一个超级 AI 设定了自己的目标,会发生什么?如果这些目标与人类的目标冲突怎么办?我们应该根本不制造超级 AI 吗?

但是,思考这些长期风险不应以牺牲更直接的风险为代价。现在盖茨将转向它们。

01AI 产生的Deepfake和虚假信息

技术被用来传播谎言和不实信息的观念并不新鲜。几个世纪以来,人们一直使用书籍和传单进行这样的行为。随着文字处理器、激光打印机、电子邮件和社交网络的出现,这变得更加容易。

AI 将这个制造虚假文本的问题推向了极致,并允许几乎任何人创建虚假的音频和视频,被称为Deepfake。如果你收到一个听起来像你的孩子说“我被绑架了,请在接下来的10分钟内向这个银行账户汇款1000美元,并且不要报警”的语音信息,它将产生可怕的情绪影响,远远超出了一封说同样话的电子邮件的影响。

从更大的规模来看,由 AI 生成的Deepfake可以用来试图扭转选举结果。当然,要对选举的合法赢家产生怀疑并不需要复杂的技术,但 AI 将使它变得更容易。

已经有虚假视频出现,其中包含了众所周知的政治家的捏造镜头。想象一下,在一次重要选举的早晨,一段显示一位候选人抢劫银行的视频走红。这是假的,但新闻媒体和竞选活动需要花费数小时才能证明这一点。有多少人会看到它并在最后一刻改变他们的选票?它可能会倾斜天平,特别是在选举结果非常接近的情况下。

当OpenAI的联合创始人Sam Altman之前在美国参议院委员会作证时,两党的参议员都关注 AI 对选举和民主的影响,盖茨希望这个问题能够持续引起所有人的关注。

当然,我们还没有解决虚假信息和Deepfake的问题,但是有两件事让盖茨保持谨慎乐观。首先,人们有能力学会不轻信一切。多年来,电子邮件用户会上当受骗,因为有人假扮成尼日利亚王子,承诺分享大笔回报以换取你的信用卡号码。但最终,大多数人学会了仔细审查这些电子邮件。随着诈骗活动变得更加复杂,很多受害者也变得更加警觉。我们需要为Deepfake建立同样的警觉性。

另一个让盖茨感到有希望的事情是, AI 可以帮助识别Deepfake,并创造Deepfake。例如,英特尔已经开发了一个Deepfake检测器,政府机构DARPA也正在研发能够识别视频或音频是否被篡改的技术。

这将是一个循环的过程:有人找到一种检测虚假的方法,其他人想出如何对抗它的办法,其他人开发对抗对策,依此类推。这不会取得完美的成功,但我们也不会无助。

02AI 对社会的风险变得更容易

当黑客想要找到软件中的漏洞时,他们通过暴力方法来实现,编写代码来寻找潜在的弱点,直到他们找到一种入侵方式。这需要花费时间和耐心,因为需要经过很多盲区。

想要对抗黑客的安全专家也必须做同样的事情。你手机或笔记本上安装的每一个软件补丁都代表着许多人花费的时间搜索。

AI 模型将通过帮助黑客编写更有效的代码来加速这一过程。他们还可以使用关于个人的公开信息,比如工作地点和朋友是谁,来开发比我们今天看到的更先进的钓鱼攻击。

好消息是, AI 也可以用于善良的目的,而不仅仅是坏的。政府和私营部门的安全团队需要拥有最新的工具,以在犯罪分子利用之前找到并修复安全漏洞。盖茨希望软件安全行业在这方面扩大他们已经在这方面做的工作,这应该是他们的首要关注。

这也是为什么我们不应该试图暂时阻止人们实施 AI 新发展的原因,正如一些人提出的那样。网络犯罪分子不会停止制造新工具。想要使用 AI 设计核武器和生物恐怖袭击的人也不会停下来。阻止他们的努力需要以相同的速度继续进行。

在全球范围内还存在一个相关的风险:对于可以用于设计和发动对其他国家进行网络攻击的 AI 的军备竞赛。每个政府都希望拥有最强大的技术,以便阻止来自对手的攻击。不让任何人领先的这种激励可能会引发制造越来越危险的网络武器的竞赛。每个人都会受损。

这是一个可怕的想法,但我们有历史可以指导我们。虽然世界上的核不扩散体制有其缺陷,但它阻止了盖茨这一代人在成长过程中非常害怕的全面核战争。政府应考虑建立类似国际原子能机构的全球 AI 机构。

03AI 将夺走人们的工作

在接下来的几年里, AI 对工作的主要影响将是帮助人们更高效地完成工作。无论他们是在工厂工作还是在办公室处理销售电话和应付账款。最终, AI 将足够好,可以表达观点,从而能够为你撰写电子邮件并管理您的收件箱。你可以用简单的英语或其他语言提出请求,生成一个丰富的工作介绍。

正如盖茨在2月份的文章中所说,当生产力提高时,对社会是有益的。它让人们有更多时间去做其他事情,无论是在工作还是在家。帮助他人的需求,如教学、照顾患者和支持老年人,将永远存在。但是确实有一些工人在我们过渡到以 AI 为核心的工作环境中需要支持和再培训。这是政府和企业的责任,他们需要善于管理,以避免工人被落下,避免类似于美国制造业就业下降时期发生的对人们生活的干扰。

此外,请记住,这并不是新技术首次引起劳动力市场的重大变动。盖茨不认为 AI 的影响会像工业革命那样戏剧性,但它肯定会像个人计算机的问世一样重大。

文字处理应用程序并没有淘汰办公室工作,但它们永远改变了办公室工作。雇主和员工不得不适应,他们也适应了。AI 带来的变革将是一个坎坷的过渡,但有足够的理由认为我们可以减少对人们生活和谋生的干扰。

04AI 继承我们的偏见并虚构事实

幻觉是指当 AI 自信地提出一些根本不正确的主张时。这通常发生是因为机器不理解你请求的背景。如果让 AI 写一个关于去月球度假的短篇小说,它可能会给出一个非常富有想象力的答案。但是如果让它帮助你计划去坦桑尼亚的旅行,它可能会试图将你发送到一个并不存在的酒店。

AI 存在幻觉和偏见的风险。要理解为什么会发生幻觉和偏见,了解当今最常见的 AI 模型如何工作是很重要的。它们本质上是非常复杂的版本,允许你的电子邮件应用程序预测你即将输入的下一个单词的代码:它们扫描大量的文本(在某些情况下几乎涵盖了在线所有可用的文本),并分析它以找到人类语言中的模式。

当你向 AI 提问时,它会查看你使用的词语,然后搜索通常与这些词语相关联的文本块。如果你写下“列出煎饼的配料”,它可能会注意到“面粉、糖、盐、泡打粉、牛奶和鸡蛋”这些词通常与该短语一起出现。然后,根据它对这些词语通常出现顺序的了解,它生成一个答案。(采用这种方式工作的 AI 模型使用了所谓的Transformer。GPT-4就是这样一个模型。)

这个过程解释了为什么 AI 可能会出现幻觉或看起来存在偏见。它没有你提问的问题或你告诉它的事情的上下文。如果你告诉它犯了一个错误,它可能会说:“抱歉,我打错了。”但这是一个幻觉——它没有打任何东西。它之所以这么说,只是因为它已经扫描了足够的文本,知道在某人纠正他们时,人们经常写下“抱歉,我打错了”这句话。

类似地, AI 模型继承了所训练文本中存在的任何偏见。如果一个模型大量阅读关于医生的文章,而这些文章主要提到男性医生,那么它的答案就会假设大多数医生都是男性。

尽管有些研究人员认为幻觉是一个固有的问题,盖茨并不认同,但他对 AI 模型能够随着时间的推移学会区分事实和虚构持乐观态度,例如OpenAI正在这方面进行有希望的研究。

其他组织,包括阿兰·图灵研究所和国家标准与技术研究所,也在解决偏见问题。一种方法是将人类价值观和更高级的推理融入到 AI 中。

这类似于自我意识的人类的工作方式:也许你会假设大多数医生都是男性,但你知道这种假设是错误的,并且在更深入的思考后,你会意识到女性医生同样是存在的。

盖茨不认为幻觉和偏见是不可解决的问,我们有能力改进我们的技术,以便更好地适应我们的需求,盖茨相信 AI 将逐渐变得更加准确和客观。

当然,我们需要保持警惕,并将 AI 的发展置于公众监督之下,以确保它被用于积极的和公正的方式。政府和行业监管机构需要承担起监督和审查的责任,以确保 AI 技术的使用符合伦理和法律标准。

在整个 AI 领域中,透明度、问责制和参与是关键。我们需要确保人们可以理解 AI 是如何做出决策的,他们可以向谁寻求答案和投诉,并且他们对这些系统的设计和规则有所发言权。

这些问题是复杂的,并且需要社会各界的合作来解决。没有一个人或组织可以解决所有问题,但通过共同努力,我们可以发展出一个可以使 AI 发挥其最大潜力,并减轻其风险的方法。

Reference:

https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。