风辞远的科技茶屋:来自未来的信号枪

2023-07-31
科技资讯有时候就像这种信号枪,我们不仅要能看到,还需要甄别和分析。

编者按:本文来自微信公众号 脑极体(ID:unity007),作者:风辞远,创业邦经授权转载。

很久之前,有位朋友问我,现在科技资讯这么发达了,你们还写啊写做什么呢?

我是这么看的。最终能够凝结为资讯的那个新闻点,其实是一系列事情最终得出的结果,而这个结果又会带来更多新的结果。其中这些“得出”与“带来”的过程,都是藏在资讯之后的,是隐身的、暧昧的。

如果我们仅仅希望知道个大概,对科技内容的预期仅仅是三五知己闲谈时当个佐料,那么发达的资讯当然足够。但如果你希望以科技为学业、为事业,使之成为自己能够理解和掌握的能力,那么就需要对科技资讯有一个识别、思辨、预判的过程,这些就是脑极体希望提供给大家的。

人类是具有高效想象力的动物,喜欢基于看到的信号来想象全貌。但信号枪下面到底发生了什么,将要发生什么,经常会有点复杂,并且跟我们想象的不太一样。就像诸侯看到狼烟,以为已经形势危急,其实不过是褒姒得到个小礼物。

科技资讯有时候就像是这种信号枪,我们不仅要能看到,还需要甄别和分析。

今天就来选几个新闻,跟大家聊聊信号枪之下,关于未来的不确定性。

要灭绝人类的AI,该封杀吗?

第一条已经不算是新闻了,但在当时还挺炸裂的。

5月末,超过350名AI领域的行业高管、专家和教授签署了一封公开信,警告AI可能给人类带来灭绝风险。其实著名者包括“ChatGPT之父”Open AI首席执行官山姆·奥特曼、DeepMind创始人、首席执行官戴密斯·哈萨比斯等大佬。

于是就有朋友说了,这些做AI的都说AI要毁灭人类了,咱们还弄他干啥,赶快封杀啊,晚一点《终结者》和《黑客帝国》就要上演了。

但这事换一个角度看,这么多位业界高管提醒要警惕AI失控,但其中有哪位从我做起,放弃AI事业了吗?显然并没有。

这种警告在整个AI发展,乃至科技发展历史上其实屡见不鲜。一方面业内人士对可能存在的失控提请社会关注,是一种分内之事。另一方面这也是欧美当前社会氛围下,符合某某正确的必然表态。

我们惧怕AI,很大一部分原因都来自科幻文学与电影,但事实上任何产业失序发展都可能带来毁灭性的影响。化工,能源,工业,甚至娱乐业都是如此。规范发展当然重要,但规范不意味着封禁,更不意味恐慌。

火是如此的危险,但学会用火是我们人类告别猿猴形态的标志。

所以,别怕AI。

免费的大模型来了,就问你们怕不怕?

最近几天还有一个热议话题,就是Llama 2开源。这件事在AI行业内激起的讨论,似乎比行业外还要大。

其中争议的逻辑很好理解,就是免费、开源的大模型都出现了,你们花那么多钱做的闭源大模型岂不是要打水漂了?可以观察到,一些趁着大模型风口,刚刚进入AI行业或者投资AI项目的朋友对此非常焦虑。

这其实也是个很难成立的说法。从软件发展史上看,开源仅仅是一种竞争策略,有的领域合适,有的不合适。不是所有软件最后都会走向开源,并且开源大模型有大量存在的问题,比如无法适配大量企业用户的安全、隐私、自主可控需求。同时,开源会导致算法供应商的利润空间下降,服务能力打折,从而无法满足用户需求。仅仅从深度学习算法兴起的这十年来看,主流算法模型也大多是闭源的,

加上开源模型能力普遍不强,因此开源大模型在很长一段时间,都很难给产业秩序带来冲击。具体内容,我们在《大模型,开源干不掉闭源》这篇文章中有详细阐释。

其实对于刚刚加入这个领域的朋友来说,需要焦虑的不是开源冲击,而是大模型就像很多基础软件一样,最后必然是去多留少。如何在这个过程里确保自身价值不受损害,才是值得关注的问题。

马斯克出手了,欧美互联网大洗牌?

这两天另一个热议的话题,是马斯克宣布了自己的超级X计划。随着推特改名的步伐加快,各界普遍认为马斯克要将“新推特”变成“微博+微信”模式的超级终端。

出于对马斯克搞事能力的信服,很多朋友认为接下来欧美互联网即将大洗牌,甚至有可能给中国互联网带来某种程度的影响。

对此我个人是比较谨慎的。如果我们排除马斯克的个人光环,仅仅来看他参与的项目,会发现除了特斯拉之外,大多数项目都进展不快,商业成果不佳。当然,这也与这些项目普遍过于超前有关系。而推特的迭代,不仅需要面对来自Meta的近身肉搏,(这里插一句,也不知道两位CEO的近身肉搏什么时候上演)。更需要面对谷歌、苹果的压力。

在欧美互联网的超级系统层面,最具有垄断力的其实不是某个终端,而是多终端卡死底层位置的谷歌。其无所不在的程度连苹果都难以望其项背。

有理由相信,在马斯克本人巨大的流量和号召力,新推特会得到剧烈的短期增长。但长期竞争却很可能是“超级X”不太擅长的。

当然,新推特必然会纳入更多xAI带来的智能化能力,这个点是非常具有想象力,也是很可能成为中国科技界下一轮抄作业目标的。

GPT-4变笨了,AI还行吗?

最近AI还有一个不算利好的消息,就说GPT-4变笨了。

7月20日, 斯坦福大学和加州大学伯克利分校的研究团队提出,对比3月和6月的GPT-4版本,发现其在数学问题、代码生成、视觉推理任务上都有下降。

很快,openAI就在博客上回复了这个观点,表示虽然大多数指标都有所改善,但GPT-4在某些任务上可能表现会更差。

于是又有很多声音出现,一部分觉得扛旗的GPT-4都不行了,AI是不是没劲了?另一部分声音倾向阴谋论,认为这是openAI故意的。

我们当然不知道这个现象背后的真实问题在哪,但可以讨论一个相对积极的方向。就是GPT本身是基于反馈再优化的模型机制,因此当回馈量下降,尤其是高质量回馈缺乏之后,其本身是可能能力变差的。

而走向这个方向的原因,或许是因为openAI越来越复杂、严苛的使用策略,以及越来越多的优质大模型正式开放,分流了聚焦在GPT上的流量。

有教师朋友跟我说,第一名分数领先太大,其实对整个班级的学习并不好。一个AI变笨了,说不定意味着全班AI普遍变聪明了?

妙鸭相机火了,该All in证件照吗?

回到国内,值得欣喜的事情是终于有AI应用火起来了。妙鸭相机在短时间内聚集了极大关注,当然也引发了一系列讨论。

这些讨论中,我们感觉最没必要的一种,是认为AI的价值体现在证件照上非常明显,所以咱们现在感觉投入,去革海马体的命吧。

这属于标准的只见树木,不见森林,稍微动脑想象就会发现,大模型能够带来的应用变革数不胜数,生成写真证件照仅仅是其中微小的一个。

与其看到了证件照,就赶紧all in,不如去想象大模型的底层逻辑、应用成本、商业模式,然后去发现发现还有哪些类似的需求可以填补。

大模型原生应用,是这一轮AI风口能带来的最大想象力,可别轻信忽悠,把大好机会黏在了一张证件照上。

总之,各种信息背后,充斥着诸多来自未来的不确定性。我们需要长久地审视,千万别把一时当金科,把热闹当玉律。

见其所见,知其略知,达所未达,是我们混迹智能时代的最佳状态。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。