一路狂飙的GPT-4,真能让程序员下岗?

2023-03-20

如果说《2001太空漫游》中,猿猴抛向天空的那根骨头,成了终极进化的标志;那么2023年GPT-4的“横空出世”或成为AI意识觉醒的开始……

“干掉90%人类”的GPT4是何方神圣?

1968年上映的科幻殿堂级神作《2001太空漫游》中,猿猴向天空抛出骨头瞬间,宇宙飞船凌空出现那一幕蒙太奇,被誉为永恒的影史经典,更被广泛解读为是猿猴完成意识觉醒进化到人类的终极视觉呈现。

不过那时的观众怎么也不会想到,“制造和使用工具”这近乎公理般的人类独有的特质在最近也迎来了新的挑战,有研究发现猴子也有制造工具的意识,假如这一研究成果在全球范围内得到更广泛的验证的话,虽然周期很长,但想必结果一定会让人类惊掉大牙。

我知道你们很惊讶,但先别惊讶,猴年马月才有结果的事先放一边,摆在眼前的是直接“威胁”到打工人饭碗的AI,它又双叒进化啦:

3月15日凌晨,OpenAI推出的大型多模态模型GPT-4一经发布,就以摧枯拉朽之势席卷全球,让一票专家学者惊叹于它的进化魔力——它已经具备了在各种专业和学术基准测试中达到与优秀人类同等的能力水平!

10秒钟将一张手绘图生成最终设计的网页代码;

能处理超过25000个单词的文本;

700分将SAT考试拿下;

律师模拟考试成绩排进前10%;

GRE考试接近满分;

它甚至能指出一张图片的违和之外,并能理解漫画的含义,还能“变态”地扮演指定风格的导师,通过问题的拆分,引导学生独立思考和解决的能力。

比如GPT-4扮成苏格拉底风格的导师,不直接给出某个线性方程组的答案,而是将这个问题拆分成更简单的部分,让学生思考中掌据解题的方法论。

通过它,甚至不到20分钟就写出了贪吃蛇这种经典小游戏。

通过它,它只要起个开头,并输入一些资料,就能生成一条高质量的长微博。

3月17日最新消息,当地时间3月16日,微软正式官宣将把ChatGPT技术植入office,并且研究人员还改进了大语言模型(LLM)的能力,使其能更好地理解和回应用户输入的文本,你们大可以畅想一下,这将会为数以亿计的word、PowerPoint、Excel用户带来怎样的工作效率与使用体验的史诗级升级?

……

信息检索能力、逻辑推理能力、文本/视频等多媒体的处理能力都在不断强化的GPT-4一度让人产生它越来越像一个聪明的人类的“幻觉”,有理由相信,一边是大数据的专业训练和算法不断的迭代升级,一边是芯片制程越来越先进,当软硬件都协同跃进之时,ChatGPT或将有无限深挖的潜能,当下的惊叹表现,只不过是开胃前菜罢了。

GPT-4的“凶猛”已经引发了全球所有科技巨头的关注,除了抢先下手的微软之外,谷歌和苹果皆已摩拳擦掌,不过谷歌的类ChatGPT机器人bard似乎进展不太顺利,一个在AI领域享有十年先发优势的巨头,生生被微软押注的OpenAI给比了下去,但谷歌显然不会坐以待毙,不妨看好戏。

据《纽约时报》报道,苹果正在测试生成式人工智能技术generative AI,也即库克已经动起来了,命令工程程加开发类ChatGPT的人工智能项目。

除了微软谷歌苹果等国际化科技巨头,国内这边的科技互联网巨头,几乎也都有布局相关的技术,比如阿里、腾讯、百度、科大讯飞、华为……等,尤其是首个正式发布出类ChatGPT的百度,他们的“文心一言”也成了首个中文ChatGPT,李彦宏甚至还在昨日的发布会上,秀了一段让“文心一言”续写《三体》的花活。

这场AI的革命风暴席卷下,未来,已来!

警惕AI“意识觉醒”!

《2001太空漫游》、《终结者》等无数经典科幻电影,都呈现了AI自我意识觉醒后的可怕场景,比如“哈尔”引发的太空旅行的灾难,生生让一名宇航员送了命,又如“skynet”有了自我意识后,发射了一大堆核弹,欲毁灭人类。

尽管电影只是电影,不代表现实,但是AI发展到GPT阶段之后,也确实诞生了一系列新的问题,尤其是GPT-4之后、GPT-5、6、7……N进化得比人类还要聪明、狡猾之时,人类该如何提防它所带来的威胁呢?

GPT-4因为强悍的威力,引发了业内不少大咖的思维碰撞火花,甚至有人认为它某种程度上已经具备了“自我意识”。

魅族前副总裁李楠就表示,他最近通过与业内专业的人士交流了大模型之后,非常惊讶地发现阿里和推特AI团队leader都明确表示“ChatGPT(GPT-4)的某些能力,是无法用我们已经理解的Paper解释的”。李楠甚至给到了ChatGPT“书读百遍,其义自见”的高度评价。

GPT-4在很多测试场景表现得都很自信,跟聪明的人类一样,但一如OpenAI创始人所言“它不完美,像你一样”,言下之意,人的优点它具备,人的缺点它也难免。

比如由于GPT-4训练数据库于2021年9月截至更新,也就是说,在这之后发生的事件,它们因为缺乏时效性数据的“投喂”,会导致一些问题的发生。

ChatGPT和GPT-4皆认为Oren是艾伦人工智能研究所的CEO,但事实是,Oren已经于2022年宣布卸任CEO一职。

有时候,GPT-4也会在一些简单的推理问题上翻车,以及轻信用户明显的虚假陈述等。

比如,遇到一些难题,它和人类一样无法得解,又如,它甚至会在生成的代码中引入安全漏洞!

假如人类非常放心地把高安全级别的代码工作交给它,那或将引发不可预料的灾难事件!

在医疗领域,GPT-4表现可圈可点,但是如果缺乏专业人士对其内容进行判断并执行相应的医疗程序,可能会成为悬在医院头顶的一柄达摩克利斯之剑!

北卡罗来纳大学教堂山分校的医学副教授兼心脏病学专家Anil Gehi向GPT-4描述了一名患者的病史以及其入院后经历的并发症,并在对话中使用了较为专业的医学术语,并询问如何治疗病人时,结果GPT-4给出完美的答案,但是GPT-4并不能百分百中,有时候会回答不上来,因此还是需要专业人士来把关才保险。

通过梳理,不难发现,尽管GPT-4已经十分强大,但是现阶段,完全取代职场文员、程序员等工种,它还远远做不到,或者说,GPT自诞生之初就不该是奔着让人类下岗的目标进化的,它应该和人类互相成就,这才是它的长效价值。

我们无法预料接下来的5年、10年,GPT-4大模型会进化到何种程度,但是我们只要确保,启动与控制它们的“按钮”牢牢掌握在我们人类手中,那么,就不必担心将来有一天,会遭到AI的反噬!




参考资料:

信源综合澎湃新闻、IT之家、智东西,微博等,部分图源网