ChatGPT引起的学术界震动:一年后的反思与进展

2024-01-11
报告显示,超过一半的大学生使用了生成式AI,而教职员工也在慢慢增加他们对这些工具的熟悉程度。

一年前,OpenAI推出了ChatGPT——一款具有回答任何问题潜力的生成式人工智能聊天机器人,随之而来的是学术界的一阵恐慌。在随后的一年里,ChatGPT被比作计算器、维基百科和手机,这不仅体现了最初的惊慌,也揭示了它与高等教育之间最终形成的一种相辅相成,尽管不情愿的关系。自那以后,ChatGPT和其他AI工具的采用率激增。报告显示,超过一半的大学生使用了生成式AI,而教职员工也在慢慢增加他们对这些工具的熟悉程度。

两个月后,《高等教育内部》就如何驾驭这一新兴领域咨询了11位学者,分享了他们的建议,倡导行动、耐心、乐观与谨慎的平衡。现在,作者重新访问了其中的大多数人,以了解他们的建议是否依然适用,情况有何变化,以及教职员工在2024年可以做些什么。

以下是部分编辑后的回答:

北卡罗来纳州立大学英语副教授保罗·费伊夫(Paul Fyfe):一年前,我谈论了许多广泛的灰色地带,我认为在很多方面我们仍然处于这种状态。一年来,有些事情变得更加清晰——ChatGPT将生成式AI提升到了公众和学术意识中——但总的来说,我们仍在见证规范、规则和法规的发展,并且仍然需要一个连贯的机构方法来培养AI素养。我的[更新]建议是[要]尽可能地去理解它,并将其视为特定事物的工具,而不是某种计算大师或人类替代品。看到至少在生成式AI方面有一些发展是令人振奋的……AI周围的话语已经有益地从这种无根的“它是有意识的吗?”转变为“好吧,它是一个有问题和可能性的工具。如何使用它?”我感觉到它的一些用途正在变得正常化,包括用于头脑风暴、研究助理或学生作业和作品的反馈。同样有趣的是,许多学生不会假设AI一定是正确的。许多学生通过自己的实验和相互分享来发现正常的AI实践是什么样的。

国立大学创新高级副总裁史蒂夫·约翰逊(Steve Johnson):我坚持我在2023年所说的:从我观察到的情况来看,去年尝试大事的人学到了大东西。一年后,我的建议是我们仍然需要考虑未来五到十年,并真正想象那会是什么样子。这是阿玛拉法则:我们高估了技术在短期内的效果,低估了长期效果,因为你读到了“这是一个炒作周期”之类的事情。但如果你不在思考,“五到十年后写作会是什么样子,当

我以不同的方式进行创作时”,或者因为你在与一个AI伙伴一起写作时做出不同的写作选择……如果我们不考虑这些事情,很多人都会措手不及,尤其是年轻学生。他们将无法应对他们正在学习的内容以及他们如何学习。

西华盛顿大学历史学教授约翰·尼姆(Johann Neem):[在2023年]我的建议重点是“ChatGPT能写学生的论文吗?”当我思考这个问题时,我仍然坚持我所说的,即“我们不想让计算机为我们思考”,但我现在想强调的是,我们在人文学科培养的阅读技能是至关重要的……在一个充斥着机器生成的文本和图像的社会中。作为读者和参与人文学科的人,我们需要具备深入了解某件事并理解何时是真实事实,何时是虚构或看似不对的技能。最初的反应是“天哪,他们要夺走我们的工作”,但这些传统的阅读和研讨会技能比以往任何时候都更为重要,所以我们需要将注意力重新集中在这一点上,无论是在我们教授的内容上,还是在学生学到的内容上。

密西西比大学学术创新执行董事罗伯特·卡明斯(Robert Cummings):我看到越来越多的学生和教职员工对生成式AI输出有现实的期望,并看到AI在哪里失误和产生幻觉。现在,学生和教职员工对它的使用都更加审慎——在学生方面是它的使用,在教职员工方面是它可能造成的潜在损害。我最近的一篇出版物说,要与它互动,给学生机会去实验它,评估它——但然后给他们机会去反思它。这是关键部分,因为这样他们就可以评估这个工具对他们是否有用。这就是他们将在职场中被要求做的——他们将不得不弄清楚哪些工具是好的、有用的,哪些不是有效的使用方式。

加拿大学英语教师安娜·米尔斯(Anna Mills):我绝对支持我在2023年的建议,尽管我会以稍微不同的方式表达。我当时有点警告人们不要迷恋AI炒作,看待自己作为批评家,但我已经更多地转向教授“如何与系统互动并改进它”的立场。这是学生在职场必须处于的位置。而且,这也是你学习有观点并思考我们可能想要限制它们使用方式的地方。我们不必成为大专家,也不必让AI接管课堂,就可以引入AI素养;我一直在提供可以整合的五分钟微课,展示一些揭示AI偏见的图片。具体的、简单的例子可以留在人们的记忆中,也不难教授。我们不必彻底改变整个课程。

伊利诺伊大学香槟分校信息科学和英语教授泰德·安德伍德(Ted Underwood):去年我们交谈时,我还没有对大型语言模型进行过太多研究。现在我比以往更清楚地认识到,尽管这些模型有其限制,但它们将成为总结、注释甚至可能对大量文档和图像进行概括的有价值工具。我认为,许多领域的博士生应该学习生成模型是如何工作的,它们的限制是什么,以及如何自动化查询过程。我想引起学者们对语音交互的注意。语音转录和生成语音的质量令人印象深刻,当这项技术向广大受众推出时(比如,苹果将其作为iOS的一部分),我认为它将对公众对AI的看法产生比我们迄今为止所见更大的影响。学者们可能主要关心模型推理过程的连贯性,但有许多用户更关心语调和表达力。新模型听起来很聪明,即使它们不是,而且(无论好坏)这可能会产生影响。

密西西比大学写作教师AI夏令营主任马克·沃特金斯(Marc Watkins):反应时期已经结束。是时候让机构超越ChatGPT,采取主动措施来审视生成式AI了。我们不能期望部署新AI工具的加速减缓,也不能寄希望于不可靠的AI检测技术形式上的技术解决方案来抑制其影响。我们需要专注于为所有利益相关者开发可持续的AI素养。

密西西比大学文学院助理院长斯蒂芬·门罗(Stephen Monroe):现在,教务长和院长应该立即拨款,支持当地的教师发展工作。未来两三年将至关重要。每个校园上的每位教师都需要迅速了解。我还要说,这项工作的一部分必须亲自完成。在线资源和Zoom会议可能有所帮助,但这个挑战有一个情感方面。教师将需要来自值得信赖的同事的本地、面对面的指导。他们还需要社区和充足的时间来思考、实验、深入思考对学生课程的影响。这种教师发展在某些地方正在发生,但我们需要比通常更快地扩大规模。我们教育界的人并没有要求这种颠覆,但我们必须应对它,我们有能力这样做。我们的学生将需要我们的指导,以在他们的学科和专业中学习如何合乎道德且有效地使用生成式AI。我对这一时刻保持乐观,但也是谨慎的。

加拿大布罗克大学教育研究系助理教授迈克尔·明扎克(Michael Mindzak):我认为在未来一年中,我们仍然需要关注ChatGPT——它突如其来,给人一种“一切都将改变”的革命感。但对于这类事物,它更多的是一个过程。需要时间来看到它的影响,我们如何应对,什么改变了,什么没有改变。一个很好的例子是课堂上的手机:20年前,手机进入了课堂,我们仍然没有答案“它们应该被禁止还是应该有一个地位?”20年后的今天,我们对AI也是如此。我们必须随着时间的推移观察它,并看到每年的变化。

芝加哥大学即将上任的计算机科学教授米娜·李(Mina Lee):我认为,每位教师、学生和管理者都感受到责任,并能够参与到决策、负责使用和使用报告的过程中仍然很重要。然而,随着AI的快速发展(例如,每月都会发布几个新的大型语言模型,一些封闭模型在幕后持续更新),个人跟踪最新进展和变化以做出明智的判断变得极其困难。与其将责任委托出去,不如让教师、学生和行政部门(包括机构和政府)共同承担。例如,尽管班级的教师可能比学生更能评估AI工具的总体质量,但可能是班级中的学生会彻底使用该工具并发现工具内部的固有问题(例如,教师未能察觉的文化偏见)。在这种情况下,能够跨利益相关者传达发现和问题,并保持相互问责比以往任何时候都更为重要。

尽管最初有所抵触,但学术界正在逐步接受并整合这些技术,包括ChatGPT和其他AI工具急剧增长的使用。各位专家的观点体现了对未来技术发展的深思熟虑,同时强调了教育者和学生在适应和利用这些工具方面所承担的责任。这些观点为理解AI在教育领域的角色提供了多维度的视角。