尽管我们无法预料大模型会生成什么,也不知道算力和数据的极限在哪里,但生成式 AI 革命是不可阻挡的。
2023 年已经进入尾声,是时候回顾一下今年的重要科学进展了。
12 月 13 日,著名科学期刊《Nature》刚刚发布了 2023 年度十大人物(Nature’s 10),旨在评选出为科学领域做出重要贡献并引起人们对关键问题关注的个人。
Nature’s 10 链接:https://www.nature.com/immersive/d41586-023-03919-1/index.html
与以往不同的是,今年的 Nature’s 10 包含了大型语言模型(LLM)ChatGPT,这是有史以来第一次「计算机程序」入选。《Nature》表示这一做法旨在认可模仿人类语言的人工智能系统在科学发展和进步中所发挥的作用。
在过去的一年里,ChatGPT 在很多方面对科学产生了深远而广泛的影响。Nature 总结了 ChatGPT 这一年给科学领域做出的贡献。
首先,ChatGPT 与人类共同撰写了一些科学论文 —— 有时是暗中进行且不具名的。其中,ChatGPT 负责起草演示文稿、项目大纲,编写计算机代码,激发研究灵感。
ChatGPT 本身是按照其训练数据的风格合理地生成对话响应。但在这样做的过程中,它和其他生成式人工智能 (AI) 程序正在改变科学家的工作方式。
ChatGPT 是 OpenAI 在 2022 年 11 月 30 日发布的,今年 OpenAI 又升级了其底层 LLM,并将其与其他程序连接起来,以便接收和创建图像,并可以使用数学和编码软件来提供帮助。这些改进让 ChatGPT 逐渐成为科研人员的得力助手。
然而,生成式 AI 技术也有其危险的一面。例如,它们可以帮助作弊者和抄袭者,如果不加以控制,可能会不可逆转地污染科学知识的源泉。一些研究人员已经承认使用 ChatGPT 生成文章但未声明。并且,ChatGPT 也会编造一些参考资料,编造事实并生成一些含有偏见的内容。
大型语言模型的规模和复杂性意味着它们本质上是「黑匣子」,但当 AI 的代码和训练数据不公开时,理解它们的行为就变得非常困难了,就像我们面对 ChatGPT 时遇见的情况一样。开源 LLM 的运动正在不断发展,但到目前为止,这些模型的能力不如大型专有项目。
此外,ChatGPT 等生成式 AI 还重新引发了关于人工智能的局限性、人类智能的本质以及如何最好地调节两者之间相互作用的讨论。
总的来说,ChatGPT 入选 Nature’s 10「实至名归」。
目前我们还无法得知从类似 ChatGPT 的系统中还能激发出多大潜力。它们的能力可能仍受到算力或训练数据的限制。但显而易见的是,生成式 AI 的革命已经开始,而且这场浪潮已经不可阻挡。
尽管机器被首次推上了年度科学人物的位置,但《自然》杂志的 Nature’s 10 名单中还包括了它的创造者之一。
Ilya Sutskever 是 OpenAI 的首席科学家兼联合创始人,也是生成式人工智能最前沿的思想家之一。他将这家获得微软大力资助的公司视为开发通用人工智能(AGI)的机会。近几年来,他一直致力于创建一种方法来指导和控制比人类更聪明的人工智能系统。
Sutskever 是一直认同基于深度学习的 AI 潜力的学者,他很早就跟从自己的导师 Geoffrey Hinton 开始开发 AI 系统,并向世人展示了 AI 的潜力。因为 AI 高智能程度的风险,一个月前,OpenAI 经历了激烈的管理层斗争。作为 OpenAI 董事会成员,Ilya Sutskever 因对奥特曼失去信心而支持罢免首席执行官萨姆・奥特曼(Sam Altman)。但仅三天后,他在推特上表示对这个决定感到遗憾。
今年入选《自然》年度十大人物的还有:
参考内容:
https://www.nature.com/immersive/d41586-023-03919-1/index.html
https://www.nature.com/articles/d41586-023-03930-6
https://english.elpais.com/science-tech/2023-12-13/for-the-first-time-the-journal-nature-has-chosen-a-non-human-being-chatgpt-as-one-of-its-scientists-of-the-year.html
文章来自于微信公众号 “机器之心”