堆砌芯片和数据不能实现AGI AI威胁论是胡说八道 杨立昆最新采访

智东西 编译吴浪娜 漠影

智东西10月12日消息,据《华尔街日报》今天报道,图灵奖得主、Meta首席AI科学家杨立昆接受了该媒体的采访,他认为许多专家夸大了AI的力量和危险,他希望人们了解这一点。在采访中, 他称有关AI这项技术生存危机的警告“完全是胡说八道(that’s complete B.S.) ”。

杨立昆是引发当今的AI热潮的重要人物之一。但当其他杰出的技术专家告诉我们,我们即将拥有超越人类智能的计算机,甚至人类可能被其取代时,杨立昆却坚定地成为了AI热潮中最有资历的怀疑论者。

在社交媒体、演讲和辩论中,这位纽约大学教授兼Meta的人工智能大师与那些鼓吹生成式AI具有超人潜力的支持者和预言家们展开了争论,包括埃隆·马斯克(Elon Musk)和杨立昆的两位同行先驱。杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)与杨立昆一起拥有“AI教父”的非官方头衔,其中辛顿是杨立昆近40年的朋友,在本周获得了诺贝尔物理学奖,他曾多次就AI的生存威胁发出警告。

杨立昆认为,当 今的AI模型虽然有用,但远不能与我们的宠物的智力相媲美,更不用说与我们人类相比了 。当《华尔街日报》记者问他,我们是否应该担心AI很快会变得非常强大以至于对我们构成危险时,他打趣道:“请原谅我说脏话,但那完全是胡说八道。”

他的工作成果以及他是在一家大型科技公司中成就显著的AI研究实验室之一的领导人,这让杨立昆的观点更有分量。

杨立昆告诉记者,他对AI产生兴趣的部分原因是斯坦利·库布里克(Stanley Kubrick)1968年的科幻经典电影《2001:太空漫游》中的流氓人工智能HAL 9000。他在巴黎北部长大,在从索邦大学获得博士学位后,他在传奇的贝尔实验室工作,从晶体管到激光等许多发明都诞生于此。2003年,他加入纽约大学担任计算机科学教授,十年后,他成为当时的Facebook的AI研究主管。

2019年,杨立昆、辛顿和本吉奥一起获得了图灵奖,这是计算机科学的最高奖项。这个奖项使这三人被称为“AI教父”,以表彰他们在神经网络方面的基础性工作,神经网络是许多当今最强大的AI系统的基础,从OpenAI的聊天机器人到自动驾驶汽车。

▲2019年,杨立昆(中间)与本吉奥(最左边)和辛顿(最右边)共同获得了计算机科学领域的最高奖项图灵奖(图源:《华尔街日报》)

如今,杨立昆继续在纽约大学与他的博士生一起发表论文,同时他作为Meta的首席AI科学家,领导着世界上资金雄厚的AI研究组织之一。他经常与Meta CEO马克·扎克伯格(Mark Zuckerberg)见面并通过WhatsApp聊天,扎克伯格正将Meta定位为AI热潮中对抗苹果和OpenAI等其他科技巨头的力量。

在现实生活中,杨立昆有一种让人消除戒心的魅力:调皮、机智,随时准备说出他认为是自己领域的残酷真相。64岁的他看起来既时尚又有点邋遢,这很适合一位曾经的巴黎人,他的眼镜是经典的黑色雷朋镜框。

坐在Meta位于纽约市的一个卫星办公室的会议室里,他散发着温暖和亲切的自信,带着那种让你觉得自己也参与了这个笑话的笑容发表他的尖锐观点。

一、杨立昆否认AI威胁论,称现有AI不如一只宠物猫

杨立昆与竞争对手和朋友都进行过争论。今年春天,他在海外社交平台X上与马斯克就科学研究的本质发生了激烈争辩。

杨立昆还在公开场合与辛顿和本吉奥就他们反复发出的AI对人类构成危险的警告表示不同意。

本吉奥说,他在很多问题上与杨立昆意见一致,但在公司是否可以被信任以确保未来的超人类人工智能(superhuman AIs)不会被人类恶意使用,或者超人类人工智能不会产生自己的恶意意图这一问题上存在分歧。

“我希望他是对的,但我认为我们不应该仅仅依靠公司之间的竞争和利润动机来保护公众和民主,”本吉奥说,“这就是为什么我认为我们需要政府的参与。”

杨立昆认为AI是一个强大的工具。在整个采访中,他列举了许多AI在Meta变得极其重要的例子,并使Meta的规模和收入达到了目前约1.5万亿美元的价值。AI是Meta工作中不可或缺的一部分,从实时翻译到内容审核,除了其基础AI研究团队(称为FAIR)之外,Meta还有一个以产品为重点的AI小组GenAI,正在追求其大型语言模型的更好版本。

“这对Meta的影响确实非常巨大。”他说。

同时,他确信当今的AI在任何有意义上都不是智能的——而且该领域的许多其他人,尤其是在AI初创公司中,准备以他认为荒谬的方式推断其最近的发展。

如果杨立昆的观点是正确的,这对当今一些最热门的初创公司来说意味着麻烦,更不用说那些向AI投入数百亿美元的科技巨头了。他们中的许多人都寄希望于这样一种想法,即当今基于大语言模型的AI,如OpenAI的那些,正处于在短期内创造所谓的“通用人工智能”(AGI)的道路上,这种AI将远远超过人类水平的智能。

OpenAI的萨姆·阿尔特曼(Sam Altman)上个月在一篇博客中提到,我们可能在“几千天内”拥有AGI。马斯克则认为可能在2026年实现。

杨立昆认为这样的说法可能为时过早。今年5月,一位即将离职的OpenAI研究人员谈到需要学习如何控制超智能人工智能时,杨立昆进行了反驳。“在我看来,在‘紧急弄清楚如何控制比我们聪明得多的AI系统’之前,我们需要先设计一个比家猫更聪明的系统。”他在X上回复道。

他喜欢猫的比喻。他说,毕竟猫科动物拥有物理世界的心理模型、持久的记忆、一些推理能力和计划能力。 而这些品质在当今的“前沿”AI中都不存在,包括Meta自己制造的AI。

自1986年就认识杨立昆的莱昂·博图(Léon Bottou)说,杨立昆是一种“善意的固执”,也就是说,他愿意倾听别人的观点,但会一心一意地追求他认为构建AI的正确方法。

亚历山大·里夫斯(Alexander Rives)曾是杨立昆的博士生,后来创立了一家AI初创公司,他说杨立昆的挑衅是经过深思熟虑的。“他有这样的历史,即真的能够看到该领域在思考问题方式上的差距,并指出这一点,”里夫斯说。

二、杨立昆认为只是堆砌芯片和数据的规模并不能实现AGI

杨立昆认为真正的AGI是一个有价值的目标——Meta也在努力实现这个目标。

“在未来,当人们与他们的AI系统、智能眼镜或其他任何东西交谈时,我们需要这些AI系统基本上具有人类水平的特征,真正具有常识,并真正像人类助手一样表现。”他在采访中说。

但他接着补充道, 创造一个如此有能力的AI可能需要几十年的时间——而当今的主导方法无法让我们实现这一目标

生成式AI热潮是由大语言模型和类似的系统推动的,这些系统在海量数据上进行训练以模仿人类表达。随着每一代模型变得更加强大,一些专家得出结论,只要将更多的芯片和数据投入到开发未来的AI中,就能使它们变得更有能力,最终与人类智能相匹配或超越人类智能。这就是在构建越来越多的专用芯片池以训练AI方面进行大量投资的背后逻辑。

杨立昆认为当今AI系统的问题在于它们的设计方式,而不是它们的规模。他说,无论科技巨头在全球的数据中心中塞进多少GPU,当今的AI都不会让我们实现AGI。

他的赌注是,对于以不同方式工作的AI的研究将为我们开启一条通往人类水平智能的道路。这些假设的未来AI可能有多种形式,但目前让杨立昆兴奋的项目之一是在FAIR进行的从现实世界的视频中提取信息的工作。这个想法是创建以类似于幼年动物的方式学习的模型,通过从其所接收的视觉信息中构建一个世界模型。

用于ChatGPT和其他聊天机器人的大语言模型将来可能在使用一系列其他技术和算法构建的具有常识和类人类能力的系统中只发挥很小的作用。

他说,当今的模型实际上只是在预测文本中的下一个单词。但它们在这方面非常擅长,以至于欺骗了我们。而且由于它们巨大的存储容量,它们似乎在进行推理,但实际上它们只是在重复已经训练过的信息。

“我们习惯于这样的想法,即能够表达自己或操纵语言的人或实体是聪明的——但这不是真的,”杨立昆说,“你可以操纵语言但并不聪明,而这基本上就是大语言模型所展示的。”

结语:三位“AI教父”的对于 AI威胁论持不同意见

曾经一同获得2018年度图灵奖的三位“AI教父”,如今对于AI的认识与思考逐渐产生了分歧。

杨立昆否认AI威胁论,认为此类言论是“胡说八道”,现有的AI没有人类想象中强大,实现AGI也为时尚早,想要创造出超越人类的智能则有更长的路要走。

而另外两位科学家,辛顿和本吉奥,则不断敲响警钟,呼吁大众、企业和政府对AI背后的道德和伦理进行深刻反思。

辛顿曾提出AI威胁论,他在诺贝尔奖颁奖典礼电话采访中谈道,很担心AI会失去控制并取代人类,OpenAI应该把安全研究放在首位。他还曾说过,AI可能创造出超越人类的智能,这可能会导致人类处于劣势。

本吉奥在今天发布的最新采访视频中说道:“我们不清楚如何避免这些系统变得自主,并有自己的保护目标,我们可能会失去对这些系统的控制。所以我们可能正在走上一条创造比我们更强大的怪物的道路。”

黎巴嫩通信设备爆炸后续 转向中国大陆的中东电子订单变化不大
只是一次悄悄试水 字节的第一款 AI 硬件