首页 > 国际新闻 > 正文

获诺贝尔物理学奖的AI教父辛顿:曾在谷歌工作十年,提醒AI或威胁人类生存

“AI(人工智能)教父”、神经网络领域大牛获诺贝尔物理学奖。

美国普林斯顿大学的约翰·霍普菲尔德(JohnJ。Hopfield)和加拿大多伦多大学的杰弗里·辛顿(GeoffreyE。Hinton)

美国普林斯顿大学的约翰·霍普菲尔德(JohnJ。Hopfield)和加拿大多伦多大学的杰弗里·辛顿(GeoffreyE。Hinton)

当地时间10月8日,瑞典皇家科学院宣布,将2024年诺贝尔物理学奖授予美国普林斯顿大学的约翰·霍普菲尔德(JohnJ。Hopfield)和加拿大多伦多大学的杰弗里·辛顿(GeoffreyE。Hinton),以表彰他们“为推动利用人工神经网络进行机器学习作出的基础性发现和发明”。获奖者将共享1100万瑞典克朗(约合745万元人民币)奖金。

诺贝尔奖评奖委员会表示:“今年物理学奖得主取得的突破建立在物理科学的基础上。他们为我们展示了一种全新的方式,让我们能够利用计算机来帮助和指导我们,应对社会面临的许多挑战。”

从20世纪80年代开始,两位获奖者就在人工神经网络方面开展了重要工作。其中,霍普菲尔德是一名物理学家,提出了日后被称为“霍普菲尔德网络”的一种新的神经网络模型,振奋了该领域的研究。

另一边,辛顿的名声或许更加响亮一些。他是卷积神经网络理论的领军人物,也被视为由ChatGPT掀起的本轮AI技术跃进背后的奠基性科学家,被誉为“AI教父”。

辛顿出生于1947年,经历了复杂的求学经历,随后开始潜心研究神经网络。他与其他两位作者一同在1986年发表了一篇题为《通过反向传播误差来学习》(Learningrepresentationsbyback-propagatingerrors)的论文。在这篇奠定了深度学习理论核心的论文中,三位科学家将反向传播算法应用于多层神经网络,并且证明了这种方法对机器学习行之有效。

随后,辛顿在卡内基梅隆大学任教五年,后来成为加拿大高等研究院的研究员,并进入多伦多大学计算机科学系任教。辛顿在2013年加入谷歌。因其在深度学习方面的贡献,他与约书亚·本希奥和杨立昆被一同称为“深度学习三巨头”,三人在2018年被授予了图灵奖。

2023年5月,辛顿从谷歌离职。自那以后,他持续公开呼吁谨慎对待AI技术,成为旨在引导AI系统、使其行为符合设计者利益和预期目标的“AI对齐派”的代表。目前,辛顿是英国皇家学会会士,也是美国国家工程学院和美国艺术与科学学院的外籍会员。

在数十年的研究生涯中,辛顿可以称得上是“桃李满天下”。例如,在去年年末那场受到全球瞩目的OpenAI“政变风云”中,被猜测发现“超级智能”突破、试图解雇公司CEO的OpenAI前首席科学家伊尔亚·苏茨克韦(IlyaSutskever)正是辛顿最得意的弟子之一。

今年5月,苏茨克韦从OpenAI离职,并在一个月后宣布成立新公司SSI(SafeSuperintelligenceInc,安全超级智能),表示新公司将致力于追求安全超级智能。

而在辛顿这边,自从离开谷歌后,他也在一向旗帜鲜明地宣扬“AI威胁论”。在去年离职后不久,辛顿便在X(原推特)平台上发文表示,他离开谷歌就是为了可以“公开地谈论AI的危险”。

随后,辛顿在一场采访中直言,他开始对自己一生从事的工作感到有些后悔:“我用平常的借口来安慰自己:就算我没做,别人也会做的。。。。。。很难想象,你能如何阻止坏人利用它(AI)来做坏事。”

今年3月,辛顿在接受外媒采访时又一次详细阐述了自己的观点。他表示,自己在2023年4月与作为上司的谷歌首席科学家杰夫·迪恩(JeffDean)展开过讨论,称AI有可能带来事关人类生存的危机;迪恩希望能挽留他留在谷歌研究AI的安全对策,但为了不受公司利益限制,辛顿还是选择了离开。

辛顿认为,AI的危险之处在于,其真的有可能采用对人类有害的手段来实现被设定的目标,并且AI之间还可能会在未来出现竞争关系:“面对通过竞争变得更聪明的AI,我们人类将会落后。很多人主张,要防止AI失控,只要关掉电源开关即可。但超越人类智慧的AI可以用语言操纵我们,或许会试图说服我们不要关掉开关。”

在采访中,辛顿还表达了对学生苏茨克韦的支持,称从OpenAI的“政变”大戏中可以看出,比起安全性,组织往往会更重视AI创造的利益。

责任编辑:刘德宾

相关阅读:
美媒:美官员透露,近几周拜登政府愈加不信任以方涉军事和外交计划言论 受中东地区冲突影响 挪威提高该国恐怖威胁级别