首页 > 科技圈 > 正文

《自然》将推新子刊《自然-机器智能》:聚焦人工智能

原标题:《自然-机器智能》主编:关注AI对人和科学的影响

澎湃新闻记者 张唯 徐路易

有149年历史的《自然》杂志(Nature)将在2019年1月推出聚焦人工智能的新子刊——《自然-机器智能》(Nature Machine Intelligence)。

9月16日,《自然-机器智能》主编Liesbeth Venema接受澎湃新闻记者专访。

Liesbeth Venema是Nature杂志的资深编辑。她于2000年获得荷兰代尔夫特理工大学应用物理学博士学位,并在同年入职Nature杂志社,担任文字编辑。

此后她长期负责基础物理学和应用物理学领域系列主题研究及评论文章的编辑工作。她同时也为《卫报》撰写关于纳米技术的博客。近5年来,她参与了机器人和人工智能领域相关文章的编辑工作。

2017年,她成为Nature杂志机器智能子刊主编。

LiesbethVenema接受澎湃新闻专访。

Liesbeth Venema接受澎湃新闻专访。

《自然-机器智能》是Nature杂志旗下的新子刊。这是一份还没有发行的期刊,于2017年11月宣布,将在2019年1月发表第一期。

对于Nature为什么推出这本新子刊,它将会刊登什么样的研究,学界一直都很好奇。Liesbeth Venema在专访中回应了这些关切。

她表示,推出新子刊《自然-机器智能》是出于对“AI如何影响每个人以及所有科学领域”的关心。该子刊将关注所有与AI相关的主题,例如,机器智能在特定的科学领域的应用、新算法的建立、机器人的研发等等。他们还对“机器智能对社会和工业的影响”这一命题十分感兴趣,所以来自社会科学的相关研究也会被采纳。新期刊将不仅刊登研究论文,还会包括评论和新闻等形式。

对于人工智能领域的热点,她着重探讨了现今最为热门的深度学习方法。她认为“深度学习算法目前还是一个黑箱”,它可以输出结果但无法解释原理。而且,该算法背后大量的数据需求会放大并强化数据偏差对决策的最终影响。更重要的是,就学习效率而言,深度学习离人类的智能还非常非常遥远。她认为,也许可以神经科学、认知科学、人类行为等领域找寻灵感以强化或改进深度学习的方法。

Liesbeth Venema在访谈中向澎湃新闻详细介绍了期刊编辑的工作日常。作为一名期刊编辑,她所关注的是新研究进行的工作是否有趣,以及有多大程度的突破和多广阔的影响范围。一篇论文发表与否的最终决定权在于编辑,但他们不是凭空做决定的。

这其中,学术不端和学术诚信就是期刊编辑需要着重考量的领域。Nature在努力推进这项工作且有一个运作已久的机制。他们会让作者尽可能地分享数据和报告,然后“努力确保每个报告所用的方法都是透明的,并且其他科学家可以重复这些实验”,这些工作取得了良好的效果。

但是Liesbeth Venema也说道,在学术界,对于那些有意抄袭或者造假的人,“他们只要非常‘努力’,总能找到办法去‘造’出一篇论文来。她希望那只是少数的个例。

Liesbeth Venema还回应了今年4月以来,部分人工智能领域学者所发起的对《自然-机器智能》的抵制活动。她表示,Nature鼓励数据共享,望为学术社区提供交流平台。这次事件推动他们思考Nature的价值是什么,为学术社区带去了什么有用的东西。

她认为,机器学习社区或许有自己交流学术研究的方式,但Nature希望把期刊带给更广泛的受众,不仅仅是专家,还有那些想要了解人工智能正在发生什么的普通人。

以下内容为专访实录,翻译自英文:

AI期刊编辑:关心AI“如何影响每个人以及所有科学领域”

澎湃新闻:我注意到你获得了物理学博士学位,也曾是《自然-物理》的编辑。这些背景似乎与机器智能有些不同,为什么你会进入现在这个领域?

Liesbeth Venema:是的,我在Nature担任了17年的物理编辑。作为一个编辑,我们必须处理非常广泛的主题。所以我处理了从应用物理到基础物理的各类主题。而且我需要习惯于快速学习一个新的主题。因此,我们所做的一件事就是始终关注新出现的那些有增长潜力的领域和主题。在过去的五年,我非常关注计算机的未来。我意识到计算机的未来可能就是人工智能,所以我十分关注这个主题。所以最终Nature决定在AI领域发行一本期刊。一件很主要的事情是,尽管如此,作为一名编辑,我们不会评估一些研究论文的技术细节。我们试图评估的是,这些专家及领域的工作是否有趣,突破有多大,影响有多广?我认为这是我们考虑主要的问题。

澎湃新闻:期刊编辑的工作是什么样的?

Liesbeth Venema:这是一个主要的问题。我不是一个学术编辑,我不是科学家。我是一名全职的Nature杂志编辑,所以我每天的工作就是阅读论文、查找信息、找科学家。我的工作是了解主题是什么,领域内面临的主要挑战是什么?对于科学家以及对于更广泛的受众来说,什么是有趣的?所以我们仍需要专家来帮助我们评估论文的质量,需要询问有学术知识或技术专长的人。学术编辑则是那些积极踊跃的科学家们,他们不能花所有时间在这个工作上,只能兼任“编辑”这份工作。因此,我们想要推出的那种期刊是,能够覆盖非常广泛的受众的期刊。

澎湃新闻:《自然-机器智能》是一本新期刊,它的愿景是什么?你们会怎么做?

Liesbeth Venema:是的,我们还没有开始出版。但我们已经开始工作,会在2019年1月份发布第一期。

每个人都清楚,人工智能最近取得了一些深度突破,特别是在深度学习方面,当然人工智能所涵盖的内容很广。而且它不是当下才出现,几十年来这一直是一个学术领域。但人工智能现在已经成为每个人的焦点,每个人都有兴趣了解它、使用它,关心它将如何影响我们的日常生活。此外,来自各个学科的科学家们也在利用人工智能技术,改造、转变他们所处的研究领域。因此,我认为,下一个阶段AI将不再停留于一些简单的应用,而会产生更多对行业有变革意义的应用。不同的学科应该与人工智能有更多的结合。

因此,作为一本期刊,我们希望为广泛的学术领域提供平台,为对AI感兴趣的所有学科提供这本期刊。所以我们希望发表所有与AI相关的主题,例如,如何把机器智能用在特定的科学领域以推动该领域发展?我们也关心新算法的建立,机器人的研发,而且我们也对“机器智能对社会和工业的影响”感兴趣。我们会选取一系列广泛的主题,包括机器学习机器人、人工智能主题。我们还将提供新的版块,不仅刊登新的研究论文,还会包括评论和新闻,以及人工智能在科学,社会和工业中的影响。

澎湃新闻:所以Nature创建这个子刊的原因是最近几年AI技术的发展?

Liesbeth Venema:是的,也因为我们关心“它如何影响每个人以及所有科学领域”。

深度学习算法“黑箱”:数据偏差与算法公正亟待思考

澎湃新闻:你曾经公开提到“AI开始影响科学和社会,我们需要考虑道德,社会和经济问题”。你指的是哪些道德,社会和经济问题?

Liesbeth Venema:这是个很大的话题,并且有很多维度。我认为眼下的一个非常重要问题是,人工智能算法现在正在积极地影响我们的日常生活,比如电影推荐等等。但是它也可以用在一些其他领域,比如在某些改变命运的决定中,比如战争、社会信用、法律决策等等。

值得警惕的是,深度学习算法目前还是一个黑箱。你可以得到输出结果,但是你不知道为什么会出现这个结果。它是通过大量的数据学习得到的。数据来自社会,这也意味着任何社会和个人的数据偏差在决策中会被体现甚至被强化。所以,我认为我们需要更少的“黑箱”,我们需要开发一些算法,这些算法可以解释为什么做出结果,让个人有机会对机器做出的决定提出复议。

另一个问题是,在使用的数据集的过程中,需要进行质量把控。需要不断对其进行分析,以确保它们是公正的,是能够准确反映社会的。

我想提出另一个关于道德问题的观点。人工智能产业和研究领域存在巨大的多样性问题。所以,大多数从事这项工作的人,都会对机器结果产生影响。因此行业需要更多的少数族裔和女性,以确保算法是公平的,从而确保这项技术能被社会公正地使用。

澎湃新闻:那么这些道德的讨论会是期刊的兴趣点之一吗?

Liesbeth Venema:是的,我们会考虑来自社会科学的研究,我们也会发表评论,发表那些热点话题的评论和新闻。

澎湃新闻:你是否认为科学家应该像“准伦理学家”一样,由他们来决定技术是道德的还是不道德的?或者让谁来决定呢?

Liesbeth Venema:这就是为什么我说,重要的是要确保不同的学科连接起来。我非常强烈地认为计算机科学家需要与社会科学家在其他领域进行更多的互动,如果他们正在开发将会影响社会的技术。我的意思是,“算法或技术是公平的还是道德的”这是一个很大的问题,但是计算机科学家需要跟来自更多学科的人交流。

澎湃新闻:目前,计算机科学家似乎缺少与社会科学家互动?

Liesbeth Venema:计算机科学家提出深度学习算法,开启了一个很奇妙的领域。他们想要做的可能只是开发更好的算法,这是他们自己的选择。但是,当我们谈论到在社会中使用这种技术时,我们需要与其他领域展开合作,这是一个问题。幸运的是,许多大型科技公司都对这个问题感兴趣,它们已经拥有提供咨询顾问的小组,帮助他们思考这些问题。

“深度学习离人类的智能还非常非常遥远”,瓶颈在于“如何发展更强大的智能”

澎湃新闻:在历史上,AI发展经历过一些起起落落,为什么现在又兴起了?这一次的高潮是可持续的吗?

Liesbeth Venema:人工智能领域的历史是非常有趣的。在五十年代正式开始,从一开始就有不同群体之间的争论,例如,有些人认为我们应该更多地专注于增强人自己的智慧,另一些认为我们应该专注于所有真正的人工智能,还有关于什么是最好的方法、逻辑或符号推理、方法或统计学习方法等各种不同的争论。所以有时一种观点比另一种观点强。众所周知的是,当很多人都偏向于某一种观点,但最终该观点令人失望时,我们迎来了的AI寒冬。

我认为在1990年代,21世纪初,出现了众所周知的计算能力、大数据、移动设备,大量可用的图像,以及非常重要的,存储能力的提升。因此,现在是一个好的时机,我们拥有足够的计算能力、大数据移动设备、以及共享图像和数据。这些导致了深度学习中众所周知的突破。这种突破就像2014的那个重要事件,深度学习的ImageNet赢得了比赛,然后,接下来是以DeepMind阿尔法围棋(AlphaGo)为标志的深度学习的成功。

确实很多人有这样的疑问,我们是不是会迎来另一个AI的冬天,因为几乎已经到了那个时刻。似乎深度学习无处不在,如果每个人都在谈论它,似乎意味着它将迎来低谷。Nature所看到的是,实际上深度学习仍然具有很大的潜力,并且它有希望真正地转变其它的科学领域,尤其在天文学或者分子物理学等领域,它能大量标记数据,并挖掘数据,然后提供一些关于这个世界的信息,深度学习确实可以改变很多东西。还有很多其他领域,比如生物学、医学,还有一个最近的关于地震预测的论文。所以我任务深度学习仍有很多重要的影响,未来几年不会消失。

我认为很清楚的一点是,很多人在讨论AI,其实大多数时候是在讨论深度学习。这其实是对AI的一种窄化。深度学习可以很有用,但它只是AI的一个部分。所以有很多思考,如何把深度学习和其他的AI方法结合起来。深度学习如今非常流行,它需要大量的数据。它不像人类的学习过程,人类学习的十分快速。你尝试一些事情,很快的,你就学到了东西。但对于深度学习来说,它需要大量的数据,才能给真正地“学习”到一些知识。所以深度学习离人类的智能还非常非常遥远。我有一个很强的感觉,通过其他的AI方法,深度学习可以被强化。有很多灵感可以被发现,比如神经科学,认知科学,人类行为等等。

所以我认为存在“再次入冬”风险,毕竟它现在在一个高位,但不一定会那样。

澎湃新闻:你提到深度学习需要很大的数据集,目前似乎没有足够的高质量数据,对数据的监管也是很到位?这是AI的瓶颈吗?

Liesbeth Venema :我认为真正的瓶颈在于如何发展更强大的智能。数据集非常重要,研究人员花了很多精力去构建新类型的数据集,比如在视频里标记你的运动模式、你的情感。

我是这么认为的。在机器人技术方面,可能需要更好的数据集,需要对标准单元,数据,对象集进行检索或执行任务。你知道,这是一个问题,但我不认为这是瓶颈。

澎湃新闻:现在很多国家在AI技术上做出了很大的努力,比如美国、欧洲、日本、中国,你如何评估他们在这个领域的工作?

Liesbeth Venema :我不是经济专家,不过大多数国家和其他跨国公司都在这几年制定了AI投资和发展战略,因为每个人都非常清楚,AI技术将极大地刺激国家经济。

每个国家都有自己在AI发展上的比较优势,比如日本的强项是机器人,欧盟也对机器人很感兴趣,英国则是阿尔法围棋和阿兰图灵的故乡,英国也非常为之自豪,他们肯定会继续在数据科学方面建立自己的优势。这太有趣了。我想知道的是,是哪个国家正在推动更多的自动驾驶汽车技术,可能美国是最先进的,但我不确定。

中国非常欢迎新的科技技术,而且在人工智能方面有浓厚的兴趣,有一种热情。而且,很明显,中国在科学技术上的投资很大,也吸引了海外人才的回归。在过去的五年里,中国人工智能的学术成果显着增长。非常值得注意的是,在我最近参加的人工智能会议(IJCEI)上,我注意到有一半的论文来自中国。我参加的那个论坛中,有一半的发言人来自中国。可见,中国的在研究领域的增长非常明显。

学术不端:“对于有意造假的人,只要非常‘努力’,总能找到办法去‘造’出一篇论文”

澎湃新闻:学术不端现象,包括造假和腐败随着科学的发展也在变多,Nature杂志和学术界应该做些什么?

Liesbeth Venema :这是困扰每一个学术领域的问题。多年来,我们已经与其他机构和出版商一起努力制定编辑政策和准则,以确保科学论文发表的过程非常透明,不能抄袭任何其他人的工作。因此,我们非常努力地推进作者尽可能地分享数据和报告,我们会帮助他们让这些研究结果被更多人所知道。我们将努力确保发表的每项研究所用的方法都是透明的,并且其他科学家可以重复这些实验。所以这需要来自各方的努力,作者、编辑,以及那些能从不同角度审视论文的审稿人推荐人。这个机制已经在学术界运作已久,并且效果很好。

所以提交到Nature杂志的论文,作者往往要经过的程序更多,他们也会更有意识地报告全部信息,并确保他们所展示的研究过程是可被重复的,数据也是实际测量出来的。这是一个非常重要的话题,不仅仅是人工智能。在学术界,我们对这个问题的重视程度非常高。

当然了,在学术界,对于那些有意抄袭或者造假的人,他们只要非常“努力”,总能找到办法去“造”出一篇论文来。但我希望那些只是个例。

澎湃新闻:所以作为一个编辑,你需要去鉴定论文是否涉及学术造假吗?

Liesbeth Venema :编辑的工作之一是确保论文的发表方式非常透明,所有使用的数据和代码都是能够被公开,能让更多人获得。在Nature旗下的其他期刊中,我们已经在试行一些政策,让作者的代码更加透明,能够为其他人所用。比如,论文审稿人可以直接在一个网站上面运行那些代码。我认为这也将有助于代码的开放性,以及代码的透明度。

澎湃新闻:关于一篇论文是否符合学术诚信,由谁来下最终的判断呢?

Liesbeth Venema :编辑首先评估一篇论文,他们会先粗略的看一下这篇论文,他们会评估一篇论文是否有一些明显进步的研究成果,它是否可能引起其他人或者专家、科学家的兴趣以及是否可能具有某些更广泛的应用前景。所以编辑们会花时间阅读一篇论文,他们将阅读其他背景文献,以作出决定。如果编辑认为这篇论文有一些概念上的新颖性,或显著的进步,那么编辑会将它发送给审稿人。我认为这一步是编辑工作中最重要的,也就是找到合适的专家来审阅这篇论文。我们试图找到能够查看技术细节的专家,但我们也会从不同角度寻找专家,让他们从不同的角度来看这篇论文,以评估论文或者研究的广泛性。

期刊编辑是在一个团队中工作,我们会与其他编辑讨论,他们可能拥有不同的专业知识。有时候我们会回复为什么这篇论文没有引起我们的兴趣。我们也经常给作者一个机会,让作者回答由审稿人提出的某些问题。

因此,对你的问题的简短回答是,最终决定权在于编辑。但我们不是凭空做决定的。

数据开放:Nature鼓励数据共享,望为学术社区提供交流平台

澎湃新闻:最近几个月,因为一些关于“数据开放原则”的讨论,部分研究者宣布将拒绝在《自然-机器智能》上发表论文。你怎么看这个情况?

Liesbeth Venema :是啊。这是一群机器学习研究人员,他们非常强烈地关注学术作品的开放性。我能在某种程度上理解他们的理由。可能是由于几个原因,一个是历史性的,许多机器学习的研究人员一直都在努力获得更多期刊的开放阅读权利,我理解他们的观点。

显然,如果一切都是开放的,并且可以免费获得,那就太好了。

但我认为也有一些误解,因为不是我们想独占这些论文,然后卖钱赚订阅费。我们在非常努力地让这些论文能够对其他更广泛的学术领域开放。

这是一个非常复杂的问题。首先,版权始终在论文作者手里。我们当然很高兴如果作者愿意在会议或者其他地方分享这些研究。我们强烈鼓励作者共享他们论文里的数据。

唯一无法免费共享的是Nature最终发布的pdf版本的论文。实际上,许多人不知道的是,Nature杂志还有一个功能“易分享(SharedIt)”,任何有权利访问Nature杂志的人都可以生成全文阅读版本的在线pdf的链接,他们可以把这个链接放在任何地方。比如分享到网站上,也可以通过社交媒体分享。我们也很高兴作者在学术平台上分享他们的研究。

对于那些不反对这本期刊的机器学习科学家来说,其中一种观点是,他们觉得作者有这个权利选择要不要向Nature提交自己的论文。所以抵制是一件非常消极的事情,如果你不想把它刊登在这里,ok,这是你自己的选择,但是其他人应该有这个选择(来投稿)。另一个观点是,我们允许发布过预印本的论文投稿,我认为这对任何计算机科学家来说都是最重要的。

科学家可以在arXiv平台上共享他们的论文给任何人,在他们提交给期刊之前,可以提交在arXiv上。这是为了与其他科学家交流。有时候,他们就不会再把论文提交给任何期刊了,但通常他们还是会投稿给期刊的。论文的最初版本会保留在arXiv上,arXiv是一个免费的平台。有些记者也会看arXiv,发现最新的研究。不过arXiv论文大多是还没有经过同行评议的。

我们希望提供一个机器智能界的学术社区,也提供我们期刊的选择过程和同行评议过程,让这些科学家能与不同领域的其他科学家相互交谈。我们有一个专业的编辑团队,期刊的模式意味着我们必须是订阅期刊,而不是开放获取期刊。确实有些科学家对这种模式不感兴趣,那他们就不必向我们提交论文。

澎湃新闻:这次抵制对你们来说是一个挑战吗?

Liesbeth Venema :是的,当然是一个挑战,但是这也会推动我们思考Nature杂志的价值是什么?我们为学术社区带来了什么有用的东西?机器学习社区或许有自己交流学术研究的方式。但我们希望通过我们的期刊带来的是一个可以覆盖更广泛的受众的东西。比如其他领域的人,不仅仅是专家,还有那些想要广泛接触更多内容、想要了解人工智能正在发生什么的人群。

相关阅读:
百度与威伯科开发L4级自动驾驶商用车解决方案 iOS 12能为旧机型续命?对比实测告诉你