澎湃新闻记者 卢梦君
“当基于人工智能的机器人能够真正感受到自我意识时,人工智能的安全和道德挑战会更加复杂。届时,他们应该像人一样对待吗?”
9月18日,2018世界人工智能大会安全高端对话在上海举行,峰桥集团公司总裁陈实在发表对人工智能安全伦理规范的几点思考时问道。
2018世界人工智能大会安全高端对话现场
陈实曾任通用汽车(中国)有限公司副总裁及通用汽车(中国)北京分部总经理、微软公司副总裁及大中华区法律及公司事务部总经理,今年年初卸任了在微软的职务, 从事咨询工作。会后,他接受了澎湃新闻(www.thepaper.cn)的专访。
人工智能距离人的智慧还有很远
在演讲中,陈实谈到,现下流行的人工智能技术主要基于数据驱动的优化方法来解决特定的具体问题,而不是一般问题。
“我们都对AI在国际象棋和围棋等游戏中击败人类印象深刻。然而,游戏只代表一类智力活动,其中游戏的规则是确定的,获胜目标也是明确定义的。但在现实世界中,规则并不总是很明确确定,目标也可以不断变化。”
他告诉澎湃新闻,人工智能在游戏领域可以做到很“聪明”,但这是一种狭隘的“聪明”,“如果把这种智慧想象成为能做任何事情的话,我觉得夸大了。”
“机器可以玩游戏,可以玩得比人好,但是目前没有哪一款受人欢迎的游戏是机器设计的。机器可以参加高考,并且考得很好,因为不管是数学题还是化学题,都有严格的规则和正确答案,但是有没有高考题目是机器出的?”
他认为,人之所以聪明,是因为不仅见多识广,而且能够融会贯通,不仅能学习知识,还能够进行抽象、总结,应用到其他的领域。这种常人具有的智慧在机器上谈何容易?
图灵奖获得者Raj Reddy在17日在世界人工智能大会主论坛的发言中表达了对人工智能的积极看法。面对AI,他看到的是积极和繁荣景象,纵观过去几百年的历史,战争来源于每个人都想获取别人的资源,而当人工智能赋予全人类富足的资源,战争自然消弭于无形。
陈实对此表示赞同,“有很多人对AI的发展都有点担忧,但我认为AI就是一个十分有用的工具,用的好的话可以造福于人类的。”
他指出,人工智能不是万能的,但它确实让每个行业发生了改变,每个行业都要数字转型,都要利用人工智能来提高效率、扩大服务功能,人工智能已经带来了一场革命。
对人工智能可能产生的安全道德问题还没有好的答案
由于人工智能存在的局限性,随之产生的安全和道德问题需要人们关注。
陈实在演讲中谈到,机器学习的结果会受到训练数据质量和算法假设的影响,许多机器学习方法没有成熟的自我纠错机制。
譬如,谁应对以下错误负责:基于人工智能的投资损失;基于人工智能的信用评估中出现贷款拒绝;基于AI的医疗诊断系统发生了医疗事故?
此外,算法建模的偏见和数据收集中的差错可能导致决策偏见,不稳定和易受操纵。这一点在数字营销、政治选举等事例中已经时有发生。
在道德层面,人工智能开发团队面临的考验更大。
可能产生的问题例如,人工智能可以大规模提高效率和生产力,但可能只会使少数人受益;人工智能可以操纵人类行为,例如游戏成瘾、投票偏见、媒体炒作:人可能无法阅读/查看想要读到的客观内容,而阅读到别人希望他阅读的内容。
人工智能开发人员可能会将他/她的意识形态、道德信仰、道德规范注入到算法中,这些算法在社会上可能无法被接受或认定是道德合理的。
接下来的问题是,如果一个机器人有像人类一样的感觉和意识,它是否具有像人类一样的机器人权利?
“我们对这些问题没有答案,至少是好的答案。这就是我们今天在这里讨论人工智能安全和道德的原因。”他说道。
传统车企和软件互联网企业应合作研制自动驾驶汽车
对于时下热点,陈实也与澎湃新闻分享了他的看法。
兼有在通用汽车和微软公司的工作经历,陈实认为,传统车企和软件互联网企业在研发制造自动驾驶汽车上,各有各的优势,最好两方面合作。“完全搞互联网的,不一定能够做出一辆汽车,完全搞汽车的,也未必能做出自动驾驶的车。”
他认为,人工智能不会像AR、VR或者区块链一样只是一个风口,AR、VR、区块链只是技术的某些应用,但人工智能的实用范围更加广大,应用无处不在。
“现在人工智能的智能化程度越来越高,机器人装了传感器,能够感知环境,从而表现得更加智慧,应用更加广泛;在语音识别方面,它能够听懂人的话,然后进行翻译。从感知到语言,机器人就可以获得知识,有了知识以后未来或许就能产生创造力。”他对此表示乐观。
对于人工智能进一步的发展,陈实提出应该加强跨学科合作。
“其实人工智能涉及的学科很多,如果是计算机科学、物理学、生物学、哲学、心理学、大脑科学等学科能够在一起的话,我觉得可以研究出一些更具有一般智慧的广泛应用。”他说。