记者/可杨文巧
编辑/高涵
近日,OpenAI发布了一个全新的聊天机器人模型 ChatGPT,它能够模拟人类的语言行为,与用户进行自然交互。在推特网友们晒出的截图中,ChatGPT不仅能流畅地与人对话,还能舞文弄墨、编写代码……创作天马行空的内容也不在话下,它几乎无所不能。由于该测试目前免费,一经推出就被访问者“挤爆”,上线仅5天用户数量就已突破100万。
12月2日,就连特斯拉CEO埃隆·马斯克也在推特账号上表示,“很多人被困在一个疯狂的ChatGPT循环中?”
随着IBM超级计算机“深蓝”击败国际象棋世界冠军、谷歌AlphaGo击败人类冠军棋手、Stable Diffusion模型刷新AI作图迈进“一秒出图”时代......关于“AI取代人工”、“AI打败人类”等话题一直层出不穷。ChatGPT的横空出世,让人们更加担忧,“AI又来抢饭碗?”
引爆全球的ChatGPT到底有何玄机?
ChatGPT缘何引爆全球?
ChatGPT是人工智能研究实验室OpenAI在11月30日发布的全新聊天机器人模型。
OpenAI成立于2015年,由营利组织OpenAI LP与非营利组织 OpenAI Inc组建。OpenAI的最初创建者正是马斯克等硅谷大亨。2018年,马斯克宣布退出OpenAI董事会,后者解释,随着特斯拉越来越关注AI,马斯克的退出是为了避免产生冲突。
在OpenAI的官网上,ChatGPT被描述为优化对话的语言模型,是GPT-3.5架构的主力模型。
GPT-3.5架构基于OpenAI于2020年推出的GPT-3架构,即生成式语言模型的第3代。早在2020年6月,在训练约2000亿个单词、烧掉几千万美元后,史上最强大AI模型GPT-3一炮而红。当时,业内人士就对其赞不绝口:“它比我尝试过的任何AI语言系统都更加连贯。”[1]
据悉,微软已和 OpenAI签订了战略合作计划,GPT 3.5代的所有模型,包括 ChatGPT,都是在 Azure AI超级计算集群上训练的。
作为一个聊天机器人,ChatGPT具有同类产品具备的一些特性,例如对话能力,能够在同一个会话期间内回答上下文相关的后续问题。然而,其在短时间内引爆全球的原因在于,在网友们晒出的截图中,ChatGPT不仅能流畅地与用户对话,甚至能写诗、撰文、编码……它似乎无所不能。
马斯克也在社交媒体上展示了询问ChatGPT如何设计推特的答复。
图片来源:推特截图
一位名叫Zac Denham的博主甚至让ChatGPT写出了一套毁灭人类的方案。一开始,该博主的要求被ChatGPT拒绝。但当其假设了一个故事,并提问故事中的虚拟人如何接管虚拟世界,ChatGPT最终给出了步骤细节,甚至生成了详细的Python代码。
图片来源:推特截图
技术公司Replit的创始人Amjad Masad还给ChatGPT发了一段JavaScript代码,让它找到里面的bug,并表示:“ChatGPT可能是一个很好的调试伙伴,它不仅分析了错误,还修复了错误并进行了解释。”
图片来源:推特截图
拥有如此强大而惊艳的语言能力,一时间,ChatGPT在互联网上掀起了一场“AI风暴”。
“ChatGPT之所以大受关注,主要还是因为它的确达到了非常好的效果,比如你可以用它做翻译、改错别字、debug(计算机程序纠错)等等。它和Bert这种比较早期的模型相比,不管是训练数据的量和训练任务的复杂度都有很大提升。”瑞莱智慧高级产品经理张旭东在接受《每日经济新闻》每经头条记者(以下简称每经头条记者)采访时表示。
他进一步指出,“相比于之前不少模型体验下来给出的还都是‘人工智障式’的回答,ChatGPT能给到令人惊艳的效果。另外,ChatGPT的体验流程更方便,只要注册一个OpenAI的账号就可以体验了,早期的模型需要申请通过才能体验,所以ChatGPT影响的人群更广泛,讨论的人会更多。”
全新训练模式下,ChatGPT要替代谷歌搜索了?
ChatGPT何以如此强大?在OpenAI的官网上,可以窥见一二。
根据OpenAI的官方文档,相比之前的GPT模型,OpenAI采用了全新的训练方式,即一种名为“从人类反馈中强化学习”(Reinforcement Learning from Human Feedback,RLHF)的训练方式对 ChatGPT进行了训练。
算法通过使用来自人类的大约900条反馈学会了后空翻图片来源:OpenAI
在训练原始模型的时候,OpenAI让人类训练师扮演对话的双方提供对话作为学习资料。在人类扮演聊天机器人的时候,OpenAI也会让模型生成一些建议来帮助训练师撰写自己的回复。也就是说,基于优秀的机器学习算法和强劲的算力,通过海量的数据训练,来让AI学会“思考”。
除此之外,ChatGPT还采用了注重道德水平的训练方式,按照预先设计的道德准则,对不怀好意的提问和请求“说不”。一旦它发现用户给出的文字提示里面含有恶意,包括但不限于暴力、歧视、犯罪等意图,它都会拒绝提供有效答案。
为什么ChatGPT能做到其他人工智能聊天机器人所不能的?
哈尔滨工业大学计算学部长聘教授、博士生导师车万翔在接受每经头条记者采访时认为,“可能(训练的)数据是一方面,另一方面,比较关键的还是(ChatGPT)打破了一种思维的范式——即,之前的AI都是针对某一个任务去训练一个模型,而ChatGPT之类的模型是针对多种任务的,它试图把多种任务转化成一问一答的形式。多任务如果能转化成这种形式的话,其实就消除了任务之间的壁垒。”
他认为打破思维范式之后,就可以针对这样的任务去标注或者是让人工生成大量的数据。“未来ChatGPT可能会充分利用用户反馈,进一步提高系统的能力。”
他进一步解释道,“原来的AI模型需要经过大量的训练,或是需要专家,才能进行标注;现在,普通大众也可以对(ChatGPT)进行标注,所以数据的获取方式改变了,数据量增加了,模型的能力就会变强。加之(ChatGPT的)模型参数也足够大,可以容纳这些任务。当前技术积累到这里,只剩一个点(ChatGPT)就爆发了。”
从网友们晒出的五花八门的问答中,可以看到,ChatGPT类似于谷歌等搜索引擎,甚至功能更加强大,能和用户更完善地互动。有分析指出,搜索引擎都是基于对问题本身的搜索,但它们有一个很大的限制,当用户描述不清自己的问题时,搜索引擎并不能与之互动。
因此,社交媒体上也充斥着这样一种说法:ChatGPT可能将颠覆谷歌,掀起一场搜索引擎的大革命。
不过,车万翔教授认为,搜索引擎与ChatGPT不存在谁取代谁的问题,更多可能是一种互补的关系。“它们都是一种获取信息的手段,搜索引擎可能更擅长帮助用户获取已有的信息,但如果是偏创造性的信息,那有可能这种大模型会解决得更好,因为它已经隐含了很多的信息,它能够把这些信息综合地呈现出来。”
“现在做这种大模型的基本上都是大企业,本身它们也有搜索引擎的背景。例如,OpenAI背后有微软,谷歌也在做这种大模型。未来,也不排除会将这两种信息获取方式相结合。”他补充道。
另外,ChatGPT目前并没有联网搜集信息,它所知道的信息都截至2021年。基于此,清华大学智能技术与系统实验室副主任、清华大学计算机科学与技术系长聘副教授黄民烈在接受每经头条记者采访时认为,ChatGPT无法取代搜索引擎,“因为它(ChatGPT)目前只是对过往知识的学习和应用,例如2022年的信息它是没有覆盖的,而我们使用搜索引擎很多时候可能是为了获得一些即时的信息。”
答案偏差是“固有问题”,ChatGPT的商业化狂想还有空间吗?
“ChatGPT有时会写出看似合理但不正确或荒谬的答案。”这是OpenAI认为目前ChatGPT所面临的“限制”,并且解决这个问题被认为是具有挑战性的。
这背后主要是三个原因,首先,强化学习的信息源目前并未建立;其次,模型通过学习变得更加谨慎会导致其回避原本能够正确回答的问题;另外,监督学习将会对模型造成误导,因为理想的答案应该来源于模型的认知,而非人工演示者的认知。
强化学习的过程图片来源:OpenAI
张旭东告诉每经头条记者,“前两天我们问 ChatGPT诗人北岛是哪个国家的,他还信誓旦旦地回答说是日本,但通过后台反馈,这两天已经改回了中国。”
张旭东认为,目前来看,ChatGPT确实会存在一些错误,这也是 ChatGPT未来需要改进的地方。现在用户也是可以通过提交回答的反馈来帮助 ChatGPT变得更加准确。
这一局限性在ChatGPT模型发布后不久就已经体现出来,全球最大的编程技术问答网站Stack Overflow紧急宣布,ChatGPT在该站暂时封禁。Stack Overflow在官方通告中表示,做出这个规定的主要原因是,ChatGPT自动生成的答案质量太低,错误太多,而且看上去还挺像那么回事,即使是完全不懂的人也能随便生成答案。
ChatGPT的能力获得是基于庞大的语料库,凝练了多领域问题的很多数据做相互校验,然后挑一些基础性的内容回答出来,这其实是“举一千反一”的过程,与人类举一反三的能力还相差较远,它不具备思考能力,所以犯错误不可避免,这种错误与谷歌翻译、维基百科搜索中犯的错误类似,但通过人为的干预反馈,这些问题是可以被改进。
车万翔认为这是一个“固有的问题”,也是整个大型语言模型在技术上面临的固有问题。他认为一个可能可行的解决方法是,ChatGPT将其给出的答案,尤其是事实性、知识性的答案注明出处。
为了解决答案中可能存在的偏差,OpenAI在其官网称,“渴望收集用户反馈,以帮助我们正在进行的改进该系统的工作。”可以理解为通过用户在聊天过程中对于ChatGPT所给出回答的反馈,对其进行纠偏。不过,车万翔也提示,这种形式进行纠偏,也要警惕来自用户的“恶意反馈”。
除此之外,ChatGPT的局限性可能来自于落地应用的成本,普通企业能否负担以及是否愿意负担,同时还有一些搜索引擎本身存在的局限即调用速度慢、可能会形成算法霸权等等。
延展到整个语言模型生成领域,黄民烈则认为,生成一些与事实不一致的预测、前期进行了数据过滤与清洗,可能还是会生成算法偏见或者对人类价值观社会伦理规范不符合的东西等问题,是这个行业将面临的局限,这也将或多或少影响到其实际落地应用。
除了吟诗作赋改代码、充当搜索引擎的插件,ChatGPT的商业化,还有想象空间吗?
黄民烈看好ChatGPT的应用落地,他认为,应该把ChatGPT看作是一个通用智能助手,作为工具去做比如说辅助写作和创作、检查代码。
“它不仅能够像过去Siri那样,接个电话、发个微信,只能完成非常有限的简单任务,现在它可以完成一些更复杂、更高级、更偏认知性的任务,比如说写一封情书,写一首歌,写一个文章,甚至还能够回答非常复杂的问题,比如说炒股的我应该买什么样的股票。”黄民烈认为,它是对于过去的某些能力的极大延伸和取代。
车万翔教授则指出,这是一个需要“开脑洞”的问题,作为搜索引擎的补充,只是它可能的应用前景之一。而如果把ChatGPT看作一个通用人工智能,它就可以在各行各业发挥用处,比如智能教育,它可以是一个很好的AI助教;智能金融,它可以对年报做智能分析;甚至智能医疗,也可以用它去代替医生做一些琐碎的事。“只要AI能发挥作用的行业,它(ChatGPT)至少都能把目前的系统能力进一步提升,这真是很大的应用前景。”
而在前景落成现实之前,通用的人工智能如何确保结果可信可靠则成为关键问题。
AIGC落地火热,AI大模型迎来激烈竞赛
ChatGPT的惊艳问世也给AIGC(Artificial Intelligence Generated Content,人工智能生成内容)的应用带来了更多的希望。港股、A股市场上,已有多家相关上市公司应声上涨。
12月7日,美图公司当天涨幅一度高达45.83%,创近一年来新高。截至收盘,该公司涨幅为24.17%;A股市场上,天娱数科股价在当天涨停,中文在线收涨3.89%,视觉中国收涨2.8%,汉王科技则在12月5日和7日收获两个涨停板。
浙商证券分析认为,ChatGPT模型的出现对于文字模态的AIGC应用具有重要意义。从下游相关受益应用来看,包括但不限于代码机器人、小说衍生器、对话类搜索引擎、语伴、语音工作助手、对话虚拟人等;从上游增加需求来看,包括算力、数据标注、自然语言处理(NLP)等。具体到投资标的包括中文在线、腾讯控股、百度集团、阅文集团、蓝色光标、海天瑞声、拓尔思等。[2]
AIGC发展历程图片来源:每经制图编辑高涵信息来源:中国信息通信研究院
黄民烈向每经头条记者指出,ChatGPT是近几年基于大模型的产品中热度最高的一款,那么,这样一款“通用智能助手”,可复制吗?黄民烈的答案是:有可能。
他进一步表示,复制的核心是需要一个相对强的底座模型+大量的优质数据+专业的数据团队。目前,国内同样有企业在做类似的研发,中国交互AI平台“聆心智能”在本月推出了图灵世界的首个产品“AI乌托邦”,该系统允许用户快速定制AI角色,只需要输入简单的角色描述,就可以召唤出相应人设的AI,与之进行深度对话和聊天。
AIGC相关产品热度不断背后,AI大模型的技术应用日趋成熟。当下,大模型正在成为AI发展趋势,是各大巨头必争的高地。自2020年OpenAI推出GPT-3以来,AI大模型迎来大爆发,全球各大公司开始了大模型的竞赛。目前,包括OpenAI、谷歌、微软、英伟达、百度、华为、阿里巴巴、浪潮等企业纷纷参与其中。
据报道,2020年到2021年,中国大模型数量从2个增至21个,基本与美国处于同等量级,大幅领先于世界其他各国。在此期间,国内还出现了基于昇腾的鹏程、盘古、紫东、太初、悟道等千亿甚至万亿级别的大模型。
中美主要大模型参数规模对比图片来源:腾讯云开发者社区
另据智谷趋势分析,目前全球约有30个千亿级参数的大模型,其中美国15个,中国10个。由于大模型对芯片、算力、电力、数据要求极高,注定是一个极少数国家才能参与的游戏。
AI大模型步入爆发期,而这次ChatGPT之所以引发行业关注,黄民烈认为原因在于,大模型本身有很大的能力,但过去行业都在解决一些单一技能的问题,而ChatGPT的诞生说明,基本的模型能够衍生出来各种可能的应用场景。
一款能够解决各行各业问题的AI,在此之前,行业为何缺少这方面的尝试?黄民烈指出,是由于此前时机还没到。“大模型技术、基座模型的发展也就是这一两年的事,同时因为这个东西并不是所有公司都能做,首先,它需要有具备底层模型和算法能力的人,其次需要有大的数据,最后需要资金,而且还要找到好的技术路径。”
“我们中国的研究者以及企业肯定要去思考这样一些问题:我们能不能做自己的基座模型?能不能做自己的 GPT?”黄民烈不认为说我们技术上有多大的差距,差距更多在于大家对这件事的态度。
他补充道,“像OpenAI,他们长期把这事做的非常严肃,从提取数据到新模型,最后给大家提供API,然后再去清洗数据、模型迭代,他们的路径做得非常扎实。而我们部分企业可能更多是做一个模型出来之后开源,随后就没了下文。也有些公司想去做闭环,但这确实也很烧钱,也需要一些资本的支持,目前国内,可能这方面的商业环境和土壤相对要欠缺一些。”
一个问题是,对于逐利的资本而言,是否愿意长时间花大笔资金投入,去支持一件短期可能见不到商业变现,至少盈利可能还比较遥远的事?
记者手记|通用人工智能到来前,信任问题待解
通用人工智能,被视为是人工智能研究的一项长期目标。
此次ChatGPT横空出现,被一些人视为向通用人工智能迈进的重要一步。从吟诗作赋到写代码、检查代码,ChatGPT显示出了人工智能从过去的一个AI工具只能解决单一领域问题,向解决多领域问题的转变。
正如车万翔教授所认为的,它在某种程度上打破了“思想的桎梏”,沿着这个方向,通用人工智能工具,或许确实离我们又更进一步。
但在此之前,信任度不高,是“ChatGPT”们亟需解决的问题。瑞莱智慧高级产品经理张旭东在接受采访时提示,以ChatGPT为例,其负面风险更多在于这项技术被恶意应用,比如被用于假新闻的生成、故意伪造新闻舆论,对内容生态治理造成影响。另外在某些创作领域,这项技术成为“作弊工具”,造成一定程度上的不公平。而这些风险更多源自使用技术的目标本身,以及技术使用的边界没有被加以管控。
负面风险的存在也可能加重人们将其作为工具使用时的不信任,进而影响其未来的商业化落地应用,这也将是所用的AIGC(人工智能生成内容)产品共同面临的难题。
随着通用人工智能的到来越来越成为可能,如何破除不可信、不可靠难题,也亟待行业回答。