研究表明,聊天机器人看起来越像人类,人们就越信任它。Credit: Getty
据Springer Nature Limited(Chris Stokel-Walker):在聊天机器人ChatGPT以其像人一样写文章和回答问题的不可思议的能力震惊世界几个月后,人工智能(AI)正在进入互联网搜索领域。
全球三大搜索引擎——谷歌、必应和百度——上周表示,他们将把ChatGPT或类似技术整合到他们的搜索产品中,让人们能够获得直接答案或参与对话,而不仅仅是在输入一个单词或问题后收到一系列链接。这将如何改变人们与搜索引擎的关系?这种形式的人机交互有风险吗?
微软的Bing使用了与ChatGPT相同的技术,chat GPT是由加州旧金山的OpenAI开发的。但是这三家公司都在使用大型语言模型(LLM)。LLM通过呼应他们在大型数据库中遇到的文本的统计模式来创建令人信服的句子。谷歌的人工智能搜索引擎Bard于2月6日发布,目前正由一小批测试人员使用。微软的版本现在可以广泛使用,尽管还有一个不受限制的访问等待名单。百度的ERNIE Bot将于3月上市。
在这些声明之前,一些较小的公司已经发布了人工智能搜索引擎。旧金山的计算机科学家阿拉温德·斯里尼瓦斯说:“搜索引擎正在演变成这种新的状态,在这里你可以真正开始与它们交谈,并像与朋友交谈一样与它们交谈。”去年8月,他与人共同创立了困惑,这是一个基于LLM的搜索引擎,用英语会话提供答案。
改变信任
与传统的互联网搜索相比,对话的强烈个人化可能有助于改变人们对搜索结果的看法。瑞士苏黎世大学的计算社会科学家Aleksandra Urman说,人们可能天生更相信参与对话的聊天机器人的答案,而不是独立搜索引擎的答案。
位于盖恩斯维尔的佛罗里达大学的一个团队在2022年进行的一项研究1发现,对于与亚马逊和百思买等公司使用的聊天机器人互动的参与者来说,他们越觉得对话像人类,他们就越信任这个组织。
这可能是有益的,使搜索更快更顺畅。但是,鉴于人工智能聊天机器人会犯错,增强信任感可能会有问题。谷歌的吟游诗人在自己的技术演示中答错了一个关于詹姆斯·韦伯太空望远镜的问题,自信地答错了。而且ChatGPT有一种为它不知道答案的问题创造虚构答案的倾向——这被该领域的人称为幻觉。
谷歌发言人表示,巴德的错误“凸显了严格测试过程的重要性,这是我们本周推出的可信测试员计划”。但是一些人推测,这样的错误,假设被发现,非但不会增加信任,反而会导致用户对基于聊天的搜索失去信心。加利福尼亚州山景城的计算机科学家斯里达尔·拉马斯瓦米说:“早期的认知会产生非常大的影响。”他是1月份推出的LLM搜索引擎Neeva的首席执行官。由于投资者担心未来并抛售股票,这一错误使谷歌的价值蒸发了1000亿美元。
缺乏透明度
使不准确的问题更加复杂的是相对缺乏透明度。通常情况下,搜索引擎会向用户展示他们的来源——一系列链接——并让他们自己决定信任什么。相比之下,很少有人知道法学硕士训练的是什么数据——是大英百科全书还是八卦博客?
“完全不清楚(人工智能搜索)将如何工作,如果语言模型失灵、产生幻觉或传播错误信息,这可能会产生重大影响,”乌尔曼说。
乌尔曼说,如果搜索机器人犯了足够多的错误,那么,它们非但没有增加人们对其对话能力的信任,反而有可能颠覆用户对搜索引擎作为真理公正仲裁者的看法。
她进行了一项尚未发表的研究,表明当前的信任度很高。她研究了人们如何看待谷歌用来增强搜索体验的现有功能,即所谓的“特色片段”(featured snippets),即被认为与搜索特别相关的页面摘录出现在链接上方,以及“知识面板”(knowledge panels),即谷歌根据搜索结果自动生成的摘要,例如关于一个人或一个组织的搜索。几乎80%被调查的人认为这些特征是准确的,大约70%的人认为它们是客观的。
聊天机器人支持的搜索模糊了机器和人类之间的区别,Giada Pistilli说,他是拥抱脸的首席伦理学家,这是一个在巴黎促进负责任地使用人工智能的数据科学平台。她担心公司采用人工智能进步的速度:“我们总是有这些新技术扔给我们,而没有任何控制或教育框架来知道如何使用它们。”