【菜科解读】
(MIT TR)
世界卫生组织于 4 月 2 日推出了新的聊天机器人,初衷是建立一个由 GPT-3.5 支持的新虚拟形象——SARAH(智能健康助理)全天候提供关于如何健康饮食、戒烟、减压等多方面的生活建议,支持八种不同语言,服务于全球数百万用户。
但人们很快发现,就像所有聊天机器人一样,SARAH 有时也会给出错误答案。
在一个案例中,它列出了旧金山一些不存在诊所的假名称和地址。
世界卫生组织在其网站上警告称 SARAH 的信息可能并不总是准确的。
这种事情又发生了,聊天机器人的胡编乱造已经成为了一个再熟悉不过的梗。
Meta 仅存在了 3 天的科技聊天机器人 Galactica 编造了学术论文,并生成有关太空熊历史的维基文章;今年 2 月,加拿大航空公司被命令执行其机器人客服发明的退款政策;去年,一名律师因提交了由 ChatGPT 捏造的虚假司法意见和法律引文的法庭文件而被罚款。
这种制造虚构信息的倾向——被称为幻觉(hallucination)——是阻碍聊天机器人更广泛采用的最大障碍之一。
为什么会这样?我们为何无法解决这个问题?
魔力八球
为了理解大语言模型为何会出现幻觉,我们需要了解它们的工作原理。
首先要注意的是,编造内容正是这些模型的设计初衷。
当你向聊天机器人提问时,它的回答源自于支撑它的大语言模型。
但这不像在数据库中查找信息或在网络上使用搜索引擎。
如果你打开一个大语言模型,你不会看到现成的信息等待被检索。
相反,你会发现数十亿个数字,它利用这些数字从零开始计算其响应,即时生成新的单词序列。
大语言模型生成的许多文本看起来就像从数据库或真实的网页上复制粘贴而来。
但正如大多数虚构作品一样,这些相似之处纯属巧合。
大语言模型更像是一个无限的魔力八球(一种通过摇晃随机呈现答案的二十面体)而不是一本百科全书。
大语言模型通过预测序列中的下一个单词来生成文本。
如果一个模型看到the cat sat(这只猫坐),它可能会猜on(在......上)。
这个新的序列会被反馈到模型中,模型现在可能会猜the。
再循环一次,它可能会猜mat(垫子)——等等。
这一个技巧就足以生成几乎任何你能想到的文本,从亚马逊商品列表到俳句,从同人小说到计算机代码,再到杂志文章等等。
正如计算机科学家、OpenAI 的联合创始人 Andrej Karpathy 所说:大语言模型学会了梦见互联网文档。
想象一下,大语言模型内部的数十亿个数字,就像一个庞大的电子表格,记录了某些词汇与其他词汇一起出现的统计概率。
这些数值是在模型训练时设定的,在过程中不断调整这些数值,直到模型的预测能够反映从互联网上获取的数太字节文本中的语言模式。
全都是幻觉
这里的要点是,其实所有内容都是幻觉,但只有在我们发现错误时才这么声讨。
问题在于,大语言模型非常擅长它们的工作,以至于它们编造的内容在大多数时候看起来都很合理。
这使得人们很难完全信任它们。
我们能够控制大语言模型生成的内容,以确保它们产生的文本绝对准确吗?这些模型太过复杂,无法手动调整参数。
但是有些研究人员认为,通过训练它们处理更多的文本将会降低错误率。
这一趋势在大语言模型的发展过程中已经显现出来。
另一种方法是要求模型在生成过程中检查自己的工作,将响应逐步分解。
这种方法被称为思维链提示(Chain-of-Thought),已经被证明可以提高聊天机器人输出的准确性。
虽然目前还无法实现,但未来的大语言模型可能会核实它们输出的文本,甚至可以在脱离正轨时回退。
但这些技术都无法完全阻止幻觉的发生。
只要大语言模型是概率性的,那么它们生成的内容就存在一定程度的随机性。
掷 100 次骰子,你会得到一种模式。
再掷一次,你会得到另一种。
即使骰子像大语言模型一样被设定为产生某些模式比其他模式更频繁,结果也不会每次都相同。
即使每 1000 次或 100,000 次中只有一次错误,考虑到这项技术每天使用的次数,累积起来的错误数量也会非常多。
这些模型越准确,我们就越容易放松警惕。
研究表明,聊天机器人表现得越好,人们就越有可能在出现错误时忽视它。
或许对于幻觉最好的解决办法就是管理我们对这些工具的期望。
当那位使用 ChatGPT 生成虚假文件的律师被要求解释自己的行为时,他对发生的事情同样感到惊讶。
我听说了这个新网站,错误地以为它是一个超级搜索引擎,他告诉法官,我没有意识到 ChatGPT 可能会编造案例。
原文链接:
#p#分页标题#e#https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots/
声明:本文内容仅代表作者个人观点,与本站立场无关。
如有内容侵犯您的合法权益,请及时与我们联系,我们将第一时间安排处理