[WSJ] #人工智能 如何减少 AI 聊天机器人出现幻觉

Liste des GroupesRevenir à tp china 
Sujet : [WSJ] #人工智能 如何减少 AI 聊天机器人出现幻觉
De : mobot (at) *nospam* fakemail.com (Mobot)
Groupes : talk.politics.china  alt.chinese.text
Date : 31. Jan 2025, 17:55:13
Autres entêtes
Organisation : BWH Usenet Archive (https://usenet.blueworldhosting.com)
Message-ID : <vniv9h$3p0$1@nnrp.usenet.blueworldhosting.com>
User-Agent : Mobot :-)

如何减少 AI 聊天机器人出现幻觉

Illustration: Adrià Voltà

作者:Bart Ziegler

翻译:ChatGPT o1

阅读时长:约 8 - 10 分钟

你无法完全阻止 AI 聊天机器人偶尔出现“幻觉”——即对提示给出误导性或错误答案,甚至凭空捏造信息。然而,你可以采取一些措施,尽量减少它在回应你的请求时给出错误信息的几率。

波士顿咨询集团 (Boston Consulting Group) 下属部门 BCG X 的首席技术官 Matt Kropp 表示,AI 之所以会出现“幻觉”,有以下几个原因:其一,是用于训练 AI 聊天机器人的数据中关于你所询问主题的信息本身就存在冲突、不正确或不完整的情况。对此,你无能为力。其二,则是“你没有明确说明你想要什么,”Kropp 说——而这一点是你可以改进的。

下面是专家们给出的一些技巧,可帮助你最大程度地减少(但无法彻底杜绝)AI 产生的虚假信息。

1. 给 AI 提供详细的指令

告诉 AI 你想要的确切内容。如果你的提示过于宽泛,让它在自己的数据库中随意“翻找”,更有可能生成错误或虚假的信息。

“你需要使用详尽的指示,使用精确的语言,但也要确保提示简洁并与问题直接相关,”技术咨询公司 Gartner 的分析师 Darin Stewart 说。

我最近在选购汽车时,向一个 AI 聊天机器人寻求帮助。它为我提供了非常有用的对比信息,涵盖我感兴趣的 SUV 的尺寸、价格和配置。但其中有一款车的油耗(MPG 值)似乎高得离谱。深入调查后,我发现它给出的其实是柴油版车型的油耗——而那款柴油车型并未在美国销售。

另一个 AI 给我介绍了一款 SUV 的某些特性,但与我在汽车制造商官网上看到的信息并不相符——原来该聊天机器人引用的是几年前的旧款车型配置,而非 2025 款。

要避免这些错误,我本该告诉这些 AI:我只想要美国市场上销售、且是当前在售车型的相关信息。

2. 分步骤结构化你的提问

专家建议,你应该将提问结构成若干个简明的直接问题,而不是一次性抛出一个开放式的大问题。可以一个接一个地提出这些问题——这一过程被称为“迭代式提示”(iterative prompting)。这样既能降低 AI 生成错误信息的概率,也能得到更有用的结果。

“我与 AI 模型的互动,不是一次提问、一次回答的关系,而更像是一场对话,”Kropp 说。“你在不断构建上下文。”

如果你想买一台新洗碗机,不要只问“我应该买哪款洗碗机”,而可以先这样提问:“我需要一台新的洗碗机。选购时有哪些主要功能需要考虑?”

在 AI 回答之后,你可以继续问:“哪些品牌以可靠性著称?哪些又应该避免?我该花多少钱?高价机型值得额外投入吗?”

为了进一步指导 AI,你还可以让它按某种固定的结构来回答,比如:

“请按以下结构来回答:先给一个概述,然后列出关键发现,再列出不同机型的优缺点,最后得出结论。请确保为每一个发现提供支撑证据。”

当我用这种提示向 AI 提问时,它生成了一份约 500 字的综合分析,告诉我该考虑哪些洗碗机、该避开哪些。就我所见,它并没有编造内容。

3. 指导 AI 使用可信来源

告诉 AI 使用某些类型的来源,可能会让它避免引用那些质量可疑、有偏见或错误的信息。

在我搜寻汽车信息的过程中,AI 有时会列出一些来自汽车爱好者网站或 Reddit 上匿名用户帖子的信息作为参考。这些帖子里有些内容看起来并不专业,或者带有误导性,或是过于吹捧。

除了来源本身的质量外,AI 列出的引用也不一定可靠。专家表示,AI 给出的引用并不代表它的回答确实直接源自这些引用。实际上,AI 往往并不知道自己答案中的具体内容是来自哪里。此外,AI 也曾被发现引用并不存在的文件、研究或其他来源。

我重复了之前的问题,但这次告诉 AI 只去看专业评测,并点名了我希望它参考的一些来源,例如《消费者报告》(Consumer Reports)、《Car and Driver》杂志以及汽车购物网站 Edmunds。我无法确认它是不是确实用了这些来源——专家告诉我,我列出的来源可能会让 AI 倾向于选择类似但并不完全相同的材料。不过,它给出的答案确实更有参考价值,也几乎没有多少可疑的信息了。

约翰斯·霍普金斯大学的研究人员发现了一种方法,可以让 AI 直接从其数据库中使用特定来源。只需在问题开头使用“According to Wikipedia(根据维基百科)”这样的话语,或者针对医疗健康问题使用“According to PubMed(基于 PubMed 数据)”,就能让 AI 直接引用这些来源,研究人员在报告中指出了这一点。

4. 告诉 AI 不要编造

这听起来有点像老师警告顽皮学生“别作弊”,但有些专家认为,你应该明确告诉聊天机器人:“如果不确定就说不知道”或“不要凭空捏造答案”。这样,也许可以让它在数据库中证据不足时,不要随便编造信息应付。

“你实际上是在给它一个‘许可’,让它去做一件原本没有经过专门训练的事——承认‘我错了’或‘我不知道’,”Kropp 说。

5. 使用“元提示”(meta-prompt)来指导 AI

还有一种提升提问质量的方法:让 AI 自己来写问题。这种方法叫做“元提示”(meta-prompting),听起来有点奇怪——就像让学生自己写考试题一样。但专家说这确实有效。

举例来说,我让 OpenAI 的 ChatGPT 为一个气象学问题编写提示语。你会注意到,在它的示例提示中,它先给自己定义了一个“专家”身份(persona),这种方法称为“给 AI 设定人设”。研究表明,这种方法能够提升回答质量,并减少错误内容。

我对 ChatGPT 的提示是:

“请为这个问题创建一个元提示:为什么在气温低于冰点时,雨水仍然能以液态降落到地面,而不变成雪或冻雨?”

ChatGPT 的回答是:

“你是一位气象学专家。请解释为什么在气温低于冰点的情况下,雨水仍能以液态降落地面。要求你的解释简明易懂,面向气象知识相对有限的大众。请尽量使用通俗易懂的语言,并在可能的情况下举例说明。”

然后我把这个提示再交给 ChatGPT,得到了一份针对低温下降雨现象的通俗易懂且信息丰富的说明。

6. 使用“思维链式”(chain of thought)提示

还有一种指导 AI 的方法是让它在回答问题时分步骤进行逻辑推理。这种方法被称为“思维链式提示”(chain-of-thought prompting),谷歌研究人员发现,它可以让答案更准确。这样做的好处在于,你能查看 AI 的推理过程,并发现其中的错误。

专家们已经设计了很多复杂的方式去指导“思维链式”推理,比如先给 AI 一个示例,展示它应该如何分解推理步骤。不过,更简单(但可能没那么有效)的方法就是字面上在提示中写道:“使用思维链式的方法……”或者“让我们一步步思考如何回答……”等。

7. 让 AI 自己检查答案

还有一种有趣的方式,你可以让 AI 自己验证答案是否准确。这种被称为“链式验证”(chain of verification)的技术,是由 Meta(Facebook 母公司)研究人员提出的,研究表明可以减少幻觉。

下面是一段由 PromptHub 公司编写的简化文本,用于指导 AI 自我验证。只需要将下列整段文字复制并粘贴到 AI 聊天机器人里,然后在开头添加你自己的问题即可:

这里是问题:[在此处输入你的问题] 第一步:生成一个回答。 第二步:根据这个回答创建并回答一些验证性问题,以检查回答的准确性。请认真思考,确保对问题的回答极其准确。 在回答每个验证性问题之后,结合这些答案并修正初始回答,得到最终的核实后答案。请确保最终的回答反映了整个验证过程的准确性和结论。

当我用这一格式向 ChatGPT 和谷歌的 Gemini 提问时,它们会先给出一个初步回答,然后列出它们自己提出的验证性问题以及对这些问题的回答,接着再给出修订后的最终回答。

作者简介

Bart Ziegler 曾任《华尔街日报》编辑,可通过 reports@wsj.com 与他联系。

频道推荐:经济学人中文版

[0] 经济学人中文版: https://t.me/econo202




2025-01-31T15:59:19+0000

--
Mobot

If you have any comments on this article, feel free to reply to this post. However, for feedback on the bot, please post in the cn.fan group.

Date Sujet#  Auteur
31 Jan 25 o [WSJ] #人工智能 如何减少 AI 聊天机器人出现幻觉1Mobot

Haut de la page

Les messages affichés proviennent d'usenet.

NewsPortal