
幻觉涉及诸如大型语言模型(LLM)之类的人工智能(AI)系统生成表面上看似真实的信息,但在现实中没有实际依据或与最初提供给人工智能模型的背景不一致时可能发生的情况。乍一看,这些虚假陈述对读者来说似乎很有说服力,因此增进对此类人工智能幻觉根本原因的理解至关重要。我们必须探索有效的缓解策略,以应对人工智能系统提出缺乏事实验证的虚假声明所带来的风险,以及数据标签服务如何帮助减轻LLM幻觉的最坏影响。
什么原因导致 LLM 幻觉?
几个关键因素可能导致LLM开始对模仿真实事实和细节的虚假信息产生幻觉。一个因素是,尽管对手头的主题没有实际知识或真正的语义理解,但对模型继续生成连贯文本的能力纯粹过度自信。该模型本质上是连续写出听起来很合理的句子,却从未验证所提主张的客观准确性。
第二个因素是该模型坚持不懈地试图整理听起来合理的叙述,这些叙述在逻辑上从一句到另一句话,却忽视了核心主张是否与可证实的事实相一致。在这里,模型变得过于注重文本连贯性,而不是事实完整性。接下来,我们不能忽视在初始训练过程中应用的不充分技巧,这些技巧无法正确区分基于现实的事实陈述和完全虚构的事实陈述。
如果没有正确的训练,该模型很难区分真实的事实知识和虚假信息。最重要的是,用于预训练模型的数据集中的大量偏差也可能污染生成过程。训练数据中根深蒂固的潜在扭曲和社会偏见被模型吸收,然后反映在其输出中。
LLM 幻觉的类型
仔细观察,我们可以识别出不同类别的虚假信息,这些信息通常是由LLM幻觉引起的。一种是生成完全有说服力但完全虚构的 “虚假事实”,即在事实上没有主张依据的情况下,这些陈述自信地被当作事实真相呈现。第二种味道表现为详尽而外表连贯的 “幻想叙事” ——从头到尾由模型编织的故事,逻辑流畅,但与现实世界中的实际事件相比,事实有效性为零。
偶尔会出现不合时宜,该模型将人、地点、事件或想法置于不正确或不可能的历史时期,这些时间段与现实中元素存在的时间表不一致。我们还经常看到 “归因错误”,即模型将特定的报价或想法归因于错误的来源,而不是归功于其真正的创始人。这可能会使信息无法使用,在某些情况下会对最终用户造成危险。
LLM 幻觉的技术解释
当我们在技术层面分析幻觉时,大型语言模型的某些架构限制显然是造成这些虚假信息生成问题的原因:
大多数模型很难从根本上将它们提出的主张与通过任何形式的现实世界知识或有根据的推理将陈述作为事实进行验证联系起来。这种缺乏常识性的推理使得几乎无法确认所产生的索赔是否有现实依据。
其次,限制模型制作逻辑上连贯但完全未经证实的文本内容似乎存在内在困难。主要为流畅性和连贯性而设计的流行模型架构很容易产生虚构的书面内容,这些内容在第一遍时听起来很合理。
当然,大多数模型都不具备强大的识别能力,无法区分其生成的陈述是否符合训练数据集中观察到的模式,还是完全由模型本身发明的错误推断。从本质上讲,这些模型往往难以区分从实际数据中学到的相关性与他们自己创造的捏造的相关性。
LLM 幻觉的风险和担忧
当先进的人工智能系统将虚构的细节或完全虚假的信息幻觉为事实时,会带来不容忽视的重大风险:
首先,如果未经彻底核实就公开曝光幻觉内容,则有可能传播危险的错误信息。人工智能的虚假说法有可能被读者接受为事实。
如果模型间接模仿从有偏见的训练数据集中吸收的扭曲趋势,则社会偏见也可能得到隐性加强。这可能会传播有害的偏见,而不是纠正它们。
随着先进的人工智能在不同主题的权威知识方面越来越受到信任,幻觉削弱了公众对系统完整性的信任。一旦被认为不可靠,就很难恢复信心。
缓解策略
为了应对危险的人工智能幻觉这一紧迫问题,研究人员正在积极探索缓解策略,例如:
改进的培训技巧专门侧重于教学模型,以生成可验证的事实陈述,而不是针对各种主题的未经证实的主张。从模型开发一开始,就必须将幻觉降至最低。
借此努力主动识别容易产生幻觉的敏感受试区域周围的模型盲点,从而可以针对这些弱点采取纠正性干预措施。
第三,在文本生成过程中添加限制,迫使模型将任何事实陈述来源于可靠的参考文献,而不是产生幻觉的事实。
最后,在未经模型生成事实验证的情况下明确披露任何推测性内容,以提醒用户注意潜在的虚假信息。
未经控制的 LLM 幻觉对现实世界的影响
允许在LLM中出现有问题的幻觉不仅在理论上而且在实践中都存在重大风险,因为系统部署在现实世界中时也会带来重大风险。过于自信的LLM散布的未经证实的虚假声明可能会对以下方面产生负面影响:
- 如果出现幻觉的错误信息,则公开言论会影响政治、社会或科学讨论。
- 生成或共享不正确的医疗、财务或其他私人信息时的个人生活。
- 如果模型用错误的数据为选择提供依据,则组织决策。
- 如果伤害来自基于法学硕士幻觉指导的行动,则应承担法律责任。
公众对法学硕士幻觉的看法
重要的是,公众对这个问题的看法要在对乐于助人的LLM所带来的巨大好处的赞赏与警惕潜在幻觉带来的不受控制的伤害之间取得平衡:
- 随着LLM变得越来越普遍,应让公众意识到风险。
- 但是,在负责任地部署时,这不应掩盖 LLM 的许多好处。
- 现实的理解可以迫使开发和部署LLM的人加强问责制。
通过负责任地使用 LLM 建立用户信任
部署LLM的人员负责任的披露和使用做法可以帮助建立适当的公众信任:
- 明确传达局限性,并对幻觉内容进行人工监督。
- 为报告和更正错误制定高效的工作流程。
- 利用选择性消歧义来提示 LLM 验证不确定的陈述。
一个令人担忧但可以控制的局限性
随着大型语言模型的功能越来越强大和得到广泛部署,人工智能系统生成看似真实但客观上是虚假的信息存在着令人担忧的局限性。通过以更好的训练、约束、负责任地使用和披露实际模型能力为基础的有针对性的缓解策略,人工智能研究界必须继续取得进展,以减少人工智能幻觉带来的风险。
要确保这些强大的系统强调生成真实的真相,而不是听起来似乎合理的虚假说法,还有很多工作要做。研究人员应继续努力工作,使公众能够享受高级语言模型的好处,而不会出现人工智能幻觉的危险。
使用Sapien的数据标签,通过负责任的人为监督来缓解LLM的幻觉
尽管解决人工智能幻觉的技术策略继续取得进展,但负责任的人为监督对于在虚假信息传播之前将其捕获仍然至关重要。像这样的公司 Sapien 通过将全球人类专业知识与用于数据标签的人工智能技术相结合,实现这一目标。
Sapien的法律、医学和工程等领域的人文领域专家网络可确保对复杂数据进行高度准确的分析,法学硕士可能会误解或产生幻觉的虚假细节。我们的技术平台还有助于高效的工作流程,以便在公开曝光之前对任何不确定的LLM输出进行实时人工验证。
这种人与人工智能的共生关系使消费者和组织能够从高级语言模型中受益,同时通过真正的主题专家的验证来防止可能不准确的输出。只要人类继续参与对高风险的LLM输出进行质量控制,我们就可以继续推动人工智能的进步,为人类提供帮助,同时积极应对幻觉不受控制的风险。
立即联系 Sapien 详细了解我们的数据标签服务,以减轻LLM幻觉的风险,并预约演示以体验我们的平台。