随着大语言模型(LLMs)及其多模态扩展在诸多关键领域的深度应用,其生成内容中存在的“幻觉”问题——即模型输出看似合理但与输入事实、世界知识或内部逻辑相矛盾的信息——已成为制约其可信度与可靠性的核心瓶颈。尽管已有大量研究从不同角度探讨了幻觉的成因并提出了多种检测方法,但该领域的研究仍呈现出碎片化特征:成因分析多聚焦于单一层面(如数据或模型),缺乏系统性的多维度整合;检测技术路径多样,但对其优势、局限及适用场景的对比分析不足;同时,针对开放域问答、代码生成等具体场景下的幻觉表现与挑战,也缺乏深入的梳理。因此,当前亟需一份系统性的综述,以厘清幻觉问题的复杂成因脉络,并对纷繁的检测技术进行结构化梳理与批判性评估。基于此,本文旨在通过系统性的文献调研,首先从数据、模型、任务交互等多维度整合分析幻觉的根源;继而分类综述并对比基于外部知识、内部信号、逻辑一致性等不同范式的检测方法;最后,结合典型应用场景,总结当前研究的局限并展望未来方向,以期为构建更可靠的大模型提供清晰的路线图。


大模型幻觉成因及检测研究进展综述

摘要

随着大语言模型在自然语言处理、多模态生成等领域的广泛应用,其生成内容中存在的“幻觉”问题日益凸显,即模型生成看似合理但与输入事实或世界知识不符的信息。这一问题严重影响了模型的可信度与可靠性,已成为制约大模型落地应用的关键瓶颈。本文旨在系统梳理大模型幻觉问题的研究进展。首先,从模型内部机制与外部数据环境两个层面,综述幻觉的主要成因,包括知识边界模糊、训练数据噪声、自回归生成累积误差、多模态对齐偏差等。其次,对现有的幻觉检测方法进行分类总结,涵盖基于外部知识库的验证、基于模型内部置信度的度量、基于逻辑一致性的分析以及基于人类反馈的评估等多种技术路径。本文进一步对比分析了不同检测方法的优势、局限性与适用场景,并探讨了幻觉问题在开放域问答、代码生成、多模态内容创作等典型应用场景中的具体表现与挑战。最后,本文总结了当前研究面临的局限性,如检测的实时性、通用性、可解释性不足等问题,并展望了未来研究方向,包括构建更鲁棒的评估基准、发展更高效的在线检测与缓解技术、探索幻觉的认知根源以及设计新型模型架构以从根本上抑制幻觉产生。

关键词 :大语言模型, 幻觉, 事实一致性, 检测方法, 生成模型

本文主要的关键研究发现:
- 通用权重子空间假设:大规模实证研究表明,不同任务训练的深度神经网络会收敛到相似的低维参数子空间,这对模型复用、多任务学习和高效算法设计有重要意义。
- 价值梯度引导的流匹配对齐:提出VGG-Flow方法,利用最优控制理论微调预训练的流匹配模型,在有限计算预算下实现高效且保持先验分布的对齐。
- 草稿即思维链的生成范式:提出DraCo方法,通过生成低分辨率草稿图像作为视觉规划,并利用模型自身能力进行验证和细化,有效提升了文本到图像生成的准确性和对稀有概念的生成能力。
- 智能体化多模态奖励模型:提出ARM-Thinker模型,通过自主调用外部工具(如图像裁剪、文档检索)来获取可验证证据,从而增强奖励模型在复杂多模态推理任务中的准确性和可解释性。
- 多模态生成中的解耦与联合控制:Light-X框架通过解耦几何与光照信号,实现了对单目视频的视角与光照联合可控渲染,并通过合成数据策略解决了配对数据稀缺问题。

1. 引言

1.1 研究背景与问题定义

近年来,以大型语言模型(Large Language Models, LLMs)和多模态大模型(Multimodal Large Language Models, MLLMs)为代表的人工智能生成技术取得了突破性进展,在开放域问答、代码生成、多模态内容创作(如图像、视频生成)等领域展现出强大的能力[2, 7, 15]。这些模型通过在海量数据上进行预训练,学习到了丰富的语言模式和世界知识,能够根据用户指令生成流畅、连贯且看似合理的文本或多媒体内容。然而,随着模型能力的提升和应用场景的深化,一个日益凸显且严重制约其可信度与可靠性的问题——“幻觉”(Hallucination)——受到了学术界和工业界的广泛关注。

“幻觉”在本文语境下,特指大模型生成的内容看似合理,但在事实上与输入信息(如用户查询、参考文档)、世界知识或内在逻辑相矛盾的现象。例如,在开放域问答中,模型可能编造一个看似权威但实际不存在的引文或事件细节;在代码生成中,模型可能生成语法正确但功能与需求不符的API调用;在多模态生成中,模型可能生成与文本描述相悖的视觉元素,或在视频序列中产生不符合物理规律的动态[7, 12, 15]。幻觉问题并非简单的“错误”,其根源在于模型并非基于对世界的真实理解进行推理,而是基于其训练数据中统计模式的概率性复现。当模型的知识边界模糊、训练数据存在噪声或偏见、或生成过程的累积误差超出可控范围时,幻觉便极易产生。

幻觉的危害是多方面的。首先,它直接损害了模型输出的事实一致性(Factual Consistency)和可靠性,使得模型在医疗、法律、新闻等对准确性要求极高的领域难以直接应用。其次,幻觉会误导用户,传播错误信息,并可能引发伦理和安全风险。再者,幻觉的存在使得模型的可解释性可控性面临挑战,开发者难以追溯错误根源并进行有效干预。最后,如论文[8]所指出的,在基于奖励模型进行对齐的过程中,奖励模型自身的幻觉和视觉基础薄弱问题,会进一步放大生成模型的对齐偏差,形成恶性循环。因此,系统性地研究大模型幻觉的成因,并发展高效、鲁棒的检测与缓解技术,已成为推动大模型安全、可信、可靠落地的关键瓶颈和核心研究议题。

1.2 研究现状与综述范围

针对大模型的幻觉问题,国内外研究者已从多个维度展开了广泛而深入的研究,形成了从成因分析、检测方法到评估基准的初步体系。早期研究主要集中在文本生成模型的事实性错误上,通过构建基于外部知识库(如维基百科)的验证系统来识别矛盾[8]。随着多模态模型的兴起,研究范围扩展至图文一致性、视频逻辑连贯性等更复杂的场景[7, 15]。例如,论文[7]提出的DraCo方法通过生成低分辨率草图作为“思维链”中的视觉预览,来提前发现和修正语义未对齐问题,这本身就是一种针对生成过程中潜在幻觉的检测与干预机制。论文[15]的TV2TV框架通过交替生成文本和视频帧,将“思考”(语言推理)与“行动”(像素生成)分离,旨在通过更可控的文本推理路径来减少视频生成中的逻辑幻觉。

在检测方法论上,当前研究呈现出多元化趋势。主要包括:(1)基于外部知识验证的方法:利用知识图谱、搜索引擎等外部权威信息源对模型生成内容进行事实核验[8]。(2)基于模型内部信号的方法:通过分析模型在生成过程中的置信度、注意力分布或熵值等内部状态,来识别不确定性高、可能产生幻觉的部分[13]。(3)基于逻辑与一致性分析的方法:检查生成内容内部或与输入之间的逻辑矛盾、指代冲突和时序错乱,这在长文本推理和多模态任务中尤为重要[11, 15]。(4)基于人类反馈与评估的方法:通过众包或专家标注收集人类对生成内容真实性的判断,或训练奖励模型来模拟人类偏好[8, 11]。论文[13]提出的语义软自举(SSB)方法,通过让模型自我蒸馏,从自身生成的正确与错误答案中学习,可视为一种利用模型内部知识进行自我一致性检测和强化的独特思路。

尽管已有丰富成果,该领域仍面临诸多挑战。现有检测方法往往在实时性通用性可解释性上存在不足。例如,基于外部知识库的方法受限于知识覆盖范围和查询延迟;基于内部信号的方法其信度与真实幻觉之间的关联性尚不明确;而基于逻辑的方法对复杂推理的建模能力有限。此外,评估标准不一,缺乏统一、全面的基准来公平比较不同方法的性能。对于多模态幻觉,其定义和检测则更为复杂,需要同时考虑跨模态对齐的粒度与合理性[7, 12]。

本综述旨在系统梳理大模型幻觉问题的研究进展。综述范围将涵盖从文本到多模态的各类生成模型,重点聚焦于幻觉的成因机理检测技术评估体系及其在典型场景中的应用与挑战。我们将不仅总结现有方法,更致力于剖析不同技术路径的内在联系、优势与局限,并探讨未来可能的研究方向,以期为相关领域的研究者提供一个清晰、深入的技术全景图和发展路线参考。

1.3 本文组织结构

为全面、系统地呈现大模型幻觉成因及检测的研究进展,本文后续章节将按如下逻辑展开:

第二章:基础与演进。本章将追溯幻觉问题的学术起源,回顾从早期在机器翻译、文本摘要中观察到的事实性错误,到如今在大语言模型和多模态模型中成为核心挑战的演进过程。同时,将梳理检测技术从基于规则到基于学习,从单一模态验证到多模态协同分析的关键突破与发展脉络。

第三章:幻觉成因分析。本章将从多维度深入剖析幻觉产生的根源。首先,从数据驱动角度,分析训练数据中的噪声、偏见、知识缺失与过时如何被模型吸收并放大。其次,从模型内部机制出发,探讨自回归生成架构、注意力机制、训练目标(如下一个词预测)以及推理过程中的贪婪解码或采样策略如何共同导致误差累积和事实偏离。最后,结合具体任务与交互场景(如开放域生成、多轮对话、指令跟随),分析外部因素如何诱发或加剧幻觉。

第四章:幻觉检测方法论。本章将对现有检测方法进行系统性分类和阐述。我们将详细论述基于外部知识验证、基于模型内部信号、基于逻辑与一致性分析以及基于人类反馈与评估这四类主流技术路径的核心思想、代表性工作、技术流程及其适用前提。

第五章:评估与对比分析。本章将介绍用于评估幻觉检测方法的主流数据集(如TruthfulQA、HaluEval、MMHal-Bench等)和评价指标(如准确率、召回率、F1值、基于自然语言推理的分数等)。通过对比分析不同方法在这些基准上的性能、效率(检测速度、资源消耗)和可扩展性,总结其优势、局限性与最佳适用场景。

第六章:典型应用场景与挑战。本章将聚焦于幻觉问题在几个关键应用领域的具体表现与应对挑战,包括:1)开放域问答与事实核查中的事实性幻觉;2)代码生成与安全审计中的功能性与安全性幻觉;3)多模态内容(图像、视频)生成中的语义对齐与物理合理性幻觉。结合相关论文(如[7, 8, 12, 15])中的案例进行具体分析。

第七章:挑战与未来方向。本章将总结当前研究在检测实时性、跨任务通用性、可解释性以及根本性缓解等方面面临的局限性。在此基础上,展望未来可能的研究方向,例如构建更鲁棒、细粒度的评估基准,发展高效的在线检测与协同生成技术,从认知科学角度探索幻觉的深层根源,以及设计新型模型架构或训练范式以从源头抑制幻觉产生。

第八章:总结。对全文的主要研究发现进行概括性总结,并阐述本领域研究对促进大模型安全、可信、可靠发展的启示与意义。

2. 基础与演进

2.1 幻觉问题的早期观察与定义

大语言模型(LLM)的“幻觉”问题并非伴随其诞生而立即被系统性地提出,而是在模型规模和应用范围不断扩大的过程中逐渐凸显并得到界定的。早期研究主要集中于模型在特定任务(如开放域问答、文本摘要)中产生的“事实性错误”或“不一致性”。这些观察最初散见于对模型输出质量的评估报告中,研究者们注意到,尽管模型在流畅性和表面合理性上表现出色,但其生成的内容常常包含无法被输入文本或公认世界知识所支持的信息。例如,在回答历史事件或科学事实问题时,模型可能会捏造日期、人物关系或科学原理。这一现象被形象地类比为人类的“幻觉”,意指模型“看到”或“相信”了不存在的事物。

随着研究的深入,“幻觉”的定义逐渐从宽泛的事实性错误走向更精确的学术界定。当前学术界普遍接受的“幻觉”定义是指:大模型生成的内容在语义上看似合理、流畅,但在事实上与提供的输入源(如用户查询、参考文档)或既有的世界知识相矛盾或不一致。这一定义强调了两个关键维度:一是“看似合理”,即幻觉内容并非明显的语法错误或无意义字符串,这增加了其检测难度;二是“事实不一致”,这是判断幻觉的核心标准。根据不一致的参照系,幻觉可进一步细分为内在幻觉(与输入源信息矛盾)和外在幻觉(与外部世界知识矛盾)[1]。例如,在摘要任务中,模型生成输入文本中未提及的细节,属于内在幻觉;而在开放域问答中,模型给出一个错误的历史事实,则属于外在幻觉。

早期对幻觉成因的探讨多归因于模型的训练数据。由于大模型通常在从互联网抓取的海量、未经过滤的语料上进行训练,数据中不可避免地包含噪声、偏见、过时信息以及相互矛盾的说法。模型在最大化下一个词预测概率的目标驱动下,学习到的是一种对训练数据中统计模式的拟合,而非对真实世界知识的“理解”或“记忆”。因此,当模型在推理时遇到训练数据中低频或缺失的知识模式时,它倾向于根据其参数中内化的、最可能的语言模式进行“编造”,从而产生幻觉。这一阶段的观察为后续从数据和模型内部机制两个层面深入剖析幻觉成因奠定了基础。

2.2 关键检测技术的突破

随着对幻觉问题严重性的认识加深,研究者们开始系统地探索检测方法,并在此过程中实现了若干关键技术的突破。这些突破标志着幻觉研究从现象描述走向了可量化、可操作的工程与科学问题。

最初的检测方法高度依赖人工评估,即由人类专家或众包工作者逐条判断模型输出的事实一致性。这种方法虽然准确,但成本高昂、效率低下且难以规模化,无法满足对大模型输出进行实时、批量评估的需求。因此,自动化检测技术的开发成为必然。

第一个重要突破是基于外部知识库的验证方法的提出与发展。这类方法的核心思想是将模型的生成内容与一个可信的外部知识源(如维基百科、知识图谱、专业数据库)进行比对,通过信息检索、实体链接和事实三元组匹配等技术,验证生成陈述的真实性。例如,对于模型生成的一句话,系统会抽取其中的实体和关系,然后在知识库中查询以确认其是否存在及是否正确。这种方法直接针对外在幻觉,其有效性高度依赖于知识库的覆盖范围、时效性和查询的准确性。然而,它无法处理知识库中未收录的、或需要复杂推理才能验证的陈述,且对于内在幻觉(仅与输入矛盾)的检测能力有限。

第二个关键突破是基于模型内部信号的度量方法的出现。研究者发现,模型在生成过程中产生的内部状态(如注意力分布、隐藏层激活值、词元预测概率)蕴含着关于其自身“置信度”的信息。例如,通过分析模型对生成词元的预测概率(困惑度),或计算不同生成路径之间的一致性,可以间接推断出模型对某部分内容的不确定性,从而识别潜在的幻觉点。论文[13]提出的“语义软自举”方法虽然主要用于提升模型推理能力,但其核心思想——利用模型自身对正确与错误答案的判别能力来生成训练数据——也体现了从模型内部挖掘自我验证信号的思路。这类方法的优势在于无需外部资源,可实现快速、低成本的在线检测。但其挑战在于,模型的内部置信度与事实正确性之间的关联并非总是可靠,高置信度的错误生成(即“自信的幻觉”)是常见且棘手的问题。

第三个突破体现在基于逻辑与一致性分析的方法上。这类方法不直接诉诸外部知识,而是专注于分析生成文本内部的逻辑连贯性、以及与输入上下文之间的语义一致性。例如,通过自然语言推理(NLI)模型判断生成内容是否与输入前提相矛盾,或通过检查长文本生成中前后事实陈述是否自洽。论文[7]提出的DraCo方法,通过生成低分辨率草图并进行自我验证来修正语义未对齐问题,本质上是一种在生成过程中引入的、基于视觉-语义一致性的内部检测与修正机制。这类方法对于检测内在幻觉和逻辑谬误特别有效。

近年来,一个显著的突破方向是面向多模态模型的幻觉检测。随着如Stable Diffusion [4]、Light-X [3]、TV2TV [15]等多模态生成模型的兴起,幻觉问题从纯文本域扩展到了图文、视频生成领域。多模态幻觉表现为生成的图像/视频内容与文本描述不符(如属性缺失、物体错位)、或视觉内容自身存在物理不合理性。检测方法也随之演进,例如,论文[8]提出的ARM-Thinker通过智能体调用外部工具(如图像裁剪、文档检索)来验证视觉细节和推理主张,为多模态奖励模型的幻觉检测提供了新范式。论文[12]的NeuralRemaster通过相位保持扩散来维持生成内容的结构对齐,从模型架构层面抑制了因结构失真导致的视觉幻觉。这些工作表明,幻觉检测技术正在从单一的、后处理的验证,向融合于生成过程的、多模态交互的、可解释的验证方向发展。

表:关键幻觉检测技术突破对比

技术类别 核心思想 代表性技术/思路 优势 局限性 适用场景
基于外部知识验证 与可信知识源比对 实体链接、关系匹配、检索增强 检测准确度高,针对外在幻觉有效 依赖知识库完备性,无法处理未知知识,实时性差 开放域问答、事实核查
基于内部信号度量 分析模型自身不确定性 词元概率、困惑度、自一致性采样 无需外部资源,速度快,可在线使用 置信度与事实性关联不绝对,存在“自信幻觉” 实时文本生成、初步风险筛查
基于逻辑一致性分析 检查文本内/间逻辑 自然语言推理(NLI)、语义蕴含分析 擅长发现内在矛盾和逻辑错误 依赖于NLI模型性能,对复杂推理链条检测难 文本摘要、长文本生成、对话系统
基于多模态交互验证 跨模态对齐与工具调用 视觉-语义验证、智能体工具使用(如[8]) 直接针对多模态幻觉,可解释性强 系统复杂,计算开销可能较大 图文/视频生成、多模态问答

2.3 从单一模态到多模态的演进脉络

大模型幻觉研究的演进脉络清晰地遵循着模型能力拓展的轨迹,即从单一文本模态视觉、音频乃至具身智能等多模态领域纵深发展。这一演进不仅是应用场景的简单扩展,更带来了问题复杂性、检测维度和技术范式的根本性变化。

在单一文本模态时代,幻觉研究聚焦于语言模型生成的叙事、事实与逻辑。检测手段主要围绕文本字符串展开,无论是与外部文本知识库比对,还是分析内部文本概率分布,抑或是进行文本间的逻辑推理,其处理对象和评估标准都相对统一。这一阶段建立了幻觉研究的基本框架,包括定义、分类和上述几类核心检测范式。

多模态生成模型的爆发性发展(如[3, 4, 7, 12, 15])将幻觉问题带入了一个更复杂的维度。在这里,“事实”不再局限于文本陈述,还包括了视觉元素的存在性属性空间关系物理合理性以及跨模态的语义对齐。例如,根据提示词“一只戴着红色帽子的猫”生成的图像中,猫可能没有帽子,或帽子是蓝色,或帽子与猫的空间关系不合理(如帽子悬浮在远处)。论文[7]的DraCo方法正是为了应对此类细粒度的属性对齐和罕见概念组合难题,通过草图预览和自验证进行修正。论文[3]的Light-X致力于在视频生成中联合控制视角和光照,其挑战在于确保时序上视觉内容与复杂控制信号的一致性,避免出现闪烁、跳变等动态幻觉。

这一演进促使检测方法从“文本比对”升级为“跨模态对齐验证”。传统的基于文本知识库的方法显得力不从心,因为许多视觉事实(如物体的具体外观、场景的布局)难以用结构化知识完全描述。新的检测范式应运而生:1)基于视觉语言模型的评估:利用强大的VLM(如GPT-4V)直接分析图像/视频内容是否与文本描述相符,这相当于引入了一个“AI裁判”。2)基于模型自验证的迭代生成:如DraCo [7]和TV2TV [15]所示,将生成过程分解为“规划-生成-验证-修正”的迭代循环,在模型内部引入自检机制。TV2TV让模型在生成视频帧序列中穿插生成文本描述(“思考”),再用这些文本来指导后续帧的生成(“行动”),实现了开放式的推理与控制。3)基于工具增强的智能体验证:如ARM-Thinker [8]所示,让模型具备主动调用外部工具(裁剪、OCR、搜索)的能力,以获取可验证的证据来支撑其判断,将幻觉检测从一个静态评分任务转变为一个动态的、可解释的探究过程。

此外,多模态幻觉的抑制也开始从模型架构和训练目标层面进行探索。论文[12]的Phase-Preserving Diffusion (φ-PD) 通过保留输入图像的相位信息来维持生成结果的结构对齐,从去噪过程的本源上减少几何失真类幻觉。这标志着研究从“事后检测”向“事前预防”和“过程控制”的范式转移。

综上所述,从单一模态到多模态的演进,是大模型幻觉研究领域在问题广度、深度和技术复杂性上的全面升级。它要求研究者不仅关注文本的真实性,还要理解视觉世界的语义与物理规律,并开发出能够进行跨模态理解、推理和交互的新型检测与缓解框架。这一脉络仍在快速延伸,向着更具动态、交互和具身性的复杂场景持续演进。

图:大模型幻觉检测技术演进时间线

早期观察与定义阶段      文本模态检测技术突破阶段      多模态检测与演进阶段
=====================      ============================      ================================

+---------------------+          +---------------------+          +---------------------+
|  早期观察与定义    | -------> |  基于外部知识验证  | -------> |  多模态交互验证    |
|   (早期研究)       |          |   (早期突破)       |          |   (近期发展)       |
+---------------------+          +---------------------+          +---------------------+
        |                                |                                |
   [现象描述与界定]                [与可信知识源比对]                [跨模态对齐与工具调用]
   [内在/外在幻觉分类]             [针对外在幻觉有效]                [如ARM-Thinker [8]]
        |                                |                                |
+---------------------+          +---------------------+          +---------------------+
|                     |          |  基于内部信号度量  |          |  模型架构层抑制    |
|                     | -------> |   (关键突破)       | -------> |   (前沿探索)       |
|                     |          +---------------------+          +---------------------+
|                     |                  |                                |
|                     |            [分析模型自身不确定性]          [从源头减少幻觉]
|                     |            [无需外部资源,速度快]          [如Phase-Preserving [12]]
|                     |                  |                                |
|                     |          +---------------------+          +---------------------+
|                     |          |  基于逻辑一致性分析|          |  自验证迭代生成    |
|                     | -------> |   (重要发展)       | -------> |   (新范式)         |
|                     |          +---------------------+          +---------------------+
|                     |                  |                                |
|                     |            [检查文本内/间逻辑]            [规划-生成-验证循环]
|                     |            [擅长发现内在矛盾]             [如DraCo [7], TV2TV [15]]
+---------------------+          +---------------------+          +---------------------+

3. 幻觉成因分析

3.1 数据驱动的成因:噪声、偏见与知识缺失

大模型幻觉的产生,其根源在很大程度上可追溯至其训练数据。数据作为模型知识的唯一来源,其质量、覆盖范围与内在特性直接塑造了模型的认知边界与生成行为。数据驱动的成因主要包括训练数据中的噪声、系统性偏见以及固有的知识缺失,这些因素共同作用,使得模型在生成内容时容易偏离事实。

首先,训练数据噪声是诱发幻觉的直接原因之一。大语言模型通常在海量、未经过滤的互联网文本上进行训练,这些数据不可避免地包含大量错误、矛盾或未经核实的信息。模型在学习这些数据时,会将其统计模式内化,从而在生成时复现或组合出看似合理但实则错误的内容。例如,在开放域问答中,模型可能基于训练数据中偶然出现的错误关联,生成一个包含错误事实的答案。这种噪声的影响在需要高精度事实的领域(如科学、历史)尤为突出。相关研究[5]在医学影像分割领域也指出了类似问题,即训练数据中存在的成像伪影、运动模糊等“噪声”会严重影响模型的泛化能力和预测准确性,这从侧面印证了数据质量对模型可靠性的根本性影响。

其次,数据偏见是导致幻觉的深层结构性因素。训练数据中存在的性别、种族、文化或领域偏见会被模型放大。当模型基于有偏的数据进行推理时,可能生成带有刻板印象或不符合特定情境事实的内容。例如,在生成人物描述或进行社会事件分析时,模型可能无意识地输出带有偏见的论断。这种偏见不仅导致事实性错误,还可能引发伦理问题。论文[2]从模型参数子空间的角度提供了有趣的视角,其研究表明,即使在不同任务和数据集上训练,模型权重也会收敛到相似的“通用子空间”。这暗示了模型从数据中学习到的某些底层偏见或模式可能是高度结构化和顽固的,难以通过简单的微调彻底消除,从而成为幻觉的稳定来源。

最后,也是最为根本的一点,是模型的知识缺失与知识边界模糊。任何模型的知识都受限于其训练数据的时间戳和覆盖范围。对于训练截止日期之后发生的事件、高度专业化或小众领域的知识,以及训练数据中未充分体现的“长尾”事实,模型缺乏准确的内部表征。当提示触及这些知识盲区时,模型倾向于基于其学到的语言模式和概率分布进行“捏造”,而非承认无知,从而产生幻觉。这一点在需要最新信息或罕见概念组合的任务中表现明显。例如,论文[7]的研究直接针对“生成罕见属性组合”的挑战,指出现有方法在此类任务上困难重重,这正是因为训练数据中缺乏足够的、关于这些罕见组合的实例,模型无法进行可靠的泛化,只能依赖不准确的联想进行生成。

3.2 模型内部的成因:架构、训练与推理机制

除了外部数据因素,大模型自身的内部机制——包括其神经网络架构、训练目标与策略以及推理生成过程——是幻觉产生的另一核心维度。这些机制固有的特性决定了模型如何处理信息、进行预测,并最终可能导致系统性偏差。

模型架构层面,当前主流的大语言模型普遍采用基于Transformer的自回归架构。这种架构擅长捕捉长距离依赖和复杂的语言模式,但其“下一个词预测”的核心训练目标本质上是基于上下文的条件概率建模,而非对世界知识的真实性进行建模。模型优化的是生成“在统计上可能”的文本序列,而非“在事实上正确”的文本序列。这种设计上的根本性错位是幻觉问题的结构性根源。此外,一些研究开始探索通过改进架构来抑制幻觉。例如,论文[12]提出的“相位保持扩散”(φ-PD)模型,通过保留输入数据的相位信息(对应空间结构)而随机化幅度,旨在生成几何结构对齐的内容。这为解决图像生成中的结构幻觉(如物体变形、位置错误)提供了一种新的架构思路,虽然主要针对视觉模态,但其“保持核心结构、扰动次要特征”的思想对理解文本生成中的事实核心与修饰部分的分离具有启发意义。

训练机制同样至关重要。预训练阶段的大规模无监督学习使模型获得了强大的语言能力,但也固化了其从噪声数据中学习到的错误关联。更重要的是,后续的对齐微调(如基于人类反馈的强化学习,RLHF)虽然旨在使模型输出更符合人类偏好,但其优化目标(如奖励模型得分)可能与事实准确性不完全一致。模型可能学会生成更流畅、更令人满意但未必更准确的回答,甚至可能为了获得高奖励而“编造”细节。论文[13]的研究指出了强化学习在训练推理能力时的瓶颈,如缺乏密集奖励和样本效率低,这可能导致训练不稳定,模型未能充分学习到严谨的事实核查逻辑。而论文[4]提出的VGG-Flow方法,旨在对流程匹配模型进行高效且保持先验分布的对齐微调,其核心挑战之一正是在引入人类偏好的同时,如何避免破坏模型在预训练阶段学到的、可能包含正确事实基础的知识分布。

推理生成机制是幻觉产生的最后一道关口。自回归生成是一个逐步累积的过程,早期的微小错误或模糊选择会在后续步骤中被放大,导致最终输出完全偏离正轨,即“累积误差”。采样策略(如核采样、温度调节)的随机性也会引入不确定性,可能从模型的概率分布中采样到低概率但错误的内容。此外,模型在生成时缺乏有效的“自我验证”机制。虽然一些研究[7, 8]尝试引入思维链(CoT)或工具调用进行自我验证,但大多数标准模型在生成过程中是“开环”的,一旦开始生成,便很少回头检查和修正之前的内容。论文[7]提出的DraCo方法通过生成低分辨率草稿作为“预览”,并利用模型自身的理解能力进行验证和修正,正是为了在推理环节引入一个内部校验循环。论文[8]的ARM-Thinker则更进一步,让奖励模型主动调用外部工具(如图像裁剪、文档检索)来获取可验证的证据,从而将开环的评分转变为基于证据的闭环判断,这从机制上为解决基于视觉的幻觉问题提供了新路径。

表:大模型幻觉的内部成因分类与关键特征

成因类别 具体机制 导致的幻觉表现 相关研究启示
架构设计 自回归Transformer、下一个词预测目标 生成统计上合理但事实错误的序列;结构对齐困难(多模态)。 [12] 通过相位保持设计改善结构一致性。
训练机制 无监督预训练数据噪声、对齐目标与事实性偏差、训练效率瓶颈。 固化错误关联;为讨好奖励模型而编造内容;推理能力训练不足。 [4] 关注对齐中的先验保持;[13] 指出RL训练瓶颈并提出替代方案。
推理机制 自回归累积误差、采样随机性、缺乏内部验证闭环。 错误逐步放大;生成低概率错误内容;无法实时检错纠偏。 [7] 引入草稿预览与验证循环;[8] 通过智能体调用工具实现证据验证。

3.3 任务与交互场景下的诱发因素

幻觉并非模型在真空中产生的固有属性,其显现的频率和形式高度依赖于具体的任务需求人机交互场景。某些任务本身具有高不确定性或对知识完备性要求极高,而交互中的提示(Prompt)设计、上下文信息以及用户的预期管理,都可能成为诱发或加剧幻觉的关键因素。

首先,任务本身的复杂性与不确定性是重要诱因。开放域问答、创意写作、代码生成、多模态内容合成等任务,对模型的泛化、推理和创造能力提出了极高要求。当任务需求超出模型可靠的能力边界时,幻觉就容易产生。例如:

  • 开放域问答:问题可能涉及多跳推理、需要最新或非常专业的知识。模型在知识链断裂处可能进行猜测。
  • 代码生成:需要精确的语法、API使用和逻辑。模型可能生成看似功能正确但存在隐藏漏洞或安全风险的代码,这是一种特殊形式的“功能性幻觉”。
  • 多模态生成:如根据文本生成图像或视频,需要精确对齐不同模态的语义。论文[3]和[15]的研究指出了在此类任务中保持跨模态一致性的挑战。[3]的Light-X框架需要解耦几何与光照信号以实现可控渲染,[15]的TV2TV模型通过交错生成文本和视频帧来改善推理,这都反映了多模态对齐的固有难度,容易导致生成的视觉内容与文本描述在细节上出现偏差(即“模态间幻觉”)。

其次,提示工程与上下文信息直接引导模型的生成方向。模糊、矛盾或带有误导性的提示会显著增加幻觉概率。例如,提示中如果包含错误的前提假设,模型可能会基于这个错误前提生成一系列看似逻辑自洽但整体错误的内容。此外,在长对话或多轮交互中,上下文累积可能导致模型为了保持对话的连贯性或迎合用户之前表达的观点,而延续甚至强化之前对话中可能已出现的错误信息。

最后,用户预期与模型能力的不匹配是一个常被忽视的社会技术因素。用户可能高估模型的能力,认为其具备类似人类的常识和理解力,从而提出过于复杂或需要真实世界体验的任务。当模型试图满足这种不切实际的预期时,就更倾向于生成“自信”的幻觉内容。论文[11]在机器人视觉-语言-动作模型中提出的“阶段感知”优化,虽然主要解决的是动作序列学习问题,但其核心理念——识别任务中不同阶段的语义和难度差异并进行针对性优化——对于理解复杂任务中幻觉的分布具有启发性。幻觉可能更频繁地出现在任务中模型认知最薄弱或训练最不充分的那些“阶段”或子环节。

综上所述,大模型的幻觉成因是一个多层面、交织的系统性问题。它根植于有缺陷的数据基础,内化于模型架构与训练目标,并在特定任务和交互场景中被触发和放大。理解这些成因的多样性及其相互作用,是发展有效检测与缓解策略的前提。

为了系统梳理大模型幻觉的成因,以下分类体系图从数据、模型内部机制及外部交互三个维度,对相关研究进行了技术性归纳与组织,为后续的检测与缓解研究提供了清晰的脉络。

图:大模型幻觉成因技术分类体系

[ 大模型幻觉成因 ]
       |
       +===> [ 数据驱动的成因 ]
       |       |
       |       +---> [ 噪声 ] : 训练数据中的错误、不一致或低质量信息 (如论文5中提及的临床MRI图像的运动伪影)
       |       +---> [ 偏见 ] : 数据集中存在的系统性偏差或分布不均
       |       +---> [ 知识缺失 ] : 训练语料覆盖范围有限,缺乏特定领域或最新知识
       |
       +===> [ 模型内部的成因 ]
       |       |
       |       +---> [ 架构与参数 ]
       |       |       |
       |       |       +---> [ 参数子空间收敛 ] : 模型倾向于收敛到低维通用子空间,可能限制表达能力 (论文2)
       |       |       +---> [ 注意力机制局限 ] : 在处理长上下文或复杂关系时可能出现偏差
       |       |
       |       +---> [ 训练机制 ]
       |       |       |
       |       |       +---> [ 目标函数与对齐 ] : 训练目标与人类偏好不完全一致,需通过强化学习等方式对齐 (论文4, 8)
       |       |       +---> [ 过拟合与泛化不足 ] : 对训练数据模式记忆过深,泛化到新场景时产生错误
       |       |
       |       +---> [ 推理机制 ]
       |               |
       |               +---> [ 自回归生成误差累积 ] : 生成过程中的错误会逐词传播并放大
       |               +---> [ 采样策略 ] : 贪婪解码等策略可能放大模型的不确定性
       |
       +===> [ 任务与交互场景下的诱发因素 ]
               |
               +---> [ 输入指令的模糊性与复杂性 ] : 指令不明确或包含矛盾、罕见概念组合时易诱发幻觉 (论文7)
               +---> [ 多模态任务中的对齐挑战 ] : 文本与视觉、几何等信息难以完美对齐与推理 (论文3, 6, 7)
               +---> [ 缺乏实时验证与工具调用 ] : 模型在生成过程中无法主动调用工具验证事实或细节 (论文8)
               +---> [ 领域外或极端数据分布 ] : 输入数据显著偏离训练分布 (如论文9中的强无序系统,论文1中的极端物理条件模拟)

4. 幻觉检测方法论

4.1 基于外部知识验证的方法

基于外部知识验证的幻觉检测方法,其核心思想是将大模型生成的内容与外部可信知识源(如知识库、数据库、文档或互联网)进行比对,以验证其事实准确性。这类方法通常被视为检测幻觉的“黄金标准”,因为它直接锚定于客观事实。其基本流程包括:首先,从生成文本中提取可验证的实体、关系或陈述;其次,通过检索技术从外部知识源中获取相关证据;最后,设计验证器来判断生成内容与证据之间的一致性。

根据验证器的实现方式,该方法可进一步细分。一种常见范式是“检索-验证”流水线。例如,在开放域问答任务中,系统会先检索与问题相关的文档,然后判断模型生成的答案是否被检索到的文档所支持。另一种更先进的范式是让模型自身参与到验证过程中,如ARM-Thinker[8]所展示的“智能体化”奖励模型。该方法不再进行静态的相似度打分,而是让奖励模型自主调用外部工具(如图像裁剪、文档页面检索)来获取可验证的证据,从而对生成内容中的细粒度视觉细节、多页文档中的交叉引用以及推理主张进行核实。这种主动的、基于工具使用的验证方式,显著提升了检测的准确性和可解释性,特别是在处理需要复杂多模态推理的任务时。

然而,基于外部知识验证的方法也存在明显的局限性。首先,其有效性高度依赖于外部知识源的完整性、时效性和覆盖范围。对于知识库中未包含的最新信息或小众领域知识,该方法可能失效。其次,检索过程可能引入噪声或不完整的证据,导致误判。再者,并非所有生成内容都适合进行事实性验证,例如主观意见或创造性文本。最后,实时检索和验证过程会带来额外的计算开销和延迟,可能不适用于对实时性要求高的应用场景。

4.2 基于模型内部信号的方法

基于模型内部信号的方法旨在不依赖外部资源的情况下,通过分析模型在生成过程中的内部状态(如注意力分布、隐藏层激活、置信度分数)来探测幻觉。这类方法的假设是,当模型生成不确定或事实性存疑的内容时,其内部会表现出可识别的异常信号。

一种主流技术是分析模型的生成概率或置信度。例如,通过检查模型为生成文本中每个token分配的概率,低概率区域可能暗示着模型的不确定性。Semantic Soft Bootstrapping (SSB)[13] 虽然主要是一种训练方法,但其原理揭示了模型内部信号的价值:它通过让模型在获得不同语义上下文(正确与错误答案)后生成解释,并利用其产生的logits序列作为训练目标,这隐含地要求模型学会区分自身生成内容的可靠性。另一种思路是探查模型的知识边界。The Universal Weight Subspace Hypothesis[2] 的研究发现,不同任务上训练的大模型会收敛到相似的低维参数子空间。这启发我们,或许可以通过分析模型权重空间的偏离或激活模式的异常,来识别其正在生成超出其“通用子空间”覆盖范围(即知识边界外)的内容,这可能与幻觉相关。

此外,对于多模态模型,可以检查跨模态对齐的一致性信号。例如,在文本到图像生成中,可以评估生成的图像与输入提示在语义上的一致性,不一致则可能表明出现了幻觉。DraCo[7] 方法通过生成低分辨率草图并进行自我验证来修正语义未对齐之处,正是利用了模型内部的视觉理解能力作为检测和纠正幻觉的信号。

这类方法的优势在于无需外部知识库,检测速度快,且可能捕捉到外部验证无法察觉的、源于模型内部矛盾的幻觉。但其主要挑战在于,内部信号(如低置信度)与幻觉之间的关联并非总是可靠;模型可能对其生成的错误内容表现出高置信度(即“自信的幻觉”),这使得仅依赖内部信号的检测变得困难。

4.3 基于逻辑与一致性分析的方法

基于逻辑与一致性分析的方法侧重于检查生成内容自身的内在逻辑连贯性,以及其与输入上下文或通用常识之间的一致性。这类方法不直接诉诸外部事实,而是依赖于形式逻辑规则、常识推理或简单的文本一致性检查。

在文本生成中,一致性分析可以发生在多个层面:句子内部的逻辑矛盾、前后句子之间的信息冲突、以及生成内容与输入提示之间的违背。例如,在长文本生成中,可以检测是否出现了关于同一实体的属性描述前后不一。对于需要多步推理的任务(如数学解题、代码生成),可以检查推理链的逻辑正确性。STARE-VLA[11] 方法在机器人操作任务中,将长时程动作轨迹分解为语义阶段并提供阶段对齐的强化信号,这本质上是在确保动作序列在因果逻辑上的一致性,避免出现逻辑上不可行或矛盾的步骤序列。

在代码生成场景下,逻辑一致性检测尤为重要。生成的代码除了需要语法正确,其逻辑必须符合编程语言的语义和算法设计。静态代码分析、形式化验证或简单的测试用例运行都可以作为检测逻辑幻觉的手段。对于多模态生成,一致性分析扩展到跨模态领域。例如,在TV2TV[15] 框架中,模型交替生成文本描述和视频帧,这种设计允许在生成视频像素之前先用语言“思考”后续内容,从而在文本规划和视频生成之间建立并维持一种逻辑和语义上的连贯性,减少因规划不当导致的视觉内容与叙事逻辑脱节的幻觉。

表:主要幻觉检测方法对比

方法类别 核心原理 典型技术/代表工作 优势 局限性 适用场景
基于外部知识验证 与外部可信知识源比对 检索-验证流水线、工具调用验证(如[8]) 准确性高、可解释性强、有客观依据 依赖知识源完备性、检索噪声、计算开销大、时效性问题 开放域问答、事实核查、需要高可信度的报告生成
基于模型内部信号 分析模型生成过程中的内部状态 置信度分析、权重/激活模式分析(如[2])、自验证(如[7]) 无需外部资源、检测速度快、可发现内部矛盾 信号与幻觉关联不总是可靠、存在“自信的幻觉” 实时或轻量级检测、对隐私敏感的内部应用、初步筛查
基于逻辑与一致性分析 检查内容内在逻辑与上下文一致性 文本矛盾检测、推理链验证、多模态对齐检查(如[11, 15]) 不依赖外部知识、能捕捉逻辑谬误、适用于创造性内容 对复杂逻辑和隐含常识的检测能力有限、规则定义困难 长文本生成、代码生成、多模态叙事、逻辑推理任务
基于人类反馈与评估 利用人类判断作为质量标尺 人工评分、偏好标注、基于人类反馈的强化学习(RLHF) 符合人类主观感知、能评估复杂和模糊的质量维度 成本高昂、难以规模化、主观性强、一致性低 模型训练与对齐、构建高质量评估基准、最终质量验收

4.4 基于人类反馈与评估的方法

基于人类反馈与评估的方法将人类的判断作为检测和定义幻觉的最终标尺。由于幻觉的本质是生成内容与人类所认知的事实或逻辑不符,因此直接引入人类评估者是最直接的方式。这类方法不仅用于事后检测,更广泛地应用于模型训练过程中,以对齐模型输出与人类偏好。

最常见的形式是人工评估。评估者根据生成内容的事实准确性、逻辑性、与提示的相关性等进行打分或提供偏好比较。这些人工标注的数据可用于训练奖励模型,进而通过强化学习(如RLHF)来微调大模型,使其减少幻觉。Value Gradient Guidance for Flow Matching Alignment (VGG-Flow)[4] 和 STARE-VLA[11] 中使用的强化学习微调,其奖励信号最初都源于人类对生成结果的偏好或成功与否的判断。ARM-Thinker[8] 的评估基准ARMBench-VL也包含了基于人类指令遵循的验证任务。

然而,纯粹依赖人类评估存在成本高、难以规模化、评估标准主观且不一致等问题。为了缓解这些问题,研究者尝试通过众包、设计更细粒度的评估指南、或训练“人类偏好预测模型”来模拟人类判断。Semantic Soft Bootstrapping (SSB)[13] 提出了一种巧妙的思路,它通过模型自身的多次推理输出来模拟“正确”与“常见错误”的反馈,从而自动构建训练数据,避免了昂贵的人工标注,可视为一种利用模型内部“软”人类反馈(通过模型行为模拟)进行自我改进的方法。

尽管存在挑战,基于人类反馈的方法在评估那些难以用自动指标衡量的复杂幻觉(如细微的事实扭曲、符合语法但违背常识的陈述)方面,仍然具有不可替代的价值。它是连接自动检测技术与真实世界应用需求的桥梁,并为构建更可靠的自动评估基准提供了至关重要的种子数据。未来趋势是发展更高效、低成本且能捕捉复杂维度的人类反馈收集与建模方法。

5. 评估与对比分析

5.1 主流评估数据集与指标

对大模型幻觉检测方法的评估依赖于精心构建的数据集和一套全面的评价指标。这些数据集旨在模拟真实场景下的幻觉现象,而指标则用于量化检测方法的性能、可靠性和效率。当前,评估工作主要围绕文本模态展开,并逐渐向多模态领域扩展。

在文本领域,评估数据集通常通过向模型提供包含事实性错误或与外部知识库矛盾的前提(即“污染”的上下文),然后要求模型基于此生成内容来构建。例如,在开放域问答任务中,研究者会使用包含错误事实的维基百科段落作为输入,评估模型生成的答案是否“忠实于”被污染的上下文(内部幻觉)或真实世界知识(外部幻觉)。常用的基准包括TruthfulQA(侧重于模型对常见误解的抵抗力)、HaluEval(专门针对对话和摘要任务中的幻觉)以及FACTOR(提供细粒度的幻觉类型标注)。对于事实核查任务,FEVER数据集及其变体被广泛用于评估模型识别文本中事实性主张真伪的能力。此外,随着代码生成模型的普及,HumanEval和MBPP等基准也被用于评估代码中是否存在功能或逻辑上的“幻觉”(即生成无法正确运行或与注释描述不符的代码)。

在多模态领域,评估面临更大挑战,需要同时考虑文本描述与视觉内容的一致性。例如,在图像描述生成中,需要判断描述文本是否准确反映了图像中的实体、属性、关系和动作。为此,研究者构建了如POPE(针对对象存在性幻觉)、CHAIR(针对对象和属性幻觉)等基准。对于文生图模型,评估则侧重于生成图像是否忠实于文本提示中的所有元素。论文[7]中提出的DraCo方法,通过生成低分辨率草稿图进行预览和验证,其有效性在GenEval、Imagine-Bench等基准上得到了验证,这些基准专门评估模型对复杂提示(尤其是包含稀有概念组合的提示)的遵循程度。论文[8]提出的ARMBench-VL则更进一步,构建了需要调用工具进行细粒度视觉验证、多页文档交叉引用等复杂任务的评估集,以测试奖励模型在避免幻觉方面的能力。

评估指标方面,主要可分为基于匹配的指标、基于模型的指标和基于人类评判的指标。基于匹配的指标(如BLEU、ROUGE、CIDEr)通过计算生成文本与参考文本之间的n-gram重叠度来评估,但其对事实一致性不敏感。因此,基于模型的指标成为主流,例如,使用一个经过训练的“自然语言推理”模型来评估生成内容与源文本之间的蕴含关系(如FactCC、DAE)。此外,直接使用大模型本身作为评判员(LLM-as-a-Judge)也日益流行,通过设计特定的提示词让大模型对生成内容的事实性、一致性进行评分。基于人类评判的指标,虽然成本高昂,但被认为是黄金标准,通常要求标注者对生成内容的事实准确性、流畅性等进行多维度打分。论文[13]在评估其语义软引导方法时,使用了GSM8K、MATH500等数学推理数据集的准确率作为核心指标,这反映了在特定任务中,任务本身的成功率是衡量幻觉是否发生的最直接指标。效率指标,如推理延迟、内存占用和可扩展性,对于在线检测应用至关重要,但目前在研究中受到的关注相对较少。

5.2 不同检测方法的性能对比

各类幻觉检测方法因其原理和依赖资源的不同,在准确性、通用性、效率和可解释性上表现各异。本小节基于现有研究,对主要检测路径进行系统性对比分析。

基于外部知识验证的方法(如检索增强生成RAG)通过实时查询知识库来核对生成内容,在事实密集型任务(如知识问答)中准确率最高,能有效遏制事实性幻觉。然而,其性能严重依赖于知识库的覆盖范围、时效性和检索质量,对于知识库中不存在或难以精确检索的隐含知识、常识或动态信息,该方法可能失效。此外,频繁的检索操作会引入显著的延迟,影响交互体验。

基于模型内部信号的方法通过分析模型在生成过程中的置信度分数(如token概率、熵)、注意力分布或内部表征来检测不确定性。这类方法(如论文[2]所揭示的,通过分析模型权重空间的通用子空间来理解其内部知识组织)无需外部资源,效率极高,适用于实时检测。但其主要局限在于,模型的校准性往往不佳,高置信度并不总是对应高正确率,特别是在分布外样本或对抗性输入上。这类方法更擅长检测模型“不知道”的情况,而对于模型“自信地犯错”的情况则难以识别。

基于逻辑与一致性分析的方法侧重于检查生成内容内部或与输入上下文之间的逻辑矛盾、时序错误和语义冲突。例如,在长文本生成中检查前后陈述是否一致。这类方法不依赖于外部事实,对发现逻辑性幻觉非常有效。论文[12]提出的相位保持扩散(φ-PD)通过保留输入的结构相位,在图像到图像生成任务中强制实现几何一致性,可被视为在视觉域应用一致性约束的范例。然而,自动化的逻辑推理本身仍是NLP的难题,复杂逻辑关系的检测可能仍需借助大型推理模型,成本较高。

基于人类反馈与评估的方法将人类(或模拟人类判断的AI)作为最终评判者。例如,论文[8]的ARM-Thinker模型通过智能体调用工具来获取可验证的证据,其判断过程更接近人类核查员,具有较好的可解释性。论文[6]中Splannequin方法的评估最终以96%的用户偏好作为关键指标。这类方法评估质量最高,但显然不具备可扩展性,通常用于构建高质量评估集或对关键输出进行最终审核。

表:大模型幻觉主要检测方法性能对比

方法类别 核心原理 优点 局限性 典型适用场景
基于外部知识验证 将生成内容与外部知识库(如维基百科、专业数据库)进行比对验证。 事实准确性高,能直接纠正错误,可解释性强。 依赖知识库的完备性与时效性;检索可能失败或引入噪声;实时性较差。 开放域问答、事实核查、知识密集型内容生成。
基于模型内部信号 分析生成模型的置信度、熵、注意力权重等内部状态,识别低置信度或不确定的生成。 无需外部资源,检测速度快,可实现实时、在线检测。 模型校准问题严重,高置信度也可能对应幻觉;对“自信的幻觉”不敏感。 对话系统、实时文本生成、资源受限的边缘应用。
基于逻辑与一致性分析 检查生成文本内部或与输入上下文之间的逻辑矛盾、语义不一致性。 不依赖外部知识,能有效发现逻辑谬误和叙事矛盾。 自动化深度逻辑推理难度大;对常识性隐含矛盾检测能力有限。 长文本生成(故事、报告)、代码逻辑检查、多轮对话一致性维护。
基于人类反馈与评估 引入人类评判员或训练奖励模型来评估生成内容的质量和事实性。 评估质量高,符合人类主观判断,是评估其他方法的黄金标准。 成本高昂,效率低,难以规模化;奖励模型自身可能存在偏见或幻觉。 构建高质量评估基准、模型对齐训练、关键内容(如医疗、法律文本)的最终审核。

5.3 检测效率与可扩展性分析

幻觉检测技术的实际部署,不仅要求高精度,还必须考虑其计算效率与系统可扩展性。效率低下或资源消耗过大的检测方法将难以集成到需要实时交互或处理海量数据的大模型应用中。

从计算开销角度看,不同检测方法的效率差异显著。基于模型内部信号的方法效率最高,因为它仅需对模型前向传播的中间结果(如logits)进行简单分析,几乎不增加额外计算负担,如论文[13]中的语义软引导(SSB)在训练后推理阶段无需复杂计算。基于逻辑一致性分析的方法,若仅进行浅层的文本匹配或规则检查,开销也较小;但若涉及调用另一个大型推理模型进行深度语义分析,则开销会倍增。基于外部知识验证的方法通常效率最低,其开销主要来自两个部分:一是检索过程,需要对大规模向量数据库进行相似性搜索;二是对检索结果与生成内容进行比对验证的过程。尽管通过优化检索索引(如使用更高效的近似最近邻算法)可以部分提升速度,但网络延迟和数据库查询时间仍是瓶颈。

可扩展性涉及方法应对不同领域、不同任务和不同规模数据的能力。基于外部知识的方法可扩展性受限于知识库的建设与维护,将其扩展到新兴领域或专业垂直领域(如特定科研前沿)成本很高。基于模型内部信号的方法理论上可扩展到该模型能处理的所有任务,但其检测效果在不同任务和领域间可能不稳定。论文[2]发现的“通用权重子空间”现象为提升这类方法的可扩展性提供了新思路:如果不同任务下的模型确实共享低维参数子空间,那么或许可以学习一个通用的、轻量化的“幻觉探测头”,跨任务部署。基于学习的方法(如训练专用的幻觉分类器或奖励模型)的可扩展性取决于训练数据的多样性。论文[14]提出的EvoIR框架通过进化优化策略动态调整目标,以应对图像修复中多样的退化类型,这种自适应机制为提升检测方法在异构任务上的可扩展性提供了借鉴。

最后,在线检测与离线检测的需求不同。在线检测(如在生成每个句子或段落时实时介入)对延迟极其敏感,通常只能采用极其轻量级的方法。而离线检测(如对已生成的完整文档进行事后审核)可以容忍更高的计算成本,从而采用更复杂、更精确的混合方法(如结合检索与逻辑推理)。论文[6]的Splannequin方法强调其“无需改变架构、零推理开销”的特性,正是为了满足在线渲染中对效率的严苛要求。未来,发展层次化、自适应的检测框架,根据内容的重要性和风险等级动态调配不同粒度的检测资源,是平衡检测效果与效率的关键方向。

为了系统性地评估和对比大模型幻觉检测方法的性能,本节构建了一个层次化的分类体系。该体系从评估方法、数据集和评估指标三个核心维度展开,旨在为后续的性能对比与可扩展性分析提供清晰的框架。

图:大模型幻觉检测评估体系分类图

[ 大模型幻觉检测评估体系 ]
       |
       +===> [ 评估方法 ]
       |       |
       |       +---> [ 基于模型内部表征 ] : 分析模型权重或激活的统计特性
       |       |       |
       |       |       +---> [ 权重子空间分析 ] : 识别跨任务的低维通用参数子空间 (论文2)
       |       |       +---> [ 梯度匹配对齐 ] : 利用最优控制理论,匹配价值函数梯度进行微调 (论文4)
       |       |
       |       +---> [ 基于生成过程控制 ] : 在生成过程中引入规划与验证机制
       |       |       |
       |       |       +---> [ 草稿-验证推理 ] : 先生成低分辨率预览,再验证并选择性修正 (论文7)
       |       |       +---> [ 代理工具调用 ] : 调用外部工具(如裁剪、检索)获取可验证证据 (论文8)
       |       |
       |       +---> [ 基于场景/信号建模 ] : 针对特定模态或物理信号构建检测模型
       |               |
       |               +---> [ 动态场景冻结 ] : 通过动态建模与时间锚定检测不一致性 (论文6)
       |               +---> [ 多模态域随机化 ] : 合成超出真实范围的训练数据以增强鲁棒性 (论文5)
       |
       +===> [ 数据集 ]
       |       |
       |       +---> [ 合成/增强数据集 ] : 通过算法生成或增强数据以覆盖特定挑战
       |       |       |
       |       |       +---> [ Light-Syn ] : 通过退化与逆映射从单目视频合成多视角/多光照训练对 (论文3)
       |       |       +---> [ DraCo-240K ] : 针对修正、实例操作、布局重组能力增强的指令数据集 (论文7)
       |       |
       |       +---> [ 专业领域基准 ] : 针对特定科学或专业领域构建的评估基准
       |       |       |
       |       |       +---> [ ARMBench-VL ] : 评估细粒度视觉 grounding、多页文档理解、指令遵循的基准 (论文8)
       |       |       +---> [ 宇宙学数据组合 ] : 结合CMB与DESI BAO等观测数据约束理论模型 (论文10)
       |       |
       |       +---> [ 仿真与数值数据 ] : 基于物理仿真或数值计算生成的高保真数据
       |               |
       |               +---> [ 数值相对论模拟数据 ] : 双中子星合并的引力波信号模拟数据 (论文1)
       |               +---> [ 紧束缚模型模拟数据 ] : 双曲狄拉克液体在无序下的态密度数据 (论文9)
       |
       +===> [ 评估指标 ]
               |
               +---> [ 性能/精度指标 ] : 衡量检测或生成任务的核心准确度
               |       |
               |       +---> [ 基准分数提升 ] : 在标准基准(如GenEval, Imagine-Bench)上的绝对分数提升 (论文7)
               |       +---> [ 用户偏好率 ] : 通过用户研究获得的偏好选择比例 (论文6)
               |       +---> [ 平均改进率 ] : 在多个任务或基准上的平均性能提升百分比 (论文8)
               |
               +---> [ 效率/资源指标 ] : 衡量方法在计算与资源使用上的效率
               |       |
               |       +---> [ 运行时间 ] : 模型推理或训练所需的时间 (论文5)
               |       +---> [ 计算预算 ] : 微调或适应过程所需的有限计算资源 (论文4)
               |       +---> [ 碳足迹影响 ] : 大规模神经模型训练可能减少的碳排放 (论文2)
               |
               +---> [ 鲁棒性/一致性指标 ] : 衡量方法在不同条件或扰动下的稳定性
               |       |
               |       +---> [ 数据集偏移不变性 ] : 对训练数据分布之外输入的鲁棒性 (论文5)
               |       +---> [ 时间一致性 ] : 视频生成中跨帧的照明与几何一致性 (论文3)
               |       +---> [ 先验保持性 ] : 微调后模型保留原始预训练知识的能力 (论文4)
               |
               +---> [ 物理/理论一致性指标 ] : 衡量输出与物理定律或理论预测的一致性
                       |
                       +---> [ 与普适关系偏差 ] : 模拟结果与已知准普适关系的偏离程度 (论文1)
                       +---> [ 相变临界行为 ] : 系统参数(如态密度)在相变点附近的行为 (论文9)
                       +---> [ 模型排斥显著性 ] : 观测数据对特定理论模型(如暴胀模型)的排斥置信度 (论文10)

6. 典型应用场景与挑战

6.1 开放域问答与事实核查

开放域问答(Open-Domain QA)是大语言模型最直接的应用场景之一,也是幻觉问题最为突出和备受关注的领域。在该场景下,模型需要基于其内部参数化的知识或对外部知识源的检索,生成对任意问题的答案。幻觉在此主要表现为生成看似合理但与事实不符的答案,其成因复杂,既可能源于训练数据中的知识缺失、过时或噪声[2],也可能源于自回归生成过程中对概率分布的过度自信或错误累积。例如,模型可能将训练语料中频繁共现但非因果的关联误认为事实,或在缺乏确切知识时“捏造”细节以完成流畅的文本生成。检测开放域问答中的幻觉,核心挑战在于如何高效、准确地验证生成内容与真实世界知识的一致性。

当前,基于外部知识验证的方法是该场景下的主流检测路径。这类方法通常将模型生成的答案与从知识库(如维基百科)或搜索引擎检索到的相关证据进行比对,通过自然语言推理(NLI)或问答匹配等技术评估答案的事实一致性[8]。例如,ARM-Thinker [8] 通过引入智能体工具调用能力,使奖励模型能够主动检索文档、裁剪图像以获取可验证的证据,从而对生成答案的细粒度视觉细节和推理主张进行交叉验证,显著提升了事实核查的准确性和可解释性。然而,这类方法高度依赖外部知识源的完整性、时效性和检索质量,在面对动态更新或长尾知识时可能失效。另一种路径是基于模型内部信号,例如分析模型在生成特定陈述时的置信度或注意力模式。虽然计算高效,但研究表明,模型的内部置信度并不总是与事实准确性可靠对齐,模型可能对幻觉内容表现出高置信度。

开放域问答中的幻觉检测还面临评估标准模糊的挑战。一个答案可能部分正确但包含不准确的细节,或在不同语境下具有不同的可接受性。因此,除了二元的“正确/错误”判断,更细粒度的评估指标(如精确度、召回率、F1值)以及基于人类反馈的评估[13]变得至关重要。Semantic Soft Bootstrapping (SSB) [13] 通过自蒸馏技术,利用模型自身生成正确与错误答案的对比来构建训练数据,间接提升了模型在数学推理等任务中的事实一致性,这为通过改进模型训练过程来缓解幻觉提供了新思路。总体而言,开放域问答场景要求幻觉检测技术兼具高精度、强鲁棒性和对动态知识的适应能力,是推动模型可信赖应用的关键试验场。

6.2 代码生成与安全审计

在代码生成领域,大模型(如Codex、GitHub Copilot)的幻觉问题具有独特的表现形式和潜在的高风险性。此处的“幻觉”不仅指生成与编程问题描述不符的代码逻辑,更包括生成存在安全漏洞、运行时错误或与指定API不兼容的代码。其成因可能包括:1)训练数据中包含了有缺陷或过时的代码示例;2)模型对自然语言需求的理解存在歧义,导致代码语义偏差;3)自回归生成在复杂逻辑控制流中产生的累积错误。与文本幻觉不同,代码幻觉通常可以通过编译、静态分析或执行来部分验证,但这并不意味着检测问题变得简单。

代码幻觉的检测方法论呈现出多层次的特点。最基础的层面是语法与编译检测,利用编译器或解释器直接验证代码的可执行性,但这无法捕捉逻辑错误和安全漏洞。更深层的检测依赖于形式化方法与静态分析,通过预定义的安全规则、代码属性规约或符号执行来发现潜在缺陷,例如缓冲区溢出、空指针解引用等。然而,这些方法通常需要领域专业知识来定义规则,且难以覆盖所有可能的错误模式。近年来,基于神经网络的代码分析模型被用于直接评估生成代码的质量、功能正确性或与自然语言描述的一致性。这类方法将代码和描述共同编码,学习其间的语义映射以进行验证。

一个核心挑战在于,许多代码生成任务(如根据模糊需求生成完整程序)缺乏明确的、可自动验证的“事实”标准。因此,基于测试用例的验证成为黄金标准,即通过运行一系列输入-输出测试来判断代码的功能正确性。但这要求具备完备的测试套件,而这在开放场景下往往不可得。此外,对于涉及系统调用、外部依赖或并发等复杂行为的代码,全面测试极为困难。论文[13]中提到的在数学和编程问题上使用强化学习与可验证奖励(RLVR)的训练方法,其思想可迁移至代码生成:通过构建能够自动执行代码并验证其输出的奖励模型来对齐模型行为。然而,RLVR存在奖励稀疏、样本效率低等问题[13]。未来方向可能包括结合符号推理与神经网络,发展能够理解代码深层语义并预测其执行行为的混合检测系统,以及在代码生成阶段就引入约束推理,从源头抑制不安全或错误代码的产生。

6.3 多模态内容生成与对齐

随着大模型从纯文本向视觉-语言多模态(VLMs)乃至视觉-语言-动作(VLA)模型演进[7, 11, 15],幻觉问题也呈现出新的维度。在多模态内容生成(如图文生成、视频生成)中,幻觉主要表现为生成内容在跨模态间的不一致,例如文本描述与图像/视频内容在实体、属性、空间关系或时序动态上的失配。论文[7]指出,现有方法在生成罕见属性组合时尤为困难,容易产生语义错位。其成因可归结为:1)模态对齐偏差:训练数据中图文对并非完美对齐,模型可能学习到虚假关联;2)表示能力局限:单一模型难以同时完美捕获不同模态的细粒度特征及其复杂交互;3)生成过程脱节:传统的端到端生成缺乏中间验证和规划步骤,错误一旦产生便难以纠正。

针对多模态幻觉的检测与缓解,研究正从被动验证转向主动规划与协同生成。基于内部验证的迭代修正是一种新兴范式。例如,DraCo [7] 提出的“草稿即思维链”范式,首先生成一个低分辨率草图作为视觉预览,然后利用模型自身的理解能力检查草图与文本提示的语义对齐情况,并针对识别出的错位进行选择性超分辨率修正。这种方法将视觉内容纳入了推理链,提供了更具体的规划指引。类似地,TV2TV [15] 框架通过交错生成文本和视频帧,让模型先用语言“思考”后续内容,再“行动”生成像素,从而将高层语义规划卸载给语言模块,提升了生成视频的语义一致性和可控性。

表:多模态场景下幻觉检测与缓解的代表性方法对比

方法 核心思想 适用场景 优势 局限性
外部工具验证 (如 ARM-Thinker [8]) 调用外部工具(图像裁剪、检索)获取证据,进行细粒度交叉验证。 多模态事实核查、推理任务评估。 可解释性强,证据可验证,显著提升判断准确性。 依赖外部工具可用性,增加计算开销,实时性较差。
内部迭代修正 (如 DraCo [7]) 生成中间视觉表示(草稿),利用模型自省能力检测并修正不一致。 文本到图像生成,尤其是复杂或罕见概念生成。 无需外部资源,实现生成过程中的自我校准,提升对齐质量。 依赖于模型本身的理解和修正能力,可能无法发现所有深层不一致。
交错规划生成 (如 TV2TV [15]) 将生成过程分解为语言规划与视觉执行的交错循环。 长序列视频生成、需要高层叙事的创作。 增强可控性和语义连贯性,允许用户中途干预。 架构设计复杂,训练需要高质量的跨模态交错数据。
结构保持生成 (如 NeuralRemaster [12]) 在扩散过程中保留输入的结构(相位)信息,确保输出与输入几何对齐。 图像到图像翻译、重渲染、仿真增强。 无需改变架构即可实现高保真度的结构一致性生成。 主要解决结构对齐问题,对高级语义一致性的处理能力有限。

此外,跨模态一致性度量本身也是一个研究重点。这需要设计能够同时理解文本和视觉内容,并精确定位两者间不一致之处的评估模型。ARM-Thinker [8] 的工作表明,赋予奖励模型主动寻求证据的智能体能力,可以大幅提升其在复杂多模态推理任务中判断的准确性。而在训练层面,STARE-VLA [11] 通过将长视野动作轨迹分解为语义阶段并提供阶段对齐的强化信号,解决了机器人操作任务中信用分配难的问题,这为缓解VLA模型在复杂任务中因规划错误产生的“动作幻觉”提供了思路。总之,多模态幻觉的治理要求检测方法能深入理解跨模态语义,并需要将检测机制更紧密地集成到生成流程中,实现生成与验证的闭环。

7. 挑战与未来方向

7.1 当前检测技术的局限性

尽管大模型幻觉检测领域已取得显著进展,但现有技术仍面临一系列根本性局限,制约了其在真实场景中的有效部署。首先,检测的实时性与效率问题突出。基于外部知识库验证的方法(如调用搜索引擎或检索增强生成)虽然准确性较高,但引入了显著的延迟和计算开销,难以满足对话系统、实时内容生成等对响应速度要求苛刻的应用需求[8]。其次,检测的通用性与可扩展性不足。多数检测方法针对特定任务(如开放域问答)或特定类型的幻觉(如事实性错误)设计,缺乏跨任务、跨模态的普适性。例如,在代码生成或多模态内容创作中,幻觉的表现形式(如逻辑错误、视觉不一致)与文本事实性错误迥异,现有检测器难以直接迁移[7, 11]。第三,检测的可解释性薄弱。基于模型内部置信度(如logits、token概率)的方法虽然高效,但其信号与幻觉之间的关联往往是启发式和黑盒的,难以提供人类可理解的错误归因,降低了用户信任和后续修正的可能性[13]。第四,对复杂与组合型幻觉的检测能力有限。现有方法擅长检测简单的、与孤立事实相悖的幻觉,但对于涉及复杂逻辑推理、罕见概念组合或长上下文依赖的幻觉(如生成一个包含多个罕见属性且逻辑自洽但整体错误的故事),检测效果大幅下降[7]。最后,评估基准的局限性。当前主流的幻觉评估数据集多聚焦于事实性,缺乏对逻辑一致性、多模态对齐、代码安全性等多维度幻觉的系统性覆盖,且数据规模与多样性不足,导致检测方法在基准上的性能可能无法泛化到更复杂的现实数据分布中[5, 14]。

7.2 未解决的核心问题

超越现有技术局限,领域内仍存在若干悬而未决的核心科学问题。第一,幻觉的认知与计算根源问题。我们尚不完全理解幻觉在模型内部表征和计算过程中是如何产生的。是源于训练数据中的噪声与偏见[2],还是自回归生成机制固有的累积误差?或是模型在追求分布匹配(如最大化似然)与追求事实真实性之间存在的根本张力?近期关于模型权重子空间[2]和训练动态的研究为理解模型内部知识组织提供了线索,但将这种结构与具体的幻觉生成实例联系起来仍需深入探索。第二,在线检测与生成过程解耦的困境。理想的解决方案是在生成过程中实时抑制幻觉,而非事后检测。然而,如何在不损害模型创造性、流畅性和多样性的前提下,实现有效的在线干预,是一个重大挑战。现有基于强化学习对齐的方法[4, 11]在稳定性和样本效率上存在瓶颈,而像语义软自举[13]这类无需强化学习的技术虽具启发性,但其泛化能力有待验证。第三,多模态幻觉的统一建模问题。随着多模态大模型的兴起,幻觉不再局限于文本,而是扩展到视觉生成的不一致(如错误的空间关系)、视听不同步、图文不符等[3, 12]。如何建立一个统一的理论框架来理解和检测这些跨模态的幻觉,而非针对每种模态设计独立方案,是亟待解决的问题。第四,评估的“地面真理”依赖问题。绝大多数检测方法严重依赖于一个假设:存在一个准确、完备的外部知识源(如知识库、人类标注)作为“地面真理”。然而,在知识快速演进、存在争议或涉及主观判断的领域,这一假设并不成立。如何发展不依赖于绝对“地面真理”的、基于相对一致性或逻辑自洽性的检测范式,是一个开放性问题。第五,安全与隐私权衡问题。基于外部验证的检测方法通常需要将用户查询或模型输出发送到第三方服务,这可能引发数据隐私和安全担忧。如何在保护用户隐私的同时实现有效的幻觉检测,需要新的技术思路。

7.3 未来研究方向与创新机遇

针对上述挑战与问题,未来的研究可以从以下几个充满机遇的方向展开:

1. 发展高效、通用的在线检测与缓解一体化框架。 未来的研究应致力于将检测与生成更紧密地耦合。借鉴价值梯度引导[4]、阶段感知强化[11]等思想,可以探索在模型推理过程中引入轻量级的、基于内部信号的“审查模块”,实现生成即检测。同时,研究像TV2TV[15]这样的交错生成范式,让模型在生成像素或代码前先进行“文本思考”(Chain-of-Thought),可能为在源头规划内容、减少后续幻觉提供新路径。开发无需昂贵强化学习、通过自蒸馏[13]或进化优化[14]等技术实现高效对齐的方法也是一个重要方向。

2. 构建更鲁棒、多维度的评估生态系统。 亟需建立覆盖更广任务领域(如代码、科学、法律)、更多模态(文本、图像、视频、音频)、更多幻觉类型(事实性、逻辑性、安全性、伦理性)的大规模基准测试集。这些基准应包含具有挑战性的案例,如罕见概念组合[7]、长程逻辑依赖、对抗性提示等。同时,评估指标应从简单的准确率、召回率扩展到考虑检测延迟、计算成本、可解释性等多个维度的综合指标体系。

表:未来幻觉检测与缓解关键技术方向对比

研究方向 核心目标 关键技术示例 潜在挑战
在线轻量检测 在生成过程中实时识别潜在幻觉,低延迟。 内部置信度校准、轻量级验证模块、注意力模式分析。 信号噪声高、误报率高、可能影响生成流畅性。
生成过程干预 从源头引导生成,减少幻觉产生。 价值梯度引导[4]、交错推理生成[15]、语义规划[7]。 需要修改训练或推理流程、可能限制创造性。
无监督/自监督检测 在不依赖外部知识库的情况下检测不一致性。 多轮对话自洽性检查、多视角生成对比、逻辑矛盾挖掘。 对复杂和隐蔽的幻觉检测能力有限。
多模态统一检测 跨文本、图像、视频等模态检测不一致内容。 跨模态对齐分数、共享表征空间中的一致性度量、代理工具验证[8]。 模态差异大、需要统一的语义理解框架。
可解释性归因 不仅检测幻觉,还能定位错误根源(数据、参数、推理步骤)。 基于影响的归因方法、神经元激活分析、追踪训练数据贡献。 模型内部机制复杂,归因结果本身可能不可靠。

3. 探索幻觉的认知与计算理论。 需要更基础的研究来揭示幻觉的本质。这包括:利用模型剖解和分析工具(如权重子空间分析[2])研究幻觉与模型内部知识表征的关系;通过构建受控实验(类似[9]中研究无序对狄拉克费米子的影响)来分析不同训练数据分布、模型架构和优化目标对幻觉产生的影响;借鉴认知科学中关于人类记忆和想象的理论,为理解模型的“虚构”行为提供概念框架。

4. 推动基于工具与验证的增强型检测。 单纯依靠模型自身进行检测存在天花板。未来应大力发展像ARM-Thinker[8]所倡导的“代理式”检测范式,即让模型学会主动调用外部工具(如搜索引擎、代码解释器、图像分割器、文档检索系统)来验证自身生成的内容。这种范式将检测转化为一个可执行的、可验证的推理过程,不仅能提高准确性,还能提供透明的证据链,极大增强可解释性和可信度。

5. 设计新型模型架构与训练范式。 从长远看,可能需要从根本上重新思考模型设计,以内在抑制幻觉。例如,探索非自回归或部分自回归的生成模型,减少误差累积;设计明确区分“记忆事实”与“推理构建”的模型组件;开发训练目标中直接融入事实一致性约束的新方法,而不仅仅依赖下游的对齐微调。相位保留扩散[12]在图像生成中为保持结构一致性提供了新思路,类似原理或可启发文本生成中保持逻辑一致性的架构创新。

总之,大模型幻觉问题的解决需要跨学科的共同努力,结合机器学习、形式逻辑、知识工程、人机交互和认知科学等多个领域的洞见,最终实现大模型在保持强大生成能力的同时,成为可靠、可信的知识与内容创造伙伴。

8. 总结

本文系统梳理了大语言模型及多模态大模型中“幻觉”问题的成因、检测方法与研究进展。研究发现,幻觉的产生根源复杂,既源于模型内部机制,如自回归生成中的累积误差、知识边界模糊以及训练目标与事实一致性目标的错位[13],也受外部数据环境影响,包括训练数据中的噪声、偏见与知识缺失[2]。在检测方法上,研究呈现出多元化技术路径并存的格局:基于外部知识库的验证方法通过查询权威信息源进行事实核验;基于模型内部信号的方法则利用置信度、注意力机制等内部状态进行推断;基于逻辑与一致性分析的方法关注生成内容自身的连贯性;而基于人类反馈的方法则直接引入人类判断作为金标准[8]。这些方法各有优劣,适用于不同场景,但普遍面临实时性、通用性与可解释性不足的挑战。

本综述对领域发展具有多重启示。首先,幻觉问题并非单一技术缺陷,而是模型能力、数据质量、任务定义与评估标准等多方面因素交织的系统性问题,需从构建更鲁棒的评估基准、发展高效的在线检测与缓解技术等多维度协同推进。其次,未来研究应超越被动检测,转向主动抑制与根治。这包括探索新型模型架构,如在生成过程中引入更严格的验证与规划机制[7, 15],利用自蒸馏等技术提升模型自我纠错能力[13],以及借鉴多模态对齐[3, 12]、工具调用增强[8]等思路,使模型能更可靠地 grounding 于现实世界。最终,解决幻觉问题是实现可信、可靠人工智能的关键一步,需要学术界与工业界在模型设计、训练范式、评估体系及应用规范上持续创新与合作。


参考文献

[1]. On the treatment of thermal effects in the equation of state on neutron star merger remnants. Davide Guerra, Milton Ruiz, Michele Pasquali. arXiv:2512.05118v1 (2025-12-04)

[2]. The Universal Weight Subspace Hypothesis. Prakhar Kaushik, Shravan Chaudhari, Ankit Vaidya. arXiv:2512.05117v1 (2025-12-04)

[3]. Light-X: Generative 4D Video Rendering with Camera and Illumination Control. Tianqi Liu, Zhaoxi Chen, Zihao Huang. arXiv:2512.05115v1 (2025-12-04)

[4]. Value Gradient Guidance for Flow Matching Alignment. Zhen Liu, Tim Z. Xiao, Carles Domingo-Enrich. arXiv:2512.05116v1 (2025-12-04)

[5]. Deep infant brain segmentation from multi-contrast MRI. Malte Hoffmann, Lilla Zöllei, Adrian V. Dalca. arXiv:2512.05114v1 (2025-12-04)

[6]. Splannequin: Freezing Monocular Mannequin-Challenge Footage with Dual-Detection Splatting. Hao-Jen Chien, Yi-Chuan Huang, Chung-Ho Wu. arXiv:2512.05113v1 (2025-12-04)

[7]. DraCo: Draft as CoT for Text-to-Image Preview and Rare Concept Generation. Dongzhi Jiang, Renrui Zhang, Haodong Li. arXiv:2512.05112v1 (2025-12-04)

[8]. ARM-Thinker: Reinforcing Multimodal Generative Reward Models with Agentic Tool Use and Visual Reasoning. Shengyuan Ding, Xinyu Fang, Ziyu Liu. arXiv:2512.05111v1 (2025-12-04)

[9]. Global phase diagram of two-dimensional dirty hyperbolic Dirac liquids. Christopher A. Leong, Daniel J. Salib, Bitan Roy. arXiv:2512.05109v1 (2025-12-04)

[10]. The spectrum of nsn_sns constraints from DESI and CMB data. Evan McDonough, Elisa G. M. Ferreira. arXiv:2512.05108v1 (2025-12-04)

[11]. STARE-VLA: Progressive Stage-Aware Reinforcement for Fine-Tuning Vision-Language-Action Models. Feng Xu, Guangyao Zhai, Xin Kong. arXiv:2512.05107v1 (2025-12-04)

[12]. NeuralRemaster: Phase-Preserving Diffusion for Structure-Aligned Generation. Yu Zeng, Charles Ochoa, Mingyuan Zhou. arXiv:2512.05106v1 (2025-12-04)

[13]. Semantic Soft Bootstrapping: Long Context Reasoning in LLMs without Reinforcement Learning. Purbesh Mitra, Sennur Ulukus. arXiv:2512.05105v1 (2025-12-04)

[14]. EvoIR: Towards All-in-One Image Restoration via Evolutionary Frequency Modulation. Jiaqi Ma, Shengkai Hu, Jun Wan. arXiv:2512.05104v1 (2025-12-04)

[15]. TV2TV: A Unified Framework for Interleaved Language and Video Generation. Xiaochuang Han, Youssef Emad, Melissa Hall. arXiv:2512.05103v1 (2025-12-04)


Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐