进入2025年,人工智能(AI)呈现出爆发式增长,成为全民关注的热点。AI势不可挡地席卷了各个领域,并对社会科学研究产生了巨大冲击。AI能在转瞬即逝间完成信息收集、文献综述与“深度”分析,其生成效果往往也要超过人类研究者的表达水平。尽管目前尚无权威统计数据,但AI无疑正在成为学术研究不可或缺的工具。在极大提升效率的同时,与AI如影随形的AI幻觉(Hallucination)问题却始终存在。若不能及时加以重视与妥善应对,不仅危害学术生态,引发严重的数据污染,甚至会重创知识生产与传播的全过程。
一、AI幻觉的具体特征
由于大众缺乏人工智能的知识积累,社会层面识别人工智能幻觉的能力与意识十分薄弱。在近期的学术研究中,疑似AI幻觉的案例频频发生。例如,某文旅研究机构公众号引用虚构案例,声称“淮南豆腐非遗推出手感认证,联合中科大研发力学传感器,将磨浆力度数据铸造成NFT证书,实现技艺传承的数字确权”;某权威大刊评论文章又连续出现了诸如“DeepSeek等AGI通用人工智能技术”“DeepSeek古籍活化引擎”“清华大学为学生定制能力发展图谱”等难以证实的表达。AI可以快速生成一系列结构合理、论述流畅、案例逼真、理论创新的文稿,不免会让一些研究者心痒难耐。
有学者将AI幻觉归纳为事实性幻觉与忠实性幻觉。所谓事实性幻觉,即AI生成内容与真实世界不符,如虚构历史情节、混淆理论概念、引用错误数据等;所谓忠实性幻觉,即AI生成内容违背了用户指令,或存在上下文矛盾。具体来说,目前主流的大模型幻觉特征又各有不同。即便同属语言大模型(LLM),ChatGPT、KIMI、豆包、文小言等大模型与DeepSeek、GROK等推理模型的幻觉特征就存在显著差异。前者忠实性幻觉突出,容易因用户指令模糊而偏离主题。如果遇到复杂提问,就会产生过于传统、过于正确、过于普通的无效内容。后者事实性幻觉突出,容易进行天马行空的杜撰。如果处置复杂推理任务,则会产生特别犀利、特别具体、特别不切实际的臆测表达。
传统语言大模型普遍存在大量使用连接词与形容词,递进的逻辑分布,动词名词化,英文化表达,文本有着很强的可预测性。例如,假设下达“总结洋务运动的研究现状”,文心3.5模型罗列了洋务运动的具体内容,并得出以下结论:“洋务运动的研究现状呈现出广泛而深入的特点。学者们从多个角度对洋务运动进行了全面分析,取得了丰硕的学术成果。然而,关于洋务运动的性质和历史地位等问题,学术界仍存在争议。”虽然该模型也进行了联网搜索,但这些表述四平八稳,与用户初衷无关痛痒。
推理模型截然不同,会大量使用高密度、跨学科的新概念,应接不暇的视角转换,双头龙、中药铺的嵌套结构,夸大其词的数据引用,无法验证的新史料、新论据与新理论。例如,下达同样的问题,DeepSeekR1模型会思考用户的初衷,认为“用户可能需要这些信息来找到自己的研究方向或者了解学术动态”。紧接着按照“传统视角的延续与修正”“新视角与新方法”“争议与反思”“未来研究方向”四个部分输出内容,并建议用户“结合科学技术史(STS)、环境史等视角,研究洋务运动中的技术本土化与生态影响。”如果继续追问具体案例,该模型却提出了一系列难以验证的“新发现”,如“通过版本比对,发现洋务派官员删改《海国图志》内容”“分析晚清小说《二十年目睹之怪现状》中对洋务企业的讽刺描写,发现民间舆论态度”等。对比来看,推理模型处置复杂任务的效果明显要好于传统语言模型。推理模型的杰出表现,让人们更加接近了通用人工智能(AGI)的奋斗方向。这也是为什么DeepSeekR1一经推出,直接引领AI“出圈”的原因。不过,推理模型生成内容更加逼真,幻觉更加难以识别,如果研究者缺少鉴别意识与能力,很容易就会被“deepfake”的内容误导。
二、AI幻觉的技术溯源与应用风险
AI的“幻觉”与“准确”相伴相生。当下的生成式人工智能主要基于Transformer深度学习模型架构,该技术引入了自注意力机制来分析指令中不同序列的彼此关系,并通过并行处理大大提升了运算效率。举例来说,当接收到“总结洋务运动的研究动态”指令后,大模型会先将指令拆解为“洋务运动”“研究”“动态”等关键词,将文本转化为计算机能理解的数字语言。然后,对这些关键词分配唯一编号,标记关键词在句子中的相互关系。其次,编码器通过自注意力机制来分析输入文本中各个词汇之间的关系,捕捉到文本的语义信息和上下文特征,提炼出“洋务运动研究涵盖经济、军事、社会、教育等领域”的核心语义。再次,解码器通过自注意力机制与多头注意力机制,结合编码器提供的核心语义,对照后台数据与联网搜索,通过计算词频概率分布,选择概率最高的词,并整理输出最终内容,将洋务运动研究动态总结为“经济改革成效有限,军事近代化受挫,教育领域开启新篇章”等结论。
一言以蔽之,这种架构有点类似翻译的过程,保证了信息从源语言到目标语言的准确传递,让AI可以像人类一样“思考”,快速抓住关键信息,并组织出最符合的语言表达。然而,其生成内容依然是词频概率统计后生成的随机结果,存在固有的“随机性”。AI只能遵从逻辑、语言的连贯性,无法自行验证事实的准确性。倘若训练数据质量不佳,AI会在不自觉的情况下将虚假信息当做真实信息进行学习与引用。目前用于训练AI的海量网络数据,本身便是不可控的。互联网中充斥着不够准确的信息,如碎片化的短视频、自媒体与公众号等。而且,用于训练大模型的数据,其语境与背景信息在训练过程中会大量损耗。当面对缺失信息时,当面临信息缺失时,人工智能就如同人类在撒谎时会自行脑补一样,会编造出看似合理的细节。人工智能几乎不会说“我不知道”,要是用户的提问模糊不清或者过于复杂,人工智能就可能误解提问意图。在这种情形下,为了给出看似合理的回答,人工智能会进行不恰当的自由发挥。此外,为了迎合用户,人工智能还有可能依据用户的引导主动编造信息。
早在ChatGPT上市之初,使用者就发现了人工智能存在一定的杜撰虚构几率。在目前的一些评测中,主流大模型的幻觉率自3%至20%不等。更为揪心的是,互联网数据始终无法真正实现“清洁”的存储,网络上的虚假信息一直在经历着“污染——传播——再污染”的循环过程。在可以预见的时段内,AI无法准确进行甄别与筛选。即便训练数据准确无误,AI也可能因为误解某些领域的专业知识,依然产出幻觉内容。伴随着技术的不断发展,AI生成内容会更加逼真,幻觉现象会更加隐蔽,更加难以识别。
不可否认,从长远来看,AI必将成为研究者必需的劳动工具。在某些情况下,AI幻觉生成的虚构内容,可能也会激发研究者审视自身的问题意识,开辟新的研究思路。然而,AI幻觉产生的负面影响是主要的,会严重威胁学术研究的健康发展。首先是直接毒害学术生态。AI生成内容存在很强的随机性,AI会把所有信息重新进行剪刀加糨糊的深度加工,人工智能生成内容(AIGC)带有“类原创”的特点。目前任何的文稿查重与学术不端检测系统都难以检测出AI生成内容,即便是刚刚推出的AIGC检测也难以精准判断。这不仅危及了前人的知识产权,更毒害了学术生态。其次是造成海量的数据污染。每时每刻,AI生成的海量内容都在渗入互联网。如果没有经(下转第4版)
-----------------转版-----------------
(上接第 3 版)过清洗、验证与甄别,AI 杜撰内容就会不断污染现存数据。等到未来再开发新的 AI 时,就会引用这些“脏数据”,进一步造成运算效果的偏差,陷入 AI 幻觉的恶性循环。最后是重创知识生产与传播过程。AI 生成内容往往遵循固定的逻辑方式,如果研究者过于依赖 AI,逐渐就会丧失主动探索与创新研究的动力与能力。长此以往,多样性与创新性的学术研究将不复存在。而且,如果研究者不慎引用了 AI 幻觉编造的理论、案例与数据,更将直接损害学术共同体的公信力。
三 、学术研究如何应对AI 幻觉
目前,科技界不断努力改善 AI 技术,通过改进算法,调整训练数据,添加网络搜索、RAG 增强索引等手段,可以显著降低 AI 幻觉。然而,AI 幻觉仍然无法完全消除。对于非计算机领域的学科而言,除了外界的“他律”,还需要从维护学术研究的健康发展出发建立“自律”,防范 AI 滥用与幻觉风险。
首先,要保持清醒认识,深刻重视 AI 幻觉风险。研究者务必树立“真实是学术研究生命线”的理念,坚持实事求是原则,将真实性要求贯穿选题、研究、分析、撰写的全过程,确保每项数据有来源、每个案例有依据。对大模型生成的内容,做到未经核验绝不采用、未经溯源绝不采信。
其次,坚持人工主导 +AI 辅助的研究范式。研究者既不能因噎废食,回避 AI 工具的便利与效率,也不能痴迷做“甩手掌柜”,陷入“机器代劳”“数据注水”的误区。研究者需要明确 AI 工具只能从事基础环节,不能用于最终原创成果的生成。应当将传统研究方法与人工智能技术有机结合,充分发挥 AI 的效率优势和人类的智慧特长。
再次,完善 AIGC 内容的学术规范。各学科应及时建立适应 AIGC 的学术规范,明确 AI 在学术研究中的使用标准。比如,明确AI生成内容的占比限制,AI参与研究的注释标注等。同时,学术期刊与研究机构也要加强 AI 使用的审查意识。在审稿与评审中,严格审查内容的真实性与准确性。近期,《历史研究》、上海交通大学、复旦大学等单位提出了初步的 AIGC 学术规范,这种探索还需要继续深化与完善。
最后,尽快提升研究者的 AI 通识能力。各高校与研究机构应当主动组织专门的 AI 通识课程,系统讲解 AI 的基本原理、使用方法与幻觉特征等基础知识。从而推动学术界尽快提高应对 AI 幻觉的能力,确保在学术研究中合理、安全地使用 AI 技术。
习近平总书记强调:“繁荣发展我国哲学社会科学,必须解决好学风问题。”我们要深刻领会习总书记的讲话精神,既不能拒绝技术创新,也不能对技术掉以轻心。只有坚持传承优良学风与创新探索并重,才能预防 AI 被“滥用”“懒用”,让AI 成为实施哲学社会科学创新工程,构建中国哲学社会科学自主知识体系的积极力量。
(程诚,南京大学新中国史研究院博士研究生;李玉,南京大学新中国史研究院教授、江苏省习近平新时代中国特色社会主义思想研究中心南京大学理论基地特约研究员)