首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2025年09月17日 星期三

    生成式AI“知识幻觉”的风险结构与治理进路

    《 文摘报 》( 2025年09月17日   06 版)

        以 ChatGPT 为代表的生成式人工智能大模型(简称大模型)正以其强大的知识生成能力全方位深度嵌入社会各领域,重构人类社会的现在和未来图景。然而,人们在依赖大模型获取信息、辅助决策时,常常会因其生成的虚假知识而导致自身产生认知偏差与行为失误,进而陷入“知识幻觉”的旋涡之中。

        此种“知识幻觉”主要指人们在面对大模型“一本正经地胡说八道”时产生的误判现象。例如,生成内容的事实错误、内容空洞、逻辑混乱是最为典型的前置性问题。具体而言,它可以分为两种类型:一是将大模型生成的内容奉为真理与权威的“权威型知识幻觉”;二是将大模型视为自动化知识生产者的“创造型知识幻觉”。

        本质而言,大模型技术的固有缺陷、针对性的治理机制不完善、用户的过度信任与依赖是造成“知识幻觉”的罪魁祸首。这种“幻觉”带来的风险是多维度且深远的:在个体维度可能削弱人们的认知能力,诱发个体信任危机,对个体的道德观念产生冲击;在关系维度可能侵蚀人际信任基础,扭曲正常人机关系,威胁社会关系网络的稳定性;在社会维度则会冲击传统劳动价值,加剧数字鸿沟,甚至引发下游行业系统性风险。

        因此,有效治理大模型引发的“知识幻觉”刻不容缓,需在多个层面协同发力:技术层面,应加快AI基础设施建设,推进关键核心技术攻关,构筑自立自强的数字技术创新体系;机制层面,要建立健全AI伦理规范,明确多元主体责任边界,建立权威认证机制;社会层面,则需着力提高公众的AI素养,缓解数字社会的知识焦虑,并鼓励数字技术开源合作,推动生成式AI向上向善发展。

        (《上海市社会主义学院学报》2024年第4期 陈万球 罗一人)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有