首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2025年03月01日 星期六

    人工智能也会出错

    《 文摘报 》( 2025年03月01日   06 版)

      最近,人工智能大模型火热,“包罗万象”“无所不能”等特点,让越来越多的网友将它们作为生活帮手。但是,如果看到一条难辨真伪的网络传言,请大模型帮忙判断真伪,结果会是什么呢?

      在求证“食物相克的说法是否准确”时,记者要求大模型提供的答案来自权威专家、权威机构或官方媒体,大模型的回答中空出了专家位置,又表示部分结论来自“中国营养学会”。但面对“中国营养学会对这个问题的说明原文在哪里”等追问,大模型表示无法直接找到,并建议记者人工检索。不过,人工检索也没有找到对应的内容。此外,记者在调查保温杯爆炸的原因时,要求大模型提供真实案例,并明确要求案例来自官方媒体报道。大模型提供了4个案例,但2个案例无法提供报道链接,并在记者追问时承认有些案例是社交平台的“口口相传”。

      参考资料不准确,经不起追问,又怎么能保证给出的结果准确呢?

      客观地说,大模型没有造假或造谣的“主观意愿”。造成大模型“一本正经胡说八道”的真正原因是“AI幻觉”——即大模型想尽办法完成用户交办的任务,但在能力不足时,只能基于自己的“知识面”,推测出相关结果。

      大模型为何能力不足?一个原因是数据库有局限,另一个是技术有缺陷。互联网数据包含错误信息、偏见、过时内容,大模型会无差别学习这些内容;训练数据截止于某个时间点,无法实时更新,加上大模型基于概率而非逻辑推理或事实核查生成文本,所以会出现错误。

      (《解放日报》2.21 任翀)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有