最近,人工智能大模型火热,“包罗万象”“无所不能”等特点,让越来越多的网友将它们作为生活帮手。但是,如果看到一条难辨真伪的网络传言,请大模型帮忙判断真伪,结果会是什么呢?
在求证“食物相克的说法是否准确”时,记者要求大模型提供的答案来自权威专家、权威机构或官方媒体,大模型的回答中空出了专家位置,又表示部分结论来自“中国营养学会”。但面对“中国营养学会对这个问题的说明原文在哪里”等追问,大模型表示无法直接找到,并建议记者人工检索。不过,人工检索也没有找到对应的内容。此外,记者在调查保温杯爆炸的原因时,要求大模型提供真实案例,并明确要求案例来自官方媒体报道。大模型提供了4个案例,但2个案例无法提供报道链接,并在记者追问时承认有些案例是社交平台的“口口相传”。
参考资料不准确,经不起追问,又怎么能保证给出的结果准确呢?
客观地说,大模型没有造假或造谣的“主观意愿”。造成大模型“一本正经胡说八道”的真正原因是“AI幻觉”——即大模型想尽办法完成用户交办的任务,但在能力不足时,只能基于自己的“知识面”,推测出相关结果。
大模型为何能力不足?一个原因是数据库有局限,另一个是技术有缺陷。互联网数据包含错误信息、偏见、过时内容,大模型会无差别学习这些内容;训练数据截止于某个时间点,无法实时更新,加上大模型基于概率而非逻辑推理或事实核查生成文本,所以会出现错误。
(《解放日报》2.21 任翀)