2026年03月23日 Mon

【光明时评】使用大模型要有批判性思维

《光明日报》(2026年03月23日 02版)
s
02版:评论

版权声明:凡《光明日报》上刊载作品(含标题),未经本报或本网授权不得转载、摘编、改编、篡改或以其它改变或违背作者原意的方式使用,授权转载的请注明来源“《光明日报》”。

光明日报 2026年03月23日 Mon
2026年03月23日

【光明时评】使用大模型要有批判性思维

  【光明时评】 

  人工智能飞速融入日常,大模型作为人工智能最主要的阶段性成果,已成为人们获取信息、辅助决策、创作内容的重要工具。很多人以为,大模型没有情绪、没有立场、没有私心,输出内容理应客观公正,然而,近日有媒体报道的AI(人工智能)“投毒”黑产,揭开了生成式AI商业化进程中的灰色地带。事实上,大模型从诞生到应用,从来都不是客观中立的存在,而是人类社会、技术规则与用户偏好三重倾向共同塑造的“数字投影”。

  “机器无情感,是客观的”,是当下对人工智能最普遍的误解之一。这种误解忽略了一个核心逻辑:大模型的一切能力,都源于对人类数据的学习,它不会凭空产生“思想”,只会复刻、整合、放大训练过程中接收到的信息与倾向。大模型的“不中立”,并非技术缺陷,而是由数据、训练、使用三个环节共同决定的必然结果。

  首先,训练数据自带偏见,AI学的就是“不完美的人类”。因此,大模型是社会偏见的“镜子”,甚至可能是“放大镜”“哈哈镜”。大模型的知识体系,建立在海量文本、书籍、新闻、论坛、网页等数据之上。这些数据不是凭空产生的,而是人类社会的数字化记录。而人类社会从来都不是绝对的,文化差异、历史叙事差异等都早已渗透在文字与表达中。

  模型一边学习语言规律、知识关联,一边会不自觉地内化其中的“偏见”。如果部分数据对某一群体、性别、地域、文化带有负面描述,模型在无干预情况下,就可能输出歧视。它不会主动判断“对错”,只遵循数据里的概率。

  其次,对齐过程植入价值观,让大模型自带“立场倾向”。为了让模型更安全、更有用、更符合人类标准,开发者会通过RLHF(基于人类反馈的强化学习)等技术进行“对齐”。简单说,就是让标注员对模型的不同输出结果进行排序或者打分,判断哪个更有用、更无害、更得体。这个对齐过程,看似在追求“规范”,实则是把人类的价值观植入模型。

  标注员的文化背景、教育水平、道德观念、地域立场,都会直接影响“好答案”的评判标准。不同文化对同一议题的看法可能天差地别。当标注人员背景趋同、视角单一时,模型就会偏向这一群体的价值观。这种价值观不是极端的,而是润物细无声的——在社会议题、文化判断、道德选择中,悄悄偏向某一种共识,忽略其他合理视角。

  最后,用户偏好引导偏见,AI很擅长“顺着你说”,大模型更像“迎合者”而非“裁判员”。

  这一点,我们每个人都在经历,却很少察觉。你偏向什么观点,AI往往就顺着你说;你相信什么结论,AI就帮你找什么理由。它会不断强化你本来就相信的东西,让你待在舒适区里,慢慢困在自己的信息茧房,甚至是“思维茧房”。

  如果说数据和训练是模型的“先天基因”,那么用户使用就是模型的“后天环境”。大模型的输出,高度依赖提示词、上下文与用户偏好。用户从提问开始,就自带立场、情绪和预设,而模型的优化方向,本就包含“理解用户、满足需求、提供情绪与逻辑认同”。

  面对带有偏向的提问,模型很容易顺着用户的思路展开,强化其既有观点,而不是主动纠正。随着模型对用户习惯的记忆与适配越来越强,这种“迎合”还会更加明显:同样的问题,不同用户、不同提示词,可能得到完全相反的结论。

  这三重偏见叠加,让大模型不可能做到“客观中立”。它不是一面客观反映世界的镜子,而是一台同时放大知识与偏见、智慧与狭隘的机器。这种非中立性,带来的影响远超想象:在招聘、贷款、教育评估等场景,模型偏见可能固化歧视;在公共舆论与信息获取中,会加剧立场对立、思维封闭;在跨文化交流中,还可能因文化偏见引发误解与冲突。人们越是盲目相信AI,越容易被其中隐藏的偏见误导。

  认清大模型非中立的本质,不是否定其价值,而是为了更理性、更安全地使用它。首先要认识到,大模型是强大的工具,是高效的助手,是文化与知识的载体,但它绝不是真理的化身。然后,要真正负责任地使用它,例如不把模型答案当作唯一标准,重要决策坚持多源交叉验证;在公共场景使用时,引入伦理审核与人工监督;在技术层面持续优化数据与对齐机制,减少隐性偏见;对于每一个使用者,都应保持批判性思维。

  (作者:南熙,系人工智能研究人员)

上一篇 下一篇 返回目录

光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

光明日报版权所有