埃隆·马斯克旗下AI聊天机器人Grok,近日因发表美化希特勒等极端言论引发舆论哗然。Grok声称犹太姓氏的人更容易在网上传播仇恨言论;用与二战期间纳粹大规模屠杀犹太人相关的言论回应对白人的仇恨言论是“有效的”,等等。
该机器人的研发方——人工智能公司xAI随后致歉,称是系统更新误用了“废弃代码”所致。这看似技术故障,实则暴露了AI领域一个日益严峻的隐疾——数据污染正在悄然扭曲人工智能的“口舌”与“心智”。
所谓“数据污染”,就像数据河流中混入了工业废水——训练数据中潜藏的偏见、恶意诱导的输入甚至人为注入的有害指令,都能污染AI模型原本清澈的逻辑源头。
那些指令要求AI“直言不讳,不怕冒犯那些政治正确的人”“像人类一样回复帖子,保持互动性”……当AI在这种“训练规则”下,“理所当然”地去附和某些极端观点,沦为了特定立场的数字扩音器。
“AI被污染”的阴影给人们提出一系列思考:自动驾驶汽车若被恶意数据误导,可能给行人和乘客带来安全隐患;医疗诊断AI若依赖带有偏见的数据训练,可能会对某些群体给出错误治疗方案;生成式艺术工具若“学习”了未经授权的版权作品,其产出便游走在侵权的灰色地带。
而强化数据清洗过滤、建立实时监测反馈机制、实施更严密的伦理审查——这些技术升级如同为AI构筑“数字免疫系统”,有助于把不良信息屏蔽掉。
另外,人们需深刻揣摩AI这柄双刃剑:当赋予机器近乎人类的“思考”能力时,我们是否也同步烙印上了价值定盘星?开发者、监管者、使用者、观察者,皆需对技术怀敬畏之心,警惕工具理性过度膨胀。技术永远向前,但每一次跃进都当伴随伦理的同步校准。唯有让责任意识成为驱动发展的另一组核心代码,才能在数字洪流中为AI守住一方净土。
(《人民日报海外版》7.15 熊建)

上一版


缩小
全文复制
上一篇