2026年04月23日 Thu

【光明时评】夯实人工智能伦理治理根基

《光明日报》(2026年04月23日 02版)
s
02版:评论

版权声明:凡《光明日报》上刊载作品(含标题),未经本报或本网授权不得转载、摘编、改编、篡改或以其它改变或违背作者原意的方式使用,授权转载的请注明来源“《光明日报》”。

光明日报 2026年04月23日 Thu
2026年04月23日

【光明时评】夯实人工智能伦理治理根基

  【光明时评】 

  近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险,旨在规范人工智能科技活动伦理治理,促进公平、公正、和谐、安全和负责任创新,推动人工智能产业健康发展。

  当前,新一代人工智能正在全球范围内蓬勃兴起,深刻改变着人们的生产生活方式,并重塑着社会发展的新格局。据统计,截至2025年12月,我国生成式人工智能用户规模达6.02亿人,较2024年底增长141.7%;普及率达42.8%,同比大幅提高25.2个百分点。无论是推动制造业、农业、服务业等传统产业向智能化、数字化转型,还是赋能催生智能医疗、智能驾驶、元宇宙等新兴产业,抑或是各类智能辅助设施与生活场景联动,打造舒适便捷的日常环境——人工智能技术的广泛应用都让人们的生活更具品质、更有温度,为经济社会发展注入了强劲且持久的新动能。

  然而,伴随着人工智能技术全方位惠及我们生活,其潜藏的各类风险也随之凸显,所带来的挑战不容忽视。有专家表示,算法并非中立工具,其偏见源于历史数据不准确、设计目标单一化及反馈回路的自我强化,且会被现代社会的制度性结构系统性放大。因此,做好人工智能发展的伦理规范,必须明确技术发展的边界与底线,实现技术价值与社会价值的统一,引导人工智能在合规、向善的轨道上前行,更好助推经济社会发展。

  “善”不是抽象的道德概念,其内涵是确保技术发展不偏离人类共同利益,让所有人都能从技术进步中受益,实现人与技术的和谐共生。《办法》明确,开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信七项伦理原则,从审查重点、实施机制、具体流程等方面,提出了行之有效的规范措施,以科技伦理管理与服务支持促进人工智能创新,为人工智能创新保驾护航。

  推动伦理嵌入设计,实现伦理治理的前置化,更是推动人工智能治理范式从被动应对向主动防控、从末端整改向源头管控转型的关键抓手。当前,人工智能深度触及社会运行各个环节。传统的人工智能伦理审查中,普遍将伦理评估与合规校验环节,置于技术开发完成、产品即将落地甚至已经投入商用的阶段,往往停留在事后追责与补救,容易陷入“事后把关”的被动治理困境,无法从根源上防范风险,难以适配技术发展的节奏与风险演变的特征。因此,推动人工智能伦理治理,可以借鉴“嵌入式伦理”的理念,使伦理审视成为技术研发的日常实践,融入技术研发全链条,实现治理关口的全面前移,真正实现对伦理风险的全过程关注。

  人工智能科技伦理治理是长期性、基础性、系统性工程,需要协同施策。一方面,持续完善人工智能伦理相关法律法规和政策体系,建立常态化、全方位、全流程的监管机制,对突破伦理底线、违反法律法规的违规行为,坚持“零容忍”态度。另一方面,压实主体责任,明确各类主体在人工智能伦理治理中的职责使命,将伦理评估纳入技术可行性论证的核心环节,组建专业伦理评估团队,对技术可能存在的伦理风险进行提前研判、主动规避,切实保护用户隐私和个人信息安全。同时,在全社会范围内,加强宣传引导,持续营造重视技术伦理的浓厚氛围。

  唯有多措并举,方能真正筑牢人工智能伦理治理的根基,推动人工智能技术在伦理框架内规范、健康、可持续发展,让人工智能更好赋能美好生活。

  (作者:应建均,系西南政法大学民商法学院讲师)

上一篇 下一篇 返回目录

光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

光明日报版权所有