从技术狂飙到规制同频:
人工智能冲击下的全球协同治理之道
【特别关注】
随着全球人工智能技术加速迭代,各方在技术研发领域的“你追我赶”从未停歇。今年2月,联合国秘书长古特雷斯在人工智能影响力峰会上表示,人工智能在推动进步的同时,也可能加剧不平等、放大偏见、助长危害。正是基于对这些系统性风险的深刻警醒,国际社会已在人工智能领域逐渐形成共识:当前最大的挑战,不在于算法模型的优化,也不在于GPU(图形处理器)芯片的供给瓶颈,而在于“治理跟不上代码”——技术迭代周期以周为单位,而制度变革频率往往以年为单位。换句话说,当下最紧要的议题已不再是AI的发展速度,而是AI的治理尺度。针对人工智能“管什么、如何管”,正成为人类社会共同关注的焦点。
全球治理中不容回避的命题
人工智能技术和产业发展至今,对于全球经济结构、资源分配以及公共认知的冲击正日益凸显,已然成为全球治理中不容回避的命题。
今年2月以来,随着《2028年全球智能危机》等研究报告的发表,人工智能对全球经济结构的深远影响,正日益引起各方的警醒。以美国为例,从去年到今年,不少科技企业裁员的动因,并非业务不好,而是因为业务太好。谁都没想到,订单激增与利润攀升带来的,却是员工排队被裁。
这就使得宏观经济结构陷入加速失衡的泥沼:一方面,生产力大幅跃升,产品供给呈现指数级增长;另一方面,劳动力市场萎缩导致有效需求不足。这种“商品供应过剩与购买力枯竭”的错配,造成了新的经济学难题。在金融市场上,不少美国科技企业因生产率提升而获得极高估值,但消费端需求的疲软却让盈利预期难以实现。这两种力量的剧烈拉扯,最终可能诱发经济与金融动荡。
与过去历次科技革命一样,人工智能的发展同样依赖现实世界的诸多资源。2025年12月在肯尼亚内罗毕举行的第七届联合国环境大会,向全球发出了关于人工智能环境正义问题的严厉警告:发达国家正在尽情享受人工智能带来的效率红利,而其背后的环境代价——包括电网过载、水资源枯竭与重金属污染,却正由发展中国家被动买单。
人工智能对能源的吞噬不仅体现在电力上,更体现在水资源消耗上。AI服务器在运算时会产生巨大热量,而目前主流的冷却方式主要是通过水来进行蒸发式冷却。研究表明,人工智能模型回应10到50次询问,就会耗掉约500毫升的水。审视各大科技巨头未来的数据中心建设规划,其选址正呈现出向全球南方国家转移的明显趋势。这不仅是因为当地的电力和水资源成本更低,更是因为这些国家在全球环境治理中的话语权相对较弱,新建高耗能高耗水的数据中心,政策阻力较小。除了能源和水资源的巨大消耗,算力硬件制造带来的重金属污染问题同样亟待正视。算力跃升依赖于海量GPU的投入,而制造这些芯片所需的稀有金属和关键矿产,绝大部分开采自发展中国家。
不仅是自然资源消耗与环境破坏上的“生态代价转嫁”日渐加剧,全球投资分配的不均衡也在急剧恶化。联合国贸易和发展会议在5月6日的报告中指出,AI正在重塑全球投资格局,资本正疯狂涌入少数技术强国,其他发展中经济体被边缘化的风险越来越高。这种投资领域的单向虹吸,加之日益高昂的算力壁垒,不仅导致发展中国家面临严重的人才流失,更有可能使其在未来的经济竞争中沦为“弃儿”。这种技术鸿沟,将使全球资源分配的不平等以指数级放大。
人工智能对于公共认知的侵蚀也不可忽视。世界经济论坛于1月发布《2026年全球风险报告》,把“错误与虚假信息”及“社会极化”排在了短期风险榜单的第2、第3位。随着AI技术大规模应用,虚假信息的生成与传播成本大幅降低,严重破坏了公众对科学事实和媒体的信任,加剧了社会的极化。
过去几年,社会治理的焦点,停留在算法推荐所形成的“信息茧房”上。而如今,人工智能短时间、低成本生成海量半真半假、情绪激烈且具有强误导性的内容,在互联网上制造出越来越浓的认知“迷雾”。人类面临的数字危机,已经从过去的“信息茧房”,上升到了“认知生态污染”。
反虚假信息监测机构NewsGuard的研究显示,主流大语言模型支撑的聊天机器人,在面对争议性新闻时,传播虚假信息的比例从2024年8月的18%飙升至2025年8月的35%,一年内几乎翻倍。究其原因:一方面,过去遇到敏感问题时AI的“拒绝回答”机制,在商业竞争和“提升用户体验”的驱动下被大幅削弱,2025年部分AI的拒答率几乎降至0;另一方面,这些模型高度依赖实时网络搜索,而互联网上充斥着本身就由其他AI生成的虚假新闻。AI在抓取时缺乏足够的交叉验证与鉴别能力,这些内容被包装为权威回答进行二次传播,使人工智能客观上沦为了虚假信息的“中转站”与“放大器”。
构建联合国框架下的人工智能全球协同治理体系
面对全球治理中不容回避的命题,各国必须坚持合作共赢,依托联合国机制,建立具有普遍代表性和强制约束力的多边协同治理架构。这一多边协同治理架构必须精准回答“治理时机”与“治理力度”的问题。过早、过严的监管会扼杀行业创新,制约产业发展,而过晚、过松的监管则会放大系统风险,推高后续的治理成本。这就要求我们必须在“过度干预抑制技术活力”与“监管滞后诱发系统性风险”之间,寻求一个科学的动态平衡。要将这种“动态平衡”从宏观理念转化为现实的治理效能,我们必须在以下三个维度寻求破局。
首先是制度转型与分配重构。人工智能带来的生产力革命,要求人类社会治理的重心必须从“单纯追求生产”向“优化分配机制”转移。针对企业通过AI替代人工所获得的超额利润,各国政府可以探索以“数字红利税”等形式,将技术发展的红利回馈给社会。在此方面,已有国家开始讨论。5月12日,韩国总统府政策室长金容范公开表示应考虑利用AI产业产生的超额税收,设立“公民红利”,通过制度性安排回馈全体民众。这种做法不仅保障了人们的生活,更可以让一部分脱离劳动的财富创造重新与人类经济社会的购买力挂钩,从而化解生产力过剩与消费萎缩之间的矛盾,托底社会最低消费力,维持宏观经济系统的基本循环。
其次是全球资源与环境审计。随着大模型训练与推理需求的指数级增长,AI产业正带来前所未有的能源消耗与生态负担。因此,必须建立全球统一且具有强制性质的AI资源环境审计机制,将数据中心的电力利用效率、水资源消耗量以及硬件迭代带来的重金属污染,全面纳入大型科技企业的合规监管与披露指标中,从而推动隐性环境成本的显性化与算力资源的绿色配置。同时,借鉴碳排放权交易市场的成熟经验,探索建立“全球算力与生态配额交易机制”。基于该机制筹集的资金,响应古特雷斯2月在人工智能影响力峰会上的提议,设立“生态与数字补偿基金”,专项援助全球南方国家构建本土的绿色算力基础设施,借以确保其在人工智能时代不被边缘化,实现技术红利与生态责任的双重公平。
最后是认知生态与伦理规制。面对生成式AI带来的认知“迷雾”,人类亟须建立一套数字时代的 “环保标准”,以应对日益严重的“认知污染”。一方面,要求所有面向公众的AI服务提供者,必须对生成的文本、图像和视频添加不可篡改的隐形水印与显性标签,切实保障公众的知情权,同时强化科技巨头的伦理规制,要求其定期进行算法安全评估,防止AI被用于放大偏见或煽动极端情绪;另一方面,各国可考虑在联合国框架下建立AI虚假信息的跨国联合监测与快速响应网络,对利用AI批量制造、跨国传播虚假信息的行为,进行早期预警与溯源打击。通过制定全球统一的AI伦理红线,确保技术发展始终遵循人类的伦理规范与价值导向。
中国历来主张推动人工智能普惠、包容与向善发展,实现合作共赢。2025年,中国在全球治理倡议中明确指出,现行国际机制在人工智能等新疆域治理中存在缺位问题。2025年,在世界人工智能大会暨人工智能全球治理高级别会议上,中国发布的《人工智能全球治理行动计划》,更为打破技术壁垒、构建公平的全球数字秩序提供了切实可行的“中国方案”。
人工智能的未来定位,必将也必须是增进全人类福祉的新引擎。面对这场深刻重塑人类文明形态的技术浪潮,唯有摒弃零和博弈的旧思维,在联合国框架下加强协同,才能让新一轮技术红利扎扎实实地造福全人类。
(作者:于强,系北京工商大学马克思主义学院教授)