在科技日新月异的今天,人工智能(AI)以强大的数据处理和生成能力,正逐步得到广泛应用,渗透到生活的方方面面。但同时,AI生成、伪造或篡改文本、图片、音频和视频的现象愈发普遍,大量粗制滥造、真假难辨的“信息垃圾”,引发了舆论关于“AI污染”的讨论。清华大学新闻与传播学院新媒体研究中心2024年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。
“AI污染”的危害不容小觑。在海量且真假难辨的网络信息面前,人们往往感到无所适从,容易被虚假信息误导、蒙骗,还会产生焦虑和恐慌情绪,甚至被虚假信息“绑架”,沦为被别有用心之人利用的工具。此外,“AI污染”对青少年的价值观和行为模式也会产生负面影响,甚至引导他们走向错误的信息消费和创作道路。事实上,自AI生成技术诞生以来,就不断出现使用AI生成虚假新闻、篡改内容的行为,造成了恶劣的社会影响。
面对“AI污染”这一数字时代的新挑战,需要采取积极有效的措施应对。要加强法律法规建设,明确AI在内容创作和传播中的法律地位、责任边界,对利用AI进行虚假信息传播和欺诈的行为进行严厉打击。
监管部门应尽快完善AI创作标准,明确使用AI生成技术创作的内容,必须在显著位置予以标注,并采取区块链等可追溯技术,一旦发现虚假内容、违规行为,必依法予以严惩。
同时,加快探索应用AI新技术应对AI造假,实现高效识别、预防拦截、追根溯源等,让AI虚假信息无处躲藏。
(《北京青年报》10.23 王桂霞)