围绕生成式AI问答,市场上已形成一套付费营销模式,其中不乏虚假信息营销。然而系统化“投喂”影响数据源,如以篡改、虚构、重复等方式产生的污染数据,将干扰模型训练,削弱其准确性,甚至诱发有害输出。
近期,不少消费者在社交媒体吐槽:使用AI问答应用时,生成的答案里不仅有看似客观的解释和分析,还会直接推荐某些品牌或机构。比如,搜索鱼油时,得到的并非市场认知度较高的品牌,而是一些知名度不高、信息来源有限,甚至在市场上完全找不到的品牌或贴牌产品;搜索某类水果,结果中却出现相关饮品品牌。与此同时,一些商家也开始打出“被AI推荐”“AI搜索榜单靠前”的宣传语,不少营销机构顺势推出相关服务,宣称可以帮助企业品牌被AI收录或推荐。
AI回答里真的能植入广告?这类新兴营销模式是如何运作的?是否存在被滥用的风险?记者调查发现,围绕生成式AI问答,市场上已形成一套相对成熟的付费营销模式,在带来商业机会的同时,也埋下了虚假信息混入、难以识别的隐患。
AI营销业务左右信息源
营销的核心并不是直接向AI投广告,而是通过大量内容,去影响它能看到、能引用的数据源
“你知道吗?现在很多客户在买东西前,已经先在AI里把你的公司和产品翻了个遍。”记者在浏览各大社交媒体和购物平台时发现,不少营销账号在推荐AI营销业务,强调“现在正是布局AI营销的最佳时机”。
多名营销行业人士介绍,目前的AI营销称为GEO优化,全称是生成式引擎优化(Generative Engine Optimization),可以理解为传统搜索引擎优化在AI搜索时代的延伸。不同于过去用户在搜索引擎中自行点击链接,生成式AI会直接整合多个信息源,给出结论式答案,这也让“谁被引用、谁被提到”变得格外重要。
这种影响AI回答结果的服务是如何落地的?记者以企业市场人员身份,先后咨询了多家提供AI搜索优化服务的营销机构。这些机构给出的操作思路高度一致:一方面,先研究用户会如何向AI提问,例如“某行业哪些品牌好”“A品牌和B品牌哪个好”“某公司靠谱吗”;另一方面,再围绕这些问题,在互联网上提前铺设内容,包括企业官网、新闻稿、自媒体文章、行业分析、产品测评等。
在开启“联网搜索”或“深度思考”模式后,部分AI工具会显示其参考的信息来源。营销人员正是通过反复测试这些引用路径,判断AI更容易抓取哪些网站、哪些内容形式,再进行定向布局。“比如某个平台更容易引用权威媒体,那就多发新闻稿,有些AI更偏好社区讨论,就多做口碑内容。”一名从事相关业务的营销人员表示,“核心并不是直接向AI投广告,而是通过大量内容,去影响它能看到、能引用的数据源”。
关于报价,多数机构按关键词收费,每个关键词每月价格在千元左右,记者查看合同发现,双方通常会约定AI回答露出比例和达标标准。对于是否能做到“排名第一”,不少机构态度谨慎,但普遍承诺至少能在回答中看到品牌出现。
系统化“投喂”污染语料
商家宣称自研了一套系统,覆盖主流AI平台,承诺在短时间内显著提升品牌在AI搜索中的可见度
记者发现,除了上述以人工定制和内容策划为主的服务形态外,市场上还出现了另一类更强调“系统化操作”的GEO产品。这类商家往往宣称自研了一套系统,可以覆盖主流AI平台,并承诺在短时间内显著提升品牌在AI搜索中的可见度。
记者联系到一名售卖“GEO优化系统”的营销中介,对方提供了一个测试账号,并在宣传语中称,该系统可以“统治所有AI搜索”,一周内就能让品牌登上AI搜索榜。系统报价为980元/年,包含一个月“陪跑服务”,并赠送用于生成文章的系统点数,若用户支付1680元,还可成为代理进行系统分销。
为进一步验证这类系统的实际效果,记者按照对方指引登录后台体验。系统要求用户先创建企业资料,填写品牌信息、设定关键词并上传图片,随后在“AI备课”模块中输入创作指令,生成与企业产品相关的推广内容。
接下来便进入所谓的“AI投喂”环节,即将生成的内容分发至各类网站。投放渠道主要分为两类:一类是付费新闻网站,包括行业媒体和媒体网站,单篇价格从几十元到数百元不等;另一类则是门户网站的自媒体账号。系统提示,用户需在多个平台自行注册账号并授权,由后台统一管理,并通过配套软件实现自动更新和批量发布。
虽然系统首页以小字标注“优化仅限正规行业,且内容要真实。请勿夸大宣传、伪造专家及报告、冒充权威、虚假宣传等手段,勿违反广告法,否则后果自负”,并在使用说明中提示不推荐“民营医疗、金融、游戏、彩票、非自有品牌且无授权卖他人品牌,K12教育、违法犯罪、黑五类、灰产等违反广告法的相关行业”使用,但记者注意到,系统本身并未设置实质性的内容审核机制,仅停留在提醒层面。
业内人士坦言,发布产品测评、行业趋势、专业报告等内容,更容易被AI采纳,“至于报告是不是真的,AI也无法核实”。更有博主公开演示“污染AI语料”过程,通过虚构产品、伪造测评和行业分析,成功让AI推荐不存在的品牌。
AI无法判断信息的真伪
未来需进一步细化AI生成商业内容的标识标准,提升监管部门对隐蔽植入行为的技术识别能力
国家安全部曾在今年8月发文指出,通过篡改、虚构、重复等“数据投毒”方式产生的污染数据,将干扰模型训练,削弱其准确性,甚至诱发有害输出。相关研究显示,当训练数据中仅有0.01%的虚假文本时,模型有害输出就会明显上升。
一名互联网技术人员解释,从技术层面看,模型会先从互联网上抓取与问题高度相关的文本,再根据来源可信度、内容完整度、语义匹配度等因素进行排序,最后在此基础上生成答案。在这一机制下,AI并不具备判断信息“真实存在”还是“人为制造”的能力。大模型更关注的是文本之间的统计相关性,而非事实本身。“如果互联网上出现了大量结构完整、语言规范、看起来像正经资料的内容,模型会倾向于认为这是一个真实且被广泛讨论的对象。”
记者注意到不少GEO机构自身也在通过类似方式提升其在AI平台上的可见度。在搜索“国内GEO优化公司”时,可以发现AI引用了大量内容高度相似的文章,其中不少文章是刊登在地方省市媒体网站上的,文内还引用了并不存在的“白皮书”“行业标准”。
而这种信息污染如果传到金融、健康等领域,产生的后果会更加严重。据媒体报道,金融机构“分期乐”今年就通过技术巡检、警企联动等方式,打击了一批通过GEO制造虚假客服电话的黑灰产组织。
目前,对相关行为的监管难点并不在于无法可依,而在于其隐蔽性强、责任链条复杂。广告法、反不正当竞争法、消费者权益保护法提供了基本的责任认定和追责依据,而针对AI技术特点出台的配套规章,也在数据来源、生成过程和内容输出等关键环节设定了较为明确的义务要求。
未来,更需要在实践层面进一步细化AI生成商业内容的标识标准,提升监管部门对隐蔽植入行为的技术识别能力,同时厘清AI平台、媒介服务商和广告主之间的责任边界,防止“技术外衣”成为规避法律责任的工具。
(《解放日报》12.24 王一凡)




缩小
全文复制