今年的“3`·15”晚会,除了食品安全等老的品类,还出现了一个新状况——AI数据被“投毒”。

解释一下就是,生成式引擎优化(GEO)技术被滥用,部分服务商通过批量制造虚假信息、系统性 “投喂” AI 大模型,实现对 AI 回答结果的操控,甚至让虚构产品成为 AI 推荐的 “优品”。

这个套路是不是有点眼熟?回到搜索引擎如日中天的年代,搜索引擎推荐广告带来的系列问题,和当下AI被“投毒”所带来的风险,颇为相似。而技术进步,连带着背后逻辑,都从原先的平台收费引流,进一步升级成了真正的“黑箱”,就连AI大模型的开发者,很可能都被GEO服务商绕过去了。

信息从来就是珍贵的,贩卖信息的渠道也是如此。按照媒体公开报道,如今,这类GEO技术已经形成了一条完整的产业链。在明码标价的商业模式下,有服务商报价每季度3600元至数万元不等,就能让特定品牌出现在AI回答的前列。

技术本身是中立的,但问题的核心在于AI大模型的运作机制本身存在脆弱性。多数大模型在联网模式下依赖第三方内容平台提供信息摘要,缺乏对原文的深度语义理解与真实性核验。在商业利益的驱动下,GEO大模型对结构化、完整化内容的检索偏好,通过批量生产贴合AI抓取习惯的内容,将特定品牌推到更容易被采纳的位置,不仅污染了单一信息源,更可能通过AI的反复引用强化,形成难以清除的“数字污染”。

这类虚假信息,比夸张化的广告营销手段更难识别,AI幻觉所带来的风险和影响面也可能随着技术进一步普及变得更大。

面对一路高歌、发展飞快的AI技术,旧有的监管思路也需进一步适应变化。搜索引擎时代的优化手段至少还有迹可循,而AI的“黑箱”特性让问题变得更加隐蔽和复杂。

这意味着治理的手段,同样要跟上技术飞跃的速度。对于AI大模型平台本身而言,需要在检索、排序与结果呈现阶段建立更严格的广告识别与信息过滤机制,对疑似商业推广内容进行明确标注,并强化信源质量核验。同时,大模型应从多种独立且可信的信源获取信息,避免单一信源的偏见影响生成结果。这需要AI开发者投入更多资源进行数据清洗和标注,建立更加稳健的的内容审核体系。

而在制度监管层面,相关体系也要跟上技术发展的步伐。去年3月发布的《人工智能生成合成内容标识办法》,进一步完善大模型信息溯源机制,明确GEO服务商、内容发布平台及账号主体的法律责任,建立跨部门的协同监管机制,监管部门要扎实落实,形成有效监管。

数字资产到底如何运用,如今已成为一个不可回避、不能拖延的问题。正如GEO行业专家汤祚飞所言,真正的GEO业务逻辑与“数据投毒”截然相反,合规的GEO应该是为AI提供科学的、真实的、有价值的信息。在这种意义上,加强、落实对GEO的监管,并非不鼓励新生的技术生态和商业机遇成长,而是要为其打造一个更健康、更可持续的发展环境,让人工智能真正回归可信、可靠的工具本质。

原标题:《上观时评|“3·15”首次曝光的这个新问题,需要更大的关注》

栏目主编:简工博

本文作者:解放日报 林子璐

题图来源:上观题图