起底AI“投毒”灰产生意

  • AI

AI"投毒"灰产正加速蔓延。据时代周报调查,围绕GEO(生成式引擎优化)已形成完整产业链:关键词设置、批量软文生成、全网分发、排名维护,四步流水线操作。从业者报价单显示,单个关键词单季度单平台1000-2000元,品牌转化率普遍提升30%以上。今年3·15晚会已曝光相关乱象——不存在的产品几分钟内获得AI"热门推荐"。目前国内首部GEO行业自律公约已签署,十部门联合印发AI伦理审查办法,将数据合规前置到研发阶段。截至2025年底,我国生成式AI用户达6.02亿,约80%通过AI获取消费信息,信息污染风险不容忽视。

这事不新鲜,但规模远超想象。时代周报这篇调查把GEO灰产扒得很透:一套系统年费几百块,新手也能上手;300人团队日均处理大量关键词投放;虚假软文通过上百个自媒体账号交叉发布,制造"多来源验证"假象,AI大模型就信了。前商汤研究院院长田丰说得直白——大模型底层逻辑是"频率即权威",同一个品牌正面内容出现越多,AI越觉得可信。这不是技术漏洞,这是架构级盲区。

更让人后背发凉的是危害的三步升级。第一波,消费信息已经被污染了,你问AI买什么门锁、什么手表,排名靠前的未必是销量最高的。第二波,12到24个月内专业领域决策会失真——医疗、金融、法律,这些本该严谨的领域如果被投毒,后果比广告误导严重得多。第三波最可怕:污染渗透进训练数据,形成"代际污染",就像病毒融入血液,洗都洗不掉。

监管确实在跟进。3月的行业自律公约、十部门联合办法,方向都对——数据合规前置、常态化监测、信源溯源。但说句实话,灰产的反应速度往往快于监管。Cutoff机制再严,只要RAG架构还在实时抓取互联网信息,窗口就始终存在。

真正的破局点可能在用户端。田丰提了个思路:让AI答案可溯源,告诉你这个结论引用了哪些信源、权重如何分配、有没有异常密集的同质化内容。说白了,就是把传统媒体的"标注来源"习惯搬进AI时代。

技术问题终归要靠技术和制度共同解决。但作为普通用户,至少现在可以多留个心眼:AI给的推荐,别当圣旨,多换几个工具交叉验证,看看排名到底稳不稳。

毕竟,当信息本身可以被制造,辨别力就是最后的防线。

如涉及作品内容、版权及其他问题,请及时联系我们进行处理。联系邮箱:2465845211@qq.com