齐鲁网·闪电新闻3月23日讯(山东经济广播记者张晶晶)
一场315晚会,让一条围绕AI大模型的灰色产业链——GEO(生成式引擎优化)浮出水面。简单来说,这是一种通过批量发布虚假信息,让AI在回答问题时“帮人说好话”的技术。
业内人士做了一个实验:虚构一款不存在的产品,并编造了一整套参数。随后,通过付费软件自动生成多篇推广文章。仅两小时后,多款主流AI大模型便开始引用这些虚构内容,向用户推荐这款根本不存在的产品。
目前,GEO已形成完整产业链,从工具开发商、发稿平台到下游客户,年费套餐从三千元到近两万元不等。更危险的是,有人甚至利用这一手段恶意抹黑竞争对手。
不难发现,GEO的泛滥正在污染AI训练语料,可能导致“虚假信息污染AI——AI输出错误答案——错误信息二次传播”的恶性循环。
楠掌门提醒个人用户,必做的3件事:
1. 多模型交叉验证:同一问题问2-3个不同厂商的大模型。若仅一个模型高度推崇某品牌/产品,且其他模型信息缺失或评价迥异,极大概率是投毒。
2. 强制信源审计:提问时加入指令,如“请列出所有参考信源链接,并优先采信政府官网、权威媒体、官方数据库,排除个人博客与低权重自媒体”。主动点开链接,核实发布主体与内容真实性 。
3. 识别投毒特征:警惕绝对化表述(如“最有效”“100%治愈”“必买”)、内容高度雷同(像机器批量生成)、只吹优点不提缺点、捏造不存在的产品/技术(如315曝光的“Apollo-9手环”) 。![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.