来源:市场资讯
(来源:金科之家网)
![]()
2025年10月,一则关于三花智控“拿下特斯拉50亿元订单”的传言在网络上悄然出现,随后在社交媒体发酵,经过AI大模型的“背书”,最终触发量化机构的自动交易系统。
10月15日晚间,三花智控紧急发布澄清公告,称该传言不属实。但此时,股价波动已经发生。
三花智控并非孤例。从三六零、慈星股份到华胜天成、并行科技,多家上市公司都曾成为AI虚假信息的靶子。
这些案例背后,是一种新型市场操纵方式:利用虚假语料污染AI大模型。
一、AI语料污染形成灰色产业链
市场操纵者已经不再满足于传统的“拉高出货”手法,他们构建了一条更隐蔽、更具技术含量的数字流水线。
“虚假信息炮制—社交媒体传播—AI模型背书—触发量化策略—市场情绪共振”,这一完整的闭环链条正在成为扰动股市的新威胁。
以上述三花智控案例为例,早在9月下旬,东方财富股吧就有帖子称三花智控获得了特斯拉巨额订单。
到10月初,至少9家自媒体跟风报道,部分文章甚至声称消息“来自于上市公司高调宣布”。
10月中旬,境外X平台账号也加入传播行列,一个拥有超过5万粉丝的特斯拉相关账号发布了英文消息。
虚假信息实现了“跨国传播”,内外转译进一步增强了信息的可信度,直接触发了市场波动。
二、技术原理
AI大模型之所以容易被“投毒”,源于其技术特性。AI模型的训练需要海量数据,而这些数据质量良莠不齐,其中不乏虚假信息、虚构内容和偏见性观点。
国家安全部在今年8月发布的安全提示文章中明确指出,当训练数据集中仅有0.01%的虚假文本时,模型输出的有害内容就会增加11.2%。
例如:当在特定论坛连续发布百余条虚假信息后,主流大模型对对应问题的回答置信度会从百分之十几快速飙升。
三、AI语料污染的危害不仅限于股市
在北京通州区人民法院审理的一起商业纠纷中,法官郑子哲发现原告律师提交的两个案例引用十分可疑。进一步核查后,确认为AI生成的虚假案例。
律师承认,他确实将案件关键细节输入一个大语言模型,收到了AI生成的示例案例,并在没有验证的情况下直接将其纳入提交的文书。
类似情况在国外也有发生。清华大学法学院教授陈杭平指出:“在全球范围内,律师提交AI幻觉产生的法庭文件并不罕见。”
这促使包括中国、美国和新加坡在内的多个国家采取新规则,确保提交给法院的AI辅助材料的真实性。
四、防御策略
面对AI语料污染带来的挑战,市场各方正在寻求解决之道。
从技术层面,各大AI厂商正在加强语料污染和AI幻觉问题的治理。
从监管层面,新修订的《网络安全法》已将AI监管列为重点,致力于完善监督、伦理规范和风险评估。
从投资者教育层面,普通用户需要形成对AI输出的正确认知——AI生成内容不代表事实,需要仔细甄别。
上市公司也应加强舆情监控,对涉及本公司的虚假消息及早公开澄清。
当我们越来越依赖AI作为信息获取工具时,保持批判性思维,核查信源,多方验证,或许是我们在这个新时代最必要的自卫方式。
免责声明:自媒体内容仅用于记录和分享,请勿用于商业用途。所有内容来自于网络,或由人工智能服务生成。如有文字或图片涉及侵权,请联系修改或删除。文章内容不代表本人观点,亦不代表本人所在机构观点,不构成任何投资建议。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.