![]()
谷歌的端侧小模型Gemini Nano,最近被一群Reddit用户玩坏了。他们发现,只要往图里塞一张特定结构的图片——美女配香蕉——Nano就会直接罢工,要么拒绝识别,要么输出乱码。
这张"毒图"的配方很固定:红发卷发女性、天使主题、手里或旁边必须出现香蕉。用户测试了几十组变体,发现Nano对"香蕉+特定人像"的组合异常敏感,甚至会触发安全过滤器的过度反应。
一位测试者在帖子里的原话:「我把香蕉P掉,模型立刻正常;加回去,又卡死。这不是巧合,是某种诡异的模式识别漏洞。」
谷歌至今没解释为什么"香蕉"成了敏感词。更讽刺的是,同样的图片喂给云端版的Gemini Pro,完全没问题。问题只出在Nano这个要跑在手机上的轻量化版本。
有开发者猜测,Nano的训练数据里可能混进了某种未公开的过滤规则,把特定视觉元素错误标记成了高风险内容。但谷歌的文档里从来没提过这层限制。
目前这个漏洞还在。用户最新的反馈是:有人把香蕉换成芒果,Nano就老实了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.