![]()
过去30天,全球钓鱼诈骗攻击量同比增长47%。不是"感觉变多了",是安全厂商CrowdStrike的监测数据。
更麻烦的是诈骗的进化速度。你刚学会识别"您的快递已滞留"的短信套路,骗子就学会了用你真实姓名、真实订单尾号、甚至你所在小区的菜鸟驿站名称来敲门。去年还粗糙得像诈骗,今年已经开始像客服。
诺顿(Norton)最近做了一件有意思的事:把自家AI诈骗检测引擎塞进了ChatGPT,变成三个可以直接调用的工具。不是独立App,不用注册新账号,就在你平时聊天的界面里。
我花了两天时间,用20条真实消息测试这套系统——包括我收件箱里的钓鱼邮件、LinkedIn上的假招聘、以及朋友转发的"银行风控短信"。结果有些符合预期,有些完全出乎意料。
三个工具,三种用法
诺顿在ChatGPT里埋了三个入口,对应三种场景。
第一个是文字分析。你把短信、邮件、社交消息直接贴进去,它返回风险评估和具体疑点。第二个是链接检测,专门对付那些看起来正常的短链接。第三个最实用:截图分析。直接扔一张聊天界面或邮件的截图,它连文字带视觉元素一起读——比如发件人头像是否伪造、界面布局是否有细微错位。
这三个工具目前只对ChatGPT Plus、Pro和Team用户开放。免费用户看不到入口。
测试前我的假设是:链接检测应该最准,毕竟URL特征相对标准化;文字分析次之,因为自然语言有模糊性;截图分析可能最弱,视觉判断容易出错。
实际跑完20条样本后,排名完全颠倒。
![]()
最准的竟是截图分析
我喂的第一批样本是5条真实诈骗短信,全部来自我的真实收件箱。包括一条伪造顺丰快递的、一条冒充美团客服的、一条"医保账户异常"的。
文字分析的表现中规中矩。它抓出了"医保账户"那条的问题——发件号码是11位手机号而非官方服务号,链接域名注册时间只有3天。但对伪造顺丰那条,它只给了"中等风险",理由是"部分措辞与官方一致"。实际上那条短信的链接指向一个.cn域名,和顺丰官方.com完全不搭边。
链接检测的表现更奇怪。它正确标记了3个恶意短链接,但对一个伪装成腾讯文档的钓鱼链接给出了"安全"评级。后来我查了这个链接,它确实托管在真实的腾讯文档域名下,但文档内容是伪造的银行登录页。诺顿的引擎显然被域名白名单骗了。
截图分析的表现让我重新评估这套系统。同样的伪造顺丰短信,截图模式不仅抓出了链接异常,还指出了发件人号码的排版问题——官方短信的发件人显示为"顺丰速运"四字,而诈骗短信显示为"1069"开头的长串数字,视觉上被截断成乱码。
更意外的是一条LinkedIn假招聘。文字分析只说了"部分表述过于笼统",截图分析却注意到对方头像的EXIF信息缺失(专业摄影师或企业官方头像通常保留拍摄参数),且个人资料页面的"工作经历"时间线存在逻辑断层。
诺顿的安全研究员后来向我解释:截图分析实际上调用了多模态模型,会同时检查文字内容、视觉布局、图像元数据,甚至界面元素的像素级对齐偏差。"很多钓鱼页面模仿得很像,但按钮圆角多1个像素、字体字重差半档,人眼看不出,模型能量化。"
它漏掉的东西
这套系统不是万能钥匙。测试中有两个明显短板。
第一是时效性盲区。我测试了一条当天收到的诈骗短信,链接指向一个刚注册6小时的域名。截图分析给出了"高风险",但置信度只有62%,标注"建议人工复核"。诺顿的引擎显然对新域名缺乏历史数据积累,只能凭规则打分。
![]()
第二是语境缺失。一条朋友转发的"银行风控提醒",实际是真实的——她确实在刚出国消费后触发了风控。但截图分析给出了"高风险",理由是"紧急措辞+短链接组合常见于诈骗"。它不知道这条消息出现在我们三年的微信对话上下文中,不知道发件人是真人。
这让我意识到一个反常识的结论:AI诈骗检测的准确率,在陌生人场景下很高,在熟人场景下反而可能翻车。因为熟人诈骗(比如被盗号的朋友借钱)依赖的是关系链信任,而非消息本身的技术特征。
诺顿的产品经理承认这个局限。他们目前的训练数据主要来自公开的钓鱼样本库,对"社交工程"中的人际关系权重建模不足。"这不是技术问题,是隐私问题。我们不想为了判断一条消息是否安全,先去读取你的整个聊天记录。"
一个被忽略的设计细节
测试到最后,我发现这套系统最有价值的部分可能不是检测结果本身,而是它的解释方式。
传统的安全软件喜欢扔一个红色警告框:"此链接危险!"用户要么被吓住,要么习惯性忽略。诺顿在ChatGPT里的输出是对话式的:它逐条列出疑点,用"可能""建议注意"而非"确定""危险",最后留一句"你可以通过官方渠道核实"。
这种设计降低了用户的防御心理。测试中我有两次本来觉得"这消息看起来正常",但看完AI的分析后主动去核实了——一次是快递短信,一次是"公司IT部门"的密码重置提醒。两次都是真的,但核实这个动作本身就有价值。
网络安全领域有个老问题:用户教育做了二十年,钓鱼成功率还是降不下来。不是因为人笨,是因为诈骗的"真实感"进化得比人的警惕性更快。诺顿这套系统的思路是:不指望人变聪明,而是把"需要专业知识才能发现的疑点"翻译成普通人能理解的对话。
当然,它现在还不完美。测试中有两条真实诈骗被漏掉,一条真实消息被误报。但比起"完全靠自己判断"和"完全依赖AI判断",这种"AI辅助+人工决策"的中间态,可能是目前最务实的解法。
ChatGPT里搜"Norton"就能找到这三个工具。如果你最近也收到过那种"看起来有点怪但又说不出哪里怪"的消息,可以扔进去试试——然后告诉我,它漏掉了什么。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.