
如今,AI技术发展迅猛,能轻松生成逼真图文,“眼见为实”早已不可靠。从假新闻照片到明星虚假代言视频,网络世界真假难辨。我们该如何避免被“数字谎言”欺骗?
2025年TED大会上,深耕数字取证领域30多年的美国学者哈尼·法立德(Hany Farid)给出了方向。曾凭借照片证据破获凶杀案的他指出,AI造假虽然厉害,但存在致命弱点,无须畏惧。
01
AI图片造假是如何做到的?
![]()
如今,照片移形换位、清除人物已成常规操作,过去靠修图软件,现在手机AI就能轻松完成。
要识别假图片,得先了解AI“画图”过程:它像超级聪明的画师,先学海量图片掌握技巧,再将真实图片打散成无序像素点,学习重组,这样既能还原图片,还能按指令重新排列像素,创造出长颈鹿穿毛衣、凭空生成鲨鱼等内容。
![]()
AI创作与相机拍照完全不同,相机靠光线与物理世界真实互动记录影像,是物理学产物;而AI仅依据数据和概率“猜”画,是统计学产物。例如,AI知道狗有毛发、尾巴和4条腿,会随机组合这些元素,却不懂狗的身体结构。
![]()
02
揭穿AI的“小破绽”
![]()
AI因不懂物理规律,即便画面惊人,也会留下“小破绽”。哈尼·法立德及其团队正是利用这些缺陷判断图片真假。
“像素指纹”:从噪点中寻找线索
手机拍摄的真实照片,有光线在传感器上留下的独特随机的噪点;而AI生成图片的噪点,放大后呈规律排列,如同AI盖下的“数字指纹”。
哈尼·法立德通过对比图证实:真实照片物体噪点混乱,AI生成图片物体噪点呈独特星状结构,即便肉眼难以察觉,专业分析也能识破,我们可凭规则噪点判定是否为AI作品。
![]()
“歪七扭八”的透视:AI的几何学弱点
现实中,铁路轨道等平行物体远处会交会于一点,这是透视规律。画家早就运用此原理营造立体感。
但AI不懂透视本质,画的“平行线”常方向杂乱。在演讲中,哈尼·法立德以“士兵”图为例,图中地下室墙壁本应平行,延长边线却发现未交会于合理消失点,这说明场景在物理上不可能存在。AI在处理复杂场景时,难以保障物体透视关系准确,这就成为重要的鉴定线索。
“不靠谱”的影子:AI的光源逻辑混乱
同一场景中,影子应源于同一光源、方向一致,这是基本物理规律。但AI常“画”错影子,导致同一场景的影子方向各异,仿佛多光源照射。
若图片中影子指向不同,大概率是AI生成的——目前AI无法像人类一样,在三维空间中准确模拟光线和阴影关系。对于专业人士而言,分析物体影子投射方向、检查是否指向合理光源,是判断图片真实性的重要步骤。
![]()
这些漏洞揭示了AI本质:它是强大的模式匹配机器,不懂世界运行法则,即便画面逼真,细节仍能找到破绽。
05
你的“反击”武器:4个超实用小技巧
![]()
即便没有专业数字取证工具,我们也能像“数字侦探”一样,保护自己不受虚假信息侵害。哈尼·法立德给出4条建议。
“别急着转发”:遇到令人震撼、愤怒的图片,先冷静。点击分享前,通过官方新闻机构等多渠道交叉求证,无佐证的单张图片大概率为假图片。
“学会看‘身份证’”:未来更多图片、视频会自带内容凭证(Content Credentials),其如同“出生证明”,学会识别它,可辨别真假。
“社交媒体不是新闻站”:社交媒体的算法会优先推送能引发强烈情绪的内容,这类内容常是虚假的。因此,获取新闻时应选专业、有编辑团队把关的官方新闻网站。
“做个有责任心的分享者”:转发未证实的信息,会成为假新闻的“帮凶”。分享前应确认信息真实性,做负责任的信息传播者。
AI造假与识别技术的博弈,恰似一场永不停歇的攻防战。今天辨别虚假的破绽,或许很快会被技术迭代抹平,真假边界可能更模糊。但技术是人类意志的延伸,AI这把双刃剑,是制造混乱的工具还是构建可信数字生态的助力,关键在于每个人的选择。面对海量信息多一分审慎,传播前多一次求证,就是在为抵御数字谎言筑防线。
责任编辑 | 段雯娟 赵青云
运营编辑 | 赵青云
质量审核 | 王维嘉 李雅欣
图片来源|《知识就是力量》杂志《识别AI造假照片,做数字时代“鉴真达人”》,图文/王治钧(内容整理自信息取证专家哈尼·法立德的演讲),原创作品转载请注明来源。
知识就是力量
现订购2026年
定价360元
把一整年的知识搬回家
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.