近一半的澳大利亚人 表示他们最近使用了人工智能(AI)工具,因此了解这些工具的使用时机和方式变得越来越重要。
咨询公司德勤最近向澳大利亚政府部分退款,因为他们发布的一份报告中存在 AI生成的错误。
一名律师最近因在正式法庭文件中发现虚假的 AI生成引用而面临纪律处分。许多大学 对学生使用AI的方式感到担忧。
在这些例子中,各种“AI检测”工具应运而生,以满足人们对识别准确、可信和经过验证内容的需求。
那么,这些工具到底是如何工作的?它们在识别AI生成的材料方面有效吗?
AI检测器是如何工作的?
有几种方法,它们的有效性可能取决于内容的类型。
文本检测器通常通过寻找句子结构、写作风格以及某些单词或短语使用的可预测性中的“特征性”模式来推断 AI 的参与。例如,自从 AI 写作工具变得更加普及以来,“深入探讨”和“展示”的使用已经激增。
然而,AI 和人类模式之间的差异正变得越来越小。这意味着基于特征的工具可能会变得非常不可靠。
图像检测器有时通过分析某些 AI 工具在图像文件中添加的嵌入元数据来工作。
例如,内容凭证检查工具允许人们查看用户如何编辑一段内容,前提是该内容是使用兼容软件创建和编辑的。与文本一样,图像也可以与经过验证的 AI 生成内容的数据集(如深度伪造)进行比较。
最后,一些 AI 开发者已经开始在其 AI 系统的输出中添加水印。这些是在任何类型内容中隐藏的模式,对人类来说是不可察觉的,但可以被 AI 开发者检测到。然而,目前没有大型开发者与公众分享他们的检测工具。
这些方法都有各自的缺点和局限性。
AI 检测器的有效性如何?
AI 检测器的有效性可能取决于几个因素。这些因素包括生成内容所用的工具,以及内容在生成后是否经过编辑或修改。
这些工具的训练数据也会影响检测结果。
例如,用于检测 AI 生成图片的关键数据集中缺乏足够的人全身照片或来自某些文化的图像。这意味着成功检测在许多方面已经受到限制。
基于水印的检测在识别同一公司 AI 工具生成的内容时相当有效。例如,如果你使用 Google 的 AI 模型之一,如 Imagen,Google 的 SynthID 水印工具 声称能够识别生成的输出。
但 SynthID 目前尚未公开可用。如果你使用 ChatGPT 生成内容,这种方法就无法奏效,因为 ChatGPT 不是由 Google 开发的。AI 开发者之间的互操作性是一个主要问题。
当输出被编辑时,AI 检测器也可能会被欺骗。例如,如果你用语音克隆应用,然后添加噪音或降低质量(通过缩小),这可能会导致语音 AI 检测器失效。AI 图像检测器也是如此。
可解释性是一个重要的问题。很多人工智能检测器会给用户一个“置信度估计”,告诉他们某个内容是否由人工智能生成的可能性有多大。但它们通常不会解释为什么会这样判断。
我们要意识到,人工智能检测现在还处于起步阶段,特别是自动检测。
最近对深度伪造的检测尝试中,有一个很好的例子。Meta的深度伪造检测挑战赛的获胜者成功识别了五个深度伪造中的四个。不过,这个模型是在和测试数据相同的数据上训练的——就像在考试前看到了答案一样。
当对新内容进行测试时,这个模型的成功率就下降了。在新的数据集中,它只正确识别出了五个深度伪造中的三个。
这些都说明人工智能检测器可能会出错。它们可能会出现假阳性(错误地认为某个内容是人工智能生成的)和假阴性(错误地认为某个内容是人类生成的)。
对相关用户来说,这些错误可能会造成严重后果——比如,一个学生的论文被误认为是人工智能生成的,实际上是他们自己写的;又或者,有人错误地认为一封人工智能写的邮件是来自真实的人。
这是一场技术竞争,因为新技术正在开发或完善,而检测工具正在努力跟上。
接下来该怎么办?
依赖单一工具存在问题和风险。通常使用多种方法来评估内容的真实性更安全、更好。
你可以通过交叉引用来源和核对书面内容中的事实来做到这一点。对于视觉内容,你可以将可疑图像与声称在同一时间或地点拍摄的其他图像进行对比。如果某些内容看起来或听起来可疑,你也可以要求提供额外的证据或解释。
但最终,在检测工具不足或其他选项不可用时,建立信任关系仍然是最重要的因素之一。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.