AI助手有时可能会提供误导性或不正确的答案。然而,几乎一半使用这些服务的英国消费者对它们的信任可能有些过头……
消费者组织Which?对这些工具进行了测试,发现所提供的消费者建议可能模糊不清、存在风险,或者跟着做可能会很危险。
这在IT圈子里大家都很清楚。AI驱动的助手有其存在的价值,但同样重要的是了解它们的局限性,发现明显的问题。
《Which?》对4000多名英国成年人进行了调查,了解他们如何使用人工智能,并向六个聊天机器人(ChatGPT、Google Gemini、Gemini AI Overview、Copilot、Meta AI和Perplexity)提出了40个关于健康、金融和旅行等方面的消费者问题——结果并不尽如人意。
在测试中,Meta的人工智能的正确回答率略超过50%,而最广泛使用的人工智能工具ChatGPT的正确率为64%,排在倒数第二。Perplexity以71%的正确率名列第一。虽然不同的问题可能会得到不同的结果,但结论很明确:人工智能工具并不总是能提供正确答案。
问题在于消费者信任这些输出结果。根据《Which?》的研究,超过一半(51%)的受访者使用人工智能搜索网络。在这些受访者中,几乎一半(47%)表示“他们对所获得的信息的信任程度为‘很大’或‘合理’。”《Which?》指出,对于频繁使用人工智能的用户,这一比例上升至65%。
接下来谈谈人工智能服务所使用的来源。在引用来源明确的情况下,有些使用了旧的论坛帖子,而其他一些则依赖于像Reddit这样的讨论串。虽然这些有时可以是有效的信息来源,但它们的权威性可能不如人工智能聊天机器人所表现出的自信语气。
Which? 发现聊天机器人生成错误信息的情况非常频繁,指出:“多达六分之一(17%)的受访者表示他们依赖人工智能来获取财务建议,但对许多财务问题的回答却令人担忧。”这些问题包括税码检查和关于ISA限额的建议,这可能会让用户陷入麻烦。
Which? 的技术专家安德鲁·劳克林说:“人工智能的日常使用正在快速增长,但我们发现,获取所需答案时,细节非常重要。”
“我们的研究发现了太多的不准确和误导性陈述,令人不安,尤其是在依赖人工智能处理财务或法律问题等重要事务时。”
随着人工智能助手的使用不断增加,风险也随之增加。虽然IT行业意识到了这些风险——最近的一项分析显示,使用人工智能的开发者能写出未使用者的三到四倍的代码,但同时也会产生未使用者的十倍安全问题——消费者对技术了解不深,可能会被理解,尤其是考虑到这项技术的炒作。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.