生成性人工智能可能会写下这个引言,但它很可能会开始出现幻觉现象。
幻觉,谷歌在其充满人工智能的2025年主题演讲中未提及,导致了2025年许多人工智能的失败案例。但这并不是唯一的因素。请看我们为您挑选的过去一年中最大的人工智能失败案例。
幻觉影响了学术界、政府和法律领域
人工智能已经编造内容有一段时间了;“幻觉”在2023年被评为年度词汇是有充分理由的。
但在2025年,这个问题变得更加严重。谷歌人工智能概述可能不再告诉你在披萨上涂胶水,但它们仍然可能声称最新的使命召唤游戏并不存在。
学术界也并非免疫。来自迪肯大学的一项研究发现,ChatGPT伪造了大约五分之一的学术引用文献,而其中一半的引用则包含了其他错误百出的生成性人工智能幻觉元素。
这种幻觉的证据并没有阻止政治家、媒体和律师。罗伯特·F·肯尼迪 Jr. 的卫生与公共服务部使用人工智能引用了那些根本不存在的研究。《芝加哥太阳时报》在五月发布了一份夏季阅读清单,里面有真实的作者和虚构的书名。
与此同时,在635个案件中,律师和诉讼人已经在他们的论据中使用了人工智能的幻觉。
Friend 可穿戴设备迅速失败
Friend 是一款看起来像大型项链吊坠的可穿戴设备,可以记录佩戴者周围的所有声音,并将这些音频发送到连接的手机应用,利用这些数据实时与用户进行聊天,发送文本。
你可能会觉得这很奇怪。这样的设备会不会加剧我们已经存在的孤独和孤立现象,这种现象已经被科技公司所利用?
这并没有阻止 Friend 在纽约市地铁系统上花费超过100万美元进行广告。广告覆盖了超过11,000辆列车、1,000个站台海报和130个城市广告牌,成为纽约地铁历史上最大的一次营销活动。
结果是什么呢?通勤者们立刻就把它破坏了。批评声如此之广,甚至地铁广告都成了万圣节的服装。难怪大家对《朋友》的评论标题都提到“每个人都讨厌它。”
绝大多数企业的AI试点项目都失败
在商业界,公司们被告知必须开始使用AI。问题是,他们对此并不太在行。
根据麻省理工学院媒体实验室的一份报告《2025年商业中的AI现状》,尽管这些公司在AI项目上的投资高达300亿到400亿美元,但95%的企业AI项目还是失败了。
“像 ChatGPT 和 Copilot 这样的工具被广泛采用。超过 80% 的组织已经探索或试点这些工具,近 40% 的组织报告已部署,”报告解释道。
“但这些工具主要提升个人生产力,而不是盈亏表现。同时,企业级系统,无论是定制的还是由供应商提供的,正被悄悄拒绝。60% 的组织对这些工具进行了评估,但只有 20% 的组织进入了试点阶段,只有 5% 的组织进入了生产阶段。大多数失败是因为工作流程脆弱、缺乏上下文学习,以及与日常运营不匹配。”
希望到 2026 年,AI 失败的情况能减少。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.