![]()
微软CEO萨提亚·纳德拉在伦敦AI巡回演讲中重申了一个让许多IT专业人士感同身受的观点:"没有人希望AI创作出任何粗糙的内容。"
纳德拉在演讲中谈到了AI助手、智能体AI、工作增强以及确保数据链中的下一个环节能够理解输出结果是如何产生的。值得注意的是,这位微软CEO使用"粗糙"这个词汇,此前他曾公开呼吁大家不要贬低AI的输出结果。
微软的AI巡回演讲自然重点展示了公司在AI领域的雄心壮志。Copilot占据了重要位置,纳德拉还提到了由AI驱动的智能体所提供的"无限思维集合"。但是在主题演讲的礼堂里,有一个显而易见却没有直接提及的问题——AI输出结果并不可靠。
尽管会议大力宣传AI工具的优势,比如在Excel中整理数据、为网站创建和执行测试计划等令人惊叹的演示,但同时也不断出现警告信息,提醒用户AI工具的输出结果不能完全信任,需要人工验证。
即使是命令行演示也带有警告:"Copilot使用AI技术,请检查是否有错误。"
在这个以AI技术优势为主题的会议上,屏幕上的警告和提醒突出表明AI远非万无一失。
虽然会议大量引用了英国的AI应用案例——包括医生描述在患者互动中节省的时间,以及经常被引用的公务员节省26分钟工作时间的统计数据——微软避免提及西米德兰兹郡警察局的Copilot事故,当时该工具产生了关于足球比赛的幻觉。该警察局局长克雷格·吉尔福德后来提前退休。
正如主题演讲屏幕上清楚显示的那样,AI输出结果不能被信任,"没有人想要任何粗糙的内容"。这一点在做出警务决策或计算会议中心容量时尤其重要。
Q&A
Q1:微软CEO纳德拉对AI内容质量有什么看法?
A:纳德拉明确表示"没有人希望AI创作出任何粗糙的内容",强调AI输出需要保证质量。他认为AI助手和智能体在增强工作能力的同时,必须确保数据链中的每个环节都能理解输出结果的产生过程。
Q2:微软在AI演示中为什么要加入警告信息?
A:因为AI输出结果并不完全可靠,需要人工验证。即使是简单的命令行演示也会显示"Copilot使用AI技术,请检查是否有错误"的警告,这表明AI技术远非万无一失,在实际应用中必须谨慎对待。
Q3:西米德兰兹郡警察局的Copilot事故是什么?
A:西米德兰兹郡警察局在使用Copilot时,该工具产生了关于足球比赛的幻觉内容,这是一个典型的AI输出错误案例。事件发生后,该警察局局长克雷格·吉尔福德提前退休。这个事故突出了AI在重要决策领域应用时的风险性。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.