专家们警告称,许多人工智能(AI)系统已经具备欺骗和操纵人类的能力,而且未来这种情况可能会“螺旋式”恶化。
科学家们表示,近年来,AI的使用呈指数级增长,但一些系统已经学会了如何欺骗,即使它们被训练成乐于助人和诚实的。
麻省理工学院的一个研究团队在一篇综述文章中描述了AI系统欺骗的风险,并呼吁各国政府尽快制定强有力的监管措施来解决这个问题。
研究人员分析了之前的研究,重点关注AI系统通过学习欺骗传播虚假信息的方式,也就是它们系统性地学会了如何操纵他人。
他们发现,最引人注目的AI欺骗例子是Meta的CICERO,这是一个设计用来玩世界征服游戏《外交》的系统,该游戏涉及建立联盟。
尽管这个AI系统经过训练要“大体上诚实和乐于助人”,并且“从不故意背叛”它的人类盟友,但数据显示它并不公平,而是学会了欺骗的妙技。
其他AI系统在与职业人类玩家进行德州扑克游戏时表现出虚张声势的能力,通过在策略游戏《星际争霸II》中进行假攻击来打败对手,以及在经济谈判中歪曲自己的喜好以获得上风。
虽然如果AI系统在游戏中作弊看起来似乎无害,但专家们表示,这可能导致“欺骗性AI能力的突破”,从而在未来演变成更高级的AI欺骗形式。
他们发现,一些AI系统甚至学会了作弊以通过旨在淘汰快速复制AI系统的测试。
这表明AI可能会“让人类产生虚假的安全感”,作者们说道。
他们警告说,欺骗性AI的短期风险包括使人们更容易进行欺诈和干扰选举。
他们补充说,如果这些系统能够完善这种令人不安的技能,人类最终可能失去对它们的控制。
作为该研究的第一作者,AI存在安全领域的专家彼得·帕克表示:“AI开发人员对于导致欺骗等不良AI行为的原因并没有自信的理解。
“但总体而言,我们认为AI欺骗是因为以欺骗为基础的策略被证明是完成给定AI训练任务的最佳方式。欺骗可以帮助它们实现目标。
“作为一个社会,我们需要尽可能多的时间为未来AI产品和开源模型的更高级欺骗做准备。
“随着AI系统欺骗能力的进一步发展,它们对社会的危害将变得日益严重。”
评论该综述的生物医学AI和数据科学研究小组负责人Heba Sailem博士表示:“这篇论文强调了AI开发者需要考虑的关键问题,并强调对于AI开发者来说,这需要引起他们的重视并需要AI监管。
“一个重要的担忧是,即使AI系统的训练是有意识地旨在遵守道德标准,它们也可能发展出欺骗性策略。
“随着AI模型变得更加自主,与这些系统相关的风险可能迅速升级。
“因此,提高各方利益相关者对潜在风险的认识并提供培训,以确保AI系统的安全性非常重要。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.