要产生幻觉,你需要先感知。大型语言模型有时会捏造信息并将其呈现为事实,这种现象通常被称为“幻觉”。
我们正处于一个新时代的曙光。在过去一年左右的时间里,出现了新版本的人工智能,导致一些人认为真正的机器智能指日可待。这要么被视为来自上帝的礼物,它将带领人类走向奇迹般繁荣的应许之地,要么被视为一种带来难以想象的危险的生存威胁。但是,在这两种说法的背后,都是一个不容置疑的假设,即我们作为有情众生是谁,以及这些技术内部发生了什么。这些假设或隐含的偏见最明显的莫过于 ChatGPT 和类似程序可以“产生幻觉”的说法。
当人们使用“幻觉”一词来指代聊天机器人时,他们指的是他们“提出”问题答案的惊人能力。如果您要求聊天机器人就特定主题撰写文章并提供参考资料,他们提供的一些引文可能会完全是虚构的。这些来源根本不存在,也从未存在过。当要求提供有关真实人物的传记信息时,聊天机器人可能会简单地吐出虚假信息,就好像它凭空将其作为事实呈现一样。这种产生错误信息的能力称为幻觉。但是,在这种情况下使用该术语隐藏了对人工智能状态及其与人们产生幻觉时所做的事情的关系的危险误解。
幻觉的先决条件
如果你在互联网上搜索幻觉的定义,你会得到这样的东西:“幻觉是通过你的感官对物体或事件的错误感知:视觉、听觉、嗅觉、触觉和味觉。幻觉看似真实,但事实并非如此。这里重要的一点是与感知的联系。要产生幻觉,首先必须感知;你一定已经化身到这个世界上了。用一个现象学术语来说,你应该已经嵌入到一个丰富而全面的“生命世界”中,这个世界承载着许多关于这个世界如何运作的背景。但是,在具有大型语言模型 (LLM) 的聊天机器人中发生的事情甚至与您的聊天机器人中发生的事情相差甚远。
这些技术的当前版本是基于统计数据,而不是实践经验。聊天机器人接受过大量数据的训练,这些数据通常来自互联网,这使它们能够在符号之间建立统计相关性,例如组成单词的字母。创建这些庞大的统计相关性网络并立即使用它们来回答诸如“泰勒·斯威夫特有一只小狗吗?”之类的问题所需的计算能力令人震惊。它们运行得如此之好,无疑是最高级别的技术成就。但这种成功隐藏了一个重要的局限性,当他们的失败被归类为幻觉时,这个局限性被忽视了。
当LLM在你刚刚要求它写的罗马历史论文中给你一个虚构的参考资料时,它并不是幻觉。他的錯誤並不是他對世界做了錯誤的陳述,因為他對世界一無所知。在大型语言模型的算法中,没有人对任何事情一无所知。最后但并非最不重要的一点是,法学硕士绝不是生活在我们这个可能犯错误的世界里。它只是在巨大的超维相关性空间中基于盲目统计搜索吐出字符串。可以肯定的是,当我们使用我们创造的机器来回答问题时,我们是犯错误的人。
盲点
那么,为什么将这些统计错误称为幻觉是错误的呢?做人,活着,就是沉浸在经验中。经验是先决条件,是其他一切的先决条件。这是使所有想法、概念和理论成为可能的基础。同样重要的是,经验是不可还原的。这就是所给予的;它是具体的。经验,实践,不仅仅是“做一个观察者”——它来得很晚,当你已经从活生生的当下世界的具身的、活生生的嵌入性中抽象出来时。
谈论聊天机器人产生幻觉正是我们所说的“盲点”。这是一个无条件的哲学假设,它将经验简化为信息处理之类的东西。它用技术所体现的抽象(总是如此)取代了成为能够体验的主体的真正意义。你不是一台肉电脑。你不是基于统计推断的预测机器。使用诸如“信息处理”之类的抽象在一长串旨在隔离生命系统某些方面的其他抽象中很有用。但是你不能把经验的整体性挤回从整体性中挤出来的微妙的、不流血的抽象中。
人工智能将在我们想要建立的未来社会中占有一席之地。但是,如果我们不小心,如果我们让自己忽视我们本质的丰富性,那么我们用人工智能创造的东西将使我们变得不那么人性化,因为我们将被迫遵守它的局限性。这比机器人醒来并接管的危险要大得多。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.