观点 还记得ELIZA吗?这款1966年由麻省理工学院人工智能实验室开发的聊天机器人让无数人相信它是智能的,仅靠简单的模式匹配和固定回答。近60年后,ChatGPT让人们再次犯下同样的错误。聊天机器人并不真正思考——它们只是变得更擅长于假装……
阿兰·图灵1950年的测试设定了一个简单的标准:如果评审无法判断自己是在与人类还是机器对话,那么机器就通过了测试。
根据这个标准,许多聊天机器人已经被认为是“智能”。你可以在图灵测试直播中亲自体验。来自玛丽女王大学和伦敦大学学院的最新研究发现,人们无法可靠地区分人类声音和人工智能克隆。
这对诈骗者来说是个好消息,但对我们普通人来说就不那么乐观了。下次你孩子打电话来通过Venmo请求快速借钱支付车祸费用时,请记得这一点——实际上可能并不是你的孩子遇到麻烦,而是你和你的银行账户会有麻烦,如果你付钱的话。
但是,实际上用于此的人工智能是聪明的,还是仅仅非常非常擅长假装?这个问题并不新鲜。美国哲学家约翰·塞尔在1980年提出了“中文房间”或称“中文盒子”理论。他认为,尽管计算机最终可以模拟理解——即它可以通过图灵测试——但这并不代表它真的聪明。
中文盒子实验设想了一个不懂中文的人被锁在一个房间里,使用一套指令(例如一个程序)来回复从门下滑入的中文书面信息(数据)。尽管这个人的回答经过足够的训练(机器学习)后非常流畅,但它们仅仅是通过符号操作得出的,而不是基于理解。塞尔认为这种情况类似于计算机如何“理解”语言。中间的人仍然不知道进来的和出去的信息意味着什么。这是语法处理却没有语义理解。或者,正如我喜欢说的,非常复杂的大规模复制和粘贴。
例如,我最近被指控使用人工智能写了一篇关于Linux的文章。 我想澄清一下,我不使用人工智能来写作。搜索是的,Perplexity比谷歌好得多;但写作我不使用。我查了一下,结果发现,在这种情况下,ChatGPT确实给出了看起来和我写的很像的答案,因为当我深入研究时,它是通过‘窃取’我早期关于Linux文章中的词汇来‘学习’的。
根据塞尔的论点,目前的人工智能无论多么复杂,或者我们多么容易被它们欺骗,都永远无法真正理解。我同意他的观点,尤其是针对今天的人工智能。生成式人工智能实际上只是简单的复制和粘贴,而代理式人工智能,尽管关于它是一个新步骤的讨论很多,但实际上只是大型语言模型(LLMs)之间的对话。很酷,有用,但无论如何,这都不是一个根本性的进步。
当我们拥有人工通用智能(AGI)之日,我们可能会拥有一台真正智能的计算机。但我们还没有到达那个阶段。尽管有很多炒作,但我们今天甚至还远未接近。
OpenAI的首席执行官兼公司的头号支持者山姆·阿尔特曼可能曾说过:“我们现在有信心知道如何构建我们传统理解的AGI,”但那简直是胡说。我们最终会拥有真正聪明的人工智能吗?当然。我相信那一天会到来。
当我们有一个能够通过中国研究人员的生存游戏测试的人工智能时,请叫醒我。这个测试要求人工智能通过不断试错来找到各种问题的答案。就像我们一样。他们的最佳估计是,直到2100年才能实现这样的系统能够准确地说出和理解它所说和所做的事情。
我觉得我们能更快实现这个目标。技术总是比我们想象的进步得更快,尽管我们对它的进步预测总是很糟糕。我还是想要我的飞行汽车,但我已经放弃了能拥有一辆的希望。
你可能会问自己:“这真的重要吗?如果我的GenAI女友说她爱我,而我相信她,这难道不够吗?”好吧,对于那些极度孤独的人来说,这也许没什么问题。虽然这很悲伤,但也没关系。然而,当我们认为人工智能是智能的时,我们往往也认为它们是可靠的。其实并不是这样。也许StacyAI 2.0不会背叛你,但在工作中,我们希望它们能更可靠一些。
我们还没到达那个地步。OpenAI 的科学副总裁凯文·韦尔最近声称“GPT-5 刚刚解决了 10 个 (!) 之前未解的厄尔德什问题。”啊,不,不是这样。它并没有。OpenAI 的最新模型只是从互联网抓取了答案,然后把它们当成自己的答案重复出来。
就像人类一样,Anthropic 发现 AI 程序会撒谎、作弊,甚至勒索。但它们并不是自己想出来的东西。真是可悲,不是吗? ®
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.