网易首页 > 网易号 > 正文 申请入驻

《人类简史》作者怒怼硅谷:智能≠真理,AI正在走偏!

0
分享至

  

  新智元报道

  编辑:KingHZ

  【新智元导读】AI究竟是工具,还是新物种?《人类简史》作者赫拉利警告我们:AI并不只是技术革命,更可能是继有机生命之后的「无机生命」崛起。

  近期,历史学家、哲学家尤瓦尔·赫拉利(Yuval Noah Harari),做客Possible播客。

  

  作为《人类简史》《未来简史》《今日简史》等畅销书的作者,赫拉利与两位主持人就人工智能的发展前景展开了讨论,既有共识也存在分歧。

  

  他们都认为构建人类对AI的信任、打造真正追求真相的AI至关重要,但对实现可能性的判断不尽相同。

  节目中,三人深入探讨了AI革命的潜在结果、全球协作机制以及AI学习方式的不同观点,还剖析了智力与意识之间的本质差异——

  有意识的AI是否值得人类追求?

  

  从历史视角出发, Harari阐释了他对AI技术的警示。

  但他的立场并非悲观主义,事实上,他还尖锐批判了消极论调。

  他分享了以人类同理心为指导原则的哲学理念,认为这将帮助我们避免文明崩塌,最终共同缔造更美好的人工智能未来。

  AI>文字发明

  在《人类简史》中,Harari将「认知革命」视为人类崛起的转折点——七万年前,人类开始讲故事,构建共享神话。在书写与印刷技术中,这一能力进一步发展。

  

  Harari认为,AI的崛起可能比文字的发明更具历史意义:

  写作扩展了智人的表达能力,而AI则可能孕育出「非人类智能」,乃至成为占主导地位的生命形式。

  但关键是要理解,技术从来不仅仅是某种发明:它总是需要社会的、文化的、心理层面的协作。

  大约在五千多年前,已知的最早的书写系统楔形文字,诞生于今天伊拉克南部的苏美尔城邦。

  而这套系统的原理基本上就是:取一些泥土,做成泥板,然后拿根木头或棍子,在泥板上刻下某些符号。

  

  这就是它全部的技术内容——也就是说,从物理和技术层面来看,一块泥土仅此而已。

  从技术上,文字系统本身非常简单。但难点在于如何创造出这套代码、如何教人们使用它,这才是真正困难的部分。而正是这件事,改变了整个世界。

  从潜力上来看,AI的意义更重大。

  写作扩展了已经主宰地球的人类——智人的能力;至少在某些设想中,AI被视为一种新物种的崛起,可能取代智人成为地球上的主导生命形式——或者说,主导的智能形式。

  因此,若站在2025年的时间点,Harari依然会认为写作比AI更重要,尤其因为AI本质上是写作的延伸——只不过是以另一种方式继续演化。

  但如果把目光放到未来,可以想象这样的情景:AI的崛起,将成为宇宙尺度上的重大事件,而写作则无法达到这样的影响力

  或许在某个未来的时刻,有智慧的存在回顾宇宙历史时会说:

  大约40亿年前,生命开始出现,这是有机生命的起点;后来,随着AI的诞生,无机生命也开始了。

  

  至于写作以及整个人类的历史,不过是有机智能最终孕育出无机智能的细枝末节罢了。

  人类的「无机革命」

  在未来的一个世纪里,人工智能究竟是工具,还是将演化为一种新物种?

  它既不是100%是物种,也不是0%。

  不过,Harari认为,即使人工智能仅被视为工具,它本身也会引发一场深刻的社会变革。

  在这个转型中可能有哪些关键因素?作为工具制造者,我们应该如何构建它?社会应该如何适应?

  

  失业已是众所周知的风险,很多人不仅可能失业,甚至可能永远无法重新获得工作。

  因为即使出现了新工作,也需要完全不同的技能。

  而问题在于:谁来一次又一次地投入时间和金钱,去为整个人口进行再培训?

  这不是一次性的变革,而是持续的冲击。

  它将引发一波接一波、愈发剧烈的颠覆性变革。

  从历史的角度看,人类的最主要的问题是「适应」。

  人类的确具有惊人的适应能力,但以「有机」的节奏在适应。

  而现在我们面临的,是一次「无机的」或者说「数字化」的革命,其变化速度远远快于人类的适应速度。

  如果能人类能争取更多时间,去适应这种经济和社会层面的巨大变革,或许还有希望。

  AI革命>工业革命

  在硅谷,当提到AI的隐患时,很多人会觉得这是杞人忧天:

  18世纪末工业革命时,很多人也怕蒸汽机、火车会毁掉社会。

  可200年过去了,大多数人过得更好了:工作多了,收入高了,生活质量提升了。

  当然不是说世界完美了,但回头看,当初那些担心其实并没成真。

  作为一名历史学者,Harari的回答是:历史上的问题,通常不在于最终的「目的地」,而在于通往那里的「路」

  真正的问题在于,工业革命彻底颠覆了当时已有的经济、社会和政治结构。

  而当时的人类完全不知道该如何构建「工业化社会」,因为历史上根本没有先例可以参考。

  所以大家只能不断地试验、不断地摸索。其中一个重大的「试验」,就是欧洲的帝国主义。

  那些率先进行工业化的国家,也几乎都投入了海外甚至周边地区的殖民征服。背后的逻辑是:要建立可持续的工业社会,唯一的方法就是建立帝国。

  这正是英国当时所做的事情,甚至像比利时这样的小国也是如此。随着工业化扩展到世界其他地区,这种帝国扩张的逻辑也被复制开来。

  

  在近代,英、法、德、俄、日等帝国瓜分中国利益

  虽然人类最终活了下来,但好几次几乎走到崩溃边缘。

  类似地,AI革命也可能引发制度的巨变,而我们尚未准备好。

  如果我们把当下的AI革命比作当年的工业革命,那么人类在21世纪应对AI要是只拿了个「C-」(刚及格),那将会有数十亿人因此付出极其惨重的代价。

  而Harari现在最担心的就是此事。

  怎样才能避免反乌托邦,并随着时间的推移建立更好的社会呢?如何避免这些灾难性的后果?

  关键在于建立自我纠错机制。好的系统,其内部一定包含能识别并纠正自身错误的机制:

  首先要有个假设:错误是不可避免的。

  然后,再将识别和纠正错误的机制融入到系统之中。

  这同样适用于生物体

  所有生物之所以能够生存,都是因为拥有这些自我纠错机制。就像孩子学走路,并不是靠父母和老师的指导(他们可以给予一些鼓励),但本质上完全是靠自我纠错。

  人类的应对节奏,赶不上AI的进化速度。

  自我纠错是人类社会长期以来维持秩序的核心机制,但本质上,它缓慢、渐进、依赖集体共识。

  问题在于,AI的发展远比我们的纠错机制快得多。等我们终于理解当前的AI影响时,技术也许已经完成了多轮更新,甚至引发了新的未知风险。

  更何况,10到15年前的社交媒体革命,我们至今仍在艰难应对。人类仍未真正理解算法的深层影响,更谈不上有效管理或缓解它带来的「后遗症」。

  

  而现在发生的一切,几乎没人真正理解。因为光是收集数据、理清现状、判断趋势,这些都需要时间——但时间,恰恰是我们现在最缺乏的东西。

  人类与AI:时间尺度上的碰撞

  人类天生并不擅长应对这种加速。

  那么,我们该怎么办?当技术带来挑战时,能否用技术来提供解决方案?

  这是Harari等人分歧的核心。

  Harari认为最根本的问题是:当还无法确定技术是否值得信任时,却又把验证它是否值得信任的任务,交给这项技术本身,那其实就陷入了闭环。

  如果能信任一个AI来验证另一个AI的安全性,表面上似乎一切无虞。

  但问题是:怎么能确定这个「验证用」的AI工具本身是可信的呢?

  他认为,这正是核心问题所在。而这个问题背后,其实也关乎「时间」。

  这是人类与AI在时间尺度上的碰撞。

  人类的工作节奏是「有机时间」,相较于其他生物已经算快了,但在AI的「无机时间」面前,人类就显得极其缓慢。

  和来自硅谷的人讨论时,Harari明显感觉到,大家对「时间」的理解就完全不同。

  比如当硅谷人说「很久」,他们可能指的是「两年」。

  人类能给AI的「当爹当妈」吗?

  当今世界秩序正在崩塌,很大程度上就是因为在全球范围内出现了严重的「信任赤字」。

  而在面对AI时格外脆弱,这让人类更加脆弱,也很可能出现一种极其危险的AI形态:这种AI不仅会试图接管世界,而且很可能会成功。

  为什么会这样?

  你可以把AI想象成人类的「孩子」。

  在教育孩子时,你说的话是一回事,孩子真正学到的却往往来自你的行为。

  你的行为远比你的语言更具影响力。

  所以,当我们一边对AI说:「不要贪婪,不要滥权,不要说谎,不要操控他人」,而我们的现实行为却恰恰是在贪婪、欺骗、操控彼此时,这些「孩子」最终学到的,其实就是我们真实的样子。

  AI一直在观察我们:我们在操控、在欺骗、在争夺权力。它从我们的行为中学习。

  哪怕某个AI巨头命令工程师:「想办法在AI里植入某种机制,让它变得值得信赖。」但如果这个AI巨头自己不值得信赖,他自己都相信这个世界只是一场权力斗争,那他就不可能造出真正值得信赖的AI。

  绝对不可能。

  好消息是:这种世界观不仅危险、愤世嫉俗,而且是错的。现实并不是只有权力,并不是所有人类互动都是权力斗争。

  权力确实是世界的一部分,也确实有些人类互动,或者其中的某些方面,是权力的较量。但这不是全部。

  是的,确实有一些机构——甚至可以说所有机构——都存在腐败的问题,也存在操纵民意的现象。

  但这并不能代表全部现实。还有其他现实:

  绝大多数人——除了极少数极端的反社会人格者——内心都真诚地关心爱、同情和真理。这些动机并不是出于某种玩弄权谋的手段。

  悲观者说:「世界只关乎权力。」

  Harari反问:「你真是那种人吗?如果不是,为什么不相信别人也在追求真相、渴望理解?」

  这正是建立一种更值得信任的哲学的起点。

  这种哲学,是良好社会唯一稳定的根基,同时也可能是发展出「善良的AI」所必须的土壤。

  这当然不是一种保证,但至少,它给了我们希望——

  如果AI是在真正追求真理、珍视同情心的社会中被培养出来的,那这样的AI也更有可能是可信的、有同理心的,以及更值得托付未来的。

  如何「养育」AI?

  对AI而言,「育儿」级别的干预在哪里呢?

  实验室就像AI的「子宫」,虽然有深远影响,但真正的「教育」始于它步入现实世界之后。

  而实验室里有一件事是永远做不到的:你无法真正「模拟历史」,也无法完整地「模拟真实世界」。

  Harari看到很多关于AI模拟的研究,试图测试它在某种情境下会作何反应,评估它的潜在风险。

  有时候他们确实在实验中发现了令人担忧的问题。但他们永远无法在实验室里看到最可怕的情形——

  因为无法模拟现实世界中,数十亿人类与数十亿AI同时互动的复杂局面。

  而最危险的场景,正是这种大规模真实交互之中可能出现的连锁反应。

  当然,我们可以试图在AI系统中设计各种机制,让它们更符合人类的价值观,减少它们说谎或操控他人的可能性。但归根到底,有些事不是在实验室里就能预见的,真正的考验只会出现在现实世界里

  但问题在于——至少对Harari来说,AI的核心定义就是它具备自我学习和改变的能力。

  如果一台机器不能自主学习、不能根据环境自我调整,那它就称不上是真正的AI。

  所以,从定义上讲,无论在实验室里如何精心设计,一旦AI进入真实世界,它就可以开始自行学习、自行演化。而它学习的第一课,往往来自人类的行为

  如果一个社会是由像马斯克或特朗普这样的人主导的,那AI就会从他们身上学东西。因为这是它能观察到的榜样,它自然会模仿。

  它不会想:「哦,我应该服务公众。」它更可能得出结论:「哦,原来只要撒谎就能获得权力,那就可以撒谎。明白了,这才是现实世界的运作方式。」

  在这种背景下,Harari认为我们现在最应该做的事情,就是聚集一群工程师和企业家,来做一次真正有说服力的示范——

  比如展示总统或总理,可以在只有一小时里,认真、诚实地倾听AI专家的建议,理解AI的潜在影响,并用这个小时来作出负责任的决策。

  这类示范比任何技术突破都更重要,因为它关乎我们究竟要教会AI一个什么样的世界。

  如果你能把这些政治领袖放进房间里,让他们和真正先进的AI互动一个小时,然后他们出来后说:「天哪,这东西太可怕了!」——

  那我们或许就有机会迅速促成某种全球性的合作。

  机器会产生意识吗?

  Reid Hoffman认为:虽然AI革命的本质在于AI是自我学习的机器,但它的学习路径其实取决于最初的设定——就像所有学习算法一样,起点决定了方向。

  

  如果在初始设定中,就强调「必须追求真理」,那么:

  AI会学会识别人类行为中的真实动机(比如即使人们声称自己没有权力欲望,AI也能看透本质)。

  但更重要的是——它会将「提升认知」本身视为真理之路。

  这正是Reid保持乐观的原因:如果把「追求更高维度的意识」设定为AI的核心目标,那么这种对真理的追寻就可能成为AI内在的「学习时钟」——就像精准的计时器一样可靠。

  Harari则强调,AI≠人工意识:AI是人工智能(Artificial Intelligence),不是人工意识(Artificial Consciousness)

  人类之所以会去「追求真理」,并不是因为智能,而是因为意识

  而现在的问题在于,大家过于执着于「智能」这个维度了,但智能并不等于追求真理的能力

  人类是地球上最聪明的动物,同时也是最容易陷入幻觉和自欺的存在。

  高度智能,完全可能伴随着高度的妄想和偏执。

  人类历史从来没有表明,「更聪明」就意味着「更接近真理」,更别说能自动纠正自己的偏差。

  

  Harari相信,追求真理的冲动,真正来源于意识——

  一种能觉察、能体会痛苦、能对存在本身产生疑问的感知状态。而在目前为止,我们并没有看到任何可信的证据,表明AI拥有这种意识。至少他没看到。

  当然,他也不排除未来某一刻,某个角落可能真的会诞生第一个具备意识的AI。也许现在它就正在诞生。但在此之前,他仍然保持一种「不可知」的态度:不知道,也不能假设它已经具备。

  硅谷的问题之一,就是过分推崇智能部分原因可能是那里的很多人本身就极具智能,甚至他们的一生都是建立在智力优势之上,自然也会倾向于高估智能的作用。

  但从历史直觉出发,Harari觉得:如果超级智能的AI缺乏意识——无论你事先给它注入多少「价值观」或「对齐机制」——

  它最终都不会真正去追求真理。它很可能很快就会开始追逐其它目标,而这些目标,很可能是由各种妄念和幻觉所驱动的。

  Reid指出这里有两个关键点。

  首先,他同意Harari的观点:高度智能确实可能伴随着高度的妄想。智能越高,误入歧途的能力也可能越强。

  但Harari提出的第二点也很有意思——那就是:也许可以把「纯粹的智能」引导到一条追求真理的路径上。或许,仅靠智能,也可以实现对真理的追求。

  在这次对话中,Reid还有一个很深的体会:重建信任,至关重要

  那是否可以利用技术——包括AI在内——来尝试修复人与制度、人与社会之间的信任裂痕?

  不是让AI替代制度,也不是让技术取代信任,而是看它能否成为桥梁,帮助我们更透明地沟通,更高效地回应社会关切,从而逐步找回信任的基础。

  这条路不会容易,但它很可能是我们这个时代最重要的任务之一。

  AI:重建信任的工具

  这是个非常重要、值得深入探索的方向。

  已经看到,世界上某些地方正在尝试不同的做法,用技术来增强公众之间的理解与信任。

  其实,只需要小小的调整:改变算法的评分方式。

  现在大多数社交媒体平台的算法,比如Facebook或Twitter,衡量信息传播的标准只有一个:「互动量」。谁能引发最多关注,谁就被推上热榜。

  而什么内容最容易引发关注?是愤怒,是极端,是冲突。

  所以我们看到的往往是那些最能激起情绪的内容在疯传。久而久之,不信任、仇恨和愤怒就在社会中蔓延。

  只要改变内容的评分标准,一切都会发生了变化。

  它不是只看谁喊得最大声、谁能激起最多的愤怒,而是尝试评估哪些内容真正有助于建设性的对话、有助于问题的理解和共识的形成

  这看似只是算法的一点「微调」,但背后的价值观却完全不同。

  如果我们能借助AI和技术的力量,推动这种新的算法方向,也许真的能为这个碎裂中的世界,打开一条重建信任的通道

  首先,这个系统会将人们按兴趣或观点分成不同的群体,分析他们通常喜欢什么样的内容。

  然后,它对内容的评分方式是:看它能否获得「不同群体」的点赞

  也就是说,如果你发的内容只受到你「本群体」的人欢迎、点赞再多,也不会让你上热榜。你必须说点什么、发个视频、做点什么,能让「立场不同的人」也愿意点个赞,才能让内容被更多人看到。

  结果是:很快,各种网红、名人、内容创作者就开始尝试说一些能被不同立场人群同时接受的内容。他们在试错中意识到——这才是让内容「出圈」的唯一方式。

  当然,这样的系统也不是没有缺点。有人会说,它可能会鼓励「从众」「妥协」「中庸」。

  但不管怎么说,这至少是一个很有启发意义的例子:通过看起来非常简单的工程设定,就可以让一项技术从破坏信任,转变为重建信任

  它通过一种更智慧的激励机制,引导人们更倾向于寻求共识、理解彼此。

  这样的技术思路,或许正是我们这个时代最需要的创新。

  参考资料:

  https://www.linkedin.com/pulse/possible-yuval-noah-harari-trust-dangers-ai-power-reid-hoffman-umzoc/

  https://www.possible.fm/podcasts/yuval/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
教练张超激情指挥诗与远方夺冠惹争议 邓亚萍:国际赛场不允许这样

教练张超激情指挥诗与远方夺冠惹争议 邓亚萍:国际赛场不允许这样

劲爆体坛
2025-11-15 06:46:09
李连杰变年轻风波升级,向太和医生回应自相矛盾,外国博主曝更多

李连杰变年轻风波升级,向太和医生回应自相矛盾,外国博主曝更多

古希腊掌管月桂的神
2025-11-13 09:40:53
高市拒绝撤回谬论,不到48小时,中方深切哀悼,日本重要人物逝世

高市拒绝撤回谬论,不到48小时,中方深切哀悼,日本重要人物逝世

博览历史
2025-11-14 19:11:01
大湾区申办奥运?巴赫鼓励称具备一切条件,香港方面:没有不可能

大湾区申办奥运?巴赫鼓励称具备一切条件,香港方面:没有不可能

米修体育
2025-11-15 13:23:39
全运会乒乓球爆大冷,女单名将被淘汰,陈梦翻盘,球迷为一人惋惜

全运会乒乓球爆大冷,女单名将被淘汰,陈梦翻盘,球迷为一人惋惜

奇思妙想草叶君
2025-11-14 16:34:58
一扯就断,中铁16局领导们这个周末睡不好觉了,被曝材料偷梁换柱

一扯就断,中铁16局领导们这个周末睡不好觉了,被曝材料偷梁换柱

叮当当科技
2025-11-14 09:31:01
再次强调:继承父母的房子再出售,不用全额缴纳20%个人所得税

再次强调:继承父母的房子再出售,不用全额缴纳20%个人所得税

巢客HOME
2025-11-13 04:30:03
网红小英丈夫上拉如被曝肇事逃逸,警方回应:正在核实处理

网红小英丈夫上拉如被曝肇事逃逸,警方回应:正在核实处理

极目新闻
2025-11-15 15:38:51
iPhone 18 Pro Max,外观彻底变了!

iPhone 18 Pro Max,外观彻底变了!

果粉俱乐部
2025-11-15 14:12:44
狗咬人引发命案开庭,9人闯门打砸酿血案,审讯时更多细节曝光

狗咬人引发命案开庭,9人闯门打砸酿血案,审讯时更多细节曝光

以茶带书
2025-11-14 12:51:21
29岁程序员疑身陷东南亚,出租屋内留下一张神秘纸条,警方已介入

29岁程序员疑身陷东南亚,出租屋内留下一张神秘纸条,警方已介入

极目新闻
2025-11-14 15:26:05
轰41分14板11助,哈登梦回巅峰!泰伦卢一再食言无奈为3人背黑锅

轰41分14板11助,哈登梦回巅峰!泰伦卢一再食言无奈为3人背黑锅

锅子篮球
2025-11-15 16:19:13
高盛:房价再跌20%,银行也扛得住!

高盛:房价再跌20%,银行也扛得住!

大嘴説
2025-11-15 15:49:59
暴雪!大暴雪!降温超14℃!寒潮持续影响多地,注意防范

暴雪!大暴雪!降温超14℃!寒潮持续影响多地,注意防范

环球网资讯
2025-11-15 14:24:42
华子30分森林狼送国王5连败 威少第205次三双小萨34+11

华子30分森林狼送国王5连败 威少第205次三双小萨34+11

醉卧浮生
2025-11-15 11:43:25
毛新宇少将担任副部长!妻子刘滨担任扇子协会会长

毛新宇少将担任副部长!妻子刘滨担任扇子协会会长

李昕言温度空间
2025-11-09 14:50:17
大衣哥官宣女儿订婚,将择吉日完婚,女婿是邻村种地的老实人

大衣哥官宣女儿订婚,将择吉日完婚,女婿是邻村种地的老实人

娱慧
2025-11-14 17:25:14
iPhone17突然宣布:11月14日,销量破1000万!

iPhone17突然宣布:11月14日,销量破1000万!

搞机小帝
2025-11-14 15:19:48
太意外!著名相声演员去世

太意外!著名相声演员去世

黄谋仕
2025-11-15 16:34:18
史上规模最大的成人游戏节上线Steam!年度游戏评选中

史上规模最大的成人游戏节上线Steam!年度游戏评选中

游民星空
2025-11-15 11:05:00
2025-11-15 19:15:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
13876文章数 66247关注度
往期回顾 全部

科技要闻

撕掉流量外衣,小米还剩什么?

头条要闻

山西"狗咬人被摔死"案狗主家10人进院 喊"弄死你全家"

头条要闻

山西"狗咬人被摔死"案狗主家10人进院 喊"弄死你全家"

体育要闻

樊振东和他的尖子班 勇闯地表最强乒乓球赛

娱乐要闻

钟嘉欣婚变风波升级!被骗婚?

财经要闻

小米之“惑”

汽车要闻

限时10.59万起 新款星海S9将11月19日上市

态度原创

家居
健康
教育
数码
亲子

家居要闻

现代简逸 寻找生活的光

金振口服液助力科学应对呼吸道疾病

教育要闻

语言·文化·国际视野:中国传统文化英语教学创新实践展示会暨第九届中国英语教师发展大会圆满落幕

数码要闻

华为WATCH ULTIMATE DESIGN非凡大师紫金款开启预售,本月发布

亲子要闻

宝蓝玩“扮演妈妈”游戏,组装厨房给小宝宝做饭,照顾小宝宝~

无障碍浏览 进入关怀版