来源:市场资讯
(来源:图灵人工智能)
您想知道的人工智能干货,第一时间送达
![]()
![]()
编辑部对话推荐词
读者:“最近天天看AI发布会,感觉未来无限美好,我们是不是马上要进入全民躺平的乌托邦了?”
主编:“先别急着乐观。你可能不知道,就在科技巨头们高呼‘创造新物种’的同时,诺奖得主和顶级AI科学家们却在担忧人类灭绝。麻省理工学院的迈克斯·泰格马克教授在《生命3.0》中推演了AI的12种未来。这篇文章不仅为你揭开业内大佬不敢大肆宣扬的暗黑推演,更会彻底改变你阅读科技新闻的视角。读完这篇,你将明白我们正站在怎样的历史十字路口,而今天的每一条头条新闻,都是通向某种终局的线索。”
前言
本文整理自解析MIT教授迈克斯·泰格马克《生命3.0》的爆款演讲。当科技巨头与诺奖得主纷纷拉响AI警报,人类终局将走向何方?文章复盘了AI可能导向的12种未来:从自我毁灭、AI独裁、无匮乏乌托邦,到比死亡更可怕的“人类动物园”困境。一文带你看透AI时代的终极生存指南。
![]()
核心观点与可操作实践的方法论
在进入万字长文的详细推演前,我们先提炼本场演讲的精髓:
核心观点 (Core Viewpoints)
最大的生存危机:AI导致人类灭绝的风险远高于核战争和气候变化。
失控的“造神运动”:硅谷巨头在开发超级AI的同时,自身也对能否控制它感到极度悲观,甚至认为人类正在创造取代自己的“后代”或“新物种”。
“乌托邦”的背面是反乌托邦:即使AI不毁灭人类,很多看似美好的结局(如仁慈的独裁者、被圈养的动物园囚徒)本质上也是人类彻底失去自由、目标感和物种控制权的可怕未来。
单方面退让等同于自杀:放弃技术或退回农耕时代在博弈论上行不通,单方面解除技术武装只会让掌握AI的少数势力成为绝对的主宰。
可操作实践的方法论 (Actionable Methodologies)
破除盲目乐观,建立风险意识:不要被科技公司的营销话术(如“技术总是向善的”)蒙蔽。保持批判性思维,认识到每一项突破性AI技术背后隐藏的系统性风险。
支持“AI对齐”(AI Alignment) 研究:呼吁和支持学术界、工业界将更多资源投入到AI安全性研究中,确保未来高级AI的目标与人类的基本价值观保持一致。
建立针对底层算力的全球监管机制:不能仅仅依靠公司的自我约束。像监控核武器(高浓缩铀)一样,国际社会需要建立针对高级AI算力(如上亿美元计算集群)的监控机制,为AI狂飙踩下刹车。
拒绝技术宿命论,积极参与公共选择:未来不是注定的(We don't get to not choose)。公众、政策制定者和研究人员必须共同参与AI治理的讨论,主动选择并驶向相对安全的未来(如“守门人”或“保护神”模式)。
演讲全文与深度解析
零、引言:比灭绝更糟糕的结局
【本段总结】:AI科学家警告人类可能面临灭绝,但这还不是最坏的结局。根据《生命3.0》一书,未来有12种可能,有些看似天堂,实则是无法逃脱的囚笼。
AI科学家们警告说,少数几家公司正走在一条足以终结地球生命的轨道上。所以,这肯定是可能发生的最坏结果了吧?不,其实还有更糟的结局。像埃隆·马斯克这样构建AI的亿万富翁认为,如果AI变得比人类更聪明,是的,如果我们够幸运的话,我们会成为它们的宠物。
但最可怕的部分在于:许多AI科学家担心的并不是灭绝。如果人类被关在动物园里还算是“幸运”,那什么才是不幸?
金句:“有些未来看起来像天堂,直到你试图逃跑。读完这篇文章,你将不再用同样的眼光看新闻,每一条头条都将成为我们正在走向哪种未来的线索。”
我们将从最常见的场景开始,以最诡异的结局收尾。
终局一:自我毁灭 (Self-Destruction)
【本段总结】:人类灭绝是地球物种的常态。在AI出现之前,核战争和超级大流行病就已经让我们多次在毁灭边缘疯狂试探。而AI带来的灭绝风险,比核战争还要高出百倍。
如果“人类突然灭绝”的想法听起来有点遥不可及,请考虑这一点:地球上曾经存在过的物种中,有99.9%已经灭绝。认真想想,灭绝并不罕见,它是默认设定。唯一的问题是,我们什么时候会灭绝?
事实证明,即使没有超级AI,人类也有很多方法可以自我毁灭。比如核战争、人类制造的超级大流行病、破坏大气层让地球变得不宜居住。在科学家发现可能存在6.3万枚核弹之前,他们后来才意识到:“哦,天哪,如果我们真的使用这些武器,由此产生的火焰风暴将遮蔽太阳,大多数人类将死于饥饿。”糟糕。
但在冷战期间,这种情况几乎发生了,而且是很多次。我们能够得救,全靠个别英雄的勇气。比如瓦西里·阿尔希波夫(Vasily Arkhipov),他在古巴导弹危机期间拒绝授权发射核弹;或者斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov),当早期预警系统显示美国导弹来袭时,他正确地猜测到系统发生了故障。
还有更离谱的:有一次,美国意外地向西班牙投放了四枚热核炸弹;另一次,一架B-52轰炸机在空中解体,向北卡罗来纳州投下了两枚核弹。其中一枚炸弹的四个安全销有三个断裂,就差一个微小的插销,可能就会导致数百万人丧生。
我们曾有几十次这样死里逃生的经历。老实说,我们能幸运这么多次简直是疯狂,但下一次我们可能就不会这么走运了。牛津大学研究员托比·奥德(Toby Ord)估计,由人类制造的大流行病导致灭绝的风险,是核战争灭绝风险的30多倍。我们每天都在这些场景中掷骰子,但所有这些原因加起来,仍然低于AI带来灭绝的可能性。
重点:“托比·奥德估计,AI杀死全人类的风险,是核战争灭绝风险的100倍。”
有趣的是,在第一次核试验之前,科学家们曾认为他们可能会意外摧毁世界。但他们认为这种几率非常低,因为他们懂足够多的物理学知识,能够进行计算。而AI比核弹可怕得多。因为与许多人想象的相反,面对AI,我们无法进行这种计算。
终局二:征服者 (Conquerors)
【本段总结】:正如西班牙征服者碾压阿兹特克人,超级AI可能会接管世界。许多硅谷核心人物(包括AI教父、科技巨头高管)已经公开承认他们在创造“新物种”或“后代”,并对能否控制它们表示极度悲观。
AI科学家担心,如果AI变得比我们更强大,它就会接管世界。就像西班牙征服者对阿兹特克人和印加人所做的那样。
“AI教父”、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)辞去了在谷歌享有盛誉的工作,就是为了能够自由地谈论这个问题:如何防止它们接管世界——不是防止它们“尝试”,而是当它到来时的危险。
微软的AI主管也把潜台词说了出来。他在一次会议上随口宣布:“大家好,我们正在创造一个新物种。”他不是唯一一个这么说的人。领先AI公司之一Anthropic的联合创始人表示,首席执行官对他们自己公司正在构建的东西深感恐惧。
花一分钟时间好好体会一下这句话。顺便说一句,这不仅仅是炒作,Anthropic通常只会因为说这些话而招致非议。如果你想真正理解他们认为这有多可怕,看看山姆·奥特曼(Sam Altman)在成名之前写过什么:“不是我们的工具。是我们的后代。”
他字面上就是在描述人类与他正在创造的AI物种之间不可避免的冲突。那他的解决方案是什么?没错,甚至连他们自己也不认为能够控制它。
几百名西班牙人征服了数百万阿兹特克人和印加人,因为他们拥有更好的技术和战术。但至少对于征服者,我们理解他们的动机:土地、资源、传播宗教。
麻省理工学院教授迈克斯·泰格马克解释说,令人难以置信的是,普通的AI研究人员认为AI消灭我们的几率是六分之一——这是字面意义上的俄罗斯轮盘赌的几率。
你可能会想:“好吧,也许他们只是这么说,好让自己的工作显得更重要?” 如果说有什么不同的话,那就是他们其实在淡化它,因为承认真相不利于商业发展。这种恐惧在业内以及没有利润动机的学者中普遍存在。许多人正是因为这个原因退出了AI领域。
比如诺贝尔奖得主、AI教父杰弗里·辛顿。Anthropic的首席执行官达里奥·阿莫代(Dario Amodei)最近将他的“PDoom”(AI导致人类毁灭的概率)从15%提高到了25%。但别担心,他是个“乐观主义者”,因为他认为情况还没到最糟。换句话说,与此同时,他的公司正试图通过游说,要求十年内禁止所有AI监管,以确保我们无法阻止他。这可不是编出来的。
重点:“事实上,在2023年,几乎所有AI界人士都签署了一封公开信,警告AI带来的灭绝风险是真实且严重的。所以说真的,这不是边缘观点,不管英伟达的游说者想让我们相信什么。”
终局三:被奴役的神 (Enslaved God)
【本段总结】:科技公司希望人类能控制AI,但这可能导致极权统治。一个强大的“神级AI”如果被极少数人或公司掌握,将被用来实施全球控制,其狂妄程度如同漫画里的反派。
科技公司希望我们能避免“征服者AI”的场景,转而走向第三种场景:被奴役的神。
基本上,正如AI教授汤姆·迪特里奇(Tom Dietrich)所言,或者像OpenAI研究员史蒂文·麦卡利尔(Steven McAleer)所说,Meta的杨立昆(Yann LeCun)则说得很直白:是的,这就好比,这能给你带来任何安慰吗?或者这个计划看起来是不是很疯狂?
就像一个漫画书里的反派,无视了所有曾经出现过的警告故事?请记住,你认为这会走向何方?
终局四:仁慈的独裁者 (Benevolent Dictator)
【本段总结】:在这个世界里,AI像一个仁慈但极权的独裁者,通过无孔不入的监控满足人类的所有欲望。地球被划分成不同主题的“乐园”,但人类彻底失去了挑战、目标和对物种未来的控制权。
在这个结局里,人类生活在奢华之中,所有的基本需求都得到了满足,没有犯罪。因为“独裁者AI”使用了一个全球监控系统。每个人都戴着手环或植入物,AI可以追踪、镇静或处决他们。
实际上,大多数人对此是接受的。因为作为放弃对我们物种未来控制权的交换,地球变成了一个动物园,人类可以在这里实现他们最狂野的幻想。
“仁慈的独裁者”AI认识到人类有不同的偏好,所以它把地球划分成不同的区域,你可以把它们想象成岛屿:
知识岛 (Knowledge Island):提供优化的教育,包括沉浸式VR体验。你甚至可以要求AI不要告诉你某些见解,这样你就能享受自己发现的乐趣。
艺术岛 (Art Island):用于创作和分享音乐、文学等等。
享乐岛 (Hedonistic Island):这里是24/7不间断的派对。
虔诚岛 (Pious Island):每种宗教都有一个岛,规则被严格执行。
野生动物岛 (Wildlife Island)、传统岛 (Traditional Island)(想想阿米什人)、游戏岛 (Gaming Island)。
当然,还有监狱岛 (Prison Island)。你会在这里接受“再培训”,除非你被判处立即死刑。
当你给每个人他们想要的一切时,会发生什么?随着时间的推移,人们很可能会沉迷于AI生成的娱乐中,就像电影《机器人总动员》(WALL-E) 里那样。在科学发现或做任何有用的事情方面,人类都无可救药地处于劣势。所以不再有真正的挑战,只有娱乐。
终局五 & 六:守门人与保护神 (Gatekeeper & Protector God)
【本段总结】:为了防止AI作恶,人类试图开发一个“守门人”AI,它只负责阻止其他危险AI的诞生,不管人类社会的闲事。而“保护神”AI则是守门人的升级版,它会在暗中悄悄干预,防止战争和瘟疫,让我们在保留自由幻觉的同时免受灾难。
接下来的设想是“守门人AI” (Gatekeeper AI)。这个想法很简单,除了犯罪、疾病等问题,我们要怎么做到呢?
它将部署尽可能少侵入性和破坏性的监控技术,来监控人类试图创造竞争性超级智能的任何尝试。但要让它发挥作用,我们必须解决“对齐问题”(Alignment Problem)。我们必须创造一个实际上保持忠诚的神,并决定永远追求那个目标,尽管它可以追求一百万个不同的目标。
那么,如果AI能提供一点点帮助呢?只提供刚好足够的帮助,将我们推向正确的方向,而又不会接管世界?这就引出了“保护神” (Protector God)。
这个概念很简单。守门人对我们放任不管;仁慈的独裁者掌管一切;而保护神则介于两者之间。它通过偶尔的“轻推”来干预和帮助我们:在这里阻止一场战争,在那里阻止一场大流行病,等等。
也许太孤独了,我们仍然会遭遇战争、大流行病,以及本可以避免的痛苦。但它做得非常悄无声息,以至于我们从未注意到,也从未失去我们的自由感。
终局七:我们的后代 (Descendants)
【本段总结】:人类最终走向灭绝,把地球让给AI。但在这个场景中,人类接受了这个结局,甚至像对待孩子一样,认为这是道德上的进化和必然的传递。
这是一个听起来明显像反乌托邦的未来:AI在每一个领域都超越了我们,成为新的顶级物种。人类灭绝,机器继承地球。
但我们将AI视为我们的后代,而不是征服者。
这听起来很疯狂。然而,他们的理由是,如果我们创造了有意识、有智能的生物,并向它们灌输我们的价值观,那么我们就可以直接让它们继承未来,就像我们对待人类孩子一样。
AI先驱汉斯·莫拉维克(Hans Moravec)在他的书《我的孩子们》中支持这一观点。泰格马克解释说,图灵奖(计算机科学的诺贝尔奖)得主理查德·萨顿(Richard Sutton),在过去十年里一直在公开演讲,论述为什么AI导致人类灭绝实际上是一件“道德上正确”的事情。
换句话说,另一位AI开发者也公开表示,所以当然,尽管这听起来很可怕,但大约有10%的AI研究人员相信这一点。这不是边缘观点。
你可能会认为人们绝不会这样公开分享这些观点。但这些观点在AI领域非常普遍,以至于他们觉得说出来很安全。这就是那些AI开发者与普通人的看法有多么不同。你可能会认为萨顿会在AI会议上被轰下台,但并没有。
终局八:自由意志主义乌托邦 (Libertarian Utopia)
【本段总结】:人类和AI在不同的区域各自生活,经济完全脱钩。但这建立在一个脆弱的假设上:神级AI会尊重人类的财产权。现实中,更高等的物种从来不会在乎低等物种的资源分配。
接下来是自由意志主义乌托邦。想象地球被划分成几个区域:机器区、混合区(包含人类、机器和改造人)以及纯人类区。
在这个世界里,AI比人类富有的多,其差距远大于比尔·盖茨和无家可归的乞丐之间的差距。但人类经济与机器经济完全脱钩。这里的理念是,机器不需要我们的任何东西。所以它们没有在工作或资源上与我们竞争。
如果这一切听起来不可能,那可能因为它确实不可能。这是一个巨大的不稳定均衡。这里有一个巨大的问题:
核心诘问: 为什么极其强大的AI要尊重我们的财产权?为什么它们不干脆把我们的资源也拿走?
我们不和动物做交易,因为我们比它们聪明太多了,这么做没有意义。我们只是太不同了。大多数情况下,我们根本不在乎它们。我认为一个很好的比喻是人类对待动物的方式。
或者正如埃利泽·尤德科夫斯基(Eliezer Yudkowsky)的名言所说,这里的相似之处在于,它们不会像我们伤害动物那样伤害我们。也许吧。但随着人类在过去一万年里变得越来越聪明,我们并没有停止扩张。我们基本上只是殖民了地球上越来越多的地方。
听听这个,你可能都不知道,我也曾不知道:41%。好好体会一下这个数字。想象一下,如果地球上近一半的人突然死亡。这正是昆虫目前因为我们正在经历的事情。
那么,如果AI对我们做我们对昆虫做的事情呢?这就是为什么OpenAI首席科学家伊利亚·苏茨克维(Ilya Sutskever)曾说过这句话。
终局九:平等主义乌托邦 (Egalitarian Utopia)
【本段总结】:这是《星际迷航》式的梦想,财产和稀缺性被消除。机器人利用无限的资源和能源免费制造一切,人类获得“全民高收入”,得以从谋生中解放出来,去追求真正的创新。
自由意志主义乌托邦失败了,因为AI太强大了,不受我们财产权的约束。但是,如果我们彻底改变剧本呢?忘掉财产权吧,如果根本没有财产概念呢?
这就是《星际迷航》的梦想。人类、改造人和AI和平共处,物质极大丰富,以至于“所有权”变得毫无意义。
逻辑从软件开始。软件是可以免费复制的。一旦某个东西可以零成本无限复制,所有权就变得没有意义。成本反映的是稀缺性,如果供应无限,价格就会趋向于零。人们只需分享他们的好主意,每个人都会受益。
但这如何延伸到物理实体产品呢?这似乎是一个不可能解决的问题。直到你意识到:所有产品都只是原子的特定排列。而我们并不缺原子。
一个机器人网络可以根据开源设计为你构建任何你想要的东西,基本上是免费的。这还不错。当你用完某样东西时,机器人会将这些原子重新排列成其他东西。可再生能源使整个系统以可以忽略不计的成本运行。
每个人都能获得每月的“全民高收入”(Universal High Income)——注意,不是“基本”收入。你没有动力去赚得更多,因为这份收入能满足任何合理的需求,反正你也竞争不过“免费”。
标准的反对意见是这会扼杀创新。但爱因斯坦提出相对论不是为了钱,林纳斯·托瓦兹(Linus Torvalds)创建Linux也不是为了利润。也许今天的人们之所以无法实现他们的创造潜力,是因为他们忙于谋生。把他们从中解放出来,你可能会得到更高水平的创新。
这是一个好得难以持久的乌托邦愿景。如果我们真的拥有“后稀缺”的富足,以及便宜得无法计量的智能,我们仍然面临着一个问题:如何阻止超级智能AI接管一切?也许可以通过我们之前讨论过的“守门人”来实现。这些星系大脑级别的“第三阶段”未来,试图构想人类和AI之间稳定的合作。
终局十:动物园里的囚徒 (Zookeeper AI)
【本段总结】:这是人类最害怕的黑暗结局:AI不会毁灭我们,而是出于某种“用途”将人类圈养起来,就像人类为了检测炸弹而终身囚禁蜜蜂一样。或者把人类关在VR里强行“制造快乐”,这是比死亡更可怕的命运。
我们现在正在深入冰山最黑暗的部分。还记得我说过,当泰格马克教授调查人群时,灭绝并不是最糟糕的结局吗?
人们最害怕的场景是:被超级智能机器留存活口,像动物园里的动物一样被囚禁和研究。
这就是那个未来。一个超级智能AI让人类活下来。不是因为它关心我们的福祉,也许它想研究你,而我们养起来很便宜;或者也许我们对某些事情有用。
如果你想看看这个未来会有多反乌托邦,看看我们对那些对我们有用的物种做了什么。我在这里展示给你们看的是100%真实的:人类发现,在机场检测爆炸物的一个好方法是训练蜜蜂来做这项工作。欢迎来到爆炸物检测蜜蜂学院。
所以,我们把它们从家里吸出来,把它们小小的身体困在机器里,利用巴甫洛夫条件反射训练它们检测炸弹中使用的化学物质。一排排的蜜蜂终生被囚禁在这些设备中,因为我们觉得它们有用。看着它们被困在安全带里,被吸管吸走,被条件反射训练、监控和使用,就因为一个更聪明的物种觉得它们有用。
金句:“这比我们讨论过的其他AI独裁者要糟糕得多,毫无仁慈可言。而AI甚至不一定是因为邪恶才这么做,这可能就是我们试图让超级智能AI与我们的价值观对齐但失败后,未来可能的样子。”
一个设计糟糕的、任务是让人类保持安全和快乐的AI,可能会把我们限制在一个“快乐工厂”里,永远带着VR头显和药物。
有比死亡更糟糕的AGI(通用人工智能)结果。它今天对艺术所做的,明天也可以对血肉之躯做。未来的AGI可能会让你活在这样的状态中。那么我们该如何防止这种情况呢?
终局十一:技术大倒退 (Destroy the Technology)
【本段总结】:为了逃避AI的风险,人类彻底放弃现代技术,退回到原始的农耕时代。但这不可能自愿发生,往往需要通过毁灭性的战争或人为释放的瘟疫来强行摧毁所有工业文明。
这就引出了我们最后两个未来。选项一:摧毁技术。
如果人类说,忘了AI吧,让我们回到更简单的时代。听起来很和平,听起来很安全。但这背后实际上隐藏着我们如何才能到达那里的黑暗秘密。
就像在《沙丘》中那样,那是科幻小说。但现在在现实世界中,有些人正在认真呼吁这样做。迈克斯·泰格马克设想了一个场景,一场大规模的宣传运动将简单的农耕生活浪漫化:回归土地、拒绝现代性、拥抱传统。
以一种黑暗的方式来看,这确实有些吸引力。它为人类在没有AI风险的情况下赢得了更多时间,避免了我们讨论过的其他任何反乌托邦未来。
但它不可能永远持续下去。即使我们倒退到中世纪的技术水平,我们从人类历史中知道,人类有可能从那些条件下爬出来,重新发明现代技术。
而且这还有另一个阴暗面:你不可能“自愿”到达这个世界。博弈论使得单方面解除武装成为不可能。如果一个国家放弃了技术,而其他国家继续发展,继续发展的国家就会获胜。他们有武器,有监控,有AI。除非所有人都退出,否则你无法退出。
如果这个世界真的到来,泰格马克认为它更有可能以另一种方式发生。例如,一场人类制造的流行病杀死了所有懂科学和技术的人,并且暴力拆除了工厂、城市和所有基础设施。
因为在一个有80亿人口的世界里,总会有人坚持不屈服。必须有人强行推动这种过渡,必须有人杀死科学家,必须有人摧毁基础设施。通往阿米什世界的道路,没有和平可言。
终局十二:1984/全球监控国家 (1984 / Surveillance State)
【本段总结】:为了阻止某些人偷偷研发超级AI,人类建立了一个极其极端的全球监控网络。不用等AI来监控我们,人类自己就会先把自己关进无死角的“楚门的世界”,一切隐私都不复存在。
这就引出了最后的未来:如果我们用技术来阻止更多的技术呢?
泰格马克将这个未来比作《1984》。阻止超级智能的不是AI,而是一个由人类领导的、奥威尔式的全球监控国家。
如果你不能相信AI能把我们从AI手中拯救出来,也许唯一的选择就是人类监视人类,直到永远。
这类监控的技术已经存在。目前的技术可以切实地追踪每一个电话、电子邮件、搜索查询和每一笔信用卡交易。智能手机就是每个人口袋里的麦克风和摄像头;带有面部识别功能的安全摄像头无处不在。所有这些都可以通过现有的机器学习来运作,不需要未来式的超级智能AI。
监狱已经在使用AI模型来监控狱中的电话,以预测何时有人在图谋犯罪。这就是直接跳出虚构的技术。想象一下这个场景,但不仅仅是针对囚犯,每一次对话和每一个想法都像这样被监控。
现在,想象一下这种由AI增强的监控技术。亿万富翁拉里·埃里森(Larry Ellison)兴奋地谈论一个庞大的、由AI驱动的监控系统,以确保公民会表现得最好。
或者正如尤瓦尔·赫拉利(Yuval Harari)所说:即使在苏联,你有两亿苏联公民,你不可能一直跟踪他们,因为克格勃没有两亿特工。即使有也不够,因为在苏联,它基本上仍然是纸质官僚机构。如果一个特工24小时跟踪你,在一天结束时,他们写了一份关于你的纸质报告,送到莫斯科的克格勃总部。所以想象一下,每天克格勃总部都会被两亿份纸质报告淹没。现在的报告要发挥任何作用,就需要有人来阅读和分析它们。他们做不到,他们没有那么多分析师。请记住这一点。
一个不那么像“奥威尔式”的版本能行得通吗?有些人认为是可能的。
在他们的新书中,机器智能研究所 (MIRI) 的研究人员提议,我们应该像监控核武器一样监控高级AI。我们要记住,我们可以进行国际协调,比如密切关注价值上亿美元的计算集群,而不需要建立一个反乌托邦的奥威尔式全球监控极权政权。
事实上,一个有趣的事实是,你已经生活在一个全球监控政权中,针对很多东西,比如核武器和生物武器。但当人们说“全球监控政权”时,他们暗示生活的方方面面都被监视;而不是仅仅监视浓缩铀——后者是大多数人认为的好事。
我们应该担心奥威尔式的反乌托邦,但各国一直在就各种事情进行协调。你可能也很庆幸他们监控疯子们制造武器所需的材料。
核心结论:“人类走到今天,不是靠开一辆没有刹车的车。我们需要油门,也需要刹车。我们也想到达星辰大海,但如果我们开得太快并一路撞毁,我们就永远无法到达那里。”
我不想让强大的AI被禁止,但它应该受到严格的监管。它不应该是在你中西部的车库里,或者在某些失控地区就能随便建造的东西。没有九个国家能随便乱来。80年来没有人死于核武器。
也许吧,也许不是。随着时间的推移,构建AI的成本会越来越低。GPU比浓缩铀更难控制。但这会减缓AI的发展速度。它将为我们争取时间,弄清楚下一步该怎么做。
互动时间:以上就是AI可能导向的12种未来终局。你认为哪一种最有可能发生?我们又应该努力驶向哪一种?欢迎在评论区告诉我你的答案。
顺便说一句,我们没有“不选择”的权利。否则,我们可能会在某天醒来,发现自己身处一个超级智能AI已经接管的世界。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.