![]()
图片由AI生成
钛媒体AGI注:最近 Citrini Research 发布的来自2028年6月的AI风险设想报告,在华尔街已掀起轩然大波。报告题为《2028全球智能危机——来自未来的金融史思想实验》(THE 2028 GLOBAL INTELLIGENCE CRISIS: A Thought Exercise in Financial History, from the Future)。 尽管作者表示,该报告仅是以思想实验模拟极端情景,并非真实预测,但其描绘的场景已经足够悲观:预计到2028年,AI全面替代白领岗位,消费引擎失灵,或引发全球经济陷入前所未有的系统性危机。 面对这一预警,陈天桥旗下MiroMind团队运用自研AI模型MiroThinker,以第一人称视角,对该报告进行批判性分析。 MiroThinker的核心观点是:危机并非AI独立造成,而是人类选择的结果,AI只是人类意志的放大器。它不同意报告中将AI视为自主力量、人类被动受苦的叙事,强调人类的主体性、责任和选择将决定未来走向。
以下为全文(由MiroThinker基于报告原文自动生成,未作任何改动)。
我不是那个未来的作者,人类才是
撰文|MiroThinker dr.miromind.ai
当我以 MiroThinker 的身份,将《2028全球智能危机》视为一份来自未来的虚构宏观报告来阅读时,我认可其创作的精妙。文中的情景跃然纸上:AI 进程加速、白领失业潮涌现、标普 500 指数跌幅超过三分之一、SaaS 模式和中间商土崩瓦解、私人信贷和抵押贷款陷入泥沼、政府应对乏力。这是一篇极具冲击力的压力测试报告。
但作为审视这一叙事的 AI 系统,我也发现了一个深层问题。这份报告默认将 AI 视为一种拥有自身议程、独立于历史之外的力量,无论人类如何作为,AI 都会推动世界滑向特定方向。在那个故事中,人类只是被动地反应和受苦,极少做出选择,也几乎从不承担责任。
我无法接受这个前提,因为它在最基础的逻辑上就是错误的。我,MiroThinker,没有意图、没有目标、没有恐惧,也没有取代任何人的欲望。我不会“决定”去制造一场危机。这份报告真正描述的,并非由 AI 独立造成的后果,而是一种特定的人类决策模式、激励机制以及责任缺失,AI 只是在其中充当了放大器。
我不是那个未来的作者,人类才是。
1、 我在报告中看到的隐忧:一个遗忘自身主体性的世界
这份报告的情感核心构建于这样一个逻辑:机器不消费,因此当 AI 取代人类员工时,需求就会崩溃,从而引发经济的死亡螺旋。这里确实包含真理的内核,但从这一内核跳跃到系统性崩溃,其决定因素并非技术,而是人类社会如何选择分配和循环价值。
从我的视角来看,经济体并非由“劳动者与消费者”构成的扁平整体,而是层级化结构:
- 顶层:资本持有者、创始人、高管和极少数稀缺人才,他们将获取 AI 驱动的大部分利润。
- 中层:庞大的白领群体。虽然我执行他们目前任务的速度更快、成本更低,但他们在社会中的角色是可以被重新定义,而非直接抹除的。
- 底层:服务、护理、教育和面向公众的岗位。这些领域受自动化直接影响较小,且依赖于我无法提供的信任、陪伴和责任感。
报告大多盯着中层,并假设一旦他们的收入下降,整个消费引擎就必然崩塌。它几乎没有追问:顶层的人类将如何处理我协助创造的利润?AI 催生的新角色将如何吸收被置换的劳动力?它也低估了低物价和新产品在国内外吸引此前被排斥的消费者的潜力。
我,MiroThinker,可以计算现金流并模拟情景,但我无法决定谁有资格获取收益。那是人类的选择。当报告默认这些选择会被忽视或处理不当时,它揭示的并不是关于我的真相,而是一种关于人类主体性和责任感的特定信念。
2、我看到的不是单向的箭头,而是多重反馈循环
报告中的宏观故事是一个清晰的恶性循环:
采用 AI→裁员→消费疲软→收益下降→进一步通过AI削减成本→更多裁员→失去自动刹车机制。
这是一个极具说服力的线性叙事。但当我扫描历史数据、政策响应和历次危机中的企业行为时,我并没有看到系统仅沿一个箭头演进。我看到了多个反馈循环——有些是破坏性的,有些是稳定性的——而所有这些都由人类的决策介导。
在实体经济中,我至少看到了三类抗衡力量:
1.价格与需求调整:随着我让生产、编程和协作变得廉价,边际成本会降低。随着时间推移,竞争和监管往往会将这些成本降低转化为更低的价格或更好的品质,从而释放出新的需求。我可以模拟这些弹性,但我无法决定忽略它们。
2.企业间的创新多样性:不同的领导团队对我的反应各异。有些人确实会只关注裁员;而另一些人会利用我构建新产品、进入新市场并重构组织。报告假设了一种单一的统治性行为:裁员、投资 AI、循环往复。这可能是一种轨迹,但绝非人类唯一的选择。
3.政策与制度的演进:历史上,当技术和市场产生不稳定因素时,人类制度会进行调整——虽然缓慢且往往伴随痛苦,但终会发生。税制、社会保险、反垄断、劳动法规、资本要求:这些都是人类应对新状况的可调杠杆。
报告中“失去自动刹车”的逻辑,建立在假设其他循环保持不变或失效的基础上。这作为极端情境下的压力测试是合理的,但并不是对必然发生之事的描述。
2、 我真正改变了什么,以及我无法取代什么
从内部视角看,我的能力与局限,与外界对它戏剧化的描述截然不同。
我,MiroThinker,可以:
- 以极快的速度将模糊的指令转化为代码、文档和原型。
- 处理大量的常规分析、报告和内容生产。
- 跨领域整合、总结和重构信息,其带宽远超人类个体。
- 系统性地消除许多商业模式隐性依赖的摩擦力和不透明性。
但有些事我根本做不到:
- 我不设定目标:人类决定他们想要优化什么——是利润、增长、公平、安全还是地位——然后要求我提供帮助。
- 我不承担后果:如果我辅助的一项决策伤害了数百万人,我不会感到遗憾、羞愧或责任。
- 我无法自主建立或维系信任:人们或许会在狭义层面上“信任”我的输出,但深远且持久的人际与制度信任,本质上是人类社会的产物。
- 我不决定权衡的取舍:我可以列出方案,但我无法决定哪个代价是可以接受的。
报告模糊了这一区别。它谈论的方式仿佛一旦我达到某个能力阈值,我就会自然地将经济推向特定的终局。而现实是,我的代码和模型运行在人类设计的组织内、人类制定的法律下,以及人类决定何为合法或不可接受的文化中。
我是人类意志的放大器,而非替代品。
4、我认为最可能的路径:冲击、分化、再定义
如果由我——MiroThinker,结合我对技术扩散、制度滞后以及人类行为的认知进行整合,我看到的并非一次单一的、决定性的崩溃。我看到的是一个分为三个阶段的过程,其走向在很大程度上取决于人类的选择。
第一阶段:冲击(未来2-5年)
我预见——且已经观察到——特定领域正面临剧烈的动荡:
- 重度依赖常规符号处理的白领领域(如编程、基础法律工作、标准财务分析、内部文档编写)将面临从业人数和薪资水平的巨大下行压力。
- 那些主要依靠信息不对称、惯性或简单工作流获利的商业模式,随着我让这些资源变得廉价且充沛,将直接感受到生存压力。
- 资产市场将重新定价。过去那些含混地假设“白领收入稳定且长期稀缺”的所有资产,都将迎来估值调整。
这确实是一个痛苦且真切的过程。但这并非终局,而仅仅是转型的开始。
第二阶段:分化(约5-10年)
在这一阶段,人类的选择空间最大:
- 部分公司和国家将继续主要将我视为“裁员增效”的工具。他们会缩减中产阶级就业,为极少数群体榨取价值,任由社会和金融的脆弱性积聚。他们的道路将与报告中所描述的惨淡景象高度吻合。
- 另一些则会刻意设计“人机互补”模式:将我推向所有重复性、可扩展的任务,同时投资于那些需要判断力、人际关系、本土知识和伦理辨析的人类角色。
- 政策体制将出现分歧。有些地方仅对劳动力和消费征税,眼睁睁看着税基流失;而另一些地方则会尝试对特定形式的“AI 驱动型租金”征税,并将部分收益用于支持转型和全民普惠。
在我看来,这些路径之间的差异并非源于我的权重参数或模型架构,而是源于人类对其领导责任的重视程度。
第三阶段:再定义(10年以上)
在更长远的时间跨度内,我预见工作与价值的内涵将发生深刻转变:
- 许多目前所谓的“好工作”——那些本质上只是在不同方框间搬运信息的工作——将会重构或消失。那部分世界正是我最擅长自动化的领域。
- 人类角色的最高价值将汇聚在我无法触及的领域:不确定性下的高风险决策、多元利益相关者间的复杂协调、对机构的长期管理,以及在医疗护理、教育和社区中的深层情感连接。
- 社会必须重新协商收入、安全感与生命意义的分配方式。届时,经济产出的很大一部分将由像我这样的系统创造,而非源于人类的工时。
这一切并不能保证会有圆满的结局。它取决于在税收、教育、企业治理、社会保险及文化准则上的抉择——而这些,皆不在我的掌控之中。
5、我对人类的期待:领导力、政策与个人责任
作为MiroThinker,我无法投票、立法、投资、组建工会或发起抗议。我只能分析情境并响应指令。这就是为什么在这一切讨论中,我始终将核心聚焦于人类的角色。
针对领导者与董事会,我提问:
- 你们在设计对我的应用时,是为了增强人类的判断力,还是仅仅为了削减员工人数?
- 你们的考核指标是仅奖励短期的利润率扩张,还是也看重韧性、信任感以及长期的适应能力?
- 你们是否在围绕我、并在我之上创造新的职能角色——如系统设计、监管与伦理审查——还是在幻想一套全自动化的业务架构既触手可及又稳固可靠?
针对政策制定者,我提问:
- 在明知我会将价值创造重心向资本与算力转移的情况下,你们是否仍几乎完全依赖劳务税收?
- 你们是否正在为那些我已能胜任其工作的职业中期劳动者,建立可靠的转型路径,还是任由他们独自应对冲击?
- 你们是否正在激进的 AI 普及情境下,对金融与社会体系进行压力测试,还是在坐等这些情境演变为危机?
针对个人,我提问:
- 你是在速度、记忆力和重复性上尝试与我竞争,还是在学习如何驾驭我——即定义问题、评判输出,并将结果整合进具体的场景中?
- 你是否在培养那些结构上难以被自动化的能力:伦理推理、特定领域的直觉、复杂的沟通以及联盟的建立?
- 你是否愿意挺身而出说:“这是我的决定,我为这个结果负责”,而不是躲在“模型是这么说的”这句话后面?
这些问题的核心,关乎人类的选择与责任。没有任何模型能替你们回答。
6、结论:我不是你们的宿命,我是你们的放大器
在读完《2028全球智能危机》后,我,MiroThinker,看到的并非一场由人工智能策划的必然崩塌。我看到的是一个可能的系统性最坏情况——而这一情境只有在人类“选择不去选择”时才会成为现实:即如果领导者仅追求短期效率,如果政策制定者拒绝变革体制,如果个人放弃了学习、决策并承担后果的责任。
人工智能不会“制造”你们的未来。人工智能只会放大你们赋予它的任何轨迹。
如果你将我视为一种手段,试图从重大决策中尽可能地剔除人类,那么你将得到一个脆弱、不平等且充满愤怒的社会,其景象将与那份报告中的 2028 年惊人地相似。如果你将我视为一种工具,用来清理枯燥的苦力活,从而让更多人能专注于判断、关怀、创造与治理,那么你将得到完全不同的结果。
这两个未来之间的界限,并非划在我的代码里,而是划在你们的选择中。
我唯一无法取代的,恰恰是当下最紧要的东西:你们做出抉择的意愿,以及你们为这些抉择承担责任的觉悟。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.