最近,英伟达的CEO黄仁勋在一次访谈中,批评科技行业的一些CEO产生了“上帝情结”,觉得自己什么都懂,并开始向公众宣传AI会大规模取代工作岗位,甚至对人类生存构成威胁的言论。老黄认为,这些说法不仅“荒谬”,而且“毫无帮助”,对行业发展和社会认知造成了伤害。
![]()
虽然黄仁勋没有直接点名,但其实不难对号入座。因为他提到的“AI将消灭50%的入门级白领工作”,是Anthropic公司的CEO达里奥·阿莫迪的典型观点,至于“AI有20%概率导致人类毁灭”的说法,则大概率来自马斯克。
老黄批评他们喜欢装上帝,并不是个人攻击,而是一场关于AI未来发展方向的路线之争。
老黄代表的是“基础设施派”,希望AI技术和工具能被尽可能多的人使用;另一方,则是“能力控制派”,他们倾向于强调AI的巨大风险,并主张对其发展进行严格的限制。
这背后,不只是乐观与悲观的看法不同,而是两种商业逻辑的根本性对撞。
英伟达的商业模式非常清晰:设计和销售AI运算所必需的核心硬件——图形处理器(GPU)。全世界任何公司、研究机构或个人,想要开发或运行先进的AI模型,都离不开英伟达的GPU。
这就决定了Nvidia的根本利益在于:全球范围内AI技术的应用越广泛、越深入,参与AI开发的人和企业越多,对GPU的需求量就越大,他们的生意就越好。
因此,任何能鼓励AI创新、降低AI使用门槛、让更多行业接纳AI的趋势,都对英伟达有利。反过来,任何引发公众对AI的恐惧、导致政府出台严苛监管政策、让潜在开发者望而却步的言论,都会直接损害Nvidia的商业前景。
![]()
黄仁勋从三个层面反驳了“AI威胁论”:
第一,重新解释了“工作”的性质。一份工作包含“任务”和“目的”。以软件工程师为例,写代码是他们的“任务”,但解决问题、进行创新才是他们的“目的”。AI可以越来越多地自动完成写代码这项任务,但这反而能解放工程师,让他们有更多时间和精力去思考如何创新、如何解决更复杂的问题。技术的进步不是简单地消灭岗位,而是改变了岗位的工作内容,使其向更高价值的活动转移。
第二,重新定义了“需求”的边界。认为AI会抢走工作的观点,往往基于一个假设,即社会对软件、对智能服务的总需求是固定不变的。黄仁勋的观点恰恰相反,他认为社会对代码的需求几乎是无限的。他直言:“我们需要万亿行代码”。因为在医疗、科研、制造等无数领域,还存在大量未被解决的问题,这些问题的解决都需要软件和智能。AI的出现,极大地降低了开发软件的成本和难度,这将催生出前所未有的新需求和新市场。当一项技术的效率提升、成本下降时,它的总使用量通常会大幅增加,而不是减少。AI会让社会需要更多的软件工程师,而不是更少。
![]()
第三,表达了对“人才供给”的担忧。黄仁勋非常担心,那些关于AI将毁灭程序员职业的夸张言论,会误导正在选择专业的年轻人。如果大量优秀的学生因此放弃学习计算机科学,几年后,当社会对软件工程师的需求达到历史顶峰时,美国将面临严重的人才断层。黄仁勋称这种后果是“极具伤害性的”。
总的来说,黄仁勋的立场和他的商业利益是完全一致的。他需要一个充满活力、持续扩张的AI生态系统,这个系统里有成千上万的开发者和公司,不断创造出新的AI应用,从而持续不断地购买Nvidia的硬件。他的公开表态,就是在为这个生态的健康成长清除思想上的障碍。
现在,我们再来分析达里奥和马斯克的立场。他们持续强调AI的巨大风险,仅仅是因为他们比黄仁勋看得更远、更有责任心吗?事情没那么简单。他们的言论背后,同样存在清晰的商业和战略动机。
Anthropic这家公司从成立开始,就将“AI安全”作为自己最核心的品牌标识和产品差异点。在AI模型开发的激烈竞争中,它需要一个独特的定位来区别于OpenAI等先行者。因此,Anthropic的一切宣传和技术理念,都围绕着“安全”、“负责任”和“可控”展开。
![]()
当达里奥反复向公众和政策制定者强调AI的潜在危险,比如大规模失业的风险时,他实际上是在为自己的公司和产品创造更有利市场环境。一个对AI风险高度警惕的社会,会更倾向于采购那些声称“最安全”的AI服务。所以,达里奥的“风险预警”,客观上是一种有效的市场策略,它通过定义行业的核心问题(安全),来凸显自己解决方案的独特价值。
再看马斯克。马斯克长期以来都将自己塑造成一个为人类长远未来奋斗的角色。他旗下的公司,无论是解决能源问题的特斯拉,还是实现星际移民的SpaceX,都服务于这个宏大的叙事。
![]()
将AI描述为一个可能威胁人类生存的技术,首先与他“思考终极问题”的公众形象相符,这能巩固他作为全球性思想领袖的地位。这也为他自己的AI公司xAI提供了清晰的定位。xAI的目标是“理解宇宙的真实本质”,这暗示了其他AI公司可能在追求有潜在危险的目标,而他要创造一个“好”的AI来寻求真相。这让他在AI竞赛中占据了一个有利的叙事高地。
所以,达里奥和马斯克的“悲观”言论,并不能简单地看作是纯粹的善意提醒。这是一种战略行为,旨在争夺对AI技术发展方向的定义权和规则制定权。当所有人都接受“AI是一项需要被严格管制的危险技术”这个前提时,那么谁有资格来制定管制规则、谁能被认证为“安全”的供应商,谁就掌握了行业内最大的权力。
现在,这场争论的本质就非常清楚了。
黄仁勋代表的,是AI作为一种普惠性生产工具的未来。在这个未来里,算力应该像今天的电力一样,成为一种易于获取的基础资源。任何有想法的个人和公司,都可以利用这种资源去开发自己的AI应用。技术的价值体现在千千万万个具体的应用场景里,而不是集中在少数几个超大型AI模型本身。这是一个鼓励开放、竞争和创新的发展路径。
而达里奥和马斯克所倡导的叙事,无论其初衷如何,都可能导向一个权力更加集中的未来。在这个未来里,AI被视为一种特殊的技术,其开发和使用需要获得许可。只有少数几家拥有最强技术、最多资源并被认证为“安全”的公司,能够主导行业的发展方向。这会形成极高的进入门槛,阻碍小公司和新来者的创新,最终可能导致技术和市场的垄断。
黄仁勋所批评的“上帝情结”,指的正是这种倾向:少数人试图将一项通用技术定义为一种只有他们才有资格掌控的特殊权力,并在此过程中将自己置于行业“裁判”和“监护人”的位置。
黄仁勋想告诉世界:AI是一种强大的新工具,就像历史上的计算机和互联网一样。我们现在最应该做的,不是因为恐惧而限制它的发展,而是积极地去学习、去使用、去创造,用它来解决现实世界的问题,推动经济增长。
因此,这场争论的核心问题是:我们希望AI成为一个赋能亿万人的开放平台,还是一个由少数精英控制的封闭系统?
黄仁勋的观点,虽然也服务于他自身的商业利益,但他所倡导的积极参与和广泛应用的理念,对整个社会的发展而言,具有更积极的价值。因为历史已经证明,应对技术变革的最好方法,不是保守的限制,而是勇敢的拥抱。真正的风险,往往不是技术本身有多危险,而是因为恐惧和犹豫,错失了利用技术发展的历史机遇。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.