ChatGPT以其惊艳的语言能力俘获人心已满三年。OpenAI这项发明引发的狂热如此之盛,以至于如今美国最大的经济增长引擎竟源于对这项技术的投资——它甚至许诺能治愈癌症。
生成式人工智能真能兑现这些宏大承诺吗?至少对于那些每天挥掷数百万美元以维持聊天机器人运转的投资者而言,答案是否定的。一旦业务出现崩塌,我们将面临什么?
![]()
OpenAI首席执行官山姆·奥特曼因三年前公司推出ChatGPT而声名鹊起。这场突如其来的成功,将他推向了科技英雄的精英神坛。面对全球范围内的聚光灯,他非但没有丝毫怯场,反而开始发表愈发惊世骇俗的言论。
例如,他宣称:“尽管进程将循序渐进,但气候问题的解决、太空殖民地的建立以及物理学全领域的探索——这些惊人的成就终将变得司空见惯。”
他的豪言壮语更进一步:“或许只需10吉瓦的计算能力,人工智能就能攻克癌症疗法;或者用同样10吉瓦的算力,就能为地球上每个学生提供个性化教育。”作为参照,拥有150多万人口的费城,其全城电力消耗仅约1吉瓦。
在另一次访谈中,他又表达了深深的忧虑:“我们非常担忧威权政府会开发这项技术。”无论持有乐观愿景还是末日论调,奥特曼都笃定生成式人工智能拥有巨大的力量:一切将从此改变。
最近,他似乎恢复了些许理性,开始降低近年来被不断煽高的预期。在向投资者寻求更多资金时,奥特曼反思道:“当泡沫出现时,聪明人往往会对核心真相过度热情。”他继续反问道:“我们是否正处于投资者普遍对人工智能过度热情的阶段?我认为是的。但人工智能是否是长期以来最重要的事件?在我看来,亦是如此。”
究竟是谁让投资者陷入了这种进退维谷的境地?
![]()
数据统计
如何理解这位科技界领军人物看似自相矛盾的言论?这些看似杂乱无章、失衡甚至对立的表述,实则暗藏玄机。但要理解其中的深意,我们需要回溯一些背景。
2022年11月,ChatGPT的横空出世令我们所有人感到震惊。其卓越的语言能力让我们猝不及防,人们轻易地相信自己正在与“某人”对话——某种具有意识的存在。
我们不必固执己见:ChatGPT确实实现了更高级别的交互。虽然人工智能早已存在,但ChatGPT的突破在于它能够输出“新”内容,或者更准确地说,是以统计学概率的方式回收并重组旧内容。这就是生成式人工智能的运作原理——它不仅能在数据中发现关联性(例如向我们推送“相关”广告),更能创造全新的关联。
但必须澄清一点:正如学者叶夫根尼·莫罗佐夫所言,人工智能既非“智能”也非“人工”。
它之所以不具备智能,是因为其本质上是统计学:如果简化大型语言模型(当前人工智能领域最成熟的模型)的工作原理,可以将其理解为根据训练时使用的数百万个示例,预测某个词语接续另一个词语的概率。
另一方面,它也不具备“人工”属性:因为其寻找关联的内容源自人类智慧的结晶。若无此基础,统计模型便无法实现逼真的拟态。事实上,中期发展存在一个无法解决的悖论:若人工智能真能取代人类,未来它将不得不接受其他人工智能产出的数据进行训练,这将加剧本已频发的错误、偏见和幻觉,形成恶性循环。
正如凯伦·郝在《人工智能帝国》一书中所阐述,OpenAI超越竞争对手的关键发现在于:当数据量、参数和计算能力呈倍数增长时,结果的可信度将成比例提升。
此后,西方科技企业纷纷投入巨资扩充这些变量以打造更强大的系统,几乎停止了对替代路径的探索。例如,面对海量内容需求时,它们不再仅采信可靠来源,而是不加区分地抓取网络上所有信息——从红迪网到推特,乃至各类杂牌杂志。这导致训练数据的平均质量持续恶化,与生成可靠答案的目标背道而驰。
对人工智能而言,世界仅存在概率;真伪等概念毫无意义,因为它无法认知现实世界——毕竟“认知”本身就意味着某种意识,而这正是它所欠缺的。
这场变量扩张竞赛的另一恶果,是催生出规模日益庞大的数据中心。成千上万的处理器堆叠运行不仅耗能巨大,其配套的冷却系统更消耗惊人的能源和水资源。这些数据中心的能耗堪比数十万人口的城市,其产生的空气污染、持续噪音及周边水资源短缺等问题,正严重危害着周边居民的健康。
尽管尚无确切的电力消耗数据,但根据麻省理工学院的预测,若按当前速度发展(除非该行业加速扩张或彻底崩溃),到2030年数据中心可能消耗全球21%的电力需求。
原计划关闭的发电厂将持续运转以满足增长需求。这意味着全球为防治变暖所做的努力将付诸东流,甚至造成更大的生态损失。
面对技术引发问题的种种铁证,科技巨头们却提出了更多“技术方案”来应对。例如,奥特曼轻描淡写地宣称人工智能将能“修复”气候问题,同时他又创办了一家核能公司。尽管人类早已掌握了无需人工智能也能“修复”全球变暖的方法。
弗雷德里克·詹姆逊关于“想象地球的终结比想象资本主义的终结更容易”的著名论断,如今已演变为“想象人工智能将解决全球变暖,比想象能阻止一个蓬勃发展的产业更容易”。
归根结底是经济问题,蠢货
![]()
近年来,我们听过太多夸大其词的承诺:非同质化代币将拯救艺术家免于饥饿,加密货币将实现货币控制的民主化并让“民众”摆脱银行束缚,元宇宙将带来前所未有的互联网“生活”体验等等。
这些项目(及其他类似企划)皆将过剩的资本导入看似短期高回报的项目,而中长期收益则悬而未决。毕竟,正如那些在科技赌场押注者反复强调的——他们同时将地球生态系统置于赌局之中——谁曾预料谷歌会发展成今日之规模?无论如何,关键在于及时抽身,让别人买单。这正是病态资本主义碎片化的体现——它在投机狂潮中扩张,最终以危机收场。
山姆·奥特曼玩转这套游戏堪称完美,即便在谈论人工智能的危险时亦是如此。若人工智能能攻克癌症与全球变暖,正因其是极具颠覆性的技术。反之,若它演变为能消灭人类的终结者,也仅需更多处理器(能源)、数据与参数支撑。
企业似乎不再需要那些讨薪、要求加薪的“烦人”员工。谁会想错过这样的机遇呢?
那些不依赖人工智能谋生却深入研究该领域的人,则持更怀疑的态度。他们不认为超级智能——那种拥有模糊的超意识和全部信息的智能——是统计学道路的终点。
哈佛大学、麻省理工学院和苹果公司等机构的严肃研究表明,尽管人工智能在回答问题时能提供看似可信的结果,但其中并无推理的痕迹。面对逻辑问题时,它们并非运用演绎法则,而是基于历史案例推演概率。
当然,在许多领域,精确的统计推断往往足够:例如身为律师,撰写判决书时可节省时间,但必须仔细校对——可惜并非人人如此,有人因懒惰或过度追求效率而最终付出代价。因为人工智能可以突破统计概率的边界,“发明”那些“可能”发生的情况。
谷歌母公司字母表的首席执行官桑达尔·皮查伊在接受《边缘》杂志采访时承认:“幻觉问题仍然没有解决。某种程度上,这是其固有特性。正是这种特性赋予了模型强大的创造力。”
尽管承认可靠性有限,企业仍在游说将高度敏感的任务——如交通、教育、军工或医疗领域——委托给人工智能。
![]()
泡沫已现,为何执意兜售达不到预期承诺的产品?因为投资者正变得焦躁不安,渴望获得切实可感的回报信号。尽管部分人工智能助手的付费版本收入在增长,但增速远低于成本上升幅度——尤其随着数据中心规模持续扩大。
为缩小差距,安索帕等公司不得不限制付费用户访问其编程人工智能“克劳德”的次数:每月200美元的收费无法覆盖成本,且似乎无法大幅提价。这意味着即便是付费客户也让企业蒙受亏损。
但当前关于人工智能的舆论影响力如此之大,以至于所有人都承受着使用它的压力:或是因为上司要求,或是为了提升生产力以求生存。教师、建筑师、律师或网红们,或出于信念、压力或需求尝试使用,发现它或多或少能派上用场,于是因时间紧迫或单纯懒惰而将任务外包。
企业的预期是,迟早认知外包会让我们依赖这些工具来处理所有无法自主完成的工作。
企业同样承受着压力,咨询公司便以人工智能标签兜售解决方案,至少能缓解他们的“错失恐惧症”心理,彰显企业现代化形象。但实际成效尚不明朗:麦当劳等企业因系统产生超量订单而被迫撤回服务。如今已有专业人士专门修复人工智能产生的错误。其他领域则讨论着通过特定应用提升员工生产力的方案。
关于劳动力替代的最全面研究显示,22至25岁年轻人的招聘量下降了13%。这一数字值得关注,但远未达到广告宣传的恐怖规模。这种替代是否可持续也尚无定论。
另一个不容忽视的问题是向在线人工智能服务共享信息的风险。正如爱德华·斯诺登所警示的,2024年OpenAI董事会吸纳了前美国国家安全局局长保罗·中曾根将军——该机构曾于2013年被指控通过科技公司对全球民众实施大规模监控。这能有什么问题?
面对这种运作于黑箱之中、实现决策自动化的技术,任何理性的反驳都显得苍白无力。
于是,夸大其词的承诺让投资者争相将资金投向这项号称将彻底改变世界的技术,股价水涨船高,而那些眼光敏锐者则能在必要时将烫手山芋转手他人。
![]()
数百万美元在各方间流转后又回到起点,却制造了头条新闻,维持了市场对芯片的预期与需求——正是这种需求让英伟达市值达到三年前的十倍。真正的生意不在于经营烤鸡店或网球场,而在于说服人们相信这些是好生意,并收取建设费用。至于人工智能真正创造的、支撑这台机器运转的实际收入?这个问题至今无人能解。
事态发展已至如此地步:奥特曼不再谈论治愈癌症或开创物理学新纪元,转而热衷于推出新社交网络、在ChatGPT开放色情内容或开发新型浏览器——这些领域早已饱和,如今更难称得上创新或颠覆性。本该改变未来的科技,如今却沦为在饱和市场里赚取零碎利润的工具。
骑向悬崖的自行车
只要资金源源不断,这些科技巨头就停不下来。因此对许多人而言,问题已不再是这种人工智能发展模式的泡沫何时会破裂,而是何时破裂以及破裂后会留下什么。它会像非同质化代币那样悄无声息地消逝,还是像2001年互联网泡沫那样,虽让投资者损失数千亿美元,却为幸存者留下了基础设施?
但即便泡沫破灭后能建立新事物,经验表明技术往往不会应用于最惠及大众的领域,而是投向最能盈利的领域。
例如,千禧年伊始,人们投入数十亿美元研发了极其强大的人工智能工具,并聘请了顶尖专业人才,但这些技术并未用于预防疾病或帮助人们实现自我,而是被用于投放广告,让民众沉迷于微量多巴胺刺激,对心理健康造成严重危害。
更糟的是,美国大部分经济增长都源于对生成式人工智能的投资。英国央行预计该行业将出现“突然修正”。德意志银行的一份客户报告明确指出:“人工智能泡沫是维系美国经济运转的唯一支柱”。
失去它,美国经济将陷入衰退。正因如此,其他成本更低、危害更小的人工智能形式(所构成的威胁,引发了剧烈震动。市场对此采取否认态度,将价格维持在远低于成本的水平,奉行“继续前进”的逻辑。
目前,美国科技企业与政府之间的共生关系。但矛盾的是,在放任科技资本自由发展的过程中,资源的浪费可能导致他们不进反退。
事实上,OpenAI首席财务官莎拉·弗里尔在《华尔街日报》举办的活动中引发了另一波恐慌,她声称美国政府最终应为投资提供担保。他们是否在预演2009年奥巴马式的企业救助?人工智能领域存在着远比美国企业选择的道路更广阔的探索空间,其价值更关乎公共利益而非暴利。
政府通过合同维持着市场预期。例如彼得·蒂尔旗下的数据处理与军事承包商帕兰提尔公司,就为美国政府提供非法移民追踪服务。得益于这些合同,帕兰提尔的股价在过去两年间大幅攀升。
该公司及其他企业还承诺将优化政府运作效率——这些运作被封存在人工智能的黑匣子中,不久之后便无人知晓其运作机制。
正如研究者哈根·布利克斯和英格博格·格利默在《我们为何恐惧人工智能》中所阐释的,人工智能的统计错误——例如将合法移民误判为非法移民——具有强大的意识形态功能,能引发全民恐慌。面对运行于黑箱中并自动化决策的技术,理性辩论根本无从谈起。
![]()
正如他们所言:“人工智能在技术层面存在缺陷时,却能在意识形态层面实现目标。”从这个角度看,生成式人工智能是否会产生误报并不重要——只要所有移民都因恐惧而自我约束,就是成功的。
那么这项技术是否毫无价值?如前所述,生成式人工智能蕴含的探索路径远比美国企业选择的道路更为广阔。存在更精简的模型,它们基于可靠数据训练,仅定位于自身本质:即发现模式并推测有用模式的实用统计工具。
例如,可以训练系统控制交通信号灯及其他路标,从而优化城市交通流;或用于设计蛋白质,再由专家进行分析测试——这在现实中已有所实践。
我们需要评估这些潜力巨大的工具所带来的影响、经济成本及环境损害。但最现实可持续的场景与所谓“超级智能”毫无关联——后者既不能治愈癌症,也不会演变成终结者。这些服务于人类的现实人工智能,需要建立优先考虑人类福祉的政治体系,将环境代价置于少数人短期利益之上。其成果始终需要人类的自觉监督,切莫忘记人工智能缺乏判断力——且种种迹象表明,它永远不会具备这种能力。
埃斯特班·马格纳尼
插图:塞巴斯蒂安·安格雷萨诺
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.