来源:市场资讯
(来源:51CTO技术栈)
![]()
编辑 | S+
关于“AI取代人类工作”的恐慌,Sam Altman受够了。
近日,在《下一个重大事件》节目中,这位OpenAI的CEO罕见地公开怼了一种流行叙事:“50%的工作将消失”——这句话本身就是灾难传播。
他甚至直言:一家可能成为史上最有价值公司的负责人,跑出来说“我们要消灭一半岗位”,这本身就缺乏共情。
更反常识的是,Sam 并不认为 AI 会让人失业、变懒或失去价值。恰恰相反,他提出一个反直觉判断:AI能力越强,人类可能越忙。
此外,他还讲了一个真实案例:有人用新模型一小时干完了过去几周的工作。你以为他会去喝咖啡?不,他半夜爬起来继续干。因为能做的事情,突然多到了不可思议的程度。
这不是孤例。
另一个被彻底打脸的说法是:AI只会抄袭,不会创造。Sam回忆,当年无数科学家或者AI专家信誓旦旦地说:“预测下一个token永远不可能产生新知识。”但是当ChatGPT推导出物理学家认为AI不可能解开的公式,做出了人类从未见过的“第37手”,这些人都被狠狠打脸了。
而谈到那个最敏感的问题:工作到底会不会消失?
Sam的回答像个清醒的异类:工作形态会变,但“无所事事的世界”不会来。 人类永远会找新的边界、新的难题、新的产品、新的奋斗,哪怕只是为了证明自己还有用。
以下是小编为大家梳理的精彩观点,enjoy!
爱上AI,不需要理由
主持人:我为了这次采访几乎看了你过去20年所有的访谈,很有意思的一点是,你很多核心观点一直非常一致。其中一个是你始终关注“创业者”。很多人现在只把你当作OpenAI的CEO,但他们不知道,其实你20年前就已经痴迷 AI 了。能不能讲讲你大学时期第一次接触AI的经历?是什么让你爱上AI?
Sam Altman:第一,从技术角度看,它就是世界上最酷的东西。我们居然可以让计算机思考、替我们做事、帮助人类——这个想法本身就极其迷人。我一直很着迷于人类技术进步的历史:我们不断在工具之上创造新的工具,搭建越来越复杂的“脚手架”,让人类能力不断被放大。AI 是这条路径的自然延伸,这是一个非常优美的想法。
第二点是,从科技与科学发现的角度来说,它真的可能让世界变得更好。如果我们把这种工具交到人们手中,让大家用 AI 去创造、探索、建立公司、创作艺术、创造全新的体验——这正是我相信世界会变好的方式,也是人们获得成就感的重要来源。
在做 AI 之前,我一直在创业领域工作,看着人们创建公司,我觉得那对世界和创业者本人都非常美好。而现在,我认为我们即将进入一个时代:一个人或三个人就能建立一家强大的公司。AI 将释放的人类潜力,以及它带来的新事物,是过去完全不可能实现的,这会非常令人振奋。
AI和预测极其相近,学会预测才能谈AI
主持人:如果历史上某个人拥有 AI,你觉得谁会受益最大?
Sam Altman:达·芬奇是我第一个想到的人。他是那种跨领域思考者,对很多事情都充满兴趣,拥有巨大的创造能量,总想完成尽可能多的事情。
主持人:Transformer 刚出现的时候,它看起来只是一个预测文本模型,但这个突破却推动了整个领域的巨大进展。你会经常思考这一点吗?
Sam Altman:经常。Ilya Sutskever 曾说过一句非常简单却深刻的话——“预测非常接近智能”。意思是,如果你能够把关于世界的一切信息压缩成最小的表达形式,并在此基础上预测接下来会发生什么,那你其实已经在某种深层意义上理解了世界。
当时很多 AI 研究者对生成式模型感到兴奋,却说不清原因。我认为核心就在这里:预测与智能极其接近。如果我们想构建真正理解数据的系统,让它学会预测下一步,是非常关键的一步。你观察孩子理解世界的过程,也能看到类似的现象。
主持人:看着 AI 变得越来越聪明让我产生一种希望——好像只要我把同样的信息输入大脑,也能得到类似结果。你认为有些人天生更擅长物理、科学或数学吗?还是说只要信息一样,输出也会一样?
Sam Altman:不会一样,而且我很庆幸不会。人类经验的丰富性正来自差异,不同的兴趣、天赋,以及不同的“训练数据”。如果每个人接收完全相同的信息,产生完全相同的想法,那将是一件非常悲哀的事情。
怎么定义AI的人格?
应该多鼓励?还是多批评?
主持人:你之前说过一句很有意思的话——历史上从来没有这么多人在与“同一个心智”对话。现在每周有 9 亿 ChatGPT 用户。这对你设计 ChatGPT 人格有什么影响?
Sam Altman:我们尝试过很多方式,但这件事极其困难。不同的人想要不同的人格,同一个人在不同时间也想要不同的人格。短期来看,你可能希望模型不断鼓励你、让你感觉很好;但从长期成长角度,你可能更希望它挑战你、反驳你。
几乎没有人真的想去调节滑块,比如“让它多幽默一点”“少批评一点”。现实生活中我们也不会这样设定朋友,而是自然地在不同阶段与不同的人互动。我们期待 AI 也能理解这种情境差异。目前 ChatGPT 还做不到这一点,但这是我们努力的方向。
主持人:我感觉它已经有一点这种能力了,比如登录账号时,它明显更了解我。
Sam Altman:是的,我们正在推进记忆能力和理解用户的能力。过去我们确实尝试过用滑块控制人格,但后来发现那并不是正确方向。
主持人:GPT-4o 曾经因为“过于迎合用户”引发讨论,但也有人给你写邮件,说那是他们人生中唯一支持他们的对话。你怎么处理这种情况?
Sam Altman:我至今还经常想起那些邮件。这确实带来了巨大的责任。我们经常讨论 AI 的生物安全风险、网络安全风险,但实际上,对世界影响最大的事情,可能就是——我们如何设定 ChatGPT 的人格。
它应该多鼓励?多严格?应该在多大程度上个性化?用户需要多透明地理解它的行为?这些问题极其重要。
整个行业过去并没有像对待生物风险那样,用同样严格的科学方法去研究“AI 人格”的影响。但它对世界产生的影响已经非常巨大,大部分是积极的,也确实出现过负面影响。
直到今天,我仍然没有听到一个让我觉得“这就是正确答案”的观点,关于默认人格应该是什么、AI人格的边界在哪里。但可以确定的是,这是一个极其重要、而且只会越来越重要的问题。
根据文化差异调整AI
人类仍需做好克服困难的准备
主持人: 你现在是怎么思考这个问题的?
Sam Altman: 我邀请了一小部分我认为在不同层面都非常有智慧的人参与进来,比如来自伟大精神传统的人、顶级临床心理学家,以及那些真正理解人与人如何互动、理解人类动机和满足感来源的人。我请他们尝试为 ChatGPT 写不同版本的“行为指南”。比如:怎样的行为方式能够最大化人的成长、成就感、生活乐趣和整体幸福感。我希望把这些理念结合起来,让 ChatGPT 去对齐这些原则,然后看看会发生什么。
主持人: 这是不是也需要根据不同文化去调整?
Sam Altman: 我认为很大程度上是需要的,但人类身上也确实存在一些超越文化的共性,它们更接近生物学层面的东西。
有一本很有意思的书,我可能记不太准确,应该叫《Human Universals》。一些人类学家研究了几乎所有已知的人类文化,他们列出各种人类特征,只要某个特征在哪怕一个文化中不存在,他们就会把它剔除,因为那就不算真正的“普遍性”,只是文化差异。结果发现了一些让我意外的事情,比如“重视旅行”居然在所有文化中都存在;当然也有很多符合直觉的共性。
我们刚才谈到我为什么对 AI 的未来如此兴奋。但现在越来越多人提出一个担忧:假设 AI 真的带来了巨大的繁荣,让每个人都拥有强大的能力,人们可以选择工作而不是被迫工作,生活条件普遍很好,那“奋斗”怎么办?人类是否仍然需要挑战、逆境、需要克服困难的过程?这些似乎也是人类进化的重要组成部分。
有了AI人就不工作了?
新产品、新事物、新边界仍需要人来探索
主持人: 我同意。不过我觉得这种担忧有点“错误类比”。回看历史上的技术革命,总体就业并没有减少,只是岗位发生了变化。
Sam Altman: 是的。我们曾被承诺过每周工作四小时、更少压力、更多幸福、更充足的物质。但如果我们愿意满足于100年前或500年前的生活水平,也许真的可以不用那么努力工作。问题是人类总想要更多,标准不断提高。
更重要的是,我们想要成就感、竞争、对彼此有价值。无论未来世界变成什么样,人类仍然会探索新的边界、发明新产品、新服务,创造新的事物。
我记得曾经有位音乐制作人几十年前说过:音乐已经足够好了,人类大概不再需要创作新音乐了。但事实并非如此,人类不是那样运作的。
所以,无论你怎么看,人们仍然会努力工作、会感到压力、会经历不快乐,也会不断追求创造与突破,并在这个过程中获得成长和满足。也许未来的“奋斗形式”完全不同于今天,但那种精神本质应该是相似的。
“50%岗位消失”属于灾难叙事
不要过度神话AI
主持人: 这很有意思。因为现在美国的民调显示,人们对 AI 的整体态度并不算积极。但我个人却非常兴奋,用ChatGPT时就像进了糖果店一样,它打开了很多新的可能性。我的很多创业者朋友也有类似感受。但媒体经常用“50%的工作将消失”这种说法。为什么这种叙事会流行?你觉得真正会发生什么?
Sam Altman:有很多原因。我认为,人类天然更容易被“灾难叙事”吸引。新闻更倾向报道坏事,人们似乎也更喜欢讨论未来可能多么糟糕。坏消息传播得往往比好消息更快。
当然,面对如此规模的技术变革,保持谨慎是合理的。从进化角度看,人类确实倾向于先关注风险,这可能帮助我们更好地防御危险,这是一种重要的社会机制。
我也注意到,一些 AI 公司 CEO 会说“50%的工作将消失”。先不谈这种说法是否明智,由一家可能成为史上最有价值公司的企业负责人来说“我们会消灭一半工作岗位”,本身就显得有些缺乏共情。
我不认为这是正确的理解方式。工作确实会消失,但历史上每一次技术革命都是如此;真正发生的是工作形态改变。
![]()
昨天有人跟我说了一件让我印象深刻的事:他用新版 GPT-5.5 和 Codex,一小时完成的事情,两年前需要几周时间。他原以为这样自己会变得更轻松,但现实是,他比以往任何时候都更忙。甚至半夜醒来继续工作,只因为能做的事情太多了。
新工具出现后,人类会用新的方式创造。我毫不怀疑经济结构会发生巨大变化,就业形态也会发生巨大变化。谨慎是必要的,关于新的社会契约、经济体系的严肃讨论也同样必要。但我并不认为未来会变成一个人人无所事事、失去意义的世界。世界不会停止运转——只是会变得不同而已。
预测下一个 token 不可能产生新知识?
ChatGPT推翻了这个理论
主持人: 我也认为科学领域的突破正在到来,而且会非常令人兴奋。我想深入聊聊这个。我有很多问题,其中一个首先想到的是:既然 AI 本质上是一个预测模型,那现在似乎存在两种可能。第一,如果给一个人足够时间,并让他获取全部信息,人类是否也能得到同样的科学突破?第二,它是否更像围棋里的“第37手”——AI 想出了人类从未想到过的招法?我们现在走的是哪条路径?
Sam Altman: 其实这两种情况可能没有那么不同。我刚才在笑,是因为我想起最早的 GPT 模型刚出来时,有很多听起来非常聪明的科学家或 AI 专家说:“预测下一个 token 永远不可能产生新知识。”他们认为模型只是基于已有数据训练,不可能发现任何新东西。他们给出了各种看似很高级、很严谨的解释。
![]()
但后来,从 GPT-5.3 的一部分能力开始,到 5.4 版本,模型第一次开始以一些小规模的方式,为人类知识体系贡献新的内容。比如证明此前尚未证明的数学定理,或者提出一些新的物理学发现。虽然规模还不大,但确实出现了。我预计这种趋势会持续下去。
某种意义上,“第37手”早就是这种现象的例子。我们训练模型去预测下一个 token,这听起来像只是复述已有内容。但它却能够利用这种能力,去发现世界上从未存在过的新东西——这在直觉上其实并不明显,甚至很多人曾坚定地认为这是不可能的。
真正发生的事情是:通过“预测下一个token”的训练过程,模型学会了推理,学会理解数据之间的关系,并补全下一步应该是什么,即使那是它从未见过的内容。这种推理能力可以应用于全新的问题,这是非常惊人的。
训练更快更聪明的模型
比让人类拥有聪明的大脑容易得多
Sam Altman: 其实人类也是这样。人可以学习所有已知的物理学知识,然后通过训练过程中形成思维方式,而不仅仅是记住事实,最终发现新的物理规律。我认为这些模型正在做的事情,本质上类似。
那么,人类是否也能做到?如果给足时间和更强的大脑,大概是可以的。我认为答案是肯定的。但相比之下,制造一个更大、更快的模型,要比让人类拥有更大的大脑容易得多。所以我非常高兴我们拥有这样一种新的“外部思考工具”。
![]()
我们可以让它替我们对一个问题进行极高强度的思考。当你看到模型能在几秒钟内阅读几十万页资料时,你会意识到,也许如果我们拥有更大的大脑也能做到,但现实是,以人类目前的大脑规模,这是不可能的。
AI辅助医疗,从不可能到可能
主持人: 说到科学突破,你最近最关注什么?你们刚发布新的科学模型,这是很重要的一周。接下来重点是什么?我看到有个澳大利亚人通过技术治好了狗的癌症。
Sam Altman: 是的,这是一个很具体的例子。我昨晚刚去 YC,和一家创业公司的创始人聊过,他们正在思考类似方向,但希望把它规模化。其实很多人都在研究个性化 mRNA 疫苗,比如为每个癌症患者定制 mRNA 疫苗。我认为这极其令人兴奋。
主持人: 那为什么我们还没有真正实现?
Sam Altman: 原因很多,其中一个重要问题是监管体系,比如 FDA 目前还不太适合处理这种高度个性化的医疗模式。不过情况正在快速改善。如果一个人得了癌症,一家公司或实验室可以为他的癌症专门制造一款个性化疫苗,而且成功概率很高,这听起来像是我们理所当然应该拥有的东西。
主持人: 你现在会用 ChatGPT 管理健康吗?
Sam Altman: 会。我可能用得有点过度了。以前有个词叫“网络疑病症患者”(cyberchondriac),不知道现在该叫什么——也许是“ChatGPT 疑病症”。任何一点轻微症状,我都会开始在 ChatGPT 里一路深挖。
像很多人一样,我也会把体检报告上传进去。有时候它会指出某些指标略微异常,我就开始担心自己是不是该做点什么。刚发布 ChatGPT 时,它在医疗方面的能力其实很有限。当时很多人说:人们永远不会用 ChatGPT 获取医疗建议,它不够好,也永远不可能足够好,即便它变得很好,人们也还是更愿意直接看医生。
![]()
当然,人们仍然想咨询医生。但现在用户向 ChatGPT 提出医疗问题的数量,以及他们反馈说获得了非常有帮助的信息的比例,已经高得惊人。
“AI没有价值,不能改变世界”——荒谬且让人恼火
主持人:一直有人怀疑这项技术是否真的会产生巨大影响,这会让你感到困扰吗?
Sam Altman:会。按理说现在不应该再困扰我了,但它还是让我非常恼火。
主持人:我也会受不了。我感觉任何重大技术突破都是这样,比如在人类真正飞上天空之前,报纸还在说人类永远不可能飞行,可能要等一百年,结果下一周人类就飞起来了。
Sam Altman:对,这个例子我们在 OpenAI 早期经常提到,就是《纽约时报》当年关于莱特兄弟的那篇文章。我们当时就说,AI 也会像这样发展,而事实证明我们是对的。老实说,在早期阶段这些质疑确实让我很烦,但那时候前景还没有那么明确,所以批评者说“也许不会产生巨大影响”,我觉得在智识上还是诚实的。但现在还有人说 AI 没有真正价值、不会改变世界,这就太荒谬了。本不该让我介意,但真的很让人恼火,这种观点既不诚实,也非常令人沮丧。
AI让人类越来越忙
给了每个年轻人创业的机会
主持人:当你每天都在一线努力推动事情前进时,你希望更多人相信它。我做视频时也经常尝试展示那些令人惊叹的技术和未来图景,因为人们必须先“看见”,才会真正投入并开始建设。归根结底,人们在为真正关心的事情努力时才最有成就感。如果你现在和一个22岁的年轻人聊天,你会想了解他们哪些想法?这些信息又会如何影响你们接下来要构建的东西?
Sam Altman:过去几周我一直在做的一件事,是亲自观察人们使用最新模型和 Codex,理解它如何改变他们的工作,他们兴奋什么、不满意什么,以及我们还没有提供但他们真正需要的能力。目前我主要和公司创始人或资深工程师交流,其实我应该去和更多年轻人坐下来,让他们直接试用,然后观察他们的行为、倾听他们的担忧。
主持人:你在这方面有独特视角,因为你曾经指导过很多年轻创业者。几年前你上 Joe Rogan 播客时提到,当时25岁左右的创业者明显减少了。现在情况改变了吗?
Sam Altman:完全改变了。
主持人:你觉得是什么造成这种变化?
Sam Altman:很多因素同时发生。我现在已经很少直接指导创业者了,因为事情太多,但我一直在想应该重新找方式参与其中。因为这项技术最重要的意义之一,就是它正在释放巨大的创业活力,而我现在对这部分反而有点脱节,这让我很不舒服。我在理性上理解正在发生什么,但我想真正回到一线,和那些两个人创办公司、却拥有一万块 GPU 的团队一起工作。我最近见过几个这样的团队,这也提醒我必须重新靠近创业生态。
![]()
至于为什么过去缺少年轻创业者、而现在又出现了,我觉得原因很多。美国教育体系曾经历过一段相当低迷的时期,又恰逢疫情,我们在某种程度上削弱了一整代人的动力,不断告诉他们未来会变坏、资本主义不好、公司不好、野心也不好。现在这种氛围已经被纠正了,人们重新开始拥抱进取心。之前甚至形成一种奇怪的文化,好像你不该有雄心、不该渴望成功,那真的是非常奇怪的一段时期。
另一个原因是,创业往往在技术格局发生重大变化时最繁荣。2008年 iPhone App Store 发布时是一次浪潮,更早 AWS 出现时也是一次。但之后很长时间没有新的技术范式转变,直到 AI 出现。那段时间就像在荒野里前行——依然有成功公司,但远没有真正技术转折期那么多。
现在的AI只是”前菜”
个人AGI才是终极目标
主持人:你七年前就在博客里写过,我们即将迎来下一次技术范式转变,而你后来真的推动了它发生。
Sam Altman:现在我们有三个最重要的方向:
第一,加速科研。从 AI 本身研究到物理、生物等领域,科学研究对人类影响巨大。
第二,加速经济发展。包括自动化创业、企业通过 AI 提高生产力,甚至未来建设太空殖民地。
![]()
第三,是“个人 AGI”。ChatGPT 只是一个早期预览。你现在可以问医疗问题获得建议,但真正理想的状态是:有一个始终为你工作的 AGI,理解你全部人生背景与上下文,持续使用算力让你的生活变得更好。
这三个方向在底层技术上其实高度相似,但我认为它们是社会最能感受到价值的领域。
十亿万亿token不是神话
但单纯追求token是不理智的
主持人:我很喜欢这个说法。回头看这几年,AI 已经带来了许多曾不可想象的突破,明显呈指数级发展。很多人认为更长的上下文窗口会非常关键,我们要如何实现?
Sam Altman:我不认为一定需要字面意义上十亿或万亿 token 的上下文窗口,虽然未来可能也能做到。真正重要的是模型能够有效理解你的整个人生、整个公司或所有你关心的事情。
现在已经出现很多非常惊人的方法,虽然计算成本或内存成本仍然很高,但可以在现有上下文窗口内识别真正重要的信息,或在需要时调用工具检索次要信息,从而更高效地利用同样的上下文容量。
![]()
这种能力会持续进步。随着新模型以及未来几个月将加入的新功能,我不敢说会像“无限上下文”,但那种感觉会非常接近:模型真的理解了大量信息,脑中拥有的内容甚至比人类自己记住的还多。
算力最易突破、数据次之、算法突破回报最高但最难
主持人:新模型有什么不同?你们具体改变了什么?
Sam Altman:更聪明、更快,上下文更长。我一时找不到准确的词。可以说更有“直觉”。不是简单的可靠性提升,而是它更能理解我真正想要什么,会自己尝试几次,知道什么时候方向正确,最终更容易给我正确结果。主观体验就是现在我让模型做一件事,大多数时候它真的能做对。
主持人:很有意思,是因为它通过训练理解得更好了?你们是更新了算法吗?
Sam Altman:我们确实做了大量算法层面的改进。这是一个更新、更好、更大的基础模型,采用了不同的架构和架构优化。同时,我们也把过去学到的所有后训练经验整合进去,包括人们如何真正使用这些模型,以及如何把模型连接到现实世界、用户系统和个人上下文中,让它真正有用。
主持人:让我确认一下理解是否正确。AI 的进步大概来自三个方向:更好的算法、更多的数据,以及更多能源或算力,对吗?
Sam Altman:总体来说是这样。不过“更多数据”其实是个很宽泛的概念。它可能意味着更多训练数据,也可能意味着把模型接入一个持续学习的循环,在你使用时不断学习、不断修正失败。
主持人:那三个方向里,哪个最容易取得突破?
Sam Altman:增加算力是最确定的路径。这里的科学不多,主要是钱和复杂供应链的问题,但你基本可以通过投入来实现。算法突破的回报最高,但也是最难、最不确定的。数据改进则处在中间。
![]()
自我递归已经开始
远未达到AI自己造模型的阶段
主持人:更好的数据是不是和递归学习有关?比如模型自己教自己?
Sam Altman:可以是。如果模型足够聪明,它可能证明一个以前没人证明过的定理。下一轮训练时,这个新证明就成为新的学习材料。这就是一种方式。
主持人:那我们现在是不是已经进入模型自我改进阶段?
Sam Altman:这个问题很难界定。从某种意义上说,显然是的。比如我们的工程师因为Codex效率提升了三倍,他们用上一代模型写代码来构建下一代模型,这某种程度上就是自我改进。但如果你指的是那种“按一个按钮,让AI自己发明新算法并造出下一代模型”,那肯定还没有。
不大力发展机器人
就只能等着被AGI“指挥”
主持人:说到供应链,比如建设数据中心,机器人似乎非常关键。你说过机器人是一个重要方向。它为什么让你兴奋?路线图是什么?
Sam Altman:我们生活在物理世界里。即便是在虚拟世界中,也需要庞大的物理基础设施:制造芯片、建设数据中心、运营电站等等。如果出现一种未来,计算机能完成惊人的智能工作,但因为我们没解决机器人的问题,人类反而要成为 AGI 的“执行器”,被指挥去搬桌子、操作设备,那将是一个噩梦般的未来。所以必须发展机器人。
主持人:你觉得哪种形态的机器人最好?
Sam Altman:我并不执着某种具体形态,我真正想要的是自动化制造能力。当我们需要某种东西时,可以拥有像 ChatGPT 一样通用的机器人工厂,能够自我重构,然后生产更多这种东西。
主持人:你们会自己制造机器人吗?还是合作?
Sam Altman:还不知道。
iPhone虽伟大但不是为AI设计
要为AI重新发明硬件
主持人:除了机器人,AI 硬件本身是不是你们的重点?我知道Jony Ive也参与了。
(注:Jony Ive,前Apple Inc.首席设计官,被认为是苹果产品设计灵魂人物。全球最著名的工业设计师之一,也是现代消费电子设计史上影响力最大的人物之一。)
Sam Altman:你指的是消费级 AI 硬件吧?我们刚才谈到,希望 AI 能拥有你全部生活上下文。现有硬件已经非常惊人了,我认为 iPhone 是史上最伟大的消费电子产品之一。但它并不是为“AI 全程理解你的人生”这个世界设计的。手机是开或关的,你用它或不用它,但如果刚才这段对话很有价值,我希望未来我的个人 AGI 能理解并记住它,而手机放在口袋里做不到这一点。我希望有一种设备,在我愿意时,它能参与、理解并记录这样的对话。
主持人:但如果设备始终在记录,人们会产生不适感。
![]()
Sam Altman:完全同意。我最初想找Jony聊天,就是因为我在思考 AI 时代的硬件形态,以及那种“技术过度存在于生活中”的不适感。哪怕是智能音箱,也会让人觉得侵入性很强。我认为他非常擅长设计能够在这些矛盾之间取得平衡的产品。
从不信任Agent到彻底被Agent驯服
主持人:我很好奇后台运行的 AI,比如Agent。你怎么看?
Sam Altman:当团队最早做 Codex 应用时,我装到了电脑上。当时有个功能叫“YOLO 模式”(后来换了更正式的名字),基本上就是允许 AI 在后台直接操作电脑,不需要每一步都询问我。一开始我说绝对不会打开这个功能。但坚持了几个小时后,我被不断授权操作烦到了,就打开了。
![]()
于是一个Agent开始在后台帮我处理各种事情。很快我甚至不想关电脑,因为它还在替我工作。这个转变非常自然、毫无戏剧性。我原本觉得这样很疯狂,甚至不负责任,但后来我们找到了更安全的实现方式。我从完全不信任,变成非常喜欢有一个智能体在后台持续帮我做有用的事情。
主持人:它当时具体帮你做什么?
Sam Altman:处理我的消息、处理邮件。后来我试着让它直接看看我的电脑,自己判断能做些什么来帮我。第一次尝试的时候其实没有,但它启发我做了一个小项目,一个自动生成的待办事项列表。非常酷,可以自动补全的to-do list非常有意思。
主持人:是集成在 ChatGPT 首页里的功能吗?
Sam Altman:不是,只是我自己写的一个小程序。
有AI的未来
每个人都会有一个幕僚长式的Agent
主持人:这很有意思。我总是下载各种待办事项App,但从来坚持不下来,最后都变成给自己发短信提醒。你觉得未来会不会出现多个Agent协同工作?比如一个当私人教练,一个负责别的事情?
Sam Altman:我经常在想这个问题。这其实是我最想知道答案的产品设计问题之一。人们究竟希望怎样和 AI 一起工作。我猜人们会在认知上区分不同的Agent,然后会有一个类似个人助理或幕僚长的核心Agent,大多数时候负责协调其他Agent。
主持人:假设我们一起穿越到未来,比如 2050 年。虽然连六个月后的世界都难预测,但如果一起畅想未来,你理想中的世界是什么样?我们的目标是什么?
Sam Altman:2050年听起来真的太远了。我觉得一种几乎难以想象的繁荣是有可能的。我真正希望、也认为必须努力争取的是,人类拥有极高程度的自主性,每个人都能创造和行动,超越今天的想象。同时,我们要避免权力过度集中。至于世界具体长什么样,我不知道。也许会有太空殖民地,也许有飞行汽车,也可能有悬浮列车。我希望它看起来真的像“未来”。
![]()
主持人:最后一个问题,你脑子里最常出现的想法是什么?
Sam Altman:现在我最常思考的是:如何让这项技术成功地在社会中落地。不只是技术本身,而是如何促进人类的自主性和创业精神?未来的社会契约应该是什么样?如果 GDP 下降,但生活质量持续上升,这意味着什么?我们又该如何在不破坏短期经济的前提下,足够激进地建设供应链和算力基础设施,为一个良好且公平的未来做好准备?我每天都在想这些问题。
https://www.youtube.com/watch?v=Mklj3Y2-fNg
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.