网易首页 > 网易号 > 正文 申请入驻

Meta AI首席科学家杨立昆最新采访:末世论是无稽之谈

0
分享至

本文编译自播客节目Lex Fridman Podcast。Yann LeCun(杨立昆)是Meta公司的首席人工智能科学家,纽约大学教授。著名的法裔美国计算机科学家和图灵奖获得者,因其在机器学习、计算机视觉和人工智能领域的重大贡献而闻名。

在与Lex Fridman的对话中,Yann LeCun强调了开源人工智能的重要性,认为开源是减少AI偏见、促进技术多样性和社会民主化的关键。

对于热炒的AI末世论,Yann LeCun进行了反驳,认为AI系统很难拥毁灭人类的智力。在升级AI性能的同时,人类也会设计各种各样制约AI的机器伦理准则,防止AI走向人类的对立面。从生物学上来说,AI不是地球上的物种,也不具备社会性的主体,因此不用遵从达尔文“物竞天择,适者生存”的丛林法则。

尽管各国政府纷纷开展AI技术竞赛,但在Yann LeCun看来,政府将不会主导AI产业的发展。最后,Yann LeCun还展望了AI在增强人类智力、改善生活质量以及推动社会进步方面的潜力。

目录:

01 只有开源才能消除LLM的潜在偏见

02 开源,会损害公司的利益吗?

03 设计伦理原则,监管AI生成良性内容

04 LLAMA3:基于Jepa视频训练的开源模型

05 AI末世论:好莱坞电影式的无稽之谈

06 Humanoid robots:人形机器人的兴起

07 分层规划,AI走向人类智能的必经之处

08 AI将增强人类智能,促进社会福祉

/ 01 / 只有开源才能消除LLM的潜在偏见

Lex Fridman:现在很多人对最新发布的谷歌Gemini1.5版本持有批判意见,说谷歌正在唤醒AI。虽然这个词听起来比较消极,但这里确实有一些荒谬的事情,比如AI可能会编纂历史,可能会生成乔治华盛顿的黑人图像(带有一定种族歧视色彩)。在这种情况下,所有人都开始问大语言模型是如何被设计的,是否经过了严格的审查?你在twitter上说,开源才是答案,你能解释一下是为什么吗?

Yann Lecun:现在人们对AI模型存在一些偏见,这些偏见来源于大模型训练数据组的分配,这些数据组暗含一些人类社会固有的针对少数群体的歧视。

但这后面有两个更重要的问题,创建一个毫无偏见的AI系统具有现实可能性吗?绝无可能。尽管目前我们面临一些技术瓶颈,但核心并不在技术,而是人类社会本身就存在偏见,这种偏见来自于不同人对于事情的不同看法,并逐渐固化成人们的一种认知。由于每个人对世界看法的不同,因此设计一个没有偏见的AI程序毫无可能。

但这种观点的多元化也并非毫无益处。在新闻领域,人们应当有自由发表言论的权利。在科学领域,人们都需要辩论不同的观点,这些差异化的观点推动科学事业进步,最终得到学界内部的共识。

未来,人工智能系统会成为人类与数字世界互动的重要渠道,也许你只要问它问题,它就会给你想要的答案。当处于这样的环境下,我们不能让这些系统掌握在少数人手中

现在训练一个大模型难度很大,只有少数公司有能力做到。但在未来,如果系统是开源的,每个人都可以使用并优化模型,我们将得到一个兼具多样性和专业性的人工智能系统。

有了开源模型,你不仅可以接触到多样化的政治观点,也可以认识到丰富的语言、文化、价值观念甚至技术手段,甚至让行业内的公司来优化这些开源系统的垂直应用软件。

比如,出版商想要设计一个系统,顾客可以向这个系统咨询关于任意一本书的内容,那么就需要把所有的书籍版权信息给大模型训练。这是许多公司梦寐以求的东西,不仅仅是针对员工,更是从客户的视角出发。所以,为了创建一个偏见较低的人工智能行业,唯一方式就是设计一个任一群体都可以建立专门系统的开源模型平台。大多数AI系统都会建立在开源平台上,这是是历史不可阻挡的趋势

/ 02 / 开源,会损害公司的利益吗?

Lex Fridman:公司主要还是以盈利为目的,而开源代码就像是无偿福利一样。扎克伯格做了一段非常带劲的视频,讨论关于三十五万英伟达100s,关于这个的数学运算,仅仅GPU就耗资一千亿美元,更不要说再加上训练基础设施了。所以,我很好奇,公司如何通过这个赚钱呢?

Yann Lecun:Meta公司建立了一些用于盈利的商业大语言模型作为服务。这些服务的投资主要来源于广告或商业客户。比如,大语言模型可以帮助一个母亲预定披萨餐厅,大语言模型会提供给顾客关于披萨销量、订餐位置的信息,而顾客需要为这样的服务提供费用,公司因此盈利。一些比较基础的大预言模型依赖的就是广告商支付的费用,当然关键在于你需要有一个足够大的的潜在的客户基础。不论怎么说,这与开源代码的形式发布也无妨。

Lex Fridman:我并非专业的商业人士,但是如果以开源模式发布,会不会给其他人一些在微调基础模型领域里创立任务、加剧竞争的机会?这是Meta对长远未来的下注,是否意味着我们会在该领域持续进步?

Yann Lecun:我们敢打这个赌,关键在于我们有一个庞大的用户基础和客户市场,无论我们制作什么样的产品,只要具备一定程度上的实用性,就有客户愿意买单,这也是我们获得收入的方式。设计这样的开源基础模型,让其他商家也在此基础上创建相关垂直应用,对我们也没有害处。如果顾客喜欢这些应用,我们也有资本买下来。

同时,他们也能帮助我们不断优化基础模型平台。实际上,LAMA2的下载量已有几百万,其中成千上百的用户对关于如何优化该模型提出了很棒的观点。实际上,开源模型的发布加速了让大语言系统普及更大范围人群的进程,成千上万的商家正在建立相关应用,所以这并没有削弱Meta继续从这项技术盈利的能力。

/ 03 / 设计伦理原则,监管AI生成良性内容

Lex Fridman:关于Gemni人工智能平台,这里有一些争议,大部分围绕着西海岸。当然,MetaAI总部在东海岸。关于西海岸,一直存在很尖锐的批评,人们说那里的技术员工与左翼党派有着很密切的政治裙带关系。所以,人们认为Gemini在去偏见化的过程中,政治色彩就更加强烈,而这本来是可以避免的。你说,开源模型是我们减少偏见的唯一方式,您觉得意识形态倾向让基础模型的编程变得更加困难吗?

Yann Lecun:我并不认为这两者之间有任何关联,大语言模型的潜在偏见与研发人员的政治倾向没什么关系。实际上,这些偏见与潜在客户市场的政治倾向有一定联系。因此,一家大公司没有胆量去冒犯大部分人,公司必须确保自己研发的产品是“安全”的,在这方面,他们必须小心谨慎。

当然,让所有人都满意是不可能的,没有任何一件产品能够取悦所有人。就像我之前说的,不存在让所有人都认可的、毫无偏见的AI产品。针对同样一件产品,一些人可能认为是完全客观的,另一些人可能认为充满了偏见。除此之外,如果你让AI产品在某一领域过于超前,它可能会生成一些超于事实、荒谬至极的内容,比如黑人纳粹军队。

Lex Fridman:对,我们应该留意黑人纳粹军队这样的AI图像生成内容,这完全是胡编乱造。

Yann Lecun:是的,这对某些群体来说特别冒犯。所以,就像之前讨论的,研发出一个让所有认为毫无偏见的AI系统毫无可能,我认为能解决这一问题的唯一办法就是通往多样性。



Marc Andreesen推特博文

Lex Fridman:是的,这意味着各种意义、各种层面上的多样性。Marc Andreessen认为,只有初创公司和开源代码能避免他一直以来强调的大公司独断问题。他问道,大公司真的能优化生成式人工智能产品,满足一个不断在升级的需求吗?这里有几方面的难题。

第一,来自内部积极分子、员工暴徒、高管、董事会、利益集团、极端主义监管者、政府机构、媒体、“专家”等不断升级的要求。

第二,生成不良答案、图片、视频的持续性风险,谁知道AI什么时候会说出什么样的话呢?

第三,法律风险,可能的产权问题、诽谤罪、选举法等。AI生成的敏感回答可能会遭到批评家和律师的强烈抨击,进而让本来就反对AI的人在国会门口或大街上大肆宣扬这样的风险。

第四,已有证据显示,对可接受输出的持续收紧计划可能会降低模型的性能,并导致AI生成更加疯狂的文本。

第五,对不良文本、图像、视频的宣传会进一步成为下一代AI版本的训练数据,这些不良内容的输出会持续累加,愈加偏离最初的设计理念。第六,只有初创公司和开源代码能够避免这个过程,生成功能合理的遵照用户命令运行的产品。

他从各种层面上强调了这一过程有多么困难,正如你说的,我们不可能设计出一个让所有人都满意的AI产品。现在的问题关键在于尽可能缩减这些对AI产品不满意的群体,所以采用开源是更好的方式。

Yann Lecun:的确如此。Mark Andreessen说的这些有道理,一定程度也会震慑到大型科技公司。实际上,协助国会调查就是这些公司必须承担的法律责任,大公司也会尽可能去避免生成伤害自己或他人的敏感内容,比如一些极端化、易产生分歧的政治观念、道德议题、地区冲突、文化观念。因为他们不想伤害任何人,也希望自己的商业模式正常运营。实际上,除了一些基本议题外,能够达成共识的议题少之又少。如果你想研发一个被大多数人买单的大语言模型,不可避免会冒犯一些人的利益。

Lex Fridman:所以,使用开源模型触及多样化会带领我们进入一个特别迷人的世界。如果Meta能够引领开发这样的基础开源模型,不同的政府组织也不得不研发一个属于自己的新模型,左翼党和右翼党派的支持者都会拥有自己的大语言模型和偏向性,我们的人民也可能因此更加分裂、极化。这也是人类自己需要探索的议题,因为技术可以使人与人之间的交流更加高效,也可能会加剧人类社会内部的伦理问题与道德困境。

Yann Lecun:LLM也会限制言论自由,这些模型会被授权生产一些适用于AI系统的的伦理原则,这也是我个人很感兴趣的方向。就如我们之前讨论的,AI输出系统是为满足遵守算法伦理原则在内的目标而进行推理的结果,我们可以将这些伦理原则放入开源体系中。如果最终我们能创建出以此为蓝图的系统,就可以将这些基本的具有人类普适性的伦理原则放入开源代码中,避免AI生产出一些过分危险、有毒的言论。在这以后,用户也可在对话中生成更多的数据优化模型内的伦理原则以满足本群体的需求。

Lex Fridman:这些精细化工作将更多聚焦于灰色领域,例如一些具有危险性质的仇恨言论,类似于一些“如何制造生物武器”的问题。



Lex Fridman:这里有一份关于开源基础模型可能带来的社会影响的科学论文。一个研究方向是大语言模型的出现是否会比像Google一样的搜索引擎更加简便?

Yann Lecun:关于大语言模型的学术研究越来越多,这些研究结果似乎都指向一个关键点:大语言模型的出现并不会帮助你设计研发生化武器。第一,如果你已经知道使用搜索引擎或者去图书馆查询资料,从开源模型得到的信息并没有什么实际上的用处。第二,一系列关于如何制造生化武器的指令十分复杂,并不在llm的能力范围内。更何况,为了保护公民安全,没有哪个国家会轻使用生化武器,这也是被国际社会明令禁止的。就算给出明确的指令,由于程序的复杂性,也鲜少有人成功。

Lex Fridman:所以正如你说的,要把LLM生成的语言指令转化为现实生活中的实际应用需要大量的专业技巧和实践经验。

/ 04 / LLAMA3:基于Jepa视频训练的开源模型

Lex Fridman:Llama3即将上市,当然我不清楚具体的发布日。您是如何看待现有Llama2的产品功能和之后的第三代、第四代乃至第五代的研发方向的?也就是Meta旗下开源模型的研发方向。



Yann Lecun:每一代的Llama版本都会不断迭代升级,优化其原有的功能。在未来,AI可能会像人类一样具备推理能力、计划、预测的能力。至于这个产品的研发周期多长,我无法预测。因为在那之前,我们还要攻克一轮又一轮技术难关。不过你可以关注我们的研究论文,把控AI产品的最新发展趋势。

上一周,我们就刚刚发布了一篇如何让AI通过看视频进行自我学习的学术文章。下一步,我们可能会聚焦于如何通过基于视频训练的世界模型让 AI更好地理解人类世界基本原则。英国DeepMind也在做类似的研究。我打赌,大多数模型都会是非生成机器学习技术,而不是生成式模型,我们拭目以待。

DeepMind的研究人员Danijar Hafner就致力于让AI通过强化学习来提高计划能力。三十五年前,科学家们还在研究神经网,而如今,机器学习和人工智能已经大行其道。我从来都没有如此兴奋过,在未来,人工智能一定程度上就可以跟人类一样语言理解 、记忆、思考、决策。我想在我退休前,AI就可以达到人类同等水平的智力了

Lex Fridman:你关于人工智能的畅想如此美妙,在如此庞大的计算能力下,整个训练过程所涉及的 GPU 数量之多,简直难以置信。是所有人一起努力,才能够设计出如此巨大的计算设备,并在不断微调优化后搭建开源平台。有人说,是硬件、冷却器等基础设施组成的巨型计算系统孕育了开源平台。你如何看待这样的说法?

Yann Lecun:多年之前,我主要研发硬件这些AI基础设施。研发人工智能,建设这样大规模的硬件基础设施非常有必要,但还远远不够。就计算能力和效率而言,要达到和人脑匹敌的AGI程度,我们还差的很远,至少还要几十年的路要走。硅谷技术一直在推动AI硬件升级,其搭建的更受欢迎的人工智能架构基本上就是变压器和计算机网络的组合。在达到饱和之前,我们还有很长的路要走,我们要想出新的原理、新的制造技术、新的基本元件,也许它们所基于的原理与那些经典的数字半导体不同。

Lex Fridman:也就是说,为了构建与人类具有同等思维、感情的拟人机器智能AMI,我们可能还需要一些硬件创新。

Yann Lecun:当然,如果我们想让它无处不在,就必须降低计算功耗。现在一个 GPU 的功耗在五百瓦特到一千瓦特之间,而人脑的功耗约为25瓦特,GPU 的功耗远远高于人脑的功耗,你需要十万或上百万瓦特的 GPU 才能与之匹敌。这是影响AI发展的关键因素。

Lex Fridman:你常常说,AGI距我们还有很远的距离,不是几年之内就可以研发成功的,你的推断依据是什么?

Yann Lecun:首先,AGI是一个被科幻小说和好莱坞大片炒热的概念,学界目前还没有具体的构想。电影桥段常常是有人发现了AGI的秘密,然后打开一架机器,AGI就产生了。这根本就是胡编乱造,没有现实依据的。

其次,我们会慢慢优化现有的系统,让AI在达到人脑级别的规模和性能前,以视频为学习材料理解世界运行的基本准则。我们将设计一个拥有大量关联信息的系统,这样他们就能记住录入的所有知识,理解记忆、理性推论和决策。在这之前,我们要不断研发、优化相关基础技术,使其与整个系统一起工作,这将与目标导向型人工智能技术一脉相承。我们需要不断提升AI的层次化规划(hierarchical planning)和层次化表达(hierarchical representation)能力,以得到一个可以像人脑一样能处理不同情况的AI系统。

不过,这是一个漫长的过程,不可能一蹴而就。因为在现阶段,我们也无法预测未来研发过程中,会遇到什么样的技术难题。很多人都说AGI近在眼前,在我看来,这纯属扯淡,毫无现实依据。

/ 05 / AI末世论:好莱坞电影式的无稽之谈

Lex Fridman:你反对所谓的AI末日论,那么为什么会有人认为AI会带来毁灭,你如何反击这种说法呢?

Yann Lecun:AI末世论会幻象各种各样AI控制人类屠杀人类的灾难场景,而这些幻想的基本假设根本立不住脚。第一个假说,超级智能的出现将会成为现实,只要按下开关按钮,拥有超级智能的机器就会毁灭世界。这纯粹是胡说八道。我们会研发和人类智能匹敌的AI系统,但这种程度的智能就现阶段看来会更像一只小猫或者鹦鹉,不会有毁灭人类的智力

其次,在升级AI性能的同时,我们会设计各种各样制约AI的机器伦理准则,防止AI走向人类的对立面。就算一些准则出了问题,也会有AI界的审查官(AI security police)自动惩罚这些出错的程序。这里还有一个谬论,有人说因为系统具备智力,它就有统治人类的愿望。

实际上,一个物种的智能程度越高,其统治或毁灭世界的欲望就越低。除非在研发阶段,技术人员就给AI设计了毁灭世界的目标。除此之外,AI根本就不会关注人类。因为AI不是地球上的物种,没有生命特征,也不遵从达尔文“物竞天择,适者生存”的丛林法则。统治欲是一种根深蒂固的动物本能,这种支配、服从或获得地位的欲望是社会物种所特有的。人会有,黑猩猩会有,但像AI一样不具备社会性的主体绝无可能

Lex Fridman:人类没有动力将AI末世论编码进人工智能系统,就算有人编码,也会有其他人工智能对其进行惩罚。

Yann Lecun:大多数人希望人工智能服从并服务人类,这也是我们正在做的事。有人说,现在的大语言模型不受控制,这也是事实。但是目标驱动型人工智能系统通过优化目标得出答案,这意味着它们必须优化包括AI伦理原则在内的目标。这里有各种各样的伦理原则相互竞争,可能是会伤害人类的,也可能是服务于人类的。

Lex Fridman:我好像在那本书里看到过类似的观点,这可能会出现预想不到的后果。

Yann Lecun:是的,这很复杂。设计一些伦理准则,让人工智能表现正常,并不能成为一剂可以包治百病的灵丹妙药。这是一个循序渐进的迭代过程,在这个系统中,我们会设置各种各样的伦理准则制约AI。如果一些伦理准则违背了人类道德,我们也会及时修正。但是,出一点点错就会导致人类灭亡纯属无稽之谈。就像涡轮喷气发动机设计一样,几百年前我们也不曾设想仅仅通过两个发动机就能在半空中自由翱翔,没有人一开始就设计了全面详备的飞行安全准则,任何技术的发展都有一个过程,AI也一样。

Lex Fridman:人类易盲目轻信,如果出现一个极具说服力的能告诉人们任何答案的AI系统,从某种意义上说,它就具备了控制人类心灵的能力,这样的系统有可能成为像核武器一样为政府所用的武器吗?

Yann Lecun:设计一个让所有美国选民都投给某个人的AI系统吗?不可能。未来你是跟你的人工智能助手交流的,每一次与数字世界的互动都要经过你的私人AI助理。你的第一个问题,AI会欺骗你吗?不会,未来的私人AI助手会帮你自动过滤掉垃圾信息,你甚至都不太可能会看到这样的言论。因为那时的AI助理已经有了识别诈骗信息的能力,它会自动告诉你这个信息有错或者具有煽动性。

Lex Fridman:所以,任何人工智能系统都很难去说服其他人工智能系统,因为不同的AI系统之间总会想回竞争,谁也无法遥遥领先。

Yann Lecun:人类历史告诉我们,每当世界某个领域开始变革,都会有相应的反制措施,就像猫和老鼠的游戏。

Lex Fridman:这就是各国热衷于技术竞赛的原因,人们都想做该领域的掌舵者,先发制人。先掌握这门技术的政府,会对世界局势产生巨大影响,就像上世纪的曼哈顿计划一样。

Yann Lecun:政府不会主导AI发展,这不是某个政府或军事组织能办到的。事实上,政府远远落后于其他组织。变革与突破将来自工业界,一旦发生就会广泛传播。过去几年的AI发展也证实了这一说法。只要有商业潜力,就会有人投资。投资者不需要了解AI的运行原理,他们不需要知道什么是机器学习自我监督,什么是变压器和大预言模型。他们要做的只是投资、创立公司、复制商业模式,剩下的交给专业技术人员就可以了。商业信息的传播会加速科技发展,美国硅谷就凭借着发达的信息网络在全世界遥遥领先。



Lex Fridman:或许我们一直在研究AI末世论的社会心理成因,你也论证了世界科技变革时社会发展的历史规律。你曾发布推文,写道,工程师,“我发明了可以写字的圆珠笔。”圆珠笔末日论拥护者,“天哪!圆珠笔!会有人用圆珠笔写一大堆虚假信息、政治宣传和仇恨言论。我们必须要制定相关法律监管圆珠笔生成的有害言论。”铅笔商业巨头:“圆珠笔简直太危险了。还是用铅笔吧,写什么都可以用橡皮擦掉,政府应该发布圆珠笔售卖经营许可证监督圆珠笔市场。”这体现了一项新技术出现时,不同社会群体会有心理活动。对此,你有什么深刻的见解吗?

Yann Lecun:对新技术出现可能带有的社会影响感到恐惧是非常正常的心理现象,对重大变革威胁人类生存的担忧是一种本能反应,无论这种变革是技术层面的还是文化层面的。他们担心民族文化的传承、担心自己是否会失业、担心孩子未来的生活,寻求安稳的人们恐惧任何可能的变化。

就历史发展而言,任何重大的技术变革或文化变迁都伴随着这样一种现象,媒体会将所有现存的社会问题都归结于变革。类似于老掉牙的“别做火车,时速超过五十公里人们就难以呼吸。”



这里有一个叫悲观主义者档案(Pessimist Archive)的网站,里面包括了各种科技创新和文化变迁带来灾难的剪报。例如,将失业或年轻人不想工作归咎于爵士乐或漫画书,这样的说法已经存在了几个世纪。对于科技变革的担忧就像是一种膝跳反应,问题的关键在于我们是否愿意拥抱变化。

Lex Fridman:人们确实会畏惧AI潜在的强大力量被某种中央极权力量控制。例如,科技巨头掌握核心技术后可以盈利,同时也会垄断话语权,危害社会弱势群体的生存。

Yann Lecun:确实,这就是我们研发开源平台的原因。

Lex Fridman:您介意谈谈在大型公司在研发阶段如何避免AI可能带来的伤害?

Yann Lecun:答案就是做好开源平台,让更多不同的人参与构建人工智能辅助工具,以代表世界各地不同的文化、观点、语言和价值体系,从而避免受限于特定的思维方式制造出单一的人工智能产品。这对社会来说有重要的意义,这也是为什么我一直大声呼吁建设开源平台。

因为在我看来,通过专有人工智能系统进行权力集中的危险比其他任何事都可怕。在未来,我们都将通过人工智能系统进行互动,为了保护观点的多样性,我们需要不同的声音来维护人工智能系统的多样性,从而保护民主体制。

那些反对开源的人更多以安全为说辞,他们呼吁给AI系统上锁,因为让每个人都掌握AI技术实在太过危险,比如一些威胁人类生存的恐怖组织。加密AI会带了一个特别可怕的时代,每个人的信息都被少数掌握专有AI的科技巨头控制、分配、审查。

Lex Fridman:你觉得人类会利用AI技术创造一个更美好的世界吗?

Yann Lecun:是所谓的民主和言论自由吗?你觉得掌握科技的机构会做为人类谋福利的事吗?人有好有坏,有人会利用AI犯罪,有人会借助AI做慈善,这其实是正邪之间的博弈。就像之前讨论的,资本可能利用AI生成煽动言论,鼓动人们打内战或者选举独裁者。但是,我们也有相应的AI警察去识别、抵制这些不良言论。

/ 06 / Humanoid robots:人形机器人的兴起

Lex Fridman:既然谈到了物理现实,我就想问问你对未来物理现实中的机器人有何展望?您谈到的许多智能技术,都将助力机器人成为更高效的人类合作者。自从Telsa Optimus 团队发布了了仿人机器人的一些进展后,这确实为波士顿动力公司一直引领的整个行业注入了新的活力。所以,整条街都是机器人走来走去,这样的景象会很快到来吗?

Yann Lecun:不会很快,但迟早会发生。我认为,未来十年是机器人发展的高速阶段。机器人行业的兴起已经等待了二十年,除了一些预编程,整个行业还没有真正落地。主要的问题还是莫拉维克悖论,比如,我们如何让AI系统理解世界的运作逻辑,并计划行动完成特定任务?

波士顿动力公司的做法十分经典,通过创新提前部署大量人工设计的动态模型和精密规划。但是这并不能解决所有问题,我们距离全自动五级自动驾驶还很遥远。现在的AI系统还不能像一个17岁的孩子一样,通过20个小时的驾驶来训练自己。这种情况在未来可能改善,当我们拥有可以让机器自动训练的世界模型(world models)后,AI才可以理解整个世界的运行逻辑。现在致力于研发人形机器人的公司做了一个长远的赌注,他们相信,AI在人形机器人这个分支仍有巨大的商业潜力。

Lex Fridman:这些公司也在研发相关的AI产品,而在你们设计出强大的世界模型之前,人们试图研发某种不那么完美高校的机器人帮助实现工厂内某些领域的自动化,不过,考虑到安全生产问题,这是一个比较艰巨的任务。

Yann Lecun:家庭机器人会更有意思,他们可以帮忙清理餐桌、洗碗甚至做饭。理论上说,所有的家庭琐事都可以被自动化,但从现有技术讲,这仍然是一件非常精妙复杂的任务。大部分的机器狗已经可以完成一些简单的指令,比如打开冰箱取出罐头,但是让它打扫整个屋子的卫生仍然很困难。

/ 07 / 分层规划,AI走向人类智能的必经之处

Lex Fridman:在未来,我们在现实物理环境里会跟各种各样机器人打交道,这也促使我进一步从哲学、心理学意义上思考人机关系。希望你们在JEPA研发过程中上取得更大进展。

Yann Lecun:希望计划如期进行吧。近十年来,我们都在研究无需人工参与的以视频为材料的机器自我监督学习,但直到最近两三年才得到了显著成果。

Lex Fridman:其实,您之前也提到过,我们可以在没有大量计算资源的情况下取得重大突破。如果对该领域感兴趣并取得博士学位,这里仍然有许多科技创新可能性,你会向深情AI博士学位的在读大学生提出什么样的建议?

Yann Lecun:通过观察训练世界模型,你不需要一个庞大的数据集作为支撑。像大语言模型一样的新兴产业需要海量数据作为养分,但是没有这些数据我们也可以思考出一些很棒的科学构想。

那么,如何利用学习到的世界模型进行规划呢?如果系统演化的世界不是物理世界,而是互联网世界或某种打开搜索引擎查询数据库或运行计算器求解微分方程的具体指令。我们需要让一个AI系统实际规划一连串的行动,从而给出问题的解决方案。规划的问题不仅仅是物理行动,也可以是分层指令,实际上,这些规划适用于任何类型的智能系统。

我们采取的几乎每一个行动在某种意义上都涉及到分层规划。在人工智能中,我们已经学会了必要的层次表征。我们可以进行两级分层规划,我们设计了分层。

比如说,你有一只机器狗,你想让它从客厅到厨房。你需要告诉它一条避开障碍物的路径,它就可以按照指令去往规定地点。但是具体路线是我们告诉机器狗的,而现在,AI需要通过深度学习,训练系统运行流程的分级表示。

Lex Fridman:所以你期待的是一个可以自己开机并从纽约飞到巴黎的机器狗或人形机器人。其实人形机器人还面临着很多技术难题,特别是在特定任务架构(Task-Specific Architectures)的执行过程中。即使是我们认为理所当然的做一些简单的家务,机器也可能会遇到问题。

/ 08 / AI将增强人类智能,促进社会福祉

Lex Fridman:谈谈你对人类社会的畅想吧。我们一直在讨论科技发展和各种各样振奋人性的可能性。但同时,社交平台上一直存在各种仇恨和分裂的声音,在这些极端言论种,是什么给了你希望?当你向前展望十年、五十年甚至五千年,你认为人类社会的希望在那里?

Yann Lecun:人工智能会增强人类智力。在未来,每个人都会有一个智能AI助理,听从我们的命令,更加高效完成任务。这就好比每个人都是超级智能虚拟员工的老板,我们管理着一批比我们更聪明的人。拥有比我们更聪明的机器,可以帮助我们完成日常生活的所有任务,太棒了。

人工智能就跟曾经的书籍、公共教育、互联网一样,会帮助人们自我提升,让人类更加聪明。就像以前的《圣经》和印刷术,人工智能可以高效地整合、传播、分配知识,促进启蒙、增强人类智慧。

许多人担心人工智能技术会对就业市场和劳动力市场带来影响,但专家表示,这种技术变革不会导致大规模失业,而是逐渐转移不同职业。尽管我们无法预测未来最热门的工作是什么,但人工智能可能会带来一些新的机会。

虽然AI末世论拥护者认为人性本恶,但开源人工智能技术可以使人们变得更聪明,同时赋予人类善良的一面。开源运动推动了人工智能研究的开源,让更多的人可以使用和改进这些模型。总之,尽管人工智能技术带来了一些新的挑战和问题,但我们应该相信人性本善,并利用技术的优势来走向更好的未来。



特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
柳叶刀点名批评中国饮食,一日三餐都是碳水,升糖指数全球最高

柳叶刀点名批评中国饮食,一日三餐都是碳水,升糖指数全球最高

芝士圈
2024-06-02 14:09:50
董军话音刚落,不到24小时,解放军出击,登陆艇现身金门海域

董军话音刚落,不到24小时,解放军出击,登陆艇现身金门海域

说天说地说实事
2024-06-02 11:53:57
西安一恶势力集团夜间“碰瓷”酒驾司机,半年敲诈作案33起,一审主犯获刑十年半

西安一恶势力集团夜间“碰瓷”酒驾司机,半年敲诈作案33起,一审主犯获刑十年半

上游新闻
2024-06-02 11:48:09
正在公示!首批15个城市,拟获中央财政支持

正在公示!首批15个城市,拟获中央财政支持

鲁中晨报
2024-06-02 11:55:03
民进党支持度暴增,最新政党民调显示:蓝白相加不敌民进党支持率

民进党支持度暴增,最新政党民调显示:蓝白相加不敌民进党支持率

侦姐有料
2024-06-02 11:23:15
她曾是央视美女主持人,嫁给了军委副主席之子,离婚后成知名画家

她曾是央视美女主持人,嫁给了军委副主席之子,离婚后成知名画家

燕小姐说历史
2024-06-02 08:50:46
男生比较大,怎样获得和谐的性生活?

男生比较大,怎样获得和谐的性生活?

许超医生
2024-05-23 10:02:12
女单名将被淘汰!重庆冠军赛0:3张本美和,陈梦拒绝被爆冷3:2险胜

女单名将被淘汰!重庆冠军赛0:3张本美和,陈梦拒绝被爆冷3:2险胜

国乒二三事
2024-06-02 06:13:32
失误太多!林高远1-3出局,止步8强,王楚钦晋级男单半决赛!

失误太多!林高远1-3出局,止步8强,王楚钦晋级男单半决赛!

乒谈
2024-06-02 16:02:33
广东大部台风过后天气晴好!即将再迎降水,本月还有多轮大雨

广东大部台风过后天气晴好!即将再迎降水,本月还有多轮大雨

南方都市报
2024-06-02 14:58:06
价格大跳水!商家惊呼多年未见,养殖户:都在打价格战,不如出去打工!很多人爱吃,它价格大跌的原因是……

价格大跳水!商家惊呼多年未见,养殖户:都在打价格战,不如出去打工!很多人爱吃,它价格大跌的原因是……

每日经济新闻
2024-06-01 23:28:05
经典咏流传:安帅一脸无奈看着助教齐达内激情指挥

经典咏流传:安帅一脸无奈看着助教齐达内激情指挥

直播吧
2024-06-02 13:12:05
武大“选调女”求职经历曝光:真相大白,原来是嘉峪关没有嫌弃她

武大“选调女”求职经历曝光:真相大白,原来是嘉峪关没有嫌弃她

妍妍教育日记
2024-06-02 11:10:02
闹大了!河北三家3口被当街杀害,知情人透露是5万块钱惹的祸

闹大了!河北三家3口被当街杀害,知情人透露是5万块钱惹的祸

亦纯杂谈
2024-06-02 13:47:59
雷军晒出第一代小米手机,全新未拆封可以卖到5888元

雷军晒出第一代小米手机,全新未拆封可以卖到5888元

芯怡飞
2024-06-02 00:02:59
重磅!河北镰刀致3死案警方通告,内情曝光果然不简单!

重磅!河北镰刀致3死案警方通告,内情曝光果然不简单!

小毅讲历史
2024-06-02 11:16:32
胡塞武装暴打美国“艾森豪威尔”号航空母舰,创下五个第一

胡塞武装暴打美国“艾森豪威尔”号航空母舰,创下五个第一

低调看天下
2024-06-01 09:05:59
再赌一次!快船官宣续约!三巨头卷土重来,哈登才是联盟第一分卫

再赌一次!快船官宣续约!三巨头卷土重来,哈登才是联盟第一分卫

张家大院趣说天下事
2024-06-02 14:10:02
3-1!樊振东送张本智和回家,单局2-8落后大逆转,小胖王者归来

3-1!樊振东送张本智和回家,单局2-8落后大逆转,小胖王者归来

黑色柳丁
2024-06-02 12:45:37
周深演唱会到处送票没人看,开场大片空座,座位上放荧光棒太尴尬

周深演唱会到处送票没人看,开场大片空座,座位上放荧光棒太尴尬

娱乐八卦木木子
2024-06-02 13:04:57
2024-06-02 17:10:44
乌鸦智能说
乌鸦智能说
人工智能新时代的商业智库和价值灯塔
108文章数 4关注度
往期回顾 全部

科技要闻

成功着陆!嫦娥六号将开始月背“挖宝”

头条要闻

特朗普被判有罪后新动作:入驻TikTok 粉丝数已破24万

头条要闻

特朗普被判有罪后新动作:入驻TikTok 粉丝数已破24万

体育要闻

我已伤痕累累 却依然感动不了命运之神

娱乐要闻

白玉兰提名:胡歌、范伟争视帝

财经要闻

新造车5月销量: 小鹏乏力 问界暂"缺席"

汽车要闻

吉利银河E5 Flyme Auto智能座舱首发

态度原创

教育
本地
艺术
健康
游戏

教育要闻

今年高考与往年有不同,这些变化需注意

本地新闻

食味印象|歙县限定!枇杷味儿的清甜初夏

艺术要闻

穿越时空的艺术:《马可·波罗》AI沉浸影片探索人类文明

晚餐不吃or吃七分饱,哪种更减肥?

剑网3主策喊话逆水寒抵制抽卡(天赏):商战先自砍一刀?

无障碍浏览 进入关怀版