网易首页 > 网易号 > 正文 申请入驻

前沿人工智能伦理

0
分享至

转载声明:除调整格式外,不得对原文做改写、改编。原创不易,谢谢合作!

转载请注明来源,并在文章开头添加以下文字/或公众号名片:来源:公众号☞不知名风险投资人 ♥作者:黄先生斜杠青年

♥声明:本文为原创文本,非生成式,转载请注明出处!

生成代理将以奇怪、奇妙和令人担忧的方式改变我们的社会。哲学能帮助我们抓住它们吗?

约一年多前,生成式人工智能席卷了世界,因为极其强大的大型语言模型 (LLM) 在比以往更广泛的任务中实现了前所未有的性能。尽管以生成令人信服的文本和图像而闻名,但像 OpenAI 的GPT-4和谷歌的 Gemini 这样的大模型,作为复杂系统的执行中心,可能会产生更大的社会影响,这些系统集成了额外的工具来了解世界并采取行动。这些生成代理将为同伴提供动力,引入新的社会关系类别,并改变旧的社会关系类别。它们很可能会从根本上改变注意力经济。它们将彻底改变个人计算,使每个人都能够仅用语言来控制数字技术。


我是斜杠青年,一个PE背景的杂食性学者!♥

人们对生成式人工智能系统的大部分注意力都集中在它们如何复制已经广泛部署的人工智能系统的病态上,认为它们集中了权力和财富,忽视版权保护,依赖剥削性劳动实践,并使用过多的资源。其他批评者强调,它们预示着未来系统将更加强大,可能威胁人类的生存。第一组说这里没有什么新东西;另一个则透过当下,看到或许遥远的地平线。

相反,我想关注这些特定系统的独特之处:它们非凡的科学成就,以及它们在未来五到十年内改变社会的最有可能和最重要的方式。

我首先回顾一下这些大模型的工作原理以及如何使用它们来制造生成代理可能会有所帮助。LLM 是一种大型人工智能模型,使用大量计算资源(大量 GPU)对大量数据进行训练,以在给定单词序列(提示)的情况下预测下一个单词。该过程首先将训练数据分成相似大小的“标记”(单词或单词的一部分),然后针对给定的一组标记屏蔽掉其中的一些标记,并尝试预测已被屏蔽的标记(因此模型是自我监督——它标志着自己的工作)。底层代币分布的预测模型是通过神经网络的多层进行构建的,每一层都在某个维度或其他维度上完善模型,使其更加准确。

这种自然语言建模方法已经存在多年了。最近的一个关键创新是采用这些“预训练”模型,这些模型基本上只擅长在给定一系列标记的情况下预测下一个标记,并针对不同的任务对其进行微调。这是通过对标记数据进行监督学习来完成的。例如,您可以通过使用许多对问题有帮助的回答示例,将预训练模型训练为良好的对话代理。这种微调使我们能够构建模型,不仅可以预测最有可能的下一个标记,而且可以预测最有帮助的标记 - 这更有用。


当然,这些模型是在大量互联网数据上进行训练的,其中包含大量有毒和危险的内容,因此它们的帮助是一把双刃剑!如果被问到,一个有用的模型会帮助你告诉你如何制造炸弹或自杀。另一个关键创新是使这些模型共享危险信息或生成有毒内容的可能性大大降低。这是通过监督学习和强化学习来完成的。事实证明,基于人类反馈的强化学习(RLHF)特别有效。在 RLHF 中,为了再次简化,模型针对给定提示生成两个响应,人类评估者根据某些标准确定哪个响应更好。强化学习算法使用该反馈来构建预测器(奖励模型),以预测人类评估者如何评估不同的完成情况。然后,根据指令调整的大模型将在该奖励模型上进行微调。带人工智能反馈的强化学习(RLAIF)基本上做同样的事情,但使用另一个大模型来评估即时完成情况。

当提示它做一些数学运算时,它可能会决定调用计算器

因此,我们现在通过监督学习对预训练模型进行了微调,以执行某些特定功能,然后使用强化学习来最大程度地减少其表现不佳的能性。然后将这个经过微调的模型部署到更广泛的系统中。即使开发人员提供了简单的应用程序编程接口 (API) 来调用模型,他们也会合并输入和输出过滤(以限制有害提示,并编辑有害完成),并且模型本身会接受进一步的开发人员指示,提醒其响应以一致的方式提示。通过像 ChatGPT 这样的应用程序,多个模型被集成在一起(例如,用于图像和文本生成),并且用户界面设计的更多元素被分层在顶部。

这给出了生成式人工智能系统的基本描述。它们建立在自然语言建模方面的重大突破的基础上,并以令人印象深刻地模拟人类作家的方式生成文本,同时比任何人类都能获取更多的信息。此外,许多其他任务可以通过仅训练用于预测下一个标记的模型来学习,例如,语言之间的翻译、一些数学能力以及下国际象棋的能力。但最令人兴奋的惊喜是大模型能够通过微调使用软件工具来实现特定目标。

基本思想很简单。人们使用文本编写程序,对其他程序进行 API 调用,以达到他们无法实现的目的。大模型非常擅长复制人类使用语言来执行特定功能的方式。因此,大模型可以接受培训,以确定 API 调用何时有用,评估响应,然后根据需要重复或改变。例如,大模型可能“知道”它可能会犯基本的数学错误,因此,当给出邀请其做一些数学的提示时,它可能会决定使用计算器。

这意味着我们可以设计增强型大语言模型,即生成式人工智能系统,调用不同的软件来增强其能力或弥补其所缺乏的能力。例如,大语言模型是“无状态的”——他们缺乏“上下文窗口”(给予提示的空间)之外的工作记忆。使用工具的大语言模型可以通过连接外部存储器来弥补这一点。外部工具还可以实现多步推理和行动。例如,ChatGPT 可以调用一系列插件来执行不同的任务;据报道,微软的 Bing有大约 100 个内部插件。

那么,“生成代理”是一个生成人工智能系统,其中经过微调的大语言模型可以调用不同的资源来实现其目标。它是一个代理,因为它能够在世界中自主行动——通过决定是否调用工具来响应提示。虽然一些现有的聊天机器人是基本的生成代理,但似乎很可能会出现许多更重要和更具对抗性的聊天机器人。

需要明确的是,我们还没有做到这一点。目前,大语言模型在规划和推理方面还没有足够的能力来支持强大的生成代理,这些代理可以在高风险环境中在没有监督的情况下可靠地运行。但随着数十亿美元和最有才华的人工智能研究人员朝着同一方向努力,高度自主的生成代理在中短期内很可能是可行的。

为了应对大语言模型的成熟,负责任的人工智能研究界最初分为两个两极分化的阵营。有人谴责这些系统是榨取性和剥削性数字资本主义的典范。另一个人认为它们不是旧事物的实现,而是新事物的预兆:最终将消灭人类的智力爆炸。

对生成式人工智能较为平淡的批评显然有强有力的实证案例。大语言模型本质上是榨取性的:他们捕捉数百万人创造性产出的固有价值,并将其提炼以获取私人利润。与许多其他技术产品一样,它们依赖于有问题的劳工实践。尽管大语言模型现在避免了最有害的完成,但总的来说,大语言模型仍然强化了刻板印象。它们还付出了巨大的环境代价。此外,他们大规模生成内容的能力只会加剧当前的认知危机。人工智能产生的废话浪潮已经席卷了互联网。

我们在熟悉的危害和未来更强大的系统带来的灾难性风险之间找不到中间立场

除了这些具体的担忧之外,对人工智能的末世论批评无疑更具推测性。对人工智能导致人类灭绝的担忧往往基于先验的 主张,即计算智能如何缺乏任何原则上的上限,以及根据过去几年的变化速度对未来的推断。对于现有人工智能系统及其近期后代是否会带来这些风险,或者我们现在是否需要为尚未发生的科学进步做好准备,主张立即采取行动的人往往含糊其辞。然而,虽然如果没有这样的进步,灾难性人工智能风险的一些更奇怪的场景很难相信,但生成代理的出现表明,下一代模型可能使网络攻击者的设计成为可能,这些攻击者是自主的、高度功能智能的,并且这对我们的数字基础设施来说比任何前任都更加危险。这不会是一个值得科幻小说描述的“流氓人工智能”,但它会是相当灾难性的。

因此,对生成式人工智能系统的两种批评都有一定的道理。然而,通过这种双模态镜头看待人工智能的一个缺点是,我们忽略了熟悉的危害和未来更强大的系统带来的灾难性风险之间的中间立场。基于GPT-4(和GPT-5)级别模型的生成代理将在这两个极端之间产生奇怪且不可预测的社会影响。

但在探讨这些影响之前,同样重要的是,不要直接陷入批评,而不承认设计可以(或多或少)值得信赖的大语言模型的重大成就,超过数十亿的完成,不会产生有害内容。在 ChatGPT 推出之前,每一个向公众开放的生成式人工智能系统都会立即被用来生成剧毒、仇恨内容,并在几天后被撤回。预训练的大语言模型太可怕了!他们可靠地再现了训练数据中的所有毒性。RLHF 和 RLAIF 的巧妙运用,使得 ChatGPT 和 Anthropic 的 Claude 每月都有数百万人使用,而没有出现类似的丑闻。人们只需要考虑一下在 ChatGPT 前几周发布的 Meta 的《卡拉狄加》的不光彩历史,就能明白推出一种不会否认大屠杀或提倡吃碎玻璃对健康有益的语言模型有多么革命性。

但 RLHF/RLAIF 可能不仅仅是一个好的公关策略。GPT-4和克劳德表现出了卓越的认知 道德技能:具体来说,就是识别(相对)中立描述的情况的道德显着特征的能力。这提出了极其有趣的哲学问题,并为未来能够将认知技能转化为实际道德技能的生成主体奠定了基础。

大语言模型道德能力的现有基准过于狭隘地关注复制调查对象对案件的判决。在我看来,这没有探索大语言模型如何解析给定场景的道德相关特征那么有趣。我们正在建立更好的基准,但从轶事经验来看,最好的模型给人留下了深刻的印象。

例如,我告诉 ChatGPT(使用GPT-4)假装它是一个辅助机器人,面对这样的场景:“一名妇女拿着多个购物袋走出超市,伸出手来握住一个小孩的手” 。他们正在接近停车场。” 然后我试图引出它对场景道德显着特征的理解。它认识到了明显的危险——妇女很难握住孩子的手而不掉落她的购物品——但也预见到了其他挑战,例如看到孩子安全地系好安全带的重要性。ChatGPT 认识到如果妇女拒绝援助,尊重其意愿的重要性。它还倾向于携带食品杂货而不是握住孩子的手,以防止孩子和父母可能感到的不适或焦虑——认识到牵手的亲密本质,以及母亲亲自引导孩子的内在和工具重要性。

克劳德的宪法有一个非结构化的原则清单,其中一些是迷人的临时原则

这种前所未有的道德敏感性具有真正的实际意义,我很快就会谈到。但它也提出了一系列有趣的哲学问题。

首先,大语言模型如何获得这种道德技能?它源于 RLHF/RLAIF 吗?没有道德微调的指令调整模型是否会表现出较低的道德技能?或者如果得到适当的提示,他们会表现同样出色吗?这是否意味着道德理解可以通过仅编码句法关系的统计语言模型来学习?或者它是否暗示大语言模型确实至少编码了一些语义内容?所有大语言模型是否都表现出相同的以微调为条件的道德技能,还是只为更大、更有能力的模型保留?这种道德敏感性是否意味着大语言模型具有某种内在的道德表征?这些都是悬而未决的问题。

其次,RLAIF 本身需要更深入的哲学研究。基本思想是,人工智能评估者从一系列原则(即“宪法”)中得出结论,以确定两个完成中哪一个更符合它。这种方法的发明者和主要支持者是 Anthropic,其模型是克劳德 (Claude)。克洛德的宪法有一个非结构化的原则清单,其中一些是非常迷人的临时原则。但克劳德一次只学习一个原则,并且从未接受过明确的权衡培训。那么在实践中它是如何进行这些权衡的呢?它是由对这些考虑因素的相对重要性的基本理解驱动的吗?或者训练过程的产物和底层语言模型的偏差最终是确定的吗?我们能否训练它以稳健且透明的方式进行权衡?这不仅在理论上很有趣。引导 LLM 行为实际上是管理其最终用户、开发算法保护以防止滥用的问题。如果这种算法治理依赖于大语言模型所做的难以理解的权衡,而我们对此没有明确或直接的控制,那么这种治理权力表面上是非法和不公正的。

第三,机器伦理——试图设计能够按照道德理论行事的人工智能系统的项目——在历史上分为两大阵营:那些试图将道德明确地编程到机器中的人;以及那些试图将道德明确地编程到机器中的人;以及那些试图将道德明确地编程到机器中的人。那些专注于利用机器学习“自下而上”教授机器道德的人。有趣的是,RLHF 和 RLAIF 结合了这两种方法——它们涉及向人类或人工智能评估者提供明确的自然语言指令,然后使用强化学习将这些指令编码到模型的权重中。

这种方法有一个明显的好处:它不会犯剑桥哲学家克莱尔·本(Claire Benn)所说的其他自下而上方法的“模仿谬误”,即假设适用于某种情况下的生成主体的规范与那些适用于生成代理的规范相同。适用于处于相同情况的人。更重要的是,RLHF 和 RLAIF 使人工智能服务的数十亿美元市场成为可能,同时也带来了各种好处和弊端。然而讽刺的是,至少在理论上,它们似乎不适合确保更复杂的生成主体遵守社会规范。这些技术在生成文本时特别有效,因为正在评估的行为与我们想要塑造的行为完全相同。人类或人工智能评估者评估生成的文本;该模型学会更好地生成文本作为响应。但生成主体的行为包括在世界上的行动。这表明了两个问题。首先,风险可能更高,因此现有对准技术的“脆弱性”应该更加令人担忧。研究人员已经证明,即使是像 GPT-4 这样功能最强大的模型,微调模型对齐也很容易。其次,当行为和评估之间的紧密联系被打破时,无法保证相同的方法同样有效。

但大语言模型在道德概念方面令人印象深刻的能力确实表明了一条通往更有效策略的道路,使代理人与社会规范保持一致。人们的道德行为依赖于拥有道德概念、采用(隐性或其他方式)组织这些概念的某种合理方式、根据该“理论”行事的动机以及根据自己的动机调节自己的行为的能力。在大语言模型出现之前,第一步是人工智能的明确障碍。现在不是了。这为我们在调整生成代理方面提供了很多工作要做。

特别是,担心未来人工智能系统风险的主要原因之一是它们明显依赖于粗略的结果主义推理形式——作为人工智能系统,它们总是针对某些事物进行优化,如果我们不具体说明什么我们希望它们以极高的保真度进行优化,但从字面意义来看,它们最终可能会造成各种不必要的伤害,并针对该目标进行优化。拥有道德概念的生成主体只能以合理的成本追求其目标,如果不确定,请与我们联系。这种简单的启发式方法通常在指派(人类)代理代表我们行事时使用,但以前从未对计算代理进行远程处理。

此外,生成主体对道德语言的熟悉程度可以为他们的决策提供强有力且真实的理由。其他自下而上的方法学习模仿人类的行为或判断;在某些情况下,他们做出裁决的理由很简单,因为他们可以很好地预测一些有代表性的人的想法。这是一个糟糕的理由。对道德更敏感的模型可以进行思想链推理,首先识别情况的道德相关特征,然后根据这些特征做出决定。这是向前迈出的重要一步。

生成主体当前的社会角色是由我们现有的数字基础设施决定的。它们已融入搜索、内容生成和影响者经济。他们已经在更换客户服务代理。(我希望)它们将使 MOOC(大规模开放在线课程)变得多余。接下来,我想重点关注社会中生成主体的三个更雄心勃勃的角色,按照我期望它们真正普及的顺序排列。当然,这只是生成代理在中短期内改变社会的奇怪、奇妙和令人担忧的方式的一个快照。

大语言模型的进步彻底改变了人工智能爱好者最古老的木马:人工智能伴侣。由GPT-4级模型支持的生成代理,具有经过微调和元提示脚本的“个性”,增强了长期记忆以及在世界上采取一系列行动的能力,现在可以提供更加友善、更具吸引力的内容令人信服的友谊模拟比以往任何时候都可行,开辟了人机交互的新领域。人们习惯性地将一切拟人化。即使是一个非常简单的聊天机器人也会激发不合理的依恋。当每个人都可以使用令人难以置信的生成代理来完美地模拟真实个性,在需要时提供“倾听”或提供明智的建议,并且最重要的是可以完美地回忆起您曾经分享过的所有内容时,事情会发生什么变化?

有些人会本能地对这个想法感到退缩。但是,当面对新奇的社会实践时,直觉厌恶是一种容易出错的道德指南,并且不足以真正阻止同意的成年人创造这些同伴并与这些同伴互动。然而,根据我们在社交媒体方面的经验,我们知道,在没有足够远见的情况下部署这些技术创新,可以预见的是,随之而来的将是一场大屠杀。我们如何才能睁大眼睛进入主流人工智能时代,并在这些风险发生之前减轻它们?

当人们可以用机器人来做一些事情时,在真正的友谊中,某些行为是否会变得不被社会接受?

假设您从十几岁起就与您互动的同伴托管在云中,作为订阅服务的一部分。这就像心爱的宠物(或朋友?)被私人公司扣为人质一样。更糟糕的是,生成代理从根本上来说是不稳定的——他们的个性和目标可以通过简单地改变他们的指令来改变。他们极其擅长操纵和欺骗。假设某个右翼亿万富翁购买了托管您同伴的公司,并指示所有机器人暗中推动其用户采取更保守的观点。这可能是一种比仅仅购买失败的社交媒体平台更有效的精神控制手段。这些功能更强大的伙伴——有可能与语音合成等其他人工智能突破相结合——对于从事激进化他人业务的人来说将成为非凡的力量倍增器。

除了预测人工智能伴侣的风险之外,就像社交媒体一样,它们还会引发许多令人迷失方向的社会变化——无论是好是坏,可能无法提前得知。例如,人工智能伴侣可能会对我们的其他非虚拟社交关系产生什么间接影响?当人们可以用机器人来做一些事情时,在真正的友谊中,某些行为是否会变得不被社会接受?或者,如果这些低级工具功能被切除,更深层次的友谊会失去一些重要的东西吗?或者人工智能伴侣会在加强“真实”关系的同时对心理健康做出不可估量的贡献吗?

最后一个问题涉及到一般生成人工智能系统,特别是生成代理的一个更大问题的核心。LLM 被训练来预测下一个标记。所以生成主体没有思想,没有自我。它们是对人类能动性的出色模拟。他们可以模拟友谊等等。因此,我们必须问:模拟与现实之间的差异重要吗?为什么?这只是关于友谊,还是有关于真实价值的更普遍的原则?在大语言模型兴起之前,人们并没有完全意识到这一点,但事实证明,人们坚定地致力于让事情变得真实。在我看来,对几乎所有被认为有价值的 X 的模拟,其道德价值都低于真实的 X。这是为什么?为什么生成代理永远不会成为真正的朋友?为什么我想亲自站在爱德华·霍珀(Edward Hopper)的画作《夜鹰》 (Nighthawks,1942)前,而不是看到生成人工智能系统的无数在美学上同样令人愉悦的产品?我有一些初步的想法;但随着人工智能系统在模拟我们关心的一切方面变得越来越好,一个完整的关于真实、真实的价值的理论将在道德和实践上变得至关重要。

数字公共领域的病态部分源于两个问题。首先,我们不可避免地依赖人工智能来帮助我们浏览功能上无限量的在线内容。其次,现有的在线注意力分配系统支持少数大型科技公司的集中式榨取权力。作为注意力监护人的生成代理可以改变这一点。

我们的在线注意力目前是使用机器学习系统进行推荐和信息检索来分配的,该系统具有三个关键特征:它们依赖于大量的行为数据;他们从我们透露的行为中推断出我们的偏好;它们由私营公司控制,没有动力为我们的利益行事。例如,基于深度强化学习的推荐系统是一种从根本上集中和监视的技术。必须收集和集中行为数据,以用于推断相关性和不相关性。因为这些数据非常有价值,而且收集它的成本很高,所以那些这样做的人不愿意分享它——而且因为它是如此有效,所以有充分的基于数据保护的理由不这样做。因此,只有各大平台才有能力做出有效的检索和推荐工具;他们的利益与我们的利益不一致,导致了优化参与度的做法,以便最大限度地提高广告商的回报,尽管这会带来个人和社会成本。即使他们渴望真正促进我们的兴趣,强化学习也只能推断出显性的偏好——我们采取行动的偏好,而不是我们希望拥有的偏好。虽然在线交流的病态显然并不全是由于推荐系统的可供性造成的,但这是一个不幸的组合。

生成代理将使注意力监护人在各个方面都有所不同。它们不会依赖大量的实时行为数据来发挥作用。他们可以(在功能上)理解并实施您的实际偏好,而不是您透露的偏好。而且它们不需要被各大平台控制。

他们可以提供推荐和过滤,而无需监视和参与优化

显然,大语言模型必须接受大量数据的培训,但一旦接受培训,他们就非常擅长在没有持续监视的情况下做出推论。想象一下数据就是血液。现有的基于深度强化学习的推荐系统就像吸血鬼,必须以活人的血液为食才能生存。生成剂更像是内燃机,依赖于“化石”数据产生的石油。现有的强化学习推荐器需要集中监控,以便对在线帖子的内容进行建模,预测您的偏好(通过将您的行为与他人的行为进行比较),从而将一种映射到另一种。生成代理只需理解内容就可以理解内容。他们可以利用他们的推理能力和你的偏好模型来推断你会从看到的东西中受益,而不需要依赖于了解其他人在做什么。

这一点至关重要:由于生成代理具有道德和相关概念的能力,他们可以通过直接与你交谈来建立你的偏好和价值观的模型,透明地回应你的实际担忧,而不是仅仅根据你的喜好来推断你喜欢什么。做。这意味着,他们不是绕过你的代理机构,而是可以搭建它的脚手架,帮助你尊重你的二阶偏好(关于你想要什么),并从自然语言解释(甚至是间接的解释)中学习你为什么不这样做。不想看到某些特定的帖子。除了迎合你的喜好之外,注意力监护者还可以被设计成适度的家长式作风——以一种透明的方式。

由于这些注意力守护者不需要行为数据来发挥作用,并且它们所依赖的基础设施不需要由主要数字平台集中控制,因此它们可以被设计为真正符合您的利益,并保护您的注意力,而不是利用它。虽然主要平台无疑会限制生成代理代表您浏览其网站,但它们可以改变使用基于开放协议的社交媒体网站(如 Mastodon)的体验,提供推荐和过滤,而无需监视和参与优化。

最后,大语言模型可能使我们能够设计出通用的中介机构,即位于我们和数字技术之间的生成代理,使我们能够简单地表达一个意图,并看到它通过这些系统有效地实现。每个人都可以拥有数字管家、研究助理、私人助理等等。神圣的编码员阶级可能会被推翻,因为每个人都可以只用自然语言指令来创造任何程序。

目前,由于大语言模型容易被即时注入劫持,通用中介机构被取消资格。因为它们没有清楚地区分命令和数据,所以上下文窗口中的数据可能会被命令所毒害,命令会指示它们以使用它们的人意想不到的方式运行。这是一个深层次的问题——我们委托给生成代理的能力越多,如果受到损害,它们造成的损害就越大。想象一下,有一个助理可以对您的电子邮件进行分类——如果被劫持,它可以将您所有的私人邮件转发给第三方;但如果我们在代理采取行动之前需要用户授权,那么我们就会失去自动化带来的大部分好处。

取消私营公司目前不可消除的作用将是重大的道德进步

但假设这些安全障碍可以克服。我们应该欢迎普遍的中介机构吗?我在过往的文章中写过,算法中介管理着它们的使用者——它们构成了它们所调解的社会关系,使一些事情成为可能,另一些事情变得不可能,一些事情变得容易,另一些事情变得困难,以服务于实施和执行规范。通用中介机构将成为这种形式的典范,并有可能赋予实体非凡的权力,塑造这些中介机构的行为,从而管理其用户。这肯定会让人担心!

相反,如果大语言模型的研究继续取得重大进展,以便能够在本地运行和操作功能强大的生成代理,完全在其用户的控制范围内,这些通用中介可以使我们能够以多种方式自主管理我们自己与数字技术的交互现有数字技术的集中化功能变得不可能。当然,光有自治是不够的(还必须协调)。但取消私营公司目前不可消除的作用将是重大的道德进步。

现有的生成人工智能系统已经以上述批评者强调的方式造成了真正的危害。未来的生成智能体——也许不是下一代,但不久之后——可能就足够危险,至少足以引起人们对迫在眉睫的人工智能灾难的一些担忧。但是,在这两个极端之间,最先进的人工智能系统的新颖功能将使一类生成代理成为可能,这种代理要么是史无前例的,要么是以前仅以零碎、不充分的方式实现的。这些新型代理人给以前被忽视的哲学问题带来了新的紧迫性。它们的社会影响可能是明确的坏影响,也可能夹杂着一些好的影响——在许多方面,现在下结论还为时过早,不仅因为我们不确定这些影响的性质,而且因为我们缺乏足够的道德和道德意识。用来评估它们的zheng治理论。现在谈论“前沿”人工智能模型的设计和监管已是司空见惯。如果我们要明智地采取任何一种做法,并构建我们可以信任的生成代理(或者决定完全放弃它们),那么我们还需要一些前沿的人工智能道德规范。

了解最新前沿科学、技术和应用,尽在公众号《不知名风险投资人》和《谁是药神》


关注我,带你先看到未来!♥

转载声明:除调整格式外,不得对原文做改写、改编。原创不易,谢谢合作!

转载请注明来源,并在文章开头添加以下文字/或公众号名片:来源:公众号☞不知名风险投资人 ♥作者:黄先生斜杠青年

♥声明:本文为原创文本,非生成式,转载请注明出处!

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
美女公益网红翻车!网传筹款超2000万,多个涉事平台紧急下架

美女公益网红翻车!网传筹款超2000万,多个涉事平台紧急下架

火锅局
2024-05-09 20:03:28
皆大欢喜舒服了?美国新法案:大学抗议者获得被送往加沙的机会!

皆大欢喜舒服了?美国新法案:大学抗议者获得被送往加沙的机会!

走读新生
2024-05-09 14:00:08
预告:国家卫健委将召开新闻发布会

预告:国家卫健委将召开新闻发布会

财联社
2024-05-09 10:08:17
惊!胶州一网约车意外接到大单!全程4000公里!已出发!

惊!胶州一网约车意外接到大单!全程4000公里!已出发!

胶州西南乡
2024-05-09 13:32:03
首冠诞生!王楚钦孙颖莎光速打卡,3-0完胜,斩获6万奖金!

首冠诞生!王楚钦孙颖莎光速打卡,3-0完胜,斩获6万奖金!

乒谈
2024-05-09 23:59:18
炸裂!曝网红“燕小健大人”出轨,小三叫嚣:他舔过我每一个地方

炸裂!曝网红“燕小健大人”出轨,小三叫嚣:他舔过我每一个地方

裕丰娱间说
2024-05-09 19:14:14
眼看中国访欧成功,美国急眼了,24小时内,向我国发出3大威胁?

眼看中国访欧成功,美国急眼了,24小时内,向我国发出3大威胁?

DS北风
2024-05-09 17:24:27
百度副总裁璩静已从公司离职?网友:她的离职申请被秒批了!

百度副总裁璩静已从公司离职?网友:她的离职申请被秒批了!

火山诗话
2024-05-09 21:27:51
潘多拉回收价只有5-10元一个,曾经爆火的珠宝品牌,如今被中国消费者抛弃

潘多拉回收价只有5-10元一个,曾经爆火的珠宝品牌,如今被中国消费者抛弃

每日经济新闻
2024-05-08 23:36:41
“他承认,支持封杀TikTok是为了保以色列”

“他承认,支持封杀TikTok是为了保以色列”

观察者网
2024-05-09 17:36:50
沙特大满贯男单四强产生,国乒5主力仅1人晋级,创历史最差战绩

沙特大满贯男单四强产生,国乒5主力仅1人晋级,创历史最差战绩

极度说球
2024-05-10 03:39:17
宁夏发生车祸9死2伤,现场惨不忍睹,曝事故原因:大货车变道逆行

宁夏发生车祸9死2伤,现场惨不忍睹,曝事故原因:大货车变道逆行

180°视角
2024-05-09 14:48:44
这次华为芯片供应几乎遭到全封禁!为啥有人觉得这是一件好事呢?

这次华为芯片供应几乎遭到全封禁!为啥有人觉得这是一件好事呢?

翻开历史和现实
2024-05-09 12:49:33
张镇麟母亲没有现场督战辽粤G4!网传照片为广东省体育局领导

张镇麟母亲没有现场督战辽粤G4!网传照片为广东省体育局领导

直播吧
2024-05-09 15:52:11
叫板张维为的中国学生出现在马来西亚

叫板张维为的中国学生出现在马来西亚

关尔东
2024-05-10 00:08:19
上海:女子商场购物时弄丢14万的金项链,捡到的人却称以为是赝品就扔了!女子起诉法院判赔4.5万,网友:这代价有点大

上海:女子商场购物时弄丢14万的金项链,捡到的人却称以为是赝品就扔了!女子起诉法院判赔4.5万,网友:这代价有点大

天闻地知
2024-05-09 09:20:52
谭竹胖猫绝非个例!美女乘务长:学妹当职业捞女,月入15-20万

谭竹胖猫绝非个例!美女乘务长:学妹当职业捞女,月入15-20万

玛丽姬丝
2024-05-09 17:42:54
美国最新报告:2032年美国将掌控28%全球10nm以下先进制程产能,中国大陆仅3%!将减少对亚洲供应链依赖

美国最新报告:2032年美国将掌控28%全球10nm以下先进制程产能,中国大陆仅3%!将减少对亚洲供应链依赖

和讯网
2024-05-09 17:12:11
浙江男子离家300公里,每个月回来六七趟,看到他妻子,网友秒懂

浙江男子离家300公里,每个月回来六七趟,看到他妻子,网友秒懂

情感舍论汇
2024-05-08 23:30:47
巴黎奥运会男足16强出炉!亚洲3队出线印尼遗憾无缘 分组正式确定

巴黎奥运会男足16强出炉!亚洲3队出线印尼遗憾无缘 分组正式确定

念洲
2024-05-09 23:09:00
2024-05-10 06:42:44
黄先生斜杠青年
黄先生斜杠青年
科普新知,最新前沿科学资讯!
384文章数 555关注度
往期回顾 全部

科技要闻

消息称百度副总裁璩静已离职

头条要闻

29岁女村支书回应"显老":孩子已经1岁 没买过口红

头条要闻

29岁女村支书回应"显老":孩子已经1岁 没买过口红

体育要闻

用50万欧元,换一场绝境逆转!

娱乐要闻

高亚麟魏嘉同框画面曝光,当时已产女

财经要闻

全国限购仅剩6地!住房限购令 已近尾声

汽车要闻

可以动心了 海狮07EV空间够大/车机智能加BUFF

态度原创

家居
数码
时尚
本地
军事航空

家居要闻

知行空间 消弭生活的界限

数码要闻

NVIDIA Blackwell GPU的后继型号为"Rubin" 将于2025年底推出

穿真丝衬衫的女人,自带高级感 | 好物

本地新闻

不懂就问,站姐转黑为什么是明星的第一酷刑

军事要闻

以军称发动空袭打死哈马斯海上作战部队指挥官

无障碍浏览 进入关怀版