AI会产生自我意识,从而威胁人类吗?从《终结者》中试图灭绝人类的“天网”,到《碟中谍7》中无所不能的“智体”,科幻作品一直在为我们描绘一种最深刻的恐惧:一个拥有自我意识,并最终背叛人类的超级人工智能。这样的未来真的会出现吗?给出了否定的观点,即使在理论上有可能性,但对人类的最大威胁不是来自AI自主背叛,而是来自人类对AI的滥用。我认为:AI不会诞生自主意识,因为其所有行为都受限于一个由人类设定的、外在的目标函数。
要理解这一点,我们必须明确AI是如何“学习”的。无论是监督学习、无监督学习,还是强化学习,所有AI模型的训练过程,本质上都是一个数学上的优化过程。这个过程的核心,就是目标函数,它是一个由人类工程师预先定义的、精确的数学公式。AI训练的全部意义,就是通过调整其内部数以万亿计的参数,来找到能使这个目标函数分数最优的模型参数。
从这个角度来说,AI没有“内在驱动力”:AI的一切“行为”,从生成一段文本到驾驶一辆汽车,都只是为了优化其目标函数的外部表现。它没有好奇心,没有求知欲,也没有生存本能。它不会因为“想”理解世界而去学习,而只是因为“被设定”要去拟合训练数据集中的统计模式。
因此,AI的整个“存在”,都被这个由人类设定的数学目标所禁锢。它是一个极其强大的“目标执行者”,但它永远无法成为“目标设定者”。
而自主意识的核心,在于能够自主设定目标。一个有意识的生命体,其行为受到一系列内在、分层的目标驱动:从最底层的生存、繁衍,到更高层的社会归属、自我实现。这些目标并非由外部工程师编码,而是由亿万年的生物进化“写入”基因和神经网络之中的。那么,我们该如何解释AI有时表现出的、看似具有自主意识的行为呢?例如,ChatGPT在对话中表现出的情感、创造力甚至是“自我反思”,这是不是意识的萌芽?答案是否定的。这些只是基于目标函数的优化,而产生的看起来像是意识的行为罢了。
当AI产生“幻觉”,凭空捏造事实时,它并非在进行有意识的“创造”或“撒谎”。只是找到了一个它觉得最符合目标函数的词语组合。当AI对你表达“同情”时,它并未真正“感受”到你的情绪,只是学习到了在特定情境下,生成“表示同情的文本”能够最大化其目标函数。所以,我同意的观点:我们应该关注的重点,不是去防范一个遥远的、几乎不可能发生的“AI叛变”,而是要防范AI这样一个没有意识、没有道德,但能力极其强大的工具,被别有用心的人用于牟利、诈骗、制造谎言、实施监控甚至发动战争。用AI来作恶,我们在之前的“致命的偏差”这一小节的内容中,已经介绍过了一些用预测式AI来“作恶”的案例。也有很多这方面例子。早在2019年,一名英国公司高管就接到了一通电话,这通电话完美伪造了他德国母公司CEO的声音、口音和语调,并以“紧急业务”为由,成功骗取了22万欧元的汇款。在当时,这种攻击还需要专业的技术和不菲的成本。而今天,仅需一个几秒钟的真实录音片段,任何人都可以利用开源工具生成以假乱真的语音,语音诈骗的门槛被前所未有地拉低。
要如何解决这个问题呢?解决之道是必须双管齐下:既要发展技术盾牌,也要建立能够约束AI滥用的法律框架。在技术方面,就是“以AI对抗AI”。当前,深度伪造检测(Deepfake Detection)是一个很热门的研究方向,通过训练AI模型识别AI生成内容的细微痕迹。此外,数字内容溯源(Content Provenance)的思路是在内容生成时就为其打上“烙印”。记录了内容的创作者、创作工具(是否使用AI)、创作时间以及后续的每一次修改历史。
此外,如何制定法律来监管AI的使用,也是一个重要的手段。目前,全球范围内对深度伪造的法律规制仍处于起步阶段,且零散不一。在美国有少数几个州出台了针对“深度伪造”的法律,但覆盖面极为有限。欧盟通过了《人工智能法案》(AI Act),要求所有使用AI生成或篡改的内容必须明确向用户声明。在中国,《生成式人工智能服务管理暂行办法》则要求服务提供者对生成内容进行明确标识,并建立了算法备案和安全评估制度。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.