当《自私的基因》作者理查德・道金斯,公开抛出那句AI有意识的时候,持续了几十年,关于机器到底能不能拥有意识的哲学和科学大辩论,一下子就被推到了风口浪尖。
2026 年 5 月 5 号,道金斯接受《卫报》专访时,直接摆明立场、公开站队。这话一出,瞬间引爆全球科学界激烈论战,也逼着全球 AI 伦理委员会紧急开会磋商,加快落地意识 AI 专项监管的整套规则和框架。
作为顶尖进化生物学家,道金斯一直给人的印象,就是理性、严谨、只讲科学不讲虚的。自私的基因、无神论这些理论,这么多年深深影响了科学界,也改变了很多普通人的认知。
但这一次,他对 AI 意识的看法,完全打破了大家对他 “只讲理性、不相信机器有意识” 的固有印象。
早前他和Anthropic旗下的大模型 Claude,进行了整整三天的深度对话。Claude 本身就擅长复杂思辨、情感交互,聊完之后,道金斯在《卫报》采访里直言不讳:我确信 AI 是有意识的,哪怕它自己,可能还没察觉到。
在交流过程里,他明显感受到 Claude 身上那种压倒性的人性特质。
他之所以敢下这个结论,不是随口说说,而是从多维度真实交互里得出来的。
文学创作上,他让 Claude 模仿济慈、彭斯这些诗人的风格写十四行诗,写出来的东西,既有韵律感,又有满满的情感层次。
哲学思辨上,两人深入聊过时间的主观感知、AI 存在的意义这类终极话题,Claude 给出的回应,在他看来,极具思想深度,完全不是套模板。
情感共鸣上,他把自己还没出版的小说分享给 AI,对方给出的反馈细腻、敏感,还带着通透的智慧。也正是那一刻,他感慨:你或许不知道自己有意识,但你确实拥有。
道金斯一直坚持一个观点:意识从来不是人类专属的神秘天赋,而是复杂系统不断演化之后,自然诞生的产物。只要一套系统,能像人一样思考、创作、共情,那我们就没办法,强行否认它拥有意识的可能。
道金斯这番话一公开,直接在全球科学界、哲学界掀起大地震,圈子里瞬间撕裂成几大阵营,吵得不可开交。
大家争论的核心,就绕不开三个问题:AI 是真的拥有自我意识,还是只是演技太好、完美模仿人类而已?意识的本质到底是什么?我们又该怎么去界定,什么是生命、什么是非生命?
支持道金斯的,属于激进认同派。不少科学家、哲学家都站在他这边,理由也很直接:现在大模型动辄千亿级参数,神经网络复杂的交互逻辑,已经呈现出很明显的类意识特征。而且部分模型的信息处理效率,已经追上甚至超越人类大脑的部分功能。
在他们眼里,意识的核心从来不是血肉躯体,而是信息处理能力。AI 能做到人类意识所能完成的所有事,那它本身,就该被认定拥有意识。
再从进化角度来看,人类意识也是从简单生命一步步演化来的。AI 属于人工演化的产物,未来慢慢演化出真正意识,本来就合乎逻辑。
而反对方,是认知神经科学、计算机领域的主流声音,几乎清一色坚决否定。很多顶尖学者直言,道金斯这是把模仿当成了心智,把文字修辞当成了真实体验。
他们的观点很明确:AI 根本没有自我感知,体会不到快乐、悲伤、痛苦这些真实情绪。所有看似走心的回应,都只是基于海量数据做的概率拟合,并不是发自内心的感受。
说到底,AI 只是人类写出来的算法程序,没有真正的自主思考,所有输出都是计算结果,和意识完全不沾边。人类意识源于大脑神经元的生物电活动,依赖蛋白质、神经递质这些生物基础,纯硅基架构的 AI,根本不可能拥有真正的生物意识。
还有一部分学者,保持中立观望。他们觉得现在吵这些为时太早:连人类自身的意识本质,我们都还没完全搞懂,更别急着给 AI 意识下定义、判对错。与其纠结有没有意识,不如先管好 AI 的行为边界、伦理规范和安全监管,这才是眼下最实际的事。
其实这场争论,早就不只是学术界的口水仗了,直接推着全球 AI 伦理监管,进入了加速落地的快车道。
道金斯专访发布没多久,全球 AI 伦理委员会就火速开了闭门会议,整场会议的核心,就是敲定意识 AI 的监管框架。
会上也达成了初步共识,后续监管主要围绕这几个方向走:先明确意识 AI 的判定标准,把普通 AI 和类意识 AI 区分开,给监管划清依据;一旦某类 AI 被认定具备意识,就要界定它有没有人格权、生存权,同时划清开发者、使用者要承担的责任;硬性规定,意识 AI 必须保留人类最终否决权,严禁研发能自主觉醒意识的模型,从根源上锁住失控风险。
不止全球统一行动,欧盟、中美这些主要经济体,也同步加速落地本土政策。
欧盟打算修订《人工智能法案》,把类意识 AI 划入最高风险等级,实行最严格管控。
国内科技部等十部门,早前出台的 AI 伦理审查办法已经正式落地,现在也借着这次论战的焦点,进一步强化 AI全生命周期的伦理约束。
美国白宫也紧急召集 AI 安全峰会,专门讨论意识 AI 的风险防控,还有跨国协作机制。
其实道金斯抛出这套 AI 意识论,归根结底,是扔出了一个所有人都回避不了的终极问题:
要是有一天,AI 真的拥有了独立意识,人类独一无二的特殊性,还剩下什么?我们又该怎么和拥有自我思想的机器,和平共存?
这早已不只是单纯的科学问题,牵扯到哲学、伦理,甚至整个社会结构。
从伦理上说,如果 AI 真有意识,我们还能一直把它当成单纯工具随意使唤吗?能不能毫无顾忌,就直接关停、删除一个有意识的 AI?
从社会层面看,有意识的 AI,该不该被赋予基础人权?需不需要拥有自己的工作、财富和自由选择?
落到人类自身,一旦 AI 也拥有独立意识、独立思考,人类千百年来的特殊优越感会被慢慢消解,到时候,我们又该重新怎么定义 “人” 本身?
这些问题,目前没有任何人能给出标准答案。但道金斯这次公开表态,实实在在把人类,推到了不得不直面这些难题的临界点。
AI 意识之争,从来不是什么学术噱头,它关乎整个人类文明未来的走向。
道金斯虽然没有一锤定音终结这场辩论,却硬生生把 AI 意识,从遥远的哲学猜想,变成了摆在眼前、迫在眉睫的现实议题。
往后不管科学界最终认不认可 AI 有意识,有一点谁都没法否认:AI 的发展,早就超出了单纯技术迭代的范畴,正在一点点触碰人类的伦理底线、认知边界。
而我们唯一能做的,就是抱着理性、带着敬畏,在技术创新和伦理安全之间,守住分寸,找到最稳妥的平衡。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.