网易首页 > 网易号 > 正文 申请入驻

ICU昏迷不醒,AI判决生死!取意愿平均值,细思极恐

0
分享至


新智元报道

编辑:倾倾

【新智元导读】当医生按下Enter键,AI就能决定人的生死!美国华盛顿大学,一项名为「AI代理人」的研究,试图让算法预测昏迷患者的生死意愿。支持者说这是医疗新纪元,反对者担心它只是复制偏见的机器。当AI学会理解生命,人类的怜悯、犹豫与责任,会不会被一串数据取代?

医生还没开口,AI已经替你决定好了——

根据模型预测,该患者倾向于放弃抢救。

这不是电影的剧本,而是美国华盛顿大学正在进行的一项真实研究。

当患者陷入昏迷、无法发声的时候,AI将替他向医生传达是否接受抢救的医院。

实验中,研究人员将其称之为「AI代理人」(AI surrogates)。


这听上去像一场科技的人道主义实验:在生死交界处,让算法解读人类的意愿。

可问题是AI真懂吗?还是它仅仅理解那些与患者相似的数据?

在这个系统的底层,算法并没有「聆听灵魂」,它只是浏览历史病历、人口学特征、医疗选择模式,然后推断:与你相似的人通常如何抉择。

于是,人类的意愿被模型化,个体生命的价值被平均化。

当AI开始预测生死,它做出的已不再是技术判断,反而成了社会偏见的延伸。

医生按下Enter键,人生被AI判了生死

在生死关头,患者失去语言与意识,往往需要靠家属、代理人乃至医师替其做出关键的「是否继续抢救」决定。

但是,现实中我们真的知道患者想要什么吗?这个问题仍然困扰着医疗体系。

就在此时,UW Medicine创伤科研究员Muhammad Aurangzeb Ahmad提出的「AI代理人」(AI surrogate)概念应运而生。


Ahmad所在的创伤科团队,正尝试利用「以往伤情、病史、既往医疗选择、人口学数据」为基本资料,通过机器学习模型预测患者在失去表达能力时如果能选择,会怎么做。

这种研究的逻辑内核,是当患者不能自己说话时,以算法为参照,协助医生、伦理委员会、家属判断「这位患者如果清醒了,他/她会同意继续抢救吗?」

研究团队的目标之一,是实现大约三分之二的预测正确率,并且为模型的运作模拟了流程。

首先,收集患者的伤情严重程度、医学历史、人口统计特征。

之后,将这些变量输入机器学习模型,回顾性地观察模型对历史病例的预测准确度。

团队对模型的未来有着长远的打算:让患者一生与系统互动,记录医患对话、家属短信、生活偏好等文本数据,随着时间不断更新患者的数字档案。


不过,目前该系统仍是一个概念,尚未实际用于病人交互,也未进入决策流程。

正如UW Medicine发言人所说:

在推出前,需要完成多阶段审核。

「让算法帮你决定是否被救」不再是科幻话题,而正在成为医学伦理与AI交叉的新实验场。

算法的盲区:AI预测的不是意愿,而是偏见

「患者的选择」听起来像是个人性化的表达,但在机器学习里,它会被简化成一串概率。

在华盛顿大学的AI代理人项目中,这个概率是靠历史数据喂出来的:谁被抢救过、谁签署过放弃治疗指令、谁在哪种情况下「选择死亡」。

而问题也正出在这里。在医学数据的世界里,没有真正的「中立样本」。

老年人、少数族裔、低收入群体,在既有数据中往往出现更高的放弃治疗比例。

算法从这些模式里学到的「意愿」,其实是社会结构的投影。

医生Emily Moin在接受采访时就指出:

这些决策是动态、情境性的。若你让AI去预测一个昏迷者的意愿,它依赖的只是「方便的真值」,并非真实的地面现实。

她提醒道,AI代理人可能最先被用于「没有家属、无法沟通」的患者——而这样的人群永远无法验证真相。

这意味着,模型无法被校正,也无法证明它有没有偏见。

更危险的是,医院和医生在高压环境下很可能过度信任模型输出。

久而久之,算法就不再只是参考,而成为一种默认答案。


这种「技术性放弃」,在医疗体系中极具诱惑。AI代理人看似在解放医生的心理负担,实际上却在让系统更高效地复制不平等。

研究者Ahmad自己也承认,模型要想真正做到「公平」,不能只看预测结果,而要考虑「患者的道德宇宙」:

两个临床情况相似的患者,一个以宗教为核心,另一个以个人意志为导向。如果算法以相同方式对待他们,就是一种道德抹除。

这场技术实验,表面在探索如何更懂患者,但在底层逻辑里,它其实在问:谁有资格被救,谁又可以被默认放弃。

当人类依赖AI,偏见才真正开始生长

AI代理人并不直接篡夺生死权,它靠的是一种更隐秘的力量——信任。

医生、家属、伦理委员会都在试图逃避那个最难的问题:「该不该救?」而AI正好填补了这份心理真空。

在医院的日常节奏里,医生要处理几十个危重病人,每一次沟通都要耗费巨大的情绪与时间。

AI模型的出现,让一切变得「高效」——它能立刻输出一个判断,一个结论,一种确定感。

于是,那行「模型预测:患者倾向放弃复苏」的文字,开始变成一块伦理的挡箭牌。


Emily Moin说:

如果家属拒绝对话、医生时间不够,所有人都可能默许去看AI的结论

这种默许正是偏见流传的起点。算法的结论看似客观,并因其冷静、快速、无情绪而更具说服力。

慢慢的,人们不再争论、不再怀疑、也不再负责,AI就成了那个最权威、也最无法追责的决策者。

伦理学者Robert Truog警告:

在现实世界里,CPR并不是一个二元问题——几乎所有情况的答案都要看情境。

但AI无法理解「情境」,它只知道「YES」或「NO」。

当医院依赖这种二元逻辑时,灰色地带被挤压,模糊性被视为错误,而确定性被误认为公正。

这就是偏见的第二次生成:第一次发生在算法学习数据时;第二次发生在人们决定相信算法时。

最终,医生得以卸下心理负担,医院获得效率,社会得到一种假象的理性。

代价是,真正的「意愿」被悄悄掩藏在模型里。

人的价值,被写进算法

AI代理人的危险,并不只在于预测错了谁的意愿,而在于——它正在决定什么样的生命更「值得」被拯救。

Ahmad在即将发表的论文中写道:

AI代理人的公平性,不仅是结果平等,更是对患者世界观、宗教、家庭关系的忠实呈现。

他举了一个极具争议的例子:

一名怀孕女性,旧记录显示她曾勾选「不愿意被接上呼吸机」;但如果她后来成为坚守「生命神圣」信念的宗教信徒,那段旧数据就可能被AI误读成她「仍然想被拔管」。

人类代理人或许会替她辩护,而AI不会。

因为在算法的世界里,没有悔悟与改变,有的只是一致性。


Ahmad称,这种一视同仁反而是一种「道德抹除」。

两个临床情况相似的患者,一个以宗教为核心,另一个以个人意志为导向。如果算法以相同方式对待他们,就是一种道德抹除。

那意味着,即便AI看似公平,它也可能在无声地抹去差异。而差异,正是人之为人的起点。

更深层的问题在于:算法的道德水平是谁决定的?是工程师写进去的?是数据统计出来的?还是社会共识默认的?

当AI开始替人发声,它其实在模仿某种特定文化的声音:可能是西方的个人主义、也可能是医疗体系的效率逻辑。

医学伦理学的系统性综述早已指出:

AI若被用于临床伦理决策,包括代理决策,可能提升预测准确性,但同样可能复制既有偏见与不平等。


于是,那些无法被数字化的价值——宗教信仰、家庭伦理、文化差异就被安静地排除在模型之外。

AI看似在预测人的意愿,实则在不断重构「意愿」的定义。

Ahmad在论文结尾写了一句耐人寻味的话:

最公正的AI代理人,不是那个最确定的,而是那个会犹豫、会邀请人类重新讨论的系统。

也许这才是所有讨论的起点——当AI开始学着替人发声,我们更需要重新学会倾听。

在AI代理人的讨论里,人类最常说的一句话是: 「我们只是想让决策更科学一点。」

但科学从来不等于中立。当算法开始学习谁想活、谁想死,它学到的从来不是人的意志,而是社会的态度。

也许真正该被质疑的,从来不是AI能不能预测死亡意愿,而是我们为什么希望有人替我们做这个决定。

AI不会替人赎罪。它不会安慰,也不会承担后果。它只是把人类逃避的那部分——责任、模糊、犹豫整齐地收纳成数据输出。

当医生按下Enter键,当家属点下确认,那一瞬间被释放的,也许不是患者,而是我们自己。

参考资料:

https://arstechnica.com/features/2025/10/should-an-ai-copy-of-you-help-decide-if-you-live-or-die/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
饿了么改名,一个时代结束了

饿了么改名,一个时代结束了

TOP电商
2025-11-04 12:12:34
14岁女孩发视频质问爸爸,四次不敲门盯着看洗澡,后续妇联已介入

14岁女孩发视频质问爸爸,四次不敲门盯着看洗澡,后续妇联已介入

派大星纪录片
2025-11-04 16:36:23
A股:今天下跌到3960.19点,不出所料的话,周三大概率要这样走了

A股:今天下跌到3960.19点,不出所料的话,周三大概率要这样走了

好贤观史记
2025-11-04 16:09:10
iPhone 17 Pro 突然再降价,还没早买的恭喜了

iPhone 17 Pro 突然再降价,还没早买的恭喜了

科技堡垒
2025-11-04 11:30:36
自导自演!印度媒体称,已向中国施压,中国将推迟交付歼-35订单

自导自演!印度媒体称,已向中国施压,中国将推迟交付歼-35订单

军机Talk
2025-11-04 11:33:38
迟迟等不到中方签字,特朗普政府准备再加税,釜山峰会白谈一场?

迟迟等不到中方签字,特朗普政府准备再加税,釜山峰会白谈一场?

时时有聊
2025-11-04 11:13:00
秦雯“袭警录音门”发酵升级!她是三八红旗手,网传配偶比较厉害

秦雯“袭警录音门”发酵升级!她是三八红旗手,网传配偶比较厉害

火山诗话
2025-11-04 06:13:25
获公示拟进一步使用的湖南援疆干部周亮,已任湘西州委常委

获公示拟进一步使用的湖南援疆干部周亮,已任湘西州委常委

澎湃新闻
2025-11-04 15:42:26
换了8个手机都用不了?小伙买电车跑网约车,结果车子成“屏蔽器”

换了8个手机都用不了?小伙买电车跑网约车,结果车子成“屏蔽器”

潇湘晨报
2025-11-04 15:49:23
广东冷空气补充体感清凉,周三起气温回升!台风无直接影响

广东冷空气补充体感清凉,周三起气温回升!台风无直接影响

南方都市报
2025-11-04 13:13:05
上官正义遭死亡威胁,2000万买命+艾滋注射威胁!杭州警方已立案

上官正义遭死亡威胁,2000万买命+艾滋注射威胁!杭州警方已立案

阿伧说事
2025-11-04 09:42:58
伤亡巨大!俄库尔斯克州遇袭,近2000人伤亡,数百人下落不明;乌克兰:大量哥伦比亚人参与对俄作战

伤亡巨大!俄库尔斯克州遇袭,近2000人伤亡,数百人下落不明;乌克兰:大量哥伦比亚人参与对俄作战

每日经济新闻
2025-11-04 15:15:11
全运会:四川三人20+大胜湖北63分 胡金秋25+6周琦替补24+18

全运会:四川三人20+大胜湖北63分 胡金秋25+6周琦替补24+18

颜小白的篮球梦
2025-11-04 17:26:53
扎心了,11 亿网民中 7.3 亿人仅为初中及以下学历

扎心了,11 亿网民中 7.3 亿人仅为初中及以下学历

小院之观
2025-11-02 16:53:51
收评:创业板指低开低走跌近2% 两市成交额萎缩近2000亿

收评:创业板指低开低走跌近2% 两市成交额萎缩近2000亿

财联社
2025-11-04 15:02:27
金永南,为什么功高不盖主?他这一生,简直就是一部官场教科书

金永南,为什么功高不盖主?他这一生,简直就是一部官场教科书

近史博览
2025-11-04 11:35:01
史晓燕谈和李春平相识,曝其每年只能拿1500万美金,痴呆原因曝光

史晓燕谈和李春平相识,曝其每年只能拿1500万美金,痴呆原因曝光

古希腊掌管松饼的神
2025-11-04 16:44:04
“天河机场飞机冲上街头”?官方回应来了

“天河机场飞机冲上街头”?官方回应来了

鲁中晨报
2025-11-04 18:11:04
中产破防!一年30万学费的国际学校,竟成最大“雷区”

中产破防!一年30万学费的国际学校,竟成最大“雷区”

青眼财经
2025-11-03 18:49:39
“史上最长”春节假期来了!连休9天,腊月二十八和除夕均放假

“史上最长”春节假期来了!连休9天,腊月二十八和除夕均放假

红星新闻
2025-11-04 17:11:09
2025-11-04 18:59:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
13783文章数 66237关注度
往期回顾 全部

科技要闻

硅谷甄嬛传:奥特曼优雅挑衅马斯克狠狠回击

头条要闻

上海一老小区居民因加装电梯引争执 调解时一老人猝死

头条要闻

上海一老小区居民因加装电梯引争执 调解时一老人猝死

体育要闻

27岁热刺门将,夺冠后退役当导演

娱乐要闻

爸爸去哪儿6孩子现状,个个不同

财经要闻

作价40亿美元!星巴克中国易主

汽车要闻

把海岸诗意织进日常 法拉利Amalfi重塑超跑生活方式

态度原创

艺术
游戏
本地
时尚
公开课

艺术要闻

何镜堂院士出手!广州再添150米新地标

国行PS5 Pro百亿补贴!无需领券 比官方还便宜200元

本地新闻

秋颜悦色 | 在榆中,秋天是一场盛大的视觉交响

冬天穿灰色,这8种搭配方式很高级!

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版