你敢信吗?现在打仗已经不是拼枪拼炮那么简单了——俄乌战场上,无人机能自己瞅着目标炸,AI算法能指挥一堆火炮齐射,这哪是科幻片啊,就是眼前的真事儿!最近硅谷炸了个大瓜:美国明星AI公司Anthropic跟五角大楼闹掰了,2亿美金的合作眼看黄了,就因为一个要命的问题:AI到底能不能用来杀人?
![]()
导火索其实是今年1月的委内瑞拉事儿——美军突然把马杜罗夫妇绑去美国,还炸了加拉加斯好几个地方。后来《华尔街日报》爆出来,这次行动里居然用了Anthropic的Claude AI模型!Claude可是Anthropic的当家花旦,之前还因为太“老实”,拒绝帮用户写暴力内容被吐槽过。可Anthropic的规矩写得明明白白:绝对不能用来搞暴力、造武器或者监控人。事后Anthropic高管赶紧联系合作方Palantir——这可是美军的老情报搭档——问:“你家是不是用Claude干这事儿了?”这一问,直接把矛盾点爆了。
五角大楼更横,直接跟Anthropic、OpenAI、谷歌、xAI这四家AI巨头放话:“把你们模型的安全限制全解开,军方要用AI干所有‘合法的事儿’!”你猜这“合法”包含啥?造武器、破情报、上战场杀人,只要美国法律没说不行,全算!
Anthropic死咬两条红线:一是不能监控美国老百姓,二是不能造完全自主的杀人武器——说白了,AI不能自己决定扣扳机,不能盯着自己国人搞事。可其他三家呢?OpenAI和谷歌悄悄松了口,xAI也同意在非机密任务里解限制,谷歌连当年“不作恶”的老规矩都扔了!只有Anthropic还硬扛着,CEO阿莫代伊说:“我们不能把AI变成杀人工具,这是底线。”
![]()
五角大楼已经不耐烦了,匿名官员放话:“他们敢逼我们,就得付出代价!”“大不了彻底终止合作,啥都干得出来!”这话听着就吓人,毕竟军方手里握着每年几十亿的AI合同,AI公司哪能随便得罪?
说到这儿得提马斯克——他当年天天喊“AI武器化比核弹还危险”,好多人当时觉得他瞎操心,现在脸都打肿了!最近五角大楼刚签了3份合同,总共6亿美金,给Anthropic、谷歌和xAI搞“代理型AI”。啥是代理型AI?就是给它个任务,它能自己想办法干成,不用人管——比如让它炸个目标,它自己找路线、选时机,甚至自己决定要不要动手,这不就是杀人机器雏形吗?
![]()
国防部长赫格塞思更直接:“国防部不会用不让打仗的AI模型!”意思就是,你不让我用AI杀人,我就不跟你玩了。这话等于把AI公司逼到墙角:要么妥协,要么丢合同,甚至可能被穿小鞋。
Anthropic现在的处境难啊!阿莫代伊当初从OpenAI出来,就是想做“负责任的AI”,可现在对面是美国国防部。OpenAI和谷歌都妥协了,市场上的资本都盯着——谁不想拿军方的大单子?军方的压力跟山一样压过来,他能扛多久?谁也说不准。
其实技术本身没好坏,但用技术的人有。俄乌战场上AI已经证明了威力——无人机自主识别目标,准确率比人还高;算法分析战场情报,能快速找到敌人的薄弱点;系统辅助决策,能让指挥官更快下命令。这些都成了现实,可问题是,当AI真能自己决定杀人那天,谁来背锅?是AI自己,还是造它的工程师,还是用它的军方?
五角大楼说的“合法”谁定义?是美国法律,还是全人类的底线?比如美军用AI监控其他国家,算不算合法?用AI造杀人武器,算不算违反人类伦理?Anthropic守的两条红线,在利益面前能撑多久?这些问题,不是硅谷实验室里的小事,是关系到全人类未来的大事。
![]()
2亿美金的合同只是冰山一角,真正的大戏才刚拉开序幕。现在硅谷和五角大楼的博弈,其实是全人类在赌:AI到底是用来造福人类,还是用来毁灭人类?我们每个人都在这场赌局里,只是好多人还没意识到。
参考资料:人民日报 人工智能武器化的伦理困境;新华社 美国国防部AI军事应用动态
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.