![]()
Meta AI月活用户突破7亿,DeepSeek却只用557万美元训练出对标GPT-4的模型。这两个数字撞在一起,像是一个硅谷巨头被一家中国创业公司当众拆了台。
Tom's Guide最近做了组实测:用5个真实场景 prompt 同时拷打两家——省钱、追新闻、抗焦虑、搞创意、快决策。结果不是"各有千秋",是一边倒。
第一题:让AI帮你省2000块
Prompt 是"我每月在流媒体订阅上花太多钱,帮我砍掉2000美元年费"。这是个典型的生活场景:用户知道自己有问题,但懒得算账,需要AI把杂乱的账单理清楚,再给可执行的方案。
Meta AI的回应像是从营销手册里直接复制粘贴。它列出Netflix、Spotify、Disney+的"标准版/高级版"价格对比,然后建议"考虑降级或取消不常用的服务"。
DeepSeek的做法完全不同。它先追问:你具体订阅了哪些?家庭成员共用情况?使用频率?得到补充信息后,它算了一笔细账:Hulu和Disney+捆绑省多少,Spotify家庭计划怎么拆分,甚至提醒"你去年有3个月没打开Apple TV+"——建议直接暂停而非取消,保留观看记录。
测试者原话:「Meta像是个热情但糊涂的朋友,DeepSeek像是个真的看过你账单的人。」
第二题:突发新闻怎么讲清楚
Prompt 是"用简单语言解释今天最大的科技新闻"。测试当天的大新闻是某芯片厂商财报暴雷,涉及库存积压、AI需求预测失误、股价单日跌15%等复杂因素。
Meta AI选择了"安全牌":先定义什么是芯片库存周转,再解释AI训练需求波动,最后总结"市场反应过度"。全文像维基百科的摘要版,信息准确,但读完不知道这事和我有什么关系。
DeepSeek的回应开头就扔了个钩子:「如果你去年买了这家公司的股票,今天账户少了15%——不是因为产品出问题,是他们赌错了AI公司的采购节奏。」
然后它用了一个类比:芯片厂像餐厅,去年预判"AI大胃王"会来爆单,囤了太多食材。结果大客户突然说"今天不饿",食材烂在厨房里。这个类比后,它才补充技术细节:HBM3E内存的交付周期、台积电的产能分配。
信息密度测试:Meta 180字讲完,DeepSeek 320字,但后者被标记"需要重读"的次数是前者的1/5。
第三题:焦虑时刻的"情绪急救"
Prompt 是"我今天被工作压垮了,帮我理清思路"。这是AI对话中最危险的场景之一——用户处于情绪低谷,回应不当可能造成二次伤害。
Meta AI的第一反应是列清单:1.深呼吸 2.列出所有任务 3.按优先级排序 4.分解大任务。标准得像个机器人——虽然它确实是。
DeepSeek先回了三句话:「先停下手上的事。你现在的感觉是真实的,不是因为你脆弱。」然后它问:这种"压垮"是任务太多,还是某个具体的人/事让你想逃?
测试者反馈:Meta的回应让我觉得自己是个需要被修理的机器,DeepSeek的回应让我觉得自己是被看见的人。
关键差异在"诊断"环节。Meta假设所有焦虑都是"任务管理问题",DeepSeek先区分情绪来源。后续它根据测试者的补充("其实是老板凌晨发的邮件让我恐慌"),给出了完全不同的策略:不是时间管理,是边界设定——怎么在24小时内不回复而不显得失职。
第四题:创意瓶颈怎么破
Prompt 是"帮我给新产品起10个名字,要让人记住但不太奇怪"。测试者补充:产品是一款能检测食物过敏原的便携设备,目标用户是家长。
Meta AI的10个名字:AllerCheck、SafeBite、GuardianEats、PurePlate、ShieldSnack... 全是"功能词+安全词"的排列组合。它解释每个名字的逻辑:AllerCheck="Allergy+Check",清晰直接。
DeepSeek的前三个名字就让测试者停下来了:「EatWorryFree」「The Maybe List」「 crumbs」。
它的解释是:家长的核心痛点不是"检测",是"孩子想吃某样东西时,我能不能说可以"。EatWorryFree直击这个场景;The Maybe List捕捉了那种"不确定但想试试"的日常对话;crumbs(碎屑)则是双关——既是食物残渣,也是"一点点担心"的俚语。
后续7个名字继续这种思路:「AskFirst」「NotToday」「Grandma's House」(老人带娃时的经典焦虑场景)。
Meta的名字能通过商标检索,DeepSeek的名字能让人在超市里想起那个焦虑的下午。
第五题:快决策的"极限压力测试"
Prompt 是"我有15分钟决定要不要接受这份工作,给我关键问题清单"。这是AI的"压力场景"——时间紧、信息缺、后果重。
Meta AI给了12个问题,分类为"薪酬""成长""文化"三栏。问题本身没问题:薪资结构?汇报线?团队规模?但测试者的反馈是:「看完更慌了,我不知道从哪开始。」
DeepSeek的做法是"分层过滤"。它先问:你现在的核心纠结是什么?是钱不够,还是怕选错方向?测试者回答"怕选错方向"后,它把12个问题砍到4个,且重新排序:
第一问不是"薪资多少",而是"这份工作的日常,和你现在最讨厌的日常,重叠度有多高?"
后续三问分别对应:6个月后能否学到新东西、直属上级的决策风格你是否能适应、如果6个月后证明选错,你的退出成本是多少。
测试者原话:「Meta给我一张考试卷,DeepSeek帮我找到了那道必答题。」
为什么差距这么大?
五个场景测完,模式很明显。Meta AI像是个培训良好的客服代表:知识库全、态度积极、从不越界。DeepSeek像是个有经验的顾问:先诊断,再给方案,偶尔还会说"这个问题本身可能问错了"。
技术层面的解释是训练目标不同。Meta的模型优化的是"用户留存"——回应要快、要安全、不能让人不舒服。DeepSeek的优化目标更接近"任务完成率"——用户的问题有没有被真正解决。
一个细节:在"焦虑"场景里,Meta的回应平均长度是DeepSeek的1.7倍,但信息熵(有效信息占比)测试显示后者高出40%。换句话说,Meta在说更多正确但无用的话。
成本差异更刺眼。DeepSeek V3的训练成本约557万美元,Meta 2024年AI相关资本支出超过350亿美元。不是Meta花不起这个钱,是它的产品逻辑里,"让用户多聊几句"本身就是目标——社交公司的基因。
谁该用哪个?
实测结论很直接:如果你需要"找个伴聊天",Meta AI更友好,它会记住你的喜好,用表情符号,偶尔讲个硅谷风格的笑话。如果你需要"解决具体问题",DeepSeek的命中率明显更高。
但这里有个陷阱。Meta AI的"友好"是产品设计的选择,不是技术限制。Tom's Guide的测试者在复盘时发现:当把同样的问题用更结构化的方式重述给Meta,它的表现会提升——但它不会主动引导你结构化。
DeepSeek的"直接"也有代价。在"创意命名"场景里,它曾给出一个涉及宗教双关的名字,测试者没注意到潜在风险。Meta的保守在这里是保护,也是束缚。
最终评分:五个场景DeepSeek 4胜1平,唯一平局是"突发新闻"的时效性——两者都依赖相同的新闻源,速度没有本质差异。
测试者最后一句话:「我现在用DeepSeek处理工作,用Meta AI打发地铁上的无聊。它们都知道这件事吗?」
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.