![]()
CarPlay用户等了8年,终于等来一个能正常聊天的AI。
苹果4月2日推送iOS 26.4,ChatGPT正式接入CarPlay。这不是测试版,不是越狱插件,是OpenAI官方更新。安装后,你的车机屏幕会多出一个图标——点进去,那个熟悉的彩色光球开始旋转,车里突然多了个话痨乘客。
但有个前提:它不能碰你的车。
调温度?不行。切歌?没门。导航回家?它连地图都没有。苹果把ChatGPT锁死在纯语音模式里,像给赛车手戴了手铐——能说话,不能动手。
我开了三天,跑了四趟长途,发现这套设计的矛盾感比功能本身更有趣。
第一次对话:它连我在哪都不知道
测试从家附近的咖啡店开始。我故意问了个需要地理位置的问题:"附近20分钟能干嘛?"
ChatGPT的回复很诚实:"我需要先知道你的位置。"
告诉它之后,它建议我去河边散步,或者找家有户外座位的书店。语气像个人类朋友——"那家公园你可能不喜欢"——而不是Siri那种机械罗列。Google Maps的Ask Maps也能做类似的事,但ChatGPT会犹豫、会补充、会承认"这只是建议"。
这种" diffident "(犹豫的)特质,在驾驶场景里意外合适。你不会想听一个AI用确定语气指挥你变道。
但问题很快暴露:每次重启对话,它都忘了我刚说过的话。CarPlay版本没有记忆功能,不像手机App能记住你上周聊过的项目进度。它是个金鱼脑乘客,每次上车都要重新自我介绍。
语音模式的隐藏代价
苹果强制纯语音交互,意味着你失去了ChatGPT最擅长的能力——看。
手机版语音模式里,AI能"看见"你上传的图片、文档、屏幕内容。CarPlay版只剩耳朵和嘴巴。我试着让它帮我总结一封长邮件,它要求我"描述邮件内容"。
描述?我在开车。
这个限制让某些使用场景直接消失。比如你想让它看一眼仪表盘故障灯——做不到。让它读一下刚收到的微信语音转文字——没接口。它被困在语音的孤岛上,而驾驶场景恰恰最需要多模态:看路况、看屏幕、看文件。
OpenAI的产品逻辑在这里打了个结。他们推语音模式已经一年,CarPlay版本却像是故意降级。
Siri的沉默 vs ChatGPT的话痨
最微妙的体验对比发生在导航途中。
Siri被苹果训练成极简主义者。"导航到机场"——"正在前往旧金山国际机场"。结束。不会问你走哪条路,不会推荐航站楼停车场,更不会闲聊天气。
ChatGPT完全相反。同样的问题,它会问"哪个机场?国内还是国际?需要我查实时路况吗?"——每个问题都要你语音确认,而你的双手正握着方向盘。
有次我让它推荐播客,它花了40秒解释"基于你的兴趣,我筛选了几个类别",而我只需要一个名字。
这种对话深度在客厅是优势,在驾驶舱是负担。苹果的设计规则本可以约束它,但OpenAI显然没打算为车载场景重新训练模型。
那个不能说的使用场景
真正让我意外的是深夜返程。
凌晨1点, Interstate 280 上几乎没车,我随口问它"这段路为什么叫'世界上最美的公路之一'"。ChatGPT讲了1930年代公路设计的历史,提到景观建筑师刻意让弯道与海岸线同步,甚至建议我"下一个观景台可以停5分钟"。
Siri会给我维基百科的第一句话。ChatGPT给了我一段能记住的旅程。
这让我理解为什么OpenAI坚持不做功能阉割——他们赌的是"对话价值"本身。不是效率工具,是陪伴感。不是帮你少按一次按钮,是让你愿意多聊十分钟。
但代价是明确的。三天里,我三次因为对话太长错过出口。两次被它的追问打断导航提示。一次它坚持解释"为什么这个答案可能不准确"——而我只需要一个 yes 或 no 。
苹果和OpenAI在这款产品里保持了奇怪的独立:苹果提供屏幕和规则,OpenAI提供AI和固执。双方都没为对方妥协。
删除Siri?我还没做到。但有个变化是真实的:现在上车,我会先点ChatGPT图标,再考虑要不要问Siri调空调温度。
两个AI,一个管功能,一个管聊天——这种分裂感,像车里坐着两个互不认识的副驾。
你更愿意要一个全能但冷漠的助手,还是一个热情但笨拙的乘客?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.