ChatGPT最近上线了一个被低估的功能:把AI的推理过程拆成两层——主窗口给摘要,侧边栏放完整审计。这看似小改动,背后是对"可解释性"的重新理解。
为什么"看AI怎么想的"突然重要了
![]()
大语言模型(LLM,大型语言模型)的黑箱问题一直困扰企业用户。你问它一个复杂问题,它给答案,但中间怎么跳的、有没有瞎编,完全不知道。
![]()
ChatGPT的新设计做了两件事:一是主窗口只展示关键步骤,降低认知负荷;二是侧边栏保留完整链条,供需要时深挖。这比Claude的纯侧边栏方案更分层——Claude也不错,但更"素"。
产品设计的隐藏博弈
这里有个反直觉的选择:不是给得越多越好,而是给得"刚好够"。
普通用户要的是信任感——"它确实想了这么多";专业用户要的是 debug 能力——"哪一步跑偏了"。同一套界面同时服务两种需求,这是典型的B端产品思维下沉到C端。
更深层看,这是OpenAI对"AI原生交互"的定义权争夺。当模型能力趋同,交互层就是护城河。
![]()
谁会被迫跟进
Claude已经类似,但体验更 raw。Google的Gemini、国内的Kimi、文心一言,目前都没到这个颗粒度。
这不是功能竞赛,是用户心智的重新教育:以后评价一个AI助手,"能不能让我看懂它的思路"会成为硬指标。
企业采购尤其在意这个——采购负责人需要向老板解释"为什么信这个答案"。
下一步会怎么演化?当AI的思考过程变得可视、可审计,人类和AI的协作边界会不会被重新定义——我们到底是在"监督"AI,还是在"学习"它的思维方式?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.