2009年,Hilary Mason在一场演讲里放了一张图:数据科学维恩图。技术、数学、领域知识,三圈交集。十五年过去,这张图被她亲手推翻——不是因为错了,是因为不够用了。
现在她做AI游戏平台Hidden Door,却在QCon AI对着一屋子"严肃工程师"讲产品。开场就自嘲:学机器学习那会儿太冷门,派对上跟男生聊研究方向,对方听完转身就走。从学术圈逃出来,做过bit.ly首席科学家,见过社交媒体的疯狂年代。她的核心判断很直接:AI产品正在制造一场工程师的"存在危机",而解决它需要的不是更多代码,是全新的思维框架。
![]()
从"确定性工程"到"概率性思维"
![]()
传统软件工程建立在确定性之上。输入A,输出B,单元测试通过,上线。AI产品彻底打破这个逻辑。Mason说,现在写代码时,你得同时管理"它可能对的"和"它可能错的"两种状态,而且两种都是常态。
这种转变的痛苦是真实的。工程师花了职业生涯学习如何消除不确定性,现在却被要求拥抱它。更麻烦的是,用户不会给你概率分布图——他们只看到一个结果,要么满意,要么愤怒。产品层必须把这种概率性封装成"看起来像确定性的体验",这是全新的架构挑战。
Mason的bit.ly经历在这里变得 relevant。短链服务看起来简单,背后是实时点击流分析、异常检测、推荐算法。2008年做这些,没有现成的TensorFlow,没有预训练模型,每一行特征工程都是手写的。她说那段经历教会她一件事:数据产品的价值不在算法复杂度,在"用户能不能立刻理解这东西有什么用"。
"人类考量"是最难的栈层
Mason抛了一个尖锐的观察:技术栈图里,最底层是计算、存储、模型,最顶层画了个框叫"人类考量"(human considerations),然后标注——这是最难的部分。
为什么?因为前面所有层都有文档、有最佳实践、有可复用的模式。但"人类考量"意味着:用户会在什么场景下愤怒?什么输出算"有毒"?创意作品的版权边界在哪?这些问题的答案每天都在变,而且因产品而异。
她举了自己的例子。Hidden Door做AI驱动的虚构世界探索,用户输入任何想象,系统生成叙事。这里的人类考量堆成山:IP授权怎么谈?用户生成内容谁拥有?如果AI生成了跟某本小说过于相似的情节,算抄袭还是致敬?没有标准答案,只有持续谈判。
Mason的原话是:「我们还在用同一个词'AI'指代完全不同的东西,这导致所有对话都混乱不堪。」她特意保留了一张新闻截图当道具,标题大概是"AI颠覆一切",旁边配着广告。她说这就是技术领导者的日常——所有人都在谈AI,但没人说清楚到底在谈什么。
架构的新核心:上下文管理与品味
如果概率性思维是底层逻辑,"人类考量"是顶层约束,那中间的技术架构变成什么样?Mason的答案很具体:上下文管理、系统思维、好品味。
上下文管理是她强调的新能力。大模型没有记忆,每次调用都是独立的。产品要让人感觉"懂我",必须在系统层维护长期状态——用户偏好、对话历史、世界设定。这不是缓存策略,是产品设计的核心定义。Hidden Door里,用户可能连续玩几周同一个故事线,系统怎么保持叙事一致性?这问题没有现成方案。
![]()
系统思维是老词新用。Mason的意思是,工程师不能再只盯着自己的模块。AI产品的故障模式是连锁的:提示工程的小改动可能触发下游评估标准的偏移,数据管道的延迟会放大为生成质量的抖动。她形容这是"在迷雾中修飞机"——系统永远在运行,你永远无法完整测试。
最刺耳的是"好品味"。Mason说这个词时带着歉意,但坚持要用。在概率性系统里,没有正确答案是确定的,决策依赖判断。什么提示模板更好?哪个微调方向值得投入?这些选择没有A/B测试能完全覆盖,最终回到人的审美和经验。她说这是工程师最不适应的部分——承认有些决策无法被客观度量。
职业身份的重构
Mason对在场工程师的处境很直接:「你们正在经历一场存在危机。」她解释,职业身份建立在"我能控制复杂度"之上,现在复杂度本身变得不可控。不是技术变难了,是难的方式变了。
她的建议分两层。对个体:接受"部分可控"是常态,重新定位自己的价值——从"写没有bug的代码"转向"设计能优雅失败的系统"。对组织:招聘和晋升标准必须改,现在需要的人要能同时跟产品经理争论伦理边界,跟设计师讨论交互的"不确定性感知",跟法务解释为什么模型输出无法完全审计。
她提到2009年那场演讲的后续。当时有人批评数据科学维恩图把"黑客技能"和"数学统计"并列,贬低了后者的深度。十五年后再看,Mason觉得批评有道理,但方向错了——真正的变化是,"领域知识"那圈膨胀到吞掉了其他两圈。做AI产品,不懂用户场景、不懂商业约束、不懂文化语境,技术能力再强也是盲人摸象。
游戏为什么是严肃的技术训练
回到开场的问题:为什么一个做游戏的来QCon AI?Mason的答案是,游戏是AI产品最极端的测试场。
实时交互、开放结局、情感投入、创意生成——这四个词叠加,几乎覆盖了AI产品的所有难点。用户不会容忍延迟,不会接受重复,不会对"机器感"有半点宽容。Hidden Door的选择是拥抱约束:只做虚构世界,用IP授权框定内容边界,用游戏机制引导用户预期。这些产品设计决策,和技术架构同等重要。
她说了一个细节:团队花了大量时间调"叙事节奏"——不是生成质量,是生成的时机。什么时候让AI介入?什么时候留白?这问题没有论文可抄,只能靠迭代和直觉。这就是她说的"好品味"在工程中的落地。
Mason最后没有给预测。她说现在的问题比答案多,而"框定正确的问题"本身就是技术领导者的核心工作。她留下的画面是那张被广告包围的"AI颠覆一切"新闻截图——混乱、噪音、真实。技术人习惯寻找确定性,但接下来几年,可能得先学会在不确定中做决策。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.