![]()
4月1日,Google DeepMind悄悄上线Veo 3.1 Lite。这不是愚人节玩笑——模型定价不到Veo 3.1 Fast的一半,速度却一模一样。
产品经理Alisa Fortin和开发者布道师Guillaume Vernade在官方博客同步发声。两人头衔里都有"Google DeepMind",但语气更像是在跟开发者对账:你要便宜,我给你便宜;你要快,我速度不变。
成本砍半,速度不变
Veo 3.1 Lite的核心卖点用一句话就能说清:同样速度,不到50%成本。
Google内部把Veo 3.1家族拆成三条线——Fast、Standard、Lite。Fast主打极速出片,Standard平衡质量与成本,Lite则专攻"高并发、低预算"场景。三者共享同一套技术底座,差别只在推理时的资源调配策略。
这种产品分层很像云厂商的实例规格。AWS的t3.micro和c5.4xlarge都能跑Ubuntu,但一个适合测试脚本,一个适合生产数据库。Google现在把视频生成当成基础设施卖,开发者按吞吐量选课。
![]()
具体参数上,Lite支持文生视频和图生视频,横屏(16:9)竖屏(9:16)通吃,分辨率覆盖720p和1080p。时长可选4秒、6秒、8秒三档,价格随长度浮动。
4月7日还有后手
Google埋了个时间锚点:4月7日,Veo 3.1 Fast也要降价。
连续两周释放价格利好,节奏很像是针对某个竞争对手的防御动作。OpenAI的Sora API还在小规模测试,Runway的Gen-4定价对中小开发者并不友好,Pika则刚刚经历团队动荡。Google选在这个窗口期打价格战,时机掐得准。
但降价本身也有技术底气。Veo 3.1系列基于改进后的蒸馏架构,推理效率比前代提升明显。成本下降不完全靠补贴,而是工程优化的结果。
Fortin在博客末尾留了钩子:"Stay tuned for more updates soon." 这种话从Google嘴里说出来,通常意味着更大规模的模型开放或新的多模态能力。
开发者实际能省多少
算笔粗账。假设一个短视频工具日活10万,每人每天生成3条8秒视频,用Fast模型单月成本可能压垮初创团队。切到Lite,同样预算能把日活翻一倍,或者把视频时长拉到15秒。
Google AI Studio今天已经开放体验,Gemini API的付费 tier同步上线。文档里把输入输出token的计价方式写得明明白白——没有隐藏费用,没有排队优先级陷阱。
这种透明度在AI视频领域反而稀缺。不少厂商的定价页像迷宫,实际账单总比预估高30%。Google这次把"cost-effective"写进产品名,算是主动把自己架在火上烤。
一个细节:Veo 3.1 Lite的"Lite"不是轻量版的意思,是"轻量化成本"。模型能力没有缩水,1080p输出和Fast保持一致。区别只在后台调度策略——Lite任务可能排队稍久,但单任务执行速度相同。
对于能接受"非实时"场景的开发者,这是无差别替换。UGC平台、电商素材生成、游戏过场动画,这些批量生产、对延迟不敏感的场景,Lite几乎是量身定做。
Google的算盘也清楚:用低价模型占领长尾市场,让开发者的产品习惯Google的API格式,等规模起来再向上销售Fast和Standard。这是云厂商的经典打法,现在复制到生成式AI赛道。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.