![]()
一个2.54GB的AI模型,在iPhone上跑起来是什么体验?Google刚上线的AI Edge Gallery给了答案:不是幻灯片,是真能用。
这是Google第一次给自家Gemma模型做官方iOS客户端。之前你想在手机端试本地大模型,要么折腾开源工具,要么用第三方套壳。现在Google亲自下场,把Gemma 4的E2B和E4B两个尺寸打包成App,连Gemma 3的部分型号也塞进去了。
2.5GB的模型,怎么做到不卡的
E2B模型下载包2.54GB,这个体积放在移动端不算小。但运行起来"fast and genuinely useful"——这是Simon Willison的原话,他很少夸Google的产品。
本地运行的好处很实在:没网也能用,对话不上传云端,响应延迟比云端模型低一个数量级。代价是占存储、吃算力。Google的解法是把模型压到手机能承受的临界点,然后靠iOS的神经网络引擎硬扛。
功能层面,App做了三件事:看图说话、30秒语音转文字、以及一个叫"skills"的工具调用演示。
那个会冻结App的"skills"实验
skills模块放了8个交互小部件,每个都是HTML页面:地图、厨房冒险、哈希计算、文本旋转器、情绪追踪器、密码生成器、维基百科查询、二维码生成。
设计思路很明显:让模型学会调用工具,而不是只会聊天。你问"附近有什么博物馆",模型能直接操作地图组件;说"帮我生成一个记得住的密码",它调用密码生成器并给出口诀。
但Willison踩了个雷:追加提问时App直接冻结。本地模型的工具调用链条一长,稳定性还是问题。
Google没说的那个遗憾
对话记录不保存。每次关掉App,上下文清零。这个设计很Google——先让你尝个鲜,完整体验等下一代。
对比云端产品,本地模型的商业逻辑完全不同。没有API调用费,没有订阅分层,纯靠硬件性能说话。Google愿意官方推这个,说明Gemma的端侧优化到了能见人水平。
一个细节:App名字被Willison吐槽"Terrible name"。AI Edge Gallery,既不像ChatGPT那样直接,也不像Copilot有功能暗示。Google的产品命名玄学,又一次应验。
本地大模型上手机,去年还是极客玩具,今年变成大厂标配。Apple Intelligence、高通NPU、现在加上Google Gemma——手机AI的战场,正在从云端往芯片层迁移。你的下一部手机,存储空间可能要按模型数量来买了?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.