周末参加了华为开发者大会,其中华为云MaaS的发布会让我印象极为深刻,因为第一次看到了一家AI平台把用户的问题和场景作为重中之重来讲,而不是在那里炫大模型有多少参数,或者展示模型的打榜排名。
大模型最近非常热门,但是很多大模型项目都失败了,大家尝尝鲜就放弃了,主要原因就是AI没有找到场景,或者没有在这个场景下真正有效地用起来。
华为公有云运营部部长刘杰举了一个非常生动的例子:
“一家养猪企业想要开发养猪大模型,很多人认为"大模型+RAG就够了",但测试发现这就像让本科生临时翻书答题,看着相关,却还不够专业。要让大模型成为养猪专家,必须把百万字饲养经验真正喂进大模型,把知识内化,才能在复杂业务场景下的精准泛化。但要微调需要高质量数据。客户有近百万字专业文档,却散落各个部门的Word、Excel。PPT、PDF里,格式混乱,质量参差不齐,难以处理,这几乎是传统行业的通病——常常高估了算法的神奇,却严重低估数据治理的难度。”
华为云的解决方案就是开发了一套数据清洗解决方案,一键抽取养猪指标、工艺、病症,自动生成高质量问答对,仅一周就备好数据集,多快好省的打造出一个“大模型养猪专家”。
再比如有个电力行业客户,部署了一套满血版DeepSeek,但是它并不能同时满足低时延、本地数据微调、长思维链精准输出等需求。华为云的方案是用同一台昇腾云服务器中部署资格小模型,同时满足了智能问数、物料助手、代码助手和文档转换的四大主要业务需求,不仅整体算力成本降低了50%,还达到DeepSeek-R1满血版的效果。
这样的服务案例做多了,华为云敏锐地识别出了大模型冰山下的五个坑:
(1)手握一堆大模型的锤子,却满世界找业务的钉子
(2)大模型越新就越好,越大就越爽
(3)业务数据一片沼泽,无法用于训练
(4)大模型落地拼算力,不需对业务理解太深
(5)只做一锤子项目,不搞持续优化
这些坑怎么避?
01
五大坑的解题之道
华为云给出的解题之道是“三层五阶十二步”。
三层:重定义智能业务,模型开发与交付,持续优化AI应用
五阶段:场景识别,模型选型,模型调优,数据治理,持续运营。
看到如此清晰方法论,一个可复用的AI生产流程,我就感觉到华为云做了很多客户服务案例,实际上也确实如此:
华为云MaaS平台本身就做过100+行业客户昇腾适配的实践,沉淀出了大量模型适配经验,在国产算力上收录了30+业界主流开源大模型,并全面基于昇腾AI云服务进行适配和优化。
与此同时,华为云MaaS平台基于上百次的支撑中小企业客户项目,它总结出了大量经过商业化验证的场景化解决方案。华为MaaS平台把这些解决方案形成商业模板,可以一键复制,零代码搭建,几分钟内就可以验证业务,效率极高。
在华为云MaaS平台上还入驻了一大批优质的MCP服务(如美图影像、通达信、天眼查),为用户深耕行业提供可商用基础。
而将上述方案、实践、经验等融会贯通,华为云推出了一整套解决方案,打通了从底层算力到上层应用的全链路,提供了一个系统化的、端到端的解决方案。它不是零散工具的堆砌,而是一个完整、高效的AI能力交付体系,让企业的大模型落地更加清晰可靠。
大模型发展到现在,已经从“拼参数”到了“拼价值”阶段,谁更懂客户的问题,提出更好的解决方案,才可能最后胜出,华为云MaaS平台上总结出的解决方案,很可能成为最终胜出的杀手锏。
单单有这些方法论还是不够的,必须有底层的技术平台来支持。
在底层技术方面,华为云MaaS平台实力更是“深不可测”。
02
全栈式创新
我们都知道美国一直在限制中国算力的发展,全面围堵AI算力供应,中国能拿到的英伟达芯片都是阉割版本。
在这种情况下,如何才能突围呢?华为云的方案是全栈式创新,用架构优势实现提升。
大家可能都听过华为云CloudMatrix 384超节点,华为通过自己擅长的光通信,首创将384颗昇腾NPU和192颗鲲鹏CPU通过全新高速网络MatrixLink全对等互联,形成一台超级“AI服务器”,单卡推理吞吐量跃升到2300 Tokens/s。
虽然英伟达也有GB200 NVL72,并且单卡性能更高,但是受芯片间通讯技术限制,组网规模受限,72张卡就到头了。
最终的结果是,华为云CloudMatrix 384超节点提供高达300 PFLOPs的密集BF16算力,接近达到英伟达GB200 NVL72系统的两倍!
更厉害的是,华为云CloudMatrix 384超节点天然就很适合跑像DeepSeek这样的MoE(多专家)模型。因为DeepSeek V3和R1是由256个专家模型构成的,在英伟达72张卡的超节点中,一张卡肯定要容纳多个“专家”,资源就不够了。但是在华为云CloudMatrix 384超节点中,“一卡一专家”,支撑DeepSeek等千亿模型推理性能3倍跃升。
这样的例子还有很多,比如通过大规模“专家并行”(EP)技术,把模型拆得很散,分配到众多计算卡上,让解码更快,延迟更低。在超节点内,大模型权重被分布式存储在数百张GPU上,单卡预留更多显存容量,支持更长的上下文序列,实现系统的更大吞吐性能。
就像微服务架构有个网关一样,华为云MaaS平台也做了模型网关,无论你身在何处,模型网关都能将请求自动路由至最近节点,降低用户侧延迟。通过动态合并空闲算力形成“公共资源池”,提升了集群利用率,它还可以智能识别 Prompt 长度,长文本请求自动调度到高显存节点,确保处理稳定;短文本则优先分配到低延迟实例,提升响应速度。
这种全栈式创新,真正提高了AI大模型的能力上限!
03
磐石般安全和运营
华为是做电信级服务起家的,电信业务涉及到大量用户数据和敏感信息,对安全性要求极高。
网络安全作为华为公司的最高纲领,拥有全球140+合规认证。在友商事故频发的情况下,华为云从2024年初到现在重大事故次数是“0”。
华为云提供包含语料数据安全、模型安全、推理安全、应用安全在内的全生命周期模型安全方案。通过提示词攻击防范和敏感内容实时检测,保障大模型推理安全。
有意思的是,华为采用了“以模护模”的方案,在MaaS平台中涉及安全能力判断的,都由信通院认证评估安全可信满级评分(业界最高分)的ModelArts Guard大模型安全护栏进行内容审核,非法敏感内容拦截率达90%+,延时<20ms,满足最严网信监管。
在运营上,华为MaaS平台提供丰富全面的监控能力,涵盖首Token时延、增量Token时延、错误码追踪等100+关键指标,帮助用户洞察性能瓶颈,发现问题快一步,再配合分钟级自动告警机制,实现“关键问题自动发现”,真正让运维压力大幅减轻。
04
总结
总的来说,华为云MaaS平台场景化解决方案做得非常好,预置了大量模型,对接众多优质MCP Servers,有很多商业解决方案模板,可以一键复制使用。华为云通过全栈式创新,降低时延的同时又提升了吞吐量,整体性能非常优异。在安全上用以模护模的方案,更可靠更安心。
如果你的公司也想用AI来提升效率,又不想关注底层技术细节,想开箱即用,一键部署调用,华为云MaaS平台是个非常不错的选择,强烈推荐扫描二维码体验:
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.