昨天和一个代理商老板聊天
他说
AI服务器可能是
2025年所有ICT产品里最好卖的单品
之前卖安全的、卖软件的、卖网络的..
现在都忍不住了悄悄地卖点AI服务器
![]()
这让我恍然大悟了
怪不得最近看到的一些中标项目
很多知名的老牌安全上市公司
都“堂而皇之”地参与,还中标了
![]()
代理商老板继续说
他的团队现在遇到最大问题是
传统销售,不懂如何卖AI服务器
一上来,就给客户甩一张清单
用卖传统服务器的思路卖AI
最终又陷入拼价格的泥潭
![]()
很多传统销售都搞不清楚
客户要拿AI服务器跑啥?
具体干啥活?要干到啥程度?
客户一张口,销售就接不住话
比如:我们要做多模态的「批量高吞吐」推理
![]()
另外,还有销售给客户说傻话↓
这服务器贵!性能强!
这就是一句,不懂AI的外行话
殊不知,AI服务器不是越贵越好
而是越贴近任务越高效
比如,客户要跑推理,跑AI应用
你推荐给客户买跑训练的高端机?
你当客户是冤大头啊
![]()
往往是交流完,回到公司
直奔售前
![]()
所以
卖AI服务器本质是啥?
你以为你卖的是「产品」
本质你卖的是「AI算力解决方案」
对一线销售的要求已经上升到了另一个level
销售必须具备一种核心能力
把客户的业务语言,翻译成算力需求语言
在整条AI服务器销售路径中
客户沟通→需求识别→方案设计→成交策略
其中最关键的一步,就是——需求识别
![]()
那么
如何进行有效客户需求识别呢?
第一步:搞清客户要干嘛
在拜访客户之前
心里得有个大致的数
采购AI服务器的六大重点客户群体
他们常见的诉求是啥
![]()
▍政府单位
一般都是私有化部署,买AI服务器很多是部署AI应用,比如:AI政务办公、智慧政务问答(RAG+LLM)、智能客服(12345热线)等,关心国产CPU/GPU兼容性,本地化交付,可上门优化、服务等
▍科研院所、高校
一般是搞大模型训练和科学计算(AI for Science),他们往往有实力采购高端训练服务器,但是也非常看重性价比,比较关注多租户共享与资源调度,以及智算和超算融合。
▍传统金融医疗能源等行业
实时推理和行业模型微调比较多,他们要求:高并发、低延迟推理,可靠性高,安全合规。
▍AI创业公司
这两年蹦出来不少:大模型训练、续训、后训练、微调、API服务等。他们节奏快,看重性价比、交付周期、能灵活扩容、要兼容多框架...
▍大型互联网公司
AI服务器需求最猛、规模最大的客户群,主要建AI集群,用于大模型训练、推理、多模型编排、智能体平台,要求高吞吐、高并发、低延迟,推理成本/百万token最低,长期稳定性,架构灵活
......
第一次拜访,见到客户
最核心的问题只有一个
用于什么场景?跑什么业务?
遇到不同客户
他们回答肯定是五花八门的
甚至很多不是AI需求
比如:AI新应用上线,数字人部署、公文自动生成、合规审计、AIGC内容生产、LLM微调、API推理、AI Agent平台、油气井智能监测、基因测序、AI客服、汽车仿真碰撞、资料库RAG...
![]()
客户要跑啥业务
决定了你该卖哪种服务器
其实不管跑业务
最后都大致可以归纳成
5种常见AI计算任务
不同任务对服务器的配置要求完全不一样
❶
客户搞大模型预训练、续训
这是从零造模型的阶段,拼的是极限算力
动不动就要上万卡集群、十万卡集群
但是现实情况是
真正做预训练的客户很少
多是DeepSeek、百度、阿里这类头部公司
![]()
❷
客户搞全参微调
是在现有大模型基础上再训练一次
让模型更懂某个行业或任务
关键词:大显存+I/O快+高带宽+高互联
有些行业巨头在练『行业大模型』
比如:石油大模型、金融大模型
本质就是基于通用大模型,进行全参微调
这种客户,一般大模型厂商直接冲上去了
带着算力、带着定制服务
![]()
❸
客户搞轻量微调(LoRA、QLoRA)
在原模型上只调少量参数
属于灵活小任务
关键词:性价比+轻量+灵活
几张中端GPU就能搞定,性价比优先
适合中小项目、创业团队快速验证场景
![]()
❹
客户搞大模型推理
这是目前客户需求最多的一类
就是模型已经训练好要上岗干活
很多客户为了部署AI应用或智能体
要买个服务器/一体机,基本都是推理
关键词:快+稳+能顶并发
推理拼的不是极限算力
而是吞吐量和响应速度
![]()
❺
客户要搞RAG
这是【AI+搜索】的混合型工作
模型回答问题前,要先去知识库里查资料
再结合内容生成结果
这类需求的上下文长度通常更大
所以,对服务器的算力要求也会更高一些
不仅需要更强的GPU和更大的显存
对内存和CPU的要求也更高
(检索模块可能运行在CPU/内存上)
![]()
第二步:搞清客户有多大盘子
盘子
也就是现在需求+预期规模
首先,问清楚客户现在采购量级
单机试点、机柜部署、还是机房集群级?
![]()
其次,搞清楚后期规划
比如,现在是第一期,后面还有二期
还是待定,先跑跑看
根据实际业务情况,再考虑扩容
问清楚这个并不功利,而是帮双方避坑
遇到很多真实情况是
很多用户一开始是试水
1、2台机器先试试
但半年后,模型参数翻几倍
上下文从 8K 拉到 128K,并发多到炸
速度变慢,于是客户开始抱怨:
这机器怎么不行了?越跑越慢?
其实不是机器不行,是当初没留出余量

AI服务器选型不能只看今天
得往后推6–12个月,比较靠谱
AI日异月新,大概率会发生的事情是
模型会变大、上下文会变长、流量会变多
当然,也有客户试完了,对大模型祛魅了
发现对业务帮助有限,没下文了
![]()
第三步
尽可能带上技术一起交流
引导出明确目标
![]()
围绕「跑啥」的核心问题
顺势延展出其他问题
一、模型类问题
☑模型规模:您要跑的模型有多大?(参数规模 / 模型尺寸)
☑模型来源:这个模型是自研的,还是用第三方开源模型(如 Qwen、ChatGLM、Llama、DeepSeek等)?
☑数据量级:训练/微调数据量大概多大?是否需要并行文件系统?
☑微调策略:全参微调还是LoRA/QLoRA,SFT对齐还是偏好学习?
☑模型生态:是否已经有既定的软件栈或兼容要求?
☑业务场景:对话聊天?代码生成?文档解析?公文写作?事件调查?定制化开发?还是API 调用 ?还是嵌入业务系统?
☑未来方向:后续有没有计划升级模型尺寸或增加上下文长度?
二、性能与并发问题
就是,客户希望达到什么效果
必须搞清楚客户诉求的优先级
是要算得多,还是要算得快,还是要稳如狗?
目标一不同,配置天差地别
![]()
下面问题越具体
后面的方案越有针对性
☑吞吐:每秒希望生成多少 token?或每秒处理多少请求(TPS)?单次请求上下文多长?
☑时延:响应速度有什么要求?首字时间(TTFT)延迟要控制在多少?是要实时低延迟,还是批量高吞吐?
☑并发:系统同时要支撑多少人使用?(100?500?)预计同时会有多少活跃会话?
这个过程中,一定要注意客户的
随口一问
![]()
这种看似不经心的一问
代表的是客户的某种重要诉求
![]()
接下来,方案环节
还要再叠加上自家的核心优势
比如:异构算力(东西方都行)、更灵活的拓扑配置、风冷液冷全覆盖、国产化、安全可控、交付快、支持强...
当然,只买算力还不够
大模型要落地,软实力也很重要
比如MaaS平台、应用开发工具链等等
这些软能力,我们后续再讲
![]()
第四步
招投标了,看看别人标底怎么玩的
在实战中再学习
这是来自某个真实项目的标书要求
某985名校预算2100万的AI服务器
具体参数我们先略过不看
就看看你能不能过得了这个演示关
![]()
这个标底很不错啊
说明客户已经不听纯忽悠了
让开标的时候直接上demo
没点真水平,想抢单没门了
![]()
最后就一句话
Q4了,祝大家开单顺利,大单连连
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.