“ 加入"知识星球",获取报告内容和原始数据(中美欧等全球的民事侵权诉讼/行政授确权诉讼/商标评审/专利复审等原始数据和报告):
2026年5月7日,昆仑芯科技正式启动科创板上市辅导。
这家公司的名字,在国产AI芯片圈里并不陌生——它是国内最早实现AI芯片大规模商用的企业之一,前身是百度智能芯片及架构部,2021年完成独立融资,如今手握765件专利,正站在资本市场的门口。
但昆仑芯究竟是一家什么样的公司?它的技术护城河有多深?在英伟达主导的AI算力市场里,它的突破口在哪里?
本文基于昆仑芯765件专利的完整数据库,逐一拆解。
一、专利资产的前世今生:从百度剥离的技术遗产
理解昆仑芯,必须先理解它的专利资产结构。
765件专利中,申请人涵盖三个主体:昆仑芯科技(约426件)、百度(约309件)、星云融创等关联公司(约14件)。表面上看,这是一个混合专利池,但深入法律状态数据会发现一个关键事实:345件专利发生过权利转移,其中百度原始申请的309件中,267件(71.6%)已完成转移。
这批专利,是昆仑芯2021年从百度独立时带走的核心技术资产。
从时间线看,2019年和2020年是第一个申请高峰,两年合计319件,占总量的41.7%。这个时间节点高度吻合:2019年昆仑芯1代芯片量产,2020年昆仑芯2代芯片研发推进,百度和昆仑芯团队在这两年密集申请了大量安全、加密、处理器架构专利,并在美国、欧洲、韩国、日本同步布局。
这批专利的海外布局密度,在国产AI芯片企业中极为罕见。
美国110件、欧洲60件、韩国55件、日本53件、德国37件——德国单独申请(非通过EP途径)这一细节尤其值得关注,说明昆仑芯对德国汽车工业市场的重视程度超出一般认知。结合2022年出现的"安全岛中的内存管理方法、装置、芯片、车辆以及介质"(CN202211049220.4)这件明确针对车载AI芯片的授权专利,昆仑芯的车规级芯片布局早已悄然展开。
二、技术架构解剖:XPU不是GPU的替代品
昆仑芯的核心技术主张是"XPU架构"——2017年在Hot Chips发布,此后历经三代芯片迭代。但XPU究竟是什么?专利数据库给出了比官方宣传更清晰的答案。
从IPC分类看技术重心:
技术方向
专利数
占比
处理器调度与执行(G06F9)
203
26.5%
存储系统(G06F3/G11C)
101
13.2%
安全/加密(H04L9/G06F21)
94
12.3%
矩阵/向量运算(G06F17)
57
7.4%
神经网络/机器学习(G06N)
57
7.4%
芯片设计/EDA/编译(G06F30)
50
6.5%
G06F9/50(任务调度/资源分配)是单一IPC中申请量最大的,达64件,且贯穿2019年至2025年每一个阶段,从未间断。这不是偶然——任务调度是XPU架构区别于GPU的核心差异所在。
GPU的设计哲学是"大规模并行":数千个CUDA核心同时执行相同指令(SIMT),适合图形渲染和矩阵乘法的规则计算。XPU的设计哲学是"异构任务调度":针对AI推理中大量存在的不规则计算(稀疏矩阵、动态形状张量、条件分支)设计专用调度单元,在这类场景下效率显著优于GPU。
专利CN202110815712.9(2021年,"指令处理装置、处理器、芯片、计算设备及相应的方法")和CN202110821443.7(2021年,"用于处理任务的方法、处理器、设备和可读存储介质")是这一方向的代表性授权专利,均已授权,构成昆仑芯处理器架构的核心知识产权壁垒。
三、三代芯片的技术演进:专利数据还原真实路线图
官方资料对三代芯片的描述相对简略,但专利申请的时间分布和技术方向,可以还原出更精细的技术路线图。
昆仑芯1代(2019年量产):验证可行性
对应专利主要集中在2018–2019年,技术重心是基础处理器架构和安全体系。这一代芯片的核心任务是验证XPU架构在实际AI推理场景中的可行性,专利布局以"能跑起来"为目标,覆盖指令执行、内存访问、基础安全机制。
昆仑芯2代(2021年量产):性能跃升
2020–2021年专利申请量合计231件,是整个专利库中技术密度最高的两年。这一阶段出现了大量矩阵运算(G06F17/16)、流水线优化(G06F9/38)、虚拟化(G06F9/455)专利,以及完整的AI加速器安全体系(根信任、密钥共享、AI水印、数据混淆)。
其中,"使用隐式数据签名人工智能水印的方法和系统"(CN202010519652.1)这件专利尤为值得关注——它解决的是AI模型知识产权保护问题,即如何在不影响模型性能的前提下,为模型嵌入不可见的版权水印。这在2020年是极具前瞻性的布局,彼时大模型版权争议尚未成为行业焦点。
昆仑芯3代(2024年,R系列+K系列):大模型适配
2023–2024年专利申请量合计207件,技术方向发生了明显转向:矩阵运算专利密度显著提升,出现了明确针对Transformer架构的专利——CN202410324562.5(2024年,"数据处理方法、训练注意力计算的方法、装置、设备和介质")已获授权,直接对应大语言模型中最核心的Attention计算优化。
同年,"深度学习模型的训练方法、图像生成方法及装置"(CN202310798241.4)授权,覆盖扩散模型(Diffusion Model)训练加速,说明昆仑芯3代的设计目标已从"通用AI推理"升级为"大模型训练+推理全覆盖"。
3代芯片分为R系列和K系列,从专利布局推断:R系列(Reasoning)侧重推理加速,K系列(Knowledge/Kernel)侧重训练场景,两条产品线对应不同的任务调度策略和存储访问模式。
四、安全护城河:被低估的差异化竞争力
昆仑芯的安全专利群,是整个专利库中最容易被忽视、却最具战略价值的部分。
94件安全/加密专利,集中在2019–2020年密集申请,覆盖完整的AI加速器安全体系:
根信任(Root of Trust) :为AI加速器建立硬件级信任锚点,防止固件篡改
密钥共享 :多加速器集群间的安全密钥分发协议(CN202010514201.9,已授权)
AI水印 :模型版权保护(CN202010519652.1,已授权)
命令加密 :主机向加速器下发指令的加密通道(CN202010526300.9,已授权)
内核签名输出 :加速器计算结果的完整性验证(CN202010526807.4,已授权)
这套安全体系的完整性,在国产AI芯片企业中独一无二。更重要的是,这批专利在美国、欧洲、韩国、日本均有对应申请,且多数已完成权利转移至昆仑芯名下,法律状态清晰。
为什么安全专利是差异化竞争力?
金融、政务、医疗等行业的AI部署,对数据安全和模型安全有强制性要求。一块没有硬件级安全机制的AI芯片,在这些场景中根本无法通过合规审查。昆仑芯的安全专利群,实际上是一张进入高价值行业市场的"通行证"。
五、存储墙:AI芯片的真正瓶颈,昆仑芯的真正战场
AI芯片领域有一个被反复提及却鲜少被深入分析的概念——"存储墙"(Memory Wall)。
简单说:现代AI模型的参数量以百亿、千亿计,而芯片片上SRAM容量有限,大量数据需要在片上缓存和片外HBM之间反复搬运。数据搬运的带宽和延迟,往往比计算本身更制约整体性能。
昆仑芯在存储系统方向布局了101件专利,是仅次于处理器调度的第二大技术方向。其中,G06F3/06(存储器访问控制)27件,G11C(存储器件)10件,G06F13/28(内存总线/DMA)若干件。
2023年集中出现的存储访问效率专利尤为关键:
CN202310310122.X("电子设备、确定存储器访存效率的方法和存储介质",已授权)
CN202310310366.8("数据处理装置、方法、电子设备和存储介质",已授权)
这两件专利的核心是访存效率的动态评估与优化——在运行时实时分析数据访问模式,动态调整缓存策略,减少无效数据搬运。这是解决存储墙问题的软硬件协同方案,技术难度极高。
2024年授权的CN202410324562.5(Attention计算优化)同样与存储密切相关——Transformer的Attention机制计算复杂度是序列长度的平方,存储访问是主要瓶颈,该专利针对这一瓶颈提出了专用的数据布局和访问优化方案。
六、EDA工具链:全栈野心的最新证据
2025年专利申请中,EDA(电子设计自动化)方向的专利数量显著增加,出现了G06F30/392(布局布线优化)、G06F30/3312(时序分析)等细分方向的申请。
这是一个值得高度关注的信号。
EDA工具是芯片设计的"操作系统",长期被Synopsys、Cadence、Mentor等美国公司垄断。在当前地缘政治背景下,EDA工具的自主可控已成为国产芯片企业的战略必选项。昆仑芯在EDA方向的专利布局,说明其正在构建自主的芯片设计工具链——这不仅是降低对外依赖的防御性举措,更是向"全栈AI芯片公司"演进的主动战略。
结合2024年出现的先进封装专利(CN202420647011.8,"3D封装堆叠芯片",已授权),昆仑芯的全栈布局已延伸至:
算法层 → 编译器/SDK → 芯片架构 → EDA工具 → 先进封装
这条完整的技术链条,是昆仑芯区别于大多数国产AI芯片企业(通常只覆盖芯片架构和SDK层)的核心差异。
七、核心发明人:技术护城河的人才基础
专利数据库揭示了昆仑芯的核心技术团队构成。
发明人
专利数
核心方向
欧阳剑
175件
处理器调度、任务执行、分布式计算
程越强
121件
安全体系架构
刘勇
87件
存储系统、调度优化
王京
58件
处理器架构
杜学亮
58件
编译器、EDA工具链
漆维
49件
安全/加密
王勇
40件
处理器执行
罗航
32件
矩阵运算
欧阳剑是绝对核心发明人,覆盖处理器调度、任务执行、分布式计算等多个方向,是XPU架构的主要设计者之一。程越强主导了2019–2020年的安全专利集群,是昆仑芯安全体系的核心架构师。
这四位核心发明人的专利覆盖方向,恰好对应昆仑芯最核心的四个技术护城河:处理器架构、安全体系、存储优化、编译工具链。技术团队的稳定性,是评估昆仑芯科创板上市后持续创新能力的关键指标。
八、市场潜力:三个被低估的增量空间
增量空间一:政务与金融的国产替代
国内政务云、金融核心系统的AI算力采购,正在经历从英伟达向国产芯片的强制性迁移。昆仑芯凭借完整的安全体系(根信任、密钥共享、数据加密)和成熟的商用记录(三代芯片均已量产),是这一市场最具竞争力的选手之一。
增量空间二:边缘推理的爆发
大模型推理正在从云端向边缘迁移——手机、汽车、工业设备都需要本地AI算力。昆仑芯的车载AI芯片专利(CN202211049220.4)和边缘推理优化方向,预示其产品线将向边缘侧延伸。这是一个比数据中心更分散、更难被单一巨头垄断的市场。
增量空间三:大模型训练的国产算力替代
2024年以来,国内大模型企业在英伟达GPU供应受限的背景下,被迫加速国产算力适配。昆仑芯3代芯片(R系列+K系列)的训练/推理双线布局,以及Attention计算优化、分布式任务调度等专利,直接对应这一需求。
九、技术突破方向:专利数据的前瞻信号
从2025年专利申请的技术方向,可以预判昆仑芯下一代产品(昆仑芯4代)的核心突破点:
突破点一:稀疏计算加速
大语言模型推理中,大量激活值接近零(稀疏性),跳过这些无效计算可以大幅提升效率。2025年申请中出现了针对稀疏矩阵的专用调度专利,这是4代芯片在推理效率上的核心差异化方向。
突破点二:存算一体(In-Memory Computing)
G11C方向的专利在2024–2025年持续增加,部分专利涉及存储单元内嵌计算逻辑,这是解决存储墙问题的根本性方案——数据不再需要搬运到计算单元,而是在存储单元内直接完成计算。
突破点三:分布式推理协同
G06F9/50(任务调度)在2025年仍是申请量最大的单一IPC,且出现了明确针对多芯片协同推理的专利。随着大模型参数量突破万亿,单芯片已无法承载完整推理,多芯片协同调度成为必须解决的工程问题。
突破点四:编译器自动优化
EDA和编译器方向的专利密度在2025年显著提升,说明昆仑芯正在构建能够自动将PyTorch/TensorFlow模型映射到XPU架构的编译优化工具链。这是降低开发者迁移成本、扩大生态的关键基础设施。
十、风险与挑战:数据不说谎
有效授权专利约395件,占总量51.6%,授权率处于行业中等水平。27件专利处于放弃/视为放弃状态,19件被驳回后完成权利转移——这批被驳回专利的存在,说明部分技术方向的专利布局存在质量参差不齐的问题,在科创板上市审查中可能面临专利有效性质疑。
2022年申请量仅46件,是整个专利库的最低谷,与当年国内半导体行业整体融资收缩的背景吻合。这一年的研发投入压缩,是否影响了2024–2025年的产品竞争力,值得关注。
百度仍持有部分未完成转移的专利,两家公司之间的知识产权边界是否清晰,是上市审查的潜在风险点。
国产AI芯片的竞争,从来不只是算力数字的比拼。昆仑芯用十年时间,在处理器调度、安全体系、存储优化、编译工具链四个方向构建了完整的技术护城河,并在大模型时代到来之前完成了关键的架构转型。科创板上市,是这家公司从"百度孵化的技术团队"走向"独立AI芯片平台公司"的最后一块拼图——但能否在英伟达主导的市场格局中找到真正属于自己的位置,取决于它能否把专利数据库里那些关于稀疏计算、存算一体、分布式推理的技术预判,转化为下一代产品的实际性能优势。
“ 加入"知识星球",获取报告内容和原始数据(中美欧等全球的民事侵权诉讼/行政授确权诉讼/商标评审/专利复审等原始数据和报告):
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.