来源:OfferShow
春节前的国内科技圈,不少公司都在收尾和准备放假,节奏明显慢了下来,但DeepSeek却完全是个例外…
这家以技术效率闻名的AI公司,最近动作特别频繁:一边接连发布重磅技术成果,一边敞开大门大力招人。创始人梁文锋的名字还频频出现在核心论文的作者栏里——种种迹象都让人觉得,他们可能正在准备“搞个大事情”。
打破平静的是年初的两次技术发布。
元旦当天,DeepSeek发布了一篇名为《mHC:流形约束超连接》的论文 , 重点解决超大规模模型训练时容易“崩溃”的稳定性问题。就在大家还没完全消化时,1月中旬,他们又在GitHub上开源了一个名为“Engram”的新模块代码,并发布了与之相关的论文《Conditional Memory via Scalable Lookup》(与北京大学合作),这回瞄准的是大模型“记忆效率低、调用知识笨拙”的痛点。
![]()
图源自网络
这两篇硬核论文都有梁文锋的署名。了解AI圈的人大概能看出来,创始人亲自挂帅核心研究,这绝不只是为了完成年度指标,更像是在向外界传递一个清晰信号:在之前的“沉默期”里,DeepSeek并没有停下,而是在为下一代模型储备关键的“技术弹药”。
技术要落地,人才是关键。DeepSeek的招聘其实早有苗头,去年11月就曾开放过行政岗位,当时内部反馈是“团队扩大了,需要更多支持伙伴”。到了今年1月,招聘全面铺开,岗位覆盖了大模型研发的几乎全链条。技术核心岗是招聘主力,例如深度学习研究员,需要负责大语言模型的预训练、对齐、多模态等前沿方向的探索。非技术岗位如产品、设计、数据专家等也在同步招聘。
![]()
![]()
图源自BOSS直聘截图
值得一提的是,从论文作者名单来看,DeepSeek的核心团队非常稳定。这说明目前的招聘不是为了填补流失,而是真正的业务扩张——为了推进关键项目,需要更多新鲜血液加入。
如果把技术突破和招聘热潮这两条线串起来看, 所有的线索似乎都指向同一个目标:那就是DeepSeek的下一代模型——V4。
按现有的信息推测,V4可能不会是一个单纯靠堆砌参数变大的 “庞然巨物”,而更可能是一个在架构上高度精巧的“融合体”。既有MoE架构的高效计算能力,又集成了Engram的低成本海量记忆,底层还靠mHC架构稳住超大规模训练的稳定性。而要把这些技术从论文变成能用的产品,就需要足够多的人来落地,这也是扩招的核心逻辑——梁文锋要在春节前搭好团队,年后就能全力冲刺V4的发布。
对正在找工作或想转行的人来说,这场招聘热潮是机会,但也得认清现实。
应届生尤其值得抓住,DeepSeek明确“本科可投”,不卡学历履历,更看重数学基础、Python编程能力和创新力。转行党也有缺口,比如医疗数据百晓生岗位,只要懂病历、影像的医学背景,再加上基础编程能力,就能参与AI医疗项目,踩上2033年预计达3157亿规模的赛道。
春节前的安静里,总藏着年后的变数。DeepSeek的技术蓄力与人才扩招,既是一家公司的“战前准备”,也是AI行业从“堆算力”到“拼人才”的缩影。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.