大模型的上下文窗口已经能装下百万token,但企业真正想喂给它的数据,往往比这多得多。这是Graphon Inc.今天带着830万美元种子轮融资亮相时,试图解决的核心矛盾。
这家初创公司由Novera Ventures领投,Perplexity AI、三星电子、日立等企业的风投部门跟投。它的技术方向很具体:让AI模型在处理超大规模数据集时,不再被上下文窗口掐住脖子。
![]()
当前最先进的LLM上下文窗口约为100万token,相当于几千页文本。企业级数据集动辄超出这个量级,开发者普遍采用RAG(检索增强生成)工具来绕过限制——先分析大数据集,提取关键记录再喂给模型。但RAG有个明显短板:它擅长按相关性排序,却难以识别记录之间的关联。举个例子,从海量安全日志中提取恶意软件信号时,RAG可能分不清这些信号来自多次独立攻击,还是同一黑客活动的不同阶段。
Graphon的解决方案是"持久关系记忆"(persistent relational memory)。它的平台能分析超过100万token的数据集,识别关键模式并存储到持久记忆中,LLM后续可直接调用这些模式,无需重复加载原始数据。
技术实现上,Graphon使用约2亿参数的小模型来处理数据,核心工具是"图"(graph)——一种描述对象间关系的数据结构,特别适合呈现企业数据中的有用模式。更关键的是graphon函数,这种数学对象能扫描以图形式存储的业务数据,找出相互关联的记录。该函数的联合发明者、计算机科学家Christian Borgs目前担任Graphon的技术顾问。
"过去十年AI在学习模仿语言,"Graphon创始人兼CEO Arbaaz Khan表示,"但世界不是由token构成的,而是由关系构成的。保留这种结构,能让基础模型在企业规模上更准确、更实用。"
Graphon并非孤例。同赛道中,Subquadratic上周刚完成2900万美元融资,其改良版transformer架构单次提示可处理1400万token,且声称硬件效率显著提升。不过Subquadratic的方案是扩展模型本身的处理能力,而Graphon选择在外部构建一个"记忆层"——两种路径的竞争,将决定企业AI基础设施的下一形态。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.