由华人创业者沈俊潇(Shawn Shen)创办的 Memories.ai,刚刚发布了 LVMM 2.0,(大型视觉记忆模型 Large Visual Memory Model),并宣布了与高通的合作,LVMM 将于 2026 年在高通处理器上原生运行。
Memories.ai 于 2024 年在硅谷创办,专注于开发 AI 的视觉记忆能力。2025 年 7 月,Memories.ai 宣布完成 800 万美金种子轮融资,由 Susa Ventures 领投,三星风投(Samsung Next)、Fusion Fund 等知名机构跟投。
![]()
Memories.ai 两位创始人 Shawn(左),Ben(右)
创始人沈俊潇,剑桥大学三一学院工程学本硕博学位,毕业后任 Meta Reality Labs 核心研究科学家,探索人机交互与增强现实。
联合创始人周恩旻(Ben Zhou)创业前在 Meta Reality Labs,从事 Meta Ray-Ban 眼镜上搭载的 AI 助手的相关产品工作。
前不久,Memories.ai 宣布引入 Eddy Wu 作为公司的首席 AI 负责人,Eddy Wu 此前在 Meta 工作五年,负责 Meta AI 应用的 GenAI 研究。
⬆️关注 Founder Park,最及时最干货的创业分享
超 15000 人的「AI 产品市集」社群!不错过每一款有价值的 AI 应用。
邀请从业者、开发人员和创业者,飞书扫码加群:
进群后,你有机会得到:
最新、最值得关注的 AI 新品资讯;
不定期赠送热门新品的邀请码、会员码;
最精准的AI产品曝光渠道
LLM 让文本搜索与分析变得智能且高效,使用户可以快速在成百上千份文档中找到关键信息。但视频不同——它密集、无结构,而且被锁定在时间轴上。团队仍需手动快进、依赖文件名,或寄希望于字幕能准确捕捉“眼睛看到的”内容。大多数工具只索引音频或缩略图,却遗漏了动作、物体与上下文。没有“视觉记忆层”,AI 便无法在无数帧画面中精确定位或回答更高层次的问题。
为了解决这一问题,Memories.ai 开创了视觉记忆模型,在 2025 年 8 月发布了第一代 LVMM 大型视觉记忆模型。三个月后,LVMM 2.0 发布,模型在性能表现上与第一代相同,但参数量减少了 10 倍,更适合端侧运行。
Memories.ai 官宣视频
LVMM 2.0 通过将原始视频转化为设备端的结构化记忆,解决了视频可搜索性问题。它能对帧进行编码与压缩,建立支持毫秒级检索的索引。用户可用自然语言或图像线索发问,并直接跳转到精确片段。原生运行于高通处理器之上能显著降低延迟、减少云端成本,并确保数据本地化以强化安全性。模型将视频、音频与图像融合,使结果具备上下文;统一的记忆格式确保体验在手机、摄像头、边缘系统等设备间一致。开发者可通过 SDK 与参考设计快速接入捕捉、索引与检索功能,而无需重建后端。随着更多视频被索引,LVMM 的召回率与精准度也会持续提升。
LVMM 2.0 的实际应用包括:
AI 相册: 在设备上组织并调取个人视频记忆。
智能眼镜与可穿戴设备: 显著增强 AI 的回忆与识别能力。
安防系统: 帮助摄像头实时理解并响应。
机器人: 赋予现实世界中的机器人更强的环境理解力。
“通过将高通在边缘计算、连接性和设备端 AI 的专业能力,与 Memories.ai 的创新 LVMM 技术相结合,我们正在重塑机器的感知、学习与记忆方式。”高通公司产品管理副总裁兼生成式 AI/机器学习负责人 Vinesh Sukumar 表示,“这一合作将催生出更加灵敏、具备上下文理解力的 AI 平台,能够长期保留视觉信息、识别模式,并在边缘网络环境下稳定运行。我们正在加速实现共同的目标——让智能更贴近真实世界的应用。”
转载原创文章请添加微信:founderparker
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.