来源:IT之家
10 月 16 日晚,百度正式发布并开源自研多模态文档解析模型 PaddleOCR-VL。在全球权威文档解析评测榜单 OmniBenchDoc V1.5 中,PaddleOCR-VL 以 92.6 分取得综合性能全球第一成绩,四大核心能力(文本、表格、公式、阅读顺序)全线 SOTA,超越 GPT-4o、Gemini-2.5 Pro、Qwen2.5-VL-72B 等主流多模态大模型,以及 MonkeyOCR-Pro-3B、MinerU2.5、dots.ocr 等 OCR 专业模型,刷新全球 OCR VL 模型性能天花板。
![]()
据了解,PaddleOCR-VL 其核心模型参数仅 0.9B,轻量高效,能够在极低计算开销下,精准识别文本、手写汉字、表格、公式、图表等复杂元素,支持 109 种语言,覆盖中文、英语、法语、日语、俄语、阿拉伯语、西班牙语等多语场景,广泛适用于政企文档管理、知识检索、档案数字化、科研信息抽取等文档智能任务。
作为文心 4.5 衍生模型,PaddleOCR-VL-0.9B 通过融合 NaViT 动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,在精度与效率上取得双重突破。
精度方面,在 OmniDocBench v1.5 上,PaddleOCR-VL 实现了文本编辑距离仅 0.035、公式识别 CDM91.43、表格 TEDS93.52、阅读顺序预测误差值 0.043 的纪录级表现,模型在复杂文档、手写稿、历史档案识别等高难度场景中亦能表现稳定。
![]()
推理方面,在单张 A100GPU 上,PaddleOCR-VL 每秒可处理 1881 个 Token,推理速度较 MinerU2.5 提升 14.2%,较 dots.ocr 提升 253.01%。
区别于传统 OCR 仅能逐行识别文字,PaddleOCR-VL 能够像人一样读懂、理解复杂版面结构,精准提取财报表格、数学公式、课堂手写笔记等多元信息,并在识别后自动还原符合人类阅读习惯的阅读顺序,精准区分标题、正文、图片与图注,确保信息无遗漏、逻辑不混乱。
架构上,PaddleOCR-VL 采用创新的两阶段架构:第一阶段由 PP-DocLayoutV2 模型负责版面检测与阅读顺序预测;第二阶段由 PaddleOCR-VL-0.9B 识别并结构化输出文字、表格、公式、图表等元素。相较端到端方案,能够在复杂版面中更稳定、更高效,有效避免多模态模型常见的幻觉与错位问题。
![]()
凭借轻量架构与高精度表现,PaddleOCR-VL 在性能、成本和落地性上实现最佳平衡,具备强实用价值。其结构化输出能力还能与 RAG(检索增强生成)系统深度结合,为大模型提供高质量知识输入,成为 AI 知识处理新阶段的重要基础设施。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.