大家好,我是Ai学习的老章
OCR 我写过太多了,每隔一段时间就有新模型出来:
今天这位选手是阿里巴巴团队开源的Logics-Parsing-v2,在两个主流 Benchmark 上直接拿了第一:自家的 LogicsDocBench 拿了82.16 分,公开的 OmniDocBench-v1.5 拿了93.23 分,都是目前最高分。
![]()
https://www.modelscope.cn/studios/Alibaba-DT/Logics-Parsing/summary?spm=label.24dbbd5e.0.0.34862eb7aIqtVk 这模型有啥不一样?
市面上 OCR 模型一大把,Logics-Parsing-v2 凭啥能打?核心就两个字:全能。
传统 OCR 做的事情比较窄——识别文字、提取表格、处理公式。但实际文档远比这复杂:报纸那种多栏排版、跨页表格、竖排文字、手写内容……这些"脏活累活",大部分模型处理得都不太行。
Logics-Parsing-v2 在 v1 的基础上,除了把这些传统任务做得更好之外,还加了一个全新的能力维度,叫Parsing-2.0——支持解析以下内容:
流程图 / 思维导图→ 输出 Mermaid 格式
乐谱→ 输出 ABC 记谱法
代码块 / 伪代码→ 结构化提取
化学分子式→ SMILES 格式
你没看错,它能看懂乐谱。这在 OCR 领域算是相当炸裂的能力了。
![]()
Logics-Parsing-v2 能力概览——从传统文档到流程图、乐谱、代码全覆盖 Benchmark 成绩单
先看自家的LogicsDocBench,这是阿里专门建的评测集,900 页 PDF,覆盖三大场景:
场景
页数
包含内容
STEM 文档
218 页
物理、数学、工程等十多个学科
复杂排版
459 页
多栏、跨页表格、竖排、图文混排
Parsing-2.0
223 页
化学式、乐谱、代码块、流程图
在这个 Benchmark 上,Logics-Parsing-v2 以82.16 分的总分排名第一,远超其他选手。
![]()
LogicsDocBench 评测结果——Logics-Parsing-v2 全面领先
再看公开的OmniDocBench-v1.5,这个是业界公认的文档解析评测标准。Logics-Parsing-v2 拿了93.23 分,同样是最高分——比 Gemini 2.5 Pro、GPT-5、豆包 1.6 这些闭源大模型都高。
![]()
OmniDocBench-v1.5 评测结果——开源模型首次登顶
说实话,开源 OCR 模型在 OmniDocBench 上打赢闭源大模型,这还是头一次。之前我测过不少 OCR 模型,闭源的 Mathpix、doc2x 一直是天花板,现在这个天花板被捅穿了。
跟其他模型比怎么样?
在阿里自建的 Benchmark 上(v1 评测,数值越低越好,TEDS 越高越好):
几个值得关注的对比:
vs Gemini 2.5 Pro:Logics-Parsing 在英文文本(0.089 vs 0.115)、表格(0.165 vs 0.154 接近)上都有竞争力
vs Mathpix:公式识别 Mathpix 还是很强(0.06 vs 0.106),但综合能力 Logics-Parsing 更好
vs MonkeyOCR / GOT-OCR:全面领先,不在一个档次
vs 通用大模型(GPT-5、Qwen2.5VL-72B):专用模型优势明显
一个模型,端到端推理,不需要复杂的 pipeline,直接图片进、HTML 出。这个思路比传统的"检测+识别+后处理"流水线简洁太多了。
输出格式很讲究
Logics-Parsing-v2 输出的不是纯文本,而是结构化 HTML。
每个内容块都带有:
类别标签:段落、表格、图片、公式等
边界框坐标:精确到像素级的位置信息
OCR 文本:识别出的内容
对于 Parsing-2.0 的新场景,输出格式也做了定制:
流程图 →Mermaid语法(可以直接渲染)
乐谱 →ABC 记谱法(音乐人看得懂)
化学式 →SMILES格式(化学标准表示)
这意味着你拿到输出之后,不需要再做什么后处理,直接就能用。
怎么跑?
部署很简单:
conda create -n logics-parsing-v2 python=3.10
conda activate logics-parsing-v2
pip install -r requirements.txt
下载模型(HuggingFace 或 ModelScope 二选一):
# HuggingFace
pip install huggingface_hub
python download_model_v2.py -t huggingface# ModelScope(国内更快)
pip install modelscope
python download_model_v2.py -t modelscope
推理一行搞定:
python3 inference_v2.py --image_path 你的图片路径 --output_path 输出目录 --model_path 模型路径
基于 Qwen3-VL 架构,对 GPU 有一定要求,但不算离谱。
实际效果展示
说了这么多数据,看几个实际效果:
扭曲文档识别——拍照角度歪斜、纸张弯曲,照样准确识别:
![]()
扭曲文档识别效果
STEM 文档——复杂的数学公式、物理图表,结构完整保留:
![]()
STEM 文档解析效果
代码块识别——不只是识别文字,还能保留代码结构:
![]()
代码块识别效果
流程图解析——识别流程图并转成 Mermaid 代码,可以直接渲染:
![]()
流程图解析效果
乐谱识别——这个真的是第一次在 OCR 模型里见到:
![]()
乐谱识别效果 总结
Logics-Parsing-v2 给我的感觉就是:OCR 这个赛道,终于有一个模型把"全能"两个字做到位了。
双 Benchmark 第一:LogicsDocBench 82.16,OmniDocBench-v1.5 93.23
Parsing-2.0:流程图、乐谱、代码、化学式,传统 OCR 碰都不碰的东西它全能解
端到端单模型:不需要复杂 pipeline,图片进 HTML 出
开源免费:代码和模型全部开放
如果你在做文档数字化、论文解析、知识库构建这类工作,这个模型真的值得试试。
GitHub:https://github.com/alibaba/Logics-Parsing
HuggingFace 模型:https://huggingface.co/Logics-MLLM/Logics-Parsing-v2
在线 Demo:https://www.modelscope.cn/studios/Alibaba-DT/Logics-Parsing/summary
制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个,谢谢你看我的文章,我们下篇再见!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.