DeepSeek 又发新模型,小而美玩出新高度

把文本先渲染成图像,再用视觉 Token 表示,10× 压缩率下 OCR 准确率仍达 97%,远低文本平方级算力消耗,为长上下文处理提供“视觉降维”方案。

摘要
DeepEncoder:SAM-base 局部特征 + CLIP-large 全局语义 + 16× 卷积压缩器,多分辨率输入(64‒400 Token) 一键输出;DeepSeek-3B-MoE 解码器:仅激活 5.7 亿参数即可从压缩视觉 Token 高精度重建文本,兼顾容量与速度。
单卡 A100-40G 日处理 20 万页,20 节点集群达 3300 万页/天;在 OmniDocBench 上以 100 视觉 Token 超 GOT-OCR2.0,800 Token 击败 MinerU2.0,训练数据生产成本骤降。
统一提示词即可把图表、化学结构式、几何图形、自然图像等直接转成结构化数据(SMILES、LaTeX、JSON),为 STEM 领域提供端到端文档理解能力。
将历史对话渲染成图像并逐级降低分辨率,模拟人类记忆衰退;近期高保真、远期低消耗,理论上实现“无限长”上下文窗口,开辟 LLM 做“减法”的新研究方向。
DeepSeek 开源了一个 3B 模型 DeepSeek-OCR。虽然体量不大,但模型思路创新的力度着实不小。
众所周知,当前所有 LLM 处理长文本时都面临一个绕不开的困境:计算复杂度是平方级增长的。序列越长,算力烧得越狠。

于是,DeepSeek 团队想到了一个好办法。既然一张图能包含大量文字信息,而且用的 Token 还少,那不如直接把文本转成图像?这就是所谓的「光学压缩」——用视觉模态来给文本信息「瘦身」。
而 OCR 正好天然适合验证这个思路,因为它本身就是在做「视觉→文本」的转换,而且效果还能量化评估。

论文显示,DeepSeek-OCR 的压缩率能达到 10 倍,OCR 准确率还能保持在 97% 以上。
啥意思呢?就是说,原本需要 1000 个文本 Token 才能表达的内容,现在只用 100 个视觉 Token 就搞定了。即使压缩率拉到 20 倍,准确率也还有 60% 左右,整体效果相当能打。
OmniDocBench 基准测试结果显示:
 
只用 100 个视觉 Token,就超过了 GOT-OCR2.0(每页 256 个 Token)的表现
 
用不到 800 个视觉 Token,干翻了 MinerU2.0(平均每页超过 6000 个 Token)
在实际生产中,一块 A100-40G 显卡就能每天生成超过 20 万页的 LLM/VLM 训练数据。20 个节点(160 块 A100)直接飙到每天 3300 万页。

DeepSeek-OCR 由两个核心组件组成:
 
DeepEncoder(编码器):负责图像特征提取和压缩
 
DeepSeek3B-MoE(解码器):负责从压缩后的视觉 Token 中重建文本
让我们来重点说说 DeepEncoder 这个引擎。
它的架构很巧妙,通过把 SAM-base(8000 万参数)和 CLIP-large(3 亿参数)串联起来,前者负责「窗口注意力」提取视觉特征,后者负责「全局注意力」理解整体信息。
中间还加了个 16×卷积压缩器,在进入全局注意力层之前把 Token 数量大幅砍掉。
举例而言,一张 1024×1024 的图像,会被切成 4096 个 patch token。但经过压缩器处理后,进入全局注意力层的 Token 数量会大幅减少。
这样的好处是,既保证了处理高分辨率输入的能力,又控制住了激活内存的开销。
而且 DeepEncoder 还支持多分辨率输入,从 512×512 的 Tiny 模式(64 个 Token)到 1280×1280 的 Large 模式(400 个 Token),一个模型全搞定。
目前开源版本支持的模式包括原生分辨率的 Tiny、Small、Base、Large 四档,还有动态分辨率的 Gundam 模式,灵活性拉满。

解码器用的是 DeepSeek-3B-MoE 架构。
别看只有 3B 参数,但采用了 MoE(混合专家)设计——64 个专家中激活 6 个,再加 2 个共享专家,实际激活参数约 5.7 亿。这也让模型既有 30 亿参数模型的表达能力,又保持了 5 亿参数模型的推理效率。
解码器的任务就是从压缩后的视觉 Token 中重建出原始文本,这个过程可以通过 OCR 风格的训练被紧凑型语言模型有效学习。
数据方面,DeepSeek 团队也是下了血本。
从互联网收集了 3000 万页多语言 PDF 数据,涵盖约 100 种语言,其中中英文占 2500 万页。
数据分两类:粗标注直接用 fitz 从 PDF 提取,主要训练少数语言的识别能力;精标注用 PP-DocLayout、MinerU、GOT-OCR2.0 等模型生成,包含检测与识别交织的高质量数据。
对于少数语言,团队还搞了个「模型飞轮」机制——先用有跨语言泛化能力的版面分析模型做检测,再用 fitz 生成的数据训练 GOT-OCR2.0,然后用训练好的模型反过来标注更多数据,循环往复最终生成了 60 万条样本。
此外还有 300 万条 Word 文档数据,主要提升公式识别和 HTML 表格解析能力。
场景 OCR 方面,从 LAION 和 Wukong 数据集收集图像,用 PaddleOCR 标注,中英文各 1000 万条样本。

DeepSeek-OCR 不仅能识别文字,还具备「深度解析」能力,只需一个统一的提示词,就能对各种复杂图像进行结构化提取:
 
图表:金融研究报告中的图表可以直接提取为结构化数据
 
化学结构式:识别并转换为 SMILES 格式
 
几何图形:对平面几何图形进行复制和结构化解析
 
自然图像:生成密集描述(dense captions)
这在 STEM 领域的应用潜力巨大,尤其是化学、物理、数学等需要处理大量符号和图形的场景。

第一作者 Haoran Wei 此前曾供职于阶跃星辰,期间发布并开源了 GOT-OCR2.0 系统
值得注意的是,DeepSeek 团队在论文里还提出了一个脑洞大开的想法——用光学压缩模拟人类的遗忘机制。
人类的记忆会随时间衰退,越久远的事情记得越模糊。DeepSeek 团队想,那能不能让 AI 也这样?于是,他们的方案是:
1.
把超过第 k 轮的历史对话内容渲染成图像
2.
初步压缩,实现约 10 倍的 Token 减少
3.
对于更久远的上下文,继续缩小图像尺寸
4.
随着图像越来越小,内容也越来越模糊,最终达到「文本遗忘」的效果
这就很像人类记忆的衰退曲线,近期信息保持高保真度,久远记忆自然淡化。
虽然这还是个早期研究方向,但如果真能实现,对于处理超长上下文将是个巨大突破——近期上下文保持高分辨率,历史上下文占用更少计算资源,理论上可以支撑「无限上下文」。

简言之,DeepSeek-OCR 表面上是个 OCR 模型,但实际上是在探索一个更宏大的命题:能否用视觉模态作为 LLM 文本信息处理的高效压缩媒介?
初步答案是肯定的,7-20 倍的 Token 压缩能力已经展现出来了。
当然,团队也承认这只是个开始。单纯的 OCR 还不足以完全验证「上下文光学压缩」,后续还计划开展数字–光学文本交替预训练、「大海捞针」式测试,以及其他系统性评估。
不过不管怎么说,这在 VLM 和 LLM 的进化路上,又多了一条新赛道。
去年这个时候,大家还在卷怎么让模型「记得更多」。今年 DeepSeek 直接反其道行之,不如让模型学会「忘掉一些」。
确然,AI 的进化,有时候不是做加法,而是做减法。小而美,也能玩出大花样,DeepSeek-OCR 这个 3B 小模型就是最好的证明。

本文源自「私域神器」,发布者:siyushenqi.com,转载请注明出处:https://www.firethy.com/67587.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2小时前
下一篇 2小时前

相关推荐

发表回复

登录后才能评论
联系我们

联系我们

+86 132-7601-9273

在线咨询: QQ交谈

邮件:siyushenqi@gmail.com

工作时间:周一至周日 9:00-18:30

添加微信
添加微信
WhatsApp Telegram email Email
分享本页
返回顶部

私域神器:一站式全网全渠道拓客营销软件
销售热线:173 5412 3667 (←点击添加微信)