news 2026/4/13 17:37:23

学习周报三十三

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
学习周报三十三

摘要

本周深入研究了DeepSeek-OCR模型的演进,重点分析了从V1到V2版本的核心架构变革。V1模型采用传统ViT架构(SAM+Conv+CLIP),按固定空间顺序输出视觉特征,在复杂文档解析中存在语义顺序被打乱的问题。V2模型创新性地将编码器后半部分的CLIP替换为小型LLM(Qwen2-0.5B),引入“视觉因果流”机制,通过可学习的“因果流查询Tokens”动态决定信息提取顺序,实现了从“物理坐标顺序”到“语义逻辑顺序”的根本转变,使模型能像人类一样理解复杂文档的排版结构。

Abstract

This week focused on the evolution of the DeepSeek-OCR model, with in-depth analysis of the core architectural transformation from V1 to V2. The V1 model employed a traditional ViT architecture (SAM+Conv+CLIP) that outputs visual features in fixed spatial order, leading to disrupted semantic sequencing when parsing complex documents. The V2 model innovatively replaced the CLIP component in the latter half of the encoder with a small LLM (Qwen2-0.5B), introducing a “visual causal flow” mechanism. Through learnable “causal flow query tokens,” it dynamically determines information extraction order, achieving a fundamental shift from “physical coordinate order” to “semantic logical order,” enabling the model to understand complex document layouts similarly to humans.

1、DeepSeek-OCR-2 模型

之前学习了DeepSeekOCR模型,一个重要的启发是:它验证了图片是文本的高效压缩格式,用几百个 token 就能压进上千字的文本。

1.1 V1的问题

从 DeepSeek-OCR V1 到 V2,最关键的叙事转变是从 物理压缩(Compression) 转向了 逻辑感知(Reasoning/Flow)。而这个转变最主要的动机在于:V1 的编码器,沿用了传统的 ViT 那套架构,具体来说,是 SAM + Conv + CLIP 的组合。

这个架构看上去分工明确,很合理,它有什么问题呢?主要在于,传统的做法,CLIP 这步输出通常是对应空间位置的特征序列(Patch Tokens),也就是说,当把这些特征喂给 LLM 时,通常是按照固定的空间顺序(光栅扫描) 拉直的,通俗地说就是从左上角一行一行死板地扫到右下角。但是,对于排版复杂一点的文档(比如表格、多栏文本),这种「从左上角到右下角」的物理顺序,往往打乱了原本的语义顺序。这让后面的 LLM 解码器理解起来非常费劲。我们人类是怎么看这种复杂排版的文章的呢?举个例子,一篇双栏的学术论文,你会先看大标题,然后看左栏的第一段,读完左栏再跳到右栏。你的视线是跳跃的,但这种跳跃是符合语义逻辑的。所以,V2 的作者提出:能不能让视觉编码器像人眼一样,不按死板的坐标顺序,而是按照内容的逻辑顺序来输出视觉特征?他们把这种能力称为 视觉因果流(Visual Causal Flow)。

1.2 改动:把 Encoder 换成 LLM

上面是 V2 的架构图,和 V1 相同的部分在于:依然保留了 SAM + Conv 做前端感知(也就是编码器的前半部分)解码器部分仍然是一个 LLM(DeepSeek-3B)主要的变动在于编码器的后端部分,把之前的 CLIP 换成了一个小巧的 LLM(Qwen2-0.5B)。也就是说,作者把这个编码器设计成了一个混合体,处理两种 Token:
视觉 Tokens: 代表图片原本的信息。
因果流查询 Tokens: 这是一组可学习的参数,它们负责「提取」并「排序」视觉信息。

1.3 为什么要用 LLM 做视觉编码器呢?

这个设计相当于引入了两个级联的因果推理机制:第一级(Encoder 内部): 负责「排版推理」。它不生成文字,只负责把视觉信息按阅读逻辑排好队。每一个 Query 在生成时,不仅看着原图(Visual Tokens),还看着前面的 Query。这迫使模型学习「根据上文逻辑,下一眼该看图片的哪里」。第二级(Decoder LLM): 负责「内容推理」。把排好队的特征翻译成文字。这种设计让解码器 LLM(依然是那个 DeepSeek3B-MoE)的工作轻松了太多。这就像模型在输出视觉 token 之前,已经在内部做了一次 「隐式的思维链」,把乱序的空间像素,梳理成了有序的语义流。以前的模型是「空间坐标」决定顺序,DeepSeek-OCR 2 是「语义逻辑」决定顺序。

总结

本周通过对DeepSeek-OCR V1与V2模型的对比研究,深入理解了多模态文档理解模型从“感知”到“理解”的关键跃迁。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/13 13:10:27

惊艳!提示工程架构师给出提示注入攻击防范新思路

惊艳!提示工程架构师给出提示注入攻击防范新思路 关键词:提示工程、提示注入攻击、防范思路、大语言模型、安全机制、对抗训练 摘要:本文深入探讨了由提示工程架构师提出的提示注入攻击防范新思路。首先介绍提示工程的领域背景及提示注入攻…

作者头像 李华
网站建设 2026/3/30 2:13:50

JavaScript DOM操作实战:从入门到精通

JavaScript DOM 核心操作:从内容到节点的实战指南 一、内容操作 文本内容 textContent:获取或设置元素的纯文本内容 const element document.getElementById("demo"); console.log(element.textContent); // 获取内容 element.textContent …

作者头像 李华
网站建设 2026/4/3 7:38:25

linux genpool 学习

一、背景与引入在 Linux 内核中,内存管理并不只局限于伙伴系统(buddy allocator)和 slab/slub 分配器。在许多设备驱动、SoC 子系统以及共享内存场景中,开发者往往需要管理一块地址固定、大小有限、分配规则特殊的内存区域&#x…

作者头像 李华
网站建设 2026/4/12 12:01:33

Github源码推荐 | Prometheus:让自主无人机开发更简单、更高效!

在无人机开发领域,从飞控底层到上层应用的跨越往往面临着巨大的技术门槛。如何快速验证算法?如何平滑地从仿真过渡到真机? 今天为大家介绍一款由阿木实验室(Amov Lab) 维护的重磅开源项目——Prometheus。 &#x1f31…

作者头像 李华
网站建设 2026/4/13 6:17:23

jQuery Mobile 表单选择

jQuery Mobile 表单选择 引言 jQuery Mobile 是一款流行的前端框架,它使得开发跨平台移动应用变得简单快捷。在移动应用中,表单是用户与应用交互的主要方式之一。而表单选择(Select)是表单中常见的控件,用于让用户从一系列选项中选择一个或多个值。本文将详细介绍 jQuer…

作者头像 李华