news 2026/4/28 11:37:29

DeepSeek-OCR-2图文教程:上传PDF→自动识别→复制文本→导出TXT/JSON

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
DeepSeek-OCR-2图文教程:上传PDF→自动识别→复制文本→导出TXT/JSON

DeepSeek-OCR-2图文教程:上传PDF→自动识别→复制文本→导出TXT/JSON

1. 前言:告别繁琐,让文档识别变得简单

如果你经常需要处理扫描的PDF文档、图片里的文字,或者想把纸质文件变成可编辑的电子版,那么手动打字或者用传统的OCR工具可能会让你头疼。识别不准、格式混乱、操作复杂——这些问题我都经历过。

今天我要分享的DeepSeek-OCR-2,可能是你一直在找的解决方案。这个模型采用了全新的DeepEncoder V2方法,让AI能够理解图像的含义,然后智能地重排图像的各个部分,而不是像传统OCR那样机械地从左到右扫描。

简单来说,它更聪明了。

最让我惊喜的是,这个模型只需要256到1120个视觉Token就能处理复杂的文档页面,在OmniDocBench v1.5评测中综合得分达到了91.09%。这意味着什么?意味着识别准确率更高,处理速度更快,而且对复杂版面的适应能力更强。

在这篇教程里,我会手把手带你从零开始,学会如何:

  • 快速部署DeepSeek-OCR-2环境
  • 上传PDF文件进行自动识别
  • 复制识别出来的文本内容
  • 导出为TXT或JSON格式文件

整个过程就像用手机拍照一样简单,但效果却专业得多。无论你是学生、研究人员、办公人员,还是需要处理大量文档的从业者,这个工具都能帮你节省大量时间。

2. 环境准备:三步搞定部署

2.1 系统要求

在开始之前,我们先看看需要准备什么。其实要求很简单:

  • 操作系统:Linux(推荐Ubuntu 20.04或更高版本),Windows和macOS也可以通过Docker运行
  • 内存:至少16GB RAM(处理大文档时建议32GB)
  • GPU:有GPU会更快,但CPU也能运行(只是速度会慢一些)
  • 存储空间:至少20GB可用空间

如果你用的是CSDN星图镜像,很多环境都已经预配置好了,可以直接跳到下一步。

2.2 快速安装步骤

如果你需要自己搭建环境,下面是完整的安装流程。别担心,我已经把命令都整理好了,你只需要复制粘贴就行。

首先,创建一个新的工作目录并进入:

mkdir deepseek-ocr-demo cd deepseek-ocr-demo

然后安装必要的Python包。我建议使用Python 3.9或更高版本:

pip install torch torchvision torchaudio pip install vllm pip install gradio pip install pdf2image pip install pillow pip install transformers

这些包的作用分别是:

  • torch:深度学习框架基础
  • vllm:推理加速,让识别速度更快
  • gradio:创建Web界面,让你可以通过浏览器操作
  • pdf2image:把PDF转换成图片,因为OCR模型需要图片输入
  • pillow:处理图片
  • transformers:加载和使用预训练模型

2.3 下载模型文件

接下来需要下载DeepSeek-OCR-2模型。模型文件比较大(大约几个GB),所以需要一些时间:

from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "deepseek-ai/DeepSeek-OCR-2" model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name) # 保存到本地,方便以后使用 model.save_pretrained("./deepseek-ocr-2-model") tokenizer.save_pretrained("./deepseek-ocr-2-model")

如果你觉得下载速度慢,也可以先下载到本地,然后从本地加载。很多云服务商都提供了模型镜像,下载速度会快很多。

3. 启动Web界面:像用网站一样简单

3.1 创建Gradio应用

现在我们来创建一个简单的Web界面。创建一个名为app.py的文件,然后添加以下代码:

import gradio as gr from pdf2image import convert_from_path from PIL import Image import torch from transformers import AutoModelForCausalLM, AutoTokenizer import json import os # 加载模型和分词器 print("正在加载模型,这可能需要几分钟...") model = AutoModelForCausalLM.from_pretrained( "./deepseek-ocr-2-model", torch_dtype=torch.float16, device_map="auto" ) tokenizer = AutoTokenizer.from_pretrained("./deepseek-ocr-2-model") print("模型加载完成!") def process_pdf(pdf_file): """处理PDF文件的主函数""" try: # 第一步:将PDF转换为图片 print(f"正在转换PDF: {pdf_file.name}") images = convert_from_path(pdf_file.name) results = [] all_text = "" # 第二步:逐页识别 for i, image in enumerate(images): print(f"正在识别第 {i+1}/{len(images)} 页...") # 预处理图片 image = image.convert("RGB") # 使用模型进行OCR识别 inputs = tokenizer(image, return_tensors="pt").to(model.device) with torch.no_grad(): outputs = model.generate(**inputs, max_new_tokens=1024) # 解码识别结果 text = tokenizer.decode(outputs[0], skip_special_tokens=True) # 保存每页结果 page_result = { "page": i + 1, "text": text, "image_size": image.size } results.append(page_result) all_text += f"=== 第 {i+1} 页 ===\n{text}\n\n" # 第三步:返回结果 return all_text, json.dumps(results, ensure_ascii=False, indent=2) except Exception as e: return f"处理出错: {str(e)}", "" # 创建Gradio界面 with gr.Blocks(title="DeepSeek-OCR-2 PDF识别工具") as demo: gr.Markdown("# DeepSeek-OCR-2 PDF文字识别") gr.Markdown("上传PDF文件,自动识别文字内容,支持导出TXT和JSON格式") with gr.Row(): with gr.Column(): pdf_input = gr.File(label="上传PDF文件", file_types=[".pdf"]) submit_btn = gr.Button("开始识别", variant="primary") with gr.Column(): text_output = gr.Textbox(label="识别结果", lines=20, interactive=True) json_output = gr.Code(label="JSON格式结果", language="json", interactive=True) with gr.Row(): txt_download = gr.DownloadButton("下载TXT文件", visible=False) json_download = gr.DownloadButton("下载JSON文件", visible=False) # 处理函数 def process_and_download(pdf_file): text_result, json_result = process_pdf(pdf_file) # 保存临时文件供下载 txt_filename = "识别结果.txt" json_filename = "识别结果.json" with open(txt_filename, "w", encoding="utf-8") as f: f.write(text_result) with open(json_filename, "w", encoding="utf-8") as f: f.write(json_result) return text_result, json_result, txt_filename, json_filename # 绑定事件 submit_btn.click( fn=process_and_download, inputs=[pdf_input], outputs=[text_output, json_output, txt_download, json_download] ) # 更新下载按钮可见性 def update_download_visibility(text_result): return gr.DownloadButton(visible=bool(text_result)), gr.DownloadButton(visible=bool(text_result)) text_output.change( fn=update_download_visibility, inputs=[text_output], outputs=[txt_download, json_download] ) # 启动应用 if __name__ == "__main__": demo.launch(server_name="0.0.0.0", server_port=7860, share=False)

3.2 启动应用

保存文件后,在终端中运行:

python app.py

你会看到类似这样的输出:

正在加载模型,这可能需要几分钟... 模型加载完成! Running on local URL: http://0.0.0.0:7860

现在打开浏览器,访问http://localhost:7860,就能看到我们刚刚创建的界面了。

如果你用的是CSDN星图镜像,通常已经预置了Web界面,直接点击相应的按钮就能打开,不需要自己运行上面的命令。

4. 实际操作:从上传到导出的完整流程

4.1 上传PDF文件

打开Web界面后,你会看到一个简洁的页面。点击"上传PDF文件"按钮,选择你要识别的文档。

这里有几个小建议:

  1. PDF质量:尽量选择清晰的PDF文件,扫描质量越好,识别准确率越高
  2. 文件大小:单次处理建议不超过50页,大文件可以分批处理
  3. 语言支持:DeepSeek-OCR-2支持多种语言,包括中文、英文、日文、韩文等

上传后,界面大概是这样的:

  • 左侧是上传区域和开始按钮
  • 右侧是结果显示区域,分为文本预览和JSON格式

4.2 开始识别

点击"开始识别"按钮,系统就会开始处理。处理时间取决于:

  • PDF的页数
  • 每页的复杂度
  • 你的硬件配置(GPU比CPU快很多)

在识别过程中,你可以在终端看到进度提示:

正在转换PDF: document.pdf 正在识别第 1/10 页... 正在识别第 2/10 页... ...

通常来说,一页普通的A4文档,在GPU上只需要几秒钟就能识别完成。

4.3 查看和编辑识别结果

识别完成后,右侧的文本框中会显示所有识别出来的文字。这里有几个实用的功能:

文本预览区域

  • 可以直接查看识别结果
  • 可以选中文字进行复制
  • 可以编辑修改识别错误的地方

JSON格式区域

  • 显示结构化的识别结果
  • 包含每页的文本、页码、图片尺寸等信息
  • 方便程序进一步处理

如果发现识别有错误,你可以直接在文本框中修改。DeepSeek-OCR-2的准确率很高,但对于一些特殊字体、手写体或者模糊的扫描件,可能还是需要人工校对一下。

4.4 导出结果

这是最实用的部分——导出识别结果。

导出TXT文件

  1. 点击"下载TXT文件"按钮
  2. 文件会自动下载到你的电脑
  3. 用任何文本编辑器(如记事本、VS Code等)都能打开
  4. 格式清晰,每页之间有分隔线

导出JSON文件

  1. 点击"下载JSON文件"按钮
  2. 下载后可以用Python、JavaScript等语言处理
  3. 适合需要进一步自动化处理的场景

JSON文件的格式是这样的:

[ { "page": 1, "text": "这是第一页的内容...", "image_size": [2480, 3508] }, { "page": 2, "text": "这是第二页的内容...", "image_size": [2480, 3508] } ]

5. 实用技巧与常见问题

5.1 提升识别准确率的小技巧

根据我的使用经验,下面这些方法能让识别效果更好:

预处理PDF

# 如果你有多个PDF需要批量处理,可以这样优化 from pdf2image import convert_from_path def optimize_pdf_conversion(pdf_path, dpi=300): """优化PDF转换参数""" images = convert_from_path( pdf_path, dpi=dpi, # 提高DPI让图片更清晰 grayscale=True, # 灰度模式有时识别更好 fmt='jpeg', # JPEG格式 thread_count=4 # 多线程加速 ) return images

处理特殊场景

  • 表格识别:DeepSeek-OCR-2对表格的支持不错,但复杂的合并单元格可能需要后期调整
  • 数学公式:能识别基本的数学符号,但对于复杂公式,建议使用专门的工具
  • 手写文字:印刷体识别效果很好,手写体取决于书写工整程度

5.2 常见问题解决

问题1:识别速度慢

  • 检查是否使用了GPU:torch.cuda.is_available()
  • 减少max_new_tokens参数的值
  • 分批处理大文档

问题2:内存不足

# 可以尝试降低精度 model = AutoModelForCausalLM.from_pretrained( "./deepseek-ocr-2-model", torch_dtype=torch.float16, # 使用半精度 device_map="auto", low_cpu_mem_usage=True # 减少CPU内存使用 )

问题3:特殊字符识别错误

  • 确保PDF中的字体是嵌入的
  • 尝试调整图片的对比度和亮度
  • 对于特定领域的文档(如医学、法律),可能需要微调模型

问题4:批量处理需求如果你需要处理大量PDF文件,可以这样自动化:

import os from glob import glob def batch_process_pdfs(pdf_folder, output_folder): """批量处理文件夹中的所有PDF""" os.makedirs(output_folder, exist_ok=True) pdf_files = glob(os.path.join(pdf_folder, "*.pdf")) for pdf_file in pdf_files: filename = os.path.basename(pdf_file) print(f"处理: {filename}") # 调用识别函数 text_result, json_result = process_pdf(pdf_file) # 保存结果 txt_path = os.path.join(output_folder, f"{filename}_result.txt") json_path = os.path.join(output_folder, f"{filename}_result.json") with open(txt_path, "w", encoding="utf-8") as f: f.write(text_result) with open(json_path, "w", encoding="utf-8") as f: f.write(json_result) print(f"批量处理完成!共处理 {len(pdf_files)} 个文件")

5.3 进阶用法:API集成

如果你想把OCR功能集成到自己的系统中,可以这样创建一个简单的API:

from fastapi import FastAPI, File, UploadFile from fastapi.responses import JSONResponse import tempfile import os app = FastAPI(title="DeepSeek-OCR-2 API") @app.post("/ocr/pdf") async def ocr_pdf(file: UploadFile = File(...)): """处理上传的PDF文件""" try: # 保存上传的文件 with tempfile.NamedTemporaryFile(delete=False, suffix=".pdf") as tmp: content = await file.read() tmp.write(content) tmp_path = tmp.name # 处理PDF text_result, json_result = process_pdf(tmp_path) # 清理临时文件 os.unlink(tmp_path) return JSONResponse({ "status": "success", "filename": file.filename, "text": text_result, "json": json.loads(json_result) }) except Exception as e: return JSONResponse({ "status": "error", "message": str(e) }, status_code=500) # 运行:uvicorn api:app --reload --port 8000

这样你就可以通过HTTP请求来调用OCR功能了,方便集成到各种应用中。

6. 总结:让文档处理更高效

通过这篇教程,你应该已经掌握了DeepSeek-OCR-2的基本使用方法。让我们回顾一下关键点:

核心流程很简单

  1. 准备环境(或者直接用现成的镜像)
  2. 启动Web界面
  3. 上传PDF文件
  4. 点击识别按钮
  5. 查看、编辑、导出结果

这个工具的优势

  • 准确率高:采用创新的DeepEncoder V2方法,理解图像含义而非机械扫描
  • 使用简单:Web界面操作,无需编程基础
  • 格式灵活:支持TXT和JSON导出,满足不同需求
  • 处理高效:支持vLLM推理加速,处理速度快

适用场景广泛

  • 学生:把教材、论文扫描件转换成可编辑文本
  • 办公人员:处理合同、报告等文档
  • 研究人员:数字化古籍、档案资料
  • 开发者:集成到自己的应用中

我个人的使用感受是,DeepSeek-OCR-2在保持高准确率的同时,大大简化了操作流程。传统的OCR工具往往需要复杂的参数调整,而这个工具基本上就是"上传-识别-导出"三步走。

如果你在使用的过程中遇到问题,或者有改进建议,可以参考官方文档或者社区讨论。技术的进步离不开大家的反馈和贡献。

最后提醒一点:虽然这个工具的识别准确率很高,但对于重要的文档,建议还是人工核对一下关键信息。特别是涉及法律、财务等敏感内容的文档,双重检查总是更稳妥。

希望这篇教程能帮你提高文档处理的效率。技术应该让生活更简单,而不是更复杂——DeepSeek-OCR-2正是这样一个工具。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/28 11:36:59

三星、美光、长江存储都在卷!2024年3D NAND层数大战,谁在憋大招?

2024年3D NAND层数竞赛:技术路线与商业博弈的全景解析 当你在2024年购买新款智能手机或固态硬盘时,可能不会意识到手中设备的核心存储部件正经历着半导体行业最激烈的技术军备竞赛。3D NAND闪存芯片的堆叠层数——这个看似简单的数字背后,隐藏…

作者头像 李华
网站建设 2026/4/28 11:36:30

射频指纹识别技术:原理、应用与深度学习实现

1. 射频指纹识别技术概述射频指纹识别(Radio Frequency Fingerprint Identification, RFFI)是一种基于硬件特征的设备身份认证技术。与传统的MAC地址或IP认证不同,RFFI通过分析无线设备发射信号中蕴含的独特硬件特征来实现设备识别&#xff0…

作者头像 李华
网站建设 2026/4/28 11:35:21

UniExtract2:多格式文件提取的终极解决方案与实践指南

UniExtract2:多格式文件提取的终极解决方案与实践指南 【免费下载链接】UniExtract2 Universal Extractor 2 is a tool to extract files from any type of archive or installer. 项目地址: https://gitcode.com/gh_mirrors/un/UniExtract2 在数字文件处理领…

作者头像 李华
网站建设 2026/4/28 11:34:14

基于Simulink的偏移鲁棒性无线充电自适应频率跟踪

目录 手把手教你学Simulink ——基于Simulink的偏移鲁棒性无线充电自适应频率跟踪 一、引言:偏移为何是无线充电的“阿喀琉斯之踵”? 二、系统架构与控制逻辑 1. 自适应频率跟踪框架 2. 为什么用阻抗相位? 三、核心控制模块详解 第一步:阻抗相位实时计算 1. 测量原…

作者头像 李华