DeerFlow新手指引:首次使用者必须了解的5个要点
1. DeerFlow是什么:你的个人深度研究助理
DeerFlow不是另一个聊天机器人,而是一个真正能帮你“做研究”的AI助手。它不满足于简单回答问题,而是主动调用搜索引擎、运行Python代码、分析网页内容、整理结构化报告,甚至把研究成果变成可听的播客。你可以把它想象成一位不知疲倦的研究搭档——你提出问题,它设计路径、收集证据、验证假设、生成结论,并用你习惯的方式呈现结果。
它背后没有黑箱式的模糊推理,而是清晰可见的协作流程:一个协调器负责统筹全局,规划器拆解任务,研究员去网上查资料,编码员写脚本处理数据,报告员最后把所有发现组织成逻辑严密、图文并茂的文档。这种“多智能体”方式,让复杂问题的解决过程变得透明、可控、可复现。
对刚接触的用户来说,最直观的感受是:它不只告诉你“答案”,还告诉你“这个答案是怎么来的”。
2. 它从哪里来:开源、模块化、开箱即用
2.1 开源项目与技术底座
DeerFlow是由字节跳动团队基于LangStack框架开发并开源的深度研究项目,托管在GitHub官方组织下。它的核心不是某个单一模型,而是一套可扩展的系统架构——LangGraph。这决定了它天生就适合做需要多步骤、多工具协同的任务,比如“对比近三年主流AI芯片的能效比,并用图表展示趋势”。
整个系统采用模块化设计,每个角色(协调器、规划器、研究员等)都是独立可替换的组件。这意味着未来你可以轻松接入自己的搜索API、更换更擅长数学的模型、或增加新的数据处理工具,而无需重写整个流程。
2.2 预置能力开箱即用
你不需要从零搭建环境。当前镜像已预装:
- 本地大模型服务:vLLM加速的Qwen3-4B-Instruct-2507,响应快、成本低;
- 多搜索引擎支持:Tavily和Brave Search双通道,兼顾深度与广度;
- 代码执行环境:Python 3.12+,可直接运行数据分析、网络请求、格式转换等脚本;
- 语音输出能力:集成火山引擎TTS,研究报告一键转播客;
- 双UI交互模式:控制台命令行适合调试,Web UI界面友好,适合日常使用。
它已部署在火山引擎FaaS应用中心,真正做到“一键启动,即刻研究”。
3. 启动前必查:两个关键日志确认服务就绪
DeerFlow由两层服务构成:底层是大语言模型推理服务(vLLM),上层是DeerFlow主程序。两者必须都正常运行,系统才能工作。首次启动后,请务必按顺序检查以下两项。
3.1 检查vLLM模型服务是否就绪
打开终端,输入以下命令查看模型服务日志:
cat /root/workspace/llm.log如果看到类似以下内容,说明Qwen3模型服务已成功加载并监听端口:
INFO 01-26 10:23:45 [server.py:189] Starting vLLM server... INFO 01-26 10:23:47 [model_runner.py:421] Loading model weights... INFO 01-26 10:24:12 [engine.py:215] vLLM engine started successfully. INFO 01-26 10:24:12 [server.py:220] HTTP server started on http://0.0.0.0:8000注意:若日志中出现
ERROR或长时间卡在Loading model weights...,请等待2–3分钟再重试;若持续失败,可能是显存不足,可尝试重启容器。
3.2 检查DeerFlow主程序是否启动成功
确认模型就绪后,再检查主程序:
cat /root/workspace/bootstrap.log成功日志会显示各组件初始化完成,并最终提示Web服务已就绪:
INFO: Started server process [123] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)此时,DeerFlow系统已完全激活,可以进入下一步操作。
4. 第一次提问:三步走完完整研究流程
DeerFlow的Web界面简洁直观,但初次使用时,容易忽略几个关键操作点。下面以“帮我分析2024年全球AI开源模型的发布趋势”为例,带你走通第一轮研究。
4.1 打开前端界面
点击左侧导航栏的WebUI按钮,系统将自动打开新标签页,加载DeerFlow图形界面。
4.2 激活研究模式
进入界面后,你会看到一个醒目的红色按钮(位于输入框上方右侧),标有“ Start Research”或类似文字。请务必点击它——这是启动多智能体协作的开关。不点此按钮,系统只会进行普通对话,不会调用搜索、代码或报告生成功能。
4.3 提出具体、可执行的问题
在下方输入框中输入你的问题。避免模糊表述如“讲讲AI”,而应聚焦可验证、可分解的任务:
推荐提问方式:
- “列出2024年GitHub Stars超5k的新开源AI模型,按Star数排序,生成表格”
- “对比Llama 3、Qwen3、Phi-3三个模型在MMLU基准上的准确率,用Markdown表格呈现”
- “爬取arXiv近30天标题含‘multimodal reasoning’的论文摘要,总结共性方法”
避免提问方式:
- “AI未来会怎样?”(过于宽泛,无明确执行路径)
- “帮我写篇报告”(缺少主题、范围、格式等约束)
提交后,你会看到实时滚动的日志:搜索发起 → 网页解析 → 代码执行 → 报告生成 → 播客合成(如启用)。整个过程透明可视,便于你理解每一步发生了什么。
5. 实用技巧与避坑指南:让第一次体验更顺畅
5.1 控制研究深度与成本
DeerFlow默认会进行较深入的调研,可能调用多次搜索、运行多个脚本。如果你只是想快速获取概览,可在提问中加入限定词:
- “用一句话总结…”
- “只列出前5个结果…”
- “不生成播客,仅输出Markdown报告”
- “跳过代码执行,仅用已有知识回答”
这些指令能显著缩短响应时间,也更适合探索性提问。
5.2 善用“追问”延续上下文
DeerFlow支持连续对话。例如,它生成一份比特币价格分析报告后,你可直接追问:“把其中2024年Q2的数据单独提取出来,画成折线图”,它会自动复用之前获取的数据,无需重新爬取。
小技巧:如果某次结果不理想,不要刷新页面重来。直接在原对话中说“换一种分析角度”或“补充XX维度”,系统通常能更好理解你的意图。
5.3 报告导出与二次编辑
所有生成的报告均以标准Markdown格式输出,支持一键复制、下载为.md文件,或粘贴到Typora、Obsidian等工具中继续编辑。图片、表格、代码块均保留原始格式,无需手动调整排版。
若需生成PPT或PDF,可将Markdown粘贴至支持渲染的在线工具(如Marktext、Docusaurus),或使用Pandoc命令行转换。
5.4 常见问题速查
| 问题现象 | 可能原因 | 快速解决 |
|---|---|---|
| 输入后无反应,日志无滚动 | WebUI未点击“Start Research”按钮 | 返回界面,点击红色启动按钮 |
| 搜索结果为空或极少 | 提问过于专业/冷门,或关键词被过滤 | 换更通用的术语,如将“MoE架构优化”改为“稀疏模型训练方法” |
| 报告中出现乱码或格式错乱 | 浏览器兼容性问题(尤其Safari) | 使用Chrome或Edge浏览器访问 |
| 播客生成失败 | TTS服务临时不可用或文本超长 | 关闭播客选项,先确保报告生成正常 |
6. 总结:从“会用”到“用好”的第一步
DeerFlow不是让你放弃思考的替代品,而是把你从信息搬运、格式整理、重复验证中解放出来的杠杆。它的价值不在于“答得快”,而在于“答得全、答得准、答得有依据”。
作为首次使用者,你只需记住这五点:
- 它是一个研究协作者,不是问答机——提问要具体、可分解、带目标;
- 双服务必须同时就绪——先看
llm.log,再看bootstrap.log,缺一不可; - WebUI需主动启动——红框按钮是开启深度研究的钥匙;
- 过程全程可视——日志滚动就是你的“研究进度条”,别跳过它;
- 报告即所见即所得——Markdown原生支持,复制即用,编辑自由。
当你完成第一次从提问到报告的全流程,你就已经跨过了最大的门槛。接下来,试着让它帮你整理会议纪要、分析竞品动态、生成学习笔记——真正的深度研究,就从这一次点击开始。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。