新手入门:从零开始使用ollama运行DeepSeek-R1-Distill-Qwen-7B
你是不是也试过下载大模型、配环境、调参数,结果卡在第一步就放弃?别担心——今天这篇教程专为“第一次用AI模型”的朋友设计。不讲原理、不堆术语,只说最实在的操作:装好就能问,问了就有答,答了就能用。我们用的是【ollama】DeepSeek-R1-Distill-Qwen-7B镜像,一个轻量但实力在线的推理型小模型,7B参数,支持中文数学、代码和逻辑推理,而且——它真的能在你自己的笔记本上跑起来。
这不是概念演示,也不是云端调用,是实打实的本地部署。全程不需要GPU(CPU也能跑,只是稍慢),不需要Docker基础,甚至不用打开终端敲十行命令。如果你会点鼠标、会复制粘贴、会输入一句话提问,那你已经具备全部前置条件。
下面我们就从“还没装Ollama”开始,一步步带你走到“刚刚用它解出一道奥数题”的那一刻。
1. 准备工作:三分钟装好Ollama
Ollama就像AI模型的“应用商店+运行引擎”合体。它不挑系统,Windows、macOS、Linux全支持,安装过程比装微信还简单。
1.1 下载与安装
Windows用户:访问 https://ollama.com/download,点击“Windows Installer”,下载
.exe文件,双击运行,一路“下一步”即可。安装完成后,系统托盘会出现一个灰色小图标,说明服务已后台启动。macOS用户:打开终端,复制粘贴这一行命令(只需一次):
brew install ollama如果没装Homebrew,就去官网下载
.dmg安装包,拖进Applications文件夹,再双击启动Ollama应用。Linux用户(Ubuntu/Debian):终端执行:
curl -fsSL https://ollama.com/install.sh | sh安装完后,建议重启终端或运行
source ~/.bashrc刷新环境。
小验证:打开终端(或命令提示符),输入
ollama --version。如果返回类似ollama version 0.4.5的信息,说明安装成功。如果提示“命令未找到”,请重启终端或检查是否完成初始化步骤。
1.2 启动Ollama服务(自动完成,无需操作)
Ollama安装后默认自动启动后台服务。你不需要手动运行ollama serve,也不需要记住端口。只要图标在任务栏/菜单栏亮着,或者终端里能执行ollama list命令,就代表一切就绪。
提示:Ollama首次启动时会自动创建默认配置目录(如 Windows 在
%USERPROFILE%\AppData\Local\Programs\Ollama\),所有模型都会存在这里,后续升级或重装不会丢失已下载模型。
2. 拉取模型:一条命令,3分钟下载完成
DeepSeek-R1-Distill-Qwen-7B 并不是Ollama官方仓库的默认模型,但它已被社区打包为标准格式,可直接通过ollama run命令一键拉取并运行。
2.1 执行拉取命令
在终端(或命令提示符)中,输入以下命令:
ollama run deepseek-r1-distill-qwen:7b注意:这里用的是deepseek-r1-distill-qwen:7b,不是文档里写的deepseek:7b——后者是另一个简化版别名,可能指向旧版本或不完整镜像。我们坚持用准确名称,避免后续提问出错。
执行后你会看到类似这样的输出:
pulling manifest pulling 0e9a8c6f9b2a... 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████......这个过程实际耗时取决于你的网络(国内用户建议开启代理或使用镜像源,后文会说明加速技巧),通常3–8分钟。模型大小约4.2GB(Int8量化版),比原版7B模型节省近一半空间。
小验证:下载完成后,Ollama会自动进入交互式聊天界面,并显示
>>>提示符。此时你已经“运行成功”了——但先别急着提问,我们先确认模型身份。
2.2 验证模型是否正确加载
在>>>提示符下,输入以下测试句(不用回车,直接看响应):
你是谁?理想响应应包含类似关键词:“DeepSeek-R1-Distill-Qwen-7B”、“蒸馏自DeepSeek-R1”、“支持数学与代码推理”等。如果返回的是通用LLM套话(如“我是通义千问”或“我是Qwen”),说明你可能拉取到了错误模型,建议执行:
ollama rm deepseek-r1-distill-qwen:7b然后重新运行ollama run ...命令。
3. 第一次提问:从“你好”到解题实战
现在,你面前是一个真正能思考的AI助手。它不是搜索引擎,不靠关键词匹配;它是基于强化学习训练出的推理模型,擅长一步步拆解问题、自我验证、修正错误。
3.1 基础提问:试试它的中文理解力
在>>>后输入:
请用中文写一段关于春天的短诗,要求押韵,四句,每句七字。你会看到它几乎实时生成一首工整小诗,比如:
春风拂面柳丝长,
桃李争芳映日光。
燕语呢喃穿绿野,
溪流潺潺绕山岗。
这不是模板填充,而是模型根据“押韵”“七言”“春天意象”等约束自主组织语言的结果。你可以立刻感受到它和普通聊天机器人的区别:有结构、有节奏、有审美判断。
3.2 进阶提问:让它帮你解一道初中数学题
试试这个真实场景:孩子作业卡在一道题,你不想直接给答案,但需要一个清晰讲解。
输入:
甲乙两人同时从A地出发去B地,甲每小时走5公里,乙每小时走7公里。乙到达B地后立即返回,在距B地3公里处与甲相遇。求AB两地距离。它会给出完整分步解析,包括画线段图示意、设未知数、列方程、解方程、验算全过程。关键在于——它不会跳步,也不会用“显然可得”糊弄你。这就是DeepSeek-R1系列的核心优势:链式推理(Chain-of-Thought)已内化为本能。
小技巧:如果你发现回答略显啰嗦或重复,可以在提问末尾加一句:“请用最简步骤回答,不超过100字。” 它会立刻收紧逻辑,直击核心。
4. 实用技巧:让效果更稳、速度更快、体验更顺
刚上手时,你可能会遇到“回答慢”“输出重复”“答非所问”等问题。别归咎于模型——这是所有大模型的共性,而DeepSeek-R1-Distill-Qwen-7B其实已做了大量优化。只需几个小设置,就能大幅提升体验。
4.1 控制输出质量:温度(temperature)调到0.6最合适
默认情况下,Ollama使用中等随机性(temperature=0.8)。对DeepSeek-R1这类强调逻辑的模型,稍低一点更稳妥。
退出当前会话(按Ctrl+C),然后用带参数方式重跑:
ollama run --temperature 0.6 deepseek-r1-distill-qwen:7b你会发现:
- 数学题推导更严谨,少“可能”“大概”这类模糊词;
- 代码生成更符合规范,缩进、命名、注释都更专业;
- 中文表达更简洁,避免无意义的铺垫句。
温度值参考:0.0=完全确定(适合考试答题)、0.4–0.6=推荐日常使用、0.8=创意写作、1.0以上慎用(易失控)。
4.2 加速下载:国内用户必看的镜像源配置
如果你发现ollama run卡在99%不动,大概率是GitHub资源被限速。解决方法很简单:配置国内镜像源。
打开终端,执行:
# Linux/macOS echo 'export OLLAMA_HOST=0.0.0.0:11434' >> ~/.bashrc echo 'export OLLAMA_ORIGINS="http://localhost:* https://localhost:* http://127.0.0.1:* https://127.0.0.1:*"' >> ~/.bashrc source ~/.bashrc然后重启Ollama服务(Windows右键托盘图标→Restart;macOS/Linux终端执行ollama serve)。
更彻底的方案是使用清华源镜像(需手动构建):访问 https://mirrors.tuna.tsinghua.edu.cn/ollama/ 查看最新镜像列表,下载.sif文件后用ollama create导入。不过对新手,上面的环境变量配置已足够应对90%的卡顿问题。
4.3 多轮对话:记住上下文,像真人一样连续交流
它支持真正的多轮对话。比如你问完数学题后,接着说:
把刚才的解题过程转成Python代码,模拟计算过程。它会立刻理解“刚才”指代前一个问题,并输出可运行的Python脚本,包含变量定义、循环模拟、结果打印。你甚至可以中途插入一句“等等,把乙的速度改成8公里”,它会自动更新全部推导。
注意:Ollama默认上下文窗口为2048 tokens,足够应付5–8轮深度对话。如果进行超长文档分析,建议配合
--num_ctx 4096参数启动(需内存≥16GB)。
5. 常见问题解答:新手最常卡在哪?
我们整理了真实用户在CSDN社区反馈的高频问题,附上一键解决法。
5.1 “提示‘No such file or directory’,无法运行”
这是Windows用户最常遇到的报错,本质是PowerShell权限或路径问题。
解决方案:
- 右键“开始菜单” → “Windows Terminal(管理员)”
- 输入
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser回车 - 再运行
ollama run deepseek-r1-distill-qwen:7b
5.2 “回答全是英文,不支持中文?”
不是不支持,是模型默认倾向英文输出。只需在提问开头加一句中文指令:
请全程用中文回答,不要夹杂英文单词。它会立刻切换语言模式,并保持后续所有回答均为纯中文。
5.3 “CPU占用100%,风扇狂转,还能继续用吗?”
能。DeepSeek-R1-Distill-Qwen-7B在CPU模式下(无GPU)会启用GGUF格式+llama.cpp后端,虽慢但稳定。如果你的CPU是i5-8250U或更新型号,单次推理通常在15–40秒内完成,完全可用。若想提速,建议:
- 关闭其他大型软件(Chrome多个标签页最耗资源);
- 在Ollama命令中添加
--num_threads 4(限制线程数,防过载); - 或升级到RTX 3050及以上显卡,启用GPU加速(自动识别,无需额外配置)。
5.4 “怎么保存对话记录?能导出为文本吗?”
Ollama本身不提供导出功能,但你可以轻松实现:
方法一(推荐):在终端中运行时,用鼠标全选历史内容 → 右键复制 → 粘贴到记事本保存。
方法二:用第三方工具ollama-webui(开源项目),部署后自带对话历史导出按钮,搜索“ollama-webui github”即可获取。
6. 总结:你已经掌握了什么,接下来可以做什么
回顾这短短十几分钟,你完成了:
- 在自己电脑上装好Ollama运行环境;
- 成功拉取并验证了DeepSeek-R1-Distill-Qwen-7B模型;
- 完成了从基础问答、数学解题到多轮对话的全流程实操;
- 掌握了温度调节、镜像加速、中文锁定等关键技巧;
- 解决了安装报错、语言切换、性能卡顿等真实问题。
这不只是“跑通一个模型”,而是拿到了一把打开AI推理世界大门的钥匙。接下来,你可以:
- 把它变成你的“私人学习教练”:输入课本章节,让它出题、讲解、批改;
- 当作“轻量级编程搭档”:粘贴报错信息,让它定位Bug并修复;
- 甚至嵌入工作流:用Ollama API对接Notion或飞书,实现自动会议纪要生成。
技术从来不是门槛,而是杠杆。你不需要成为专家,也能用好最先进的AI能力。今天这一步,就是你从“围观者”变成“使用者”的起点。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。