https://blog.csdn.net/qq_34777982/article/details/157651712?spm=1011.2124.3001.6209
之前使用ClaudeCode调用本地模型,效果不是太好,试用了下opencode效果还行,比较推荐,这里记录下环境搭建过程。
前置条件
nodejs 22.10+,推荐最新稳定版
搭建过程
# opencode 安装参考 https://opencode.ai/ npm i -g opencode-ai # oh my opencode: 安装参考 https://ohmyopencode.com/installation/ npm install -g oh-my-opencodewindows桌面版本:https://opencode.ai/download
工作模式简介
基本功能包含了两种如下工作模式:
PLAN:负责规划、分析,只读模式,不会修改代码
BUILD:负责写代码、执行命令,读写模式。
核心工作模式(多智能体协同),这是 oh-my-opencode 最核心的升级。它不再是一个单一的 AI 对话框,而是引入了一个主控智能体(Orchestrator)。
针对复杂需求(如"登录模块重构"),系统采用智能协作机制高效执行:
- 任务分解:主控智能体(Coordinator)对需求进行结构化拆解
- 专业分工:将子任务分配给特定职能的智能体(Agent)
- 智能体协作:
- Plan Agent:专注方案设计与分析(只读模式)
- Build Agent:负责代码实现与执行(读写模式)
- 优势体现:通过专业分工有效避免单一AI处理复杂任务时的上下文丢失和方向偏离问题。
核心工作模式使用流程
项目初始化
进入代码仓库目录后,不要急着写代码,先运行初始化指令
# 启动opencode opencode # 执行初始化指令 /init /init:这会在项目根目录生成一个 AGENTS.md 文件,这是项目的说明书,你需要在这里写入项目的技术栈、代码规范等,AI 会优先读取这个文件来理解你的项目,这能极大提高生成代码的准确性。常用指令
# 常用指令 指令/操作 功能描述 /init 生成/更新 AGENTS.md,让 AI 熟悉项目结构。 Tab 键 在不同的 Agent 模式间切换(例如从 Build 切换到 Plan)。 /add <文件名> 将特定文件添加到上下文(Context)中,方便 AI 精准读取。 @filename 在对话中引用特定文件(支持 @filename#L37-42 引用特定行)。 /undo 如果 AI 修改错了,一键撤销更改。高效交互策略
先规划,后执行:面对复杂需求,先按 Tab 切换到 Plan 模式(或者输入 /plan),让 AI 输出一个详细的执行计划。你觉得没问题后,再让它切换到 Build 模式去实际修改代码。 利用 Skills:oh-my-opencode 支持将可复用的工程经验沉淀为“能力模板”(Skills),比如发布流程或代码审查规范,你可以探索配置这些来进一步自动化流程 # 自定义配置 # 配置文件路径 ~/.config/opencode/oh-my-opencode.json 你可以自定义配置指定不同 Agent 使用的模型。 例如,让负责协调的 Sisyphus 使用最强的模型(如 Claude Opus 4.5),而让负责简单搜索的 explore 使用速度更快、成本更低的 Haiku 模型。这种强弱搭配既能保证核心逻辑的准确性,能更好地控制token 的消耗。命令与快捷键
命令 快捷键 功能描述 /connect Ctrl+x c 添加AI提供商及API密钥 /compact Ctrl+x c 压缩当前会话(同/summarize) /details Ctrl+x d 切换工具执行详情显示 /editor Ctrl+x e 调用外部编辑器撰写消息 /exit Ctrl+x q 退出OpenCode(同/quit, /q) /export Ctrl+x x 导出对话为Markdown并打开编辑器 /help Ctrl+x h 显示帮助对话框 /init Ctrl+x i 创建或更新AGENTS.md文件 /models Ctrl+x m 列出可用模型 /new Ctrl+x n 开始新会话(同/clear) /redo Ctrl+x r 重做上一条撤消的消息(需Git) /sessions Ctrl+x l 列出并切换会话(同/resume, /continue) /share Ctrl+x s 分享当前会话 /theme Ctrl+x t 列出可用主题 /thinking - 切换思维/推理块的可见性 /undo Ctrl+x u 撤销最后消息及文件更改(需Git) /unshare - 取消分享当前会话本地模型
前置条件
GPU 环境(推荐):NVIDIA GPU(显存 ≥80GB,推荐 H100/A100/A800),CUDA ≥12.2,Python 3.9-3.12,PyTorch ≥2.9.0 。
pip install vllm # 安装 modelscope pip install modelscope # 下载模型 modelscope download --model Qwen/Qwen3-30B-A3B-Instruct-2507 --local_dir ./Qwen/Qwen3-30B-A3B-Instruct-2507 # 启动 OpenAI 兼容服务器 # 启动 vLLM 服务器(指定模型路径) vllm serve ./Qwen/Qwen3-30B-A3B-Instruct-2507 --host 0.0.0.0 --port 8000 启动后,在 OpenCode 中配置本地 API 地址(http://localhost:8000/v1),即可无缝调用本地模型,实现「零数据上传」的代码辅助