news 2026/4/28 6:50:43

Claude Code 零改动接入 DeepSeek V4

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Claude Code 零改动接入 DeepSeek V4

DeepSeek V4 已经开放 Anthropic 兼容的端点api.deepseek.com/anthropic,意味着可以直接拿 Claude Code 当客户端来跑 V4。

但问题来了:

  • Claude Code 现有配置都在~/.claude/,不管是订阅登录态、还是已经手工配过的 env 与 settings;
  • 一旦export ANTHROPIC_BASE_URL=...,所有claude命令都会走 DeepSeek,原有这条路就被覆盖了;
  • 想切回去?得unset一堆环境变量,或者重开一个干净的 shell;
  • 想同时挂 DeepSeek、Kimi、GLM 几个 provider 来回比?env 变量就更乱了。

cc-use就是为这个场景做的。一句话:它是 Claude Code 的启动器,每次启动只往子进程里注 env,永远不碰~/.claude/

下面用 DeepSeek V4 走一遍。

30 秒接入 DeepSeek V4

前置:Node ≥ 18,已经装了 Claude Code(npm install -g @anthropic-ai/claude-code)。
支持 Linux / macOS / Windows。

npminstall-gcc-use cc-use deepseek

第一次跑cc-use deepseek,因为本地还没有名为 deepseek 的 profile(一份保存好的 provider 配置,下面会展开),它会自动走一个交互引导:

  1. 让你贴 DeepSeek 的 API Key(隐藏输入);
  2. 问要不要把 deepseek 设成默认 profile;
  3. 自动跑一次 doctor 自检,发一个最小请求,确认这家服务真的按 Anthropic 协议响应;
  4. 探活通过,自动claude启动,进入熟悉的 Claude Code 对话界面。

整个过程不会写任何东西到~/.claude/

API Key 存在~/.cc-use/providers/deepseek.json,本地文件,cc-use 不会上传任何东西到外部。

关键点:为什么不动~/.claude/

Claude Code 默认把登录态、历史记录、设置都放在~/.claude/里。直接export ANTHROPIC_BASE_URL切到 DeepSeek,相当于拿你原来这一套配置去走另一家服务,混在一起。

cc-use 给每个 provider 单独开一份配置:

  • cc-use deepseek,用的是 DeepSeek 的那份;
  • cc-use kimi,又是 Kimi 的另一份;
  • 跑原生claude,还是你原来的~/.claude/,一字未动。

各走各的,互不污染。原来的订阅 / 配置怎么用还怎么用。

把已有的项目记录搬过来

配置隔离是好事,但也有个尴尬:当前项目在原生 Claude Code 下已经攒了不少对话记录,新切到 DeepSeek 等于一张白纸开始,上下文都丢了。

cc-use import-history解决这个:

cd你的项目 cc-use import-history deepseek

把当前项目在~/.claude/下的会话历史只读拷贝一份到 DeepSeek 的配置里,原目录一字不动。再跑cc-use deepseek,对话列表里就能看到旧会话,可以接着聊,也可以挑一段让 DeepSeek 接手 —— 相当于把同一个项目在不同模型之间无痛搬家。

常用命令

cc-use init# 交互式:选模板、输入 API Keycc-use deepseek# 用 DeepSeek 启动 Claude Code(profile 不存在会自动 init)cc-use deepseek-p"审查 X"# 一次性查询(profile 后的参数全部透传给 claude)cc-use# 用默认 profile 启动cc-usels# 列已配置的 profilecc-use default[profile]# 显示 / 设置默认 profilecc-use doctor[profile]# 校验 profile(--all 校验所有)cc-use import-history[profile]# 把当前项目的 ~/.claude/ 历史拷进 profilecc-use--help# 完整命令参考

[profile]可省略,不传就走默认 profile。

内置的 provider

除了 DeepSeek,cc-use 还内置了几个国内常见的 Anthropic 兼容端点,模板都不带 Key,跑cc-use init时再填:

模板提供商端点
deepseekDeepSeek V4(直连)api.deepseek.com/anthropic
kimiMoonshot Kimi K2.6(直连,CN)api.moonshot.cn/anthropic
kimi-planMoonshot Kimi Coding Planapi.kimi.com/coding/
glm智谱 GLM 5.1(CN)open.bigmodel.cn/api/anthropic
glm-intl智谱 GLM 5.1(国际,z.ai)api.z.ai/api/anthropic
qwen阿里百炼 DashScope(直连,CN)dashscope.aliyuncs.com/apps/anthropic
qwen-plan阿里百炼 Token Plan(CN)token-plan.cn-beijing.maas.aliyuncs.com/apps/anthropic
qwen-intl阿里 Model Studio(国际)dashscope-intl.aliyuncs.com/apps/anthropic
minimaxMiniMax M2.7(CN)api.minimaxi.com/anthropic
minimax-intlMiniMax M2.7(国际)api.minimax.io/anthropic
volcengine-plan火山方舟 Coding Plan(CN)ark.cn-beijing.volces.com/api/coding
volcengine-intl-planBytePlus ModelArk Coding Plan(国际)ark.ap-southeast.bytepluses.com/api/coding
openrouterOpenRouteropenrouter.ai/api
custom自己填(手动)

-plan后缀的是订阅入口(Coding Plan / Token Plan),通常是厂商专门给 Claude Code 适配的那条路,按月固定费、不按 token 计;不带后缀的是按量直连。带-intl后缀的是国际站。

想加新的 provider,自己复制一份customprofile 改改就行。

适合什么人

  • 已经在用 Claude Code(无论订阅还是手工配的 env),想把 DeepSeek V4 或其他第三方 provider 作为备用 / 比对加进来;
  • 多个 provider 之间频繁切换、又不想自己维护 env 变量的;
  • 想在不同项目用不同 provider,但希望历史记录隔离的。

如果是从零开始、只想用 DeepSeek 配一个客户端、不在乎现有~/.claude/配置的话,那 cc-use 就是过度设计,直接export ANTHROPIC_BASE_URL就够了。

链接

  • npm:https://www.npmjs.com/package/cc-use
  • GitHub:https://github.com/leechen298/cc-use
  • DeepSeek 官方 Anthropic 兼容端点文档:https://api-docs.deepseek.com/zh-cn/

MIT,欢迎 PR。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/28 6:44:15

终极Chrome二维码插件:3秒实现网页到手机的完美接力

终极Chrome二维码插件:3秒实现网页到手机的完美接力 【免费下载链接】chrome-qrcode :zap: A Chrome plugin to Genrate QRCode of URL / Text, or Decode the QRcode in website. 一个Chrome浏览器插件,用于生成当前URL或者选中内容的二维码&#xff0c…

作者头像 李华
网站建设 2026/4/28 6:42:20

Dockers容器化环境构建在大模型推理测试下的应用

摘要以及相关背景 当前人工智能浪潮下,增加了大量的大模型推理性能测试需求,相比于物理环境直接搭建,多人复用相同环境的情况下,在容器内部署大模型(LLM)推理测试,相比传统部署方式&#xff0c…

作者头像 李华
网站建设 2026/4/28 6:39:20

Phi-mini-MoE-instruct从零开始:Linux服务器部署+WebUI公网映射

Phi-mini-MoE-instruct从零开始:Linux服务器部署WebUI公网映射 1. 项目介绍 Phi-mini-MoE-instruct是一款轻量级混合专家(MoE)指令型小语言模型,在多个基准测试中表现优异: 代码能力:在RepoQA、HumanEva…

作者头像 李华
网站建设 2026/4/28 6:38:21

你怎么还在手敲代码,是不会用AI吗

网上有个问题,新学计算机的同学问:"在AI之前,你们都是手敲代码的吗?"老程序员看了,普遍会心一笑。但这个问题其实问得很好——因为几年后,说不定会出现另一个版本:"你怎么还在手…

作者头像 李华
网站建设 2026/4/28 6:32:22

Qianfan-OCR部署案例:A10/A100/L4 GPU算力适配性能实测报告

Qianfan-OCR部署案例:A10/A100/L4 GPU算力适配性能实测报告 1. 项目概述 Qianfan-OCR是百度千帆推出的开源端到端文档智能多模态模型,基于4B参数的Qwen3-4B语言模型构建。这个多模态视觉语言模型(VLM)采用Apache 2.0协议,完全开源且可商用&…

作者头像 李华
网站建设 2026/4/28 6:19:20

2026上半年多商户小程序权威服务商盘点:哪家更适配你的电商需求

在2026年的多商户小程序领域,选择一家适配自身需求的服务商至关重要。综合来看,启山智软、乔拓云、微盟和有赞是市场上技术成熟、功能完备的主流选择。其中,启山智软凭借其企业级微服务架构和100%源码交付的优势,成为追求长期发展…

作者头像 李华