1. 项目概述:从“场外顾问”到“贴身助理”的进化
如果你已经玩过一阵子AI,大概率会和我有同样的感受:它确实聪明,能写代码、改文案、查资料,但总感觉隔着一层玻璃。每次想让它干点“实事”,比如整理一下桌面上散乱的文件、自动回复一封邮件、或者根据会议记录生成一份周报,你都得自己动手把文件拖给它、把内容复制进去、再手动执行它给出的命令。AI更像一个聪明的“场外顾问”,而不是一个能直接在你电脑里动手干活的“贴身助理”。这种割裂感,正是OpenClaw(原名Clawdbot,后短暂更名为Moltbot)想要解决的核心问题。
简单来说,OpenClaw是一个开源的、可以部署在你本地电脑或服务器上的AI智能体网关。它的目标不是做一个更强大的聊天机器人,而是构建一个能让AI真正“动手”的操作系统级接口。你可以把它想象成一个24小时在线的数字管家,你通过Telegram、Discord、飞书等任何你常用的聊天工具给它发指令,它就能在你的系统环境中执行相应的操作——读取文件、运行脚本、调用API、管理应用状态等等。这一切都通过其核心组件Gateway来统一调度和管理,而Skills(技能)系统则让它的能力可以像乐高积木一样无限扩展。
这篇文章,我将以一个深度使用者的身份,带你从零开始,在Windows、macOS和Linux三大平台上完整部署和配置OpenClaw。更重要的是,我会分享一个能极大提升使用体验和稳定性的关键配置:通过神马中转API来统一管理你的AI模型调用。无论你是想认真把OpenClaw作为生产力工具长期使用,还是开发者想基于它构建更复杂的AI应用,这篇超过5000字的实战指南都能帮你绕过我踩过的所有坑,直达稳定、高效的使用状态。
2. 核心思路与架构选型解析
在动手安装之前,理解OpenClaw的设计哲学和几个关键组件的角色至关重要。这能帮助你在后续配置和排错时,清楚地知道每个部分在干什么,而不是机械地复制命令。
2.1 为什么是“网关”而非“客户端”?
大多数AI应用,无论是ChatGPT客户端还是Claude桌面版,都是一个独立的“客户端-服务器”模型。你的指令从客户端发出,到达远端的AI服务器,答案再返回给你。OpenClaw的不同之处在于,它在你本地运行了一个Gateway(网关)。
这个Gateway是你的本地AI服务中枢,它有几个核心职责:
- 消息路由:接收来自不同平台(如Telegram Bot、飞书机器人)的用户消息。
- 会话管理:维护与用户的对话上下文和历史。
- 技能调度:解析用户意图,调用对应的Skill(技能)来执行具体操作。
- 模型调用:将处理后的请求发送给后端的AI模型(如GPT-4、Claude),并返回结果。
这种架构带来的最大好处是解耦和可控性。AI模型提供商(OpenAI、Anthropic)对你来说只是一个可更换的“计算后端”,而你的业务逻辑、数据、乃至与用户的交互界面,都完全掌握在你自己的本地环境中。这意味着更好的隐私性、更低的延迟(部分操作无需绕道云端)、以及无限的功能扩展可能性。
2.2 Skills系统:能力的无限扩展
Skills是OpenClaw的灵魂。一个Skill就是一个独立的功能模块,通常是一个Node.js包。官方和社区提供了丰富的Skill,例如:
@openclaw/skill-filesystem: 允许AI读写、管理本地文件。@openclaw/skill-terminal: 允许AI在受控环境下执行Shell命令。@openclaw/skill-websearch: 赋予AI联网搜索能力。@openclaw/skill-knowledge: 让AI能够基于你提供的文档(知识库)进行问答。
你可以通过简单的命令安装和管理Skill。这种模块化设计意味着,你可以根据你的需求,像搭积木一样为你的AI助理装配能力。例如,一个面向开发者的助理可以装配终端、Git和代码编辑技能;一个面向内容创作者的助理则可以装配文件管理、网页抓取和社交媒体发布技能。
2.3 为什么强烈推荐使用中转API?
这是本文要强调的第一个,也是最重要的实战经验。当你开始深入使用OpenClaw,接入多个AI模型(比如同时用Claude处理长文本,用GPT-4做代码分析,用DeepSeek做日常对话)时,你会立刻面临配置管理的噩梦。
- 问题一:配置分散:你需要在OpenClaw的配置里为每一个模型填写不同的
baseUrl和apiKey。一旦某个模型的API地址或密钥变更,你就得逐个修改。 - 问题二:密钥管理风险:你的多个核心API密钥都明文存储在本地配置文件中,增加了泄露风险。
- 问题三:切换成本高:如果你想临时换一个模型试试效果,或者某个模型服务不稳定需要切换,你需要修改配置并重启服务,过程繁琐。
神马中转API(api.whatai.cc)这类服务,本质上是一个统一的AI模型代理层。它为你做了以下几件事:
- 统一入口:你只需要记住一个
baseUrl(例如https://api.whatai.cc/v1)和一个apiKey。 - 模型路由:通过在请求中指定不同的
model参数(如gpt-4,claude-3-5-sonnet),中转API会自动将请求转发到对应的真实供应商。 - 负载均衡与容灾:好的中转服务会在后端对接多个节点,自动选择延迟最低、可用的线路,并在某个供应商故障时无缝切换。
- 用量统计与成本控制:提供一个统一的后台查看所有模型的调用情况和费用消耗。
对于OpenClaw这种需要长期稳定运行、频繁调用AI的“基础设施”来说,使用中转API不是“可选优化”,而是生产环境的最佳实践。它能将你的配置复杂度降低一个数量级,并将稳定性提升一个级别。后文的所有配置,都将围绕这一核心思路展开。
3. 系统准备与环境部署详解
OpenClaw支持三大主流操作系统,但体验和推荐度有显著差异。我的建议是:能用macOS就用macOS,其次考虑Linux,Windows用户请优先使用WSL2方案。
3.1 macOS部署:最丝滑的原生体验
macOS是OpenClaw的“一等公民”支持平台,这得益于其统一的Unix底层和良好的系统集成能力。许多与系统交互的Skill(如操作日历、备忘录、截图)在macOS上能获得最完整的支持。
3.1.1 硬件与系统要求
- CPU:Apple Silicon (M系列) 或 Intel Core i5 及以上。M系列芯片在能效和神经网络加速上有天然优势。
- 内存:8GB是底线,16GB或以上能获得更流畅的多任务体验。AI模型处理长上下文时比较吃内存。
- 硬盘:至少10GB可用空间,用于安装Node.js、OpenClaw本体及其依赖包。
- 系统版本:macOS Monterey (12) 或更高。推荐使用最新的macOS Sequoia (15) 或 Sonoma (14),以获得最好的兼容性和性能。
3.1.2 详细安装步骤与避坑指南
打开终端:按
Command + 空格聚焦搜索,输入“终端”或“Terminal”并回车。这是所有操作的起点。执行一键安装脚本:
curl -fsSL https://openclaw.ai/install.sh | bash这里有个关键细节:这个脚本是官方推荐的安装方式,它会自动完成以下工作:
- 检查系统环境。
- 如果未安装Node.js,它会通过Homebrew或直接下载的方式为你安装Node.js 22+版本。
- 下载OpenClaw的最新版本。
- 将OpenClaw命令行工具添加到你的系统PATH中。
- 整个过程通常需要2到5分钟,取决于你的网络速度。
注意:如果脚本执行过程中提示需要安装“Command Line Developer Tools”,请点击“安装”同意。这是编译某些原生Node模块所必需的。
验证安装:安装完成后,在终端输入以下命令:
openclaw --version如果成功,你会看到类似
2026.2.9的版本号输出。如果提示“command not found”,请尝试关闭终端重新打开,或者执行source ~/.zshrc(如果你使用Zsh shell)来刷新环境变量。运行初始化向导:这是最关键的一步,将引导你完成基础配置。
openclaw onboard接下来你会看到一个交互式的命令行向导。下面我为你拆解每一个选项背后的含义和推荐选择:
- 风险提示:选择
Yes继续。这只是一个法律免责声明。 - 启动模式:选择
QuickStart。这是为新手设计的最快路径,它会帮你设置好基础配置和示例Skill。 - 选择AI模型:这里是我们使用中转API的关键一步。不要选择列表里预设的OpenAI或Anthropic,而是选择
Custom Provider(自定义供应商)。 - 配置自定义模型:
Base URL:输入https://api.whatai.cc/v1。这就是神马中转API的统一入口地址。API Key:输入你在神马中转API官网获取的密钥(通常以sk-开头)。API Type:选择OpenAI-compatible。绝大多数中转API都兼容OpenAI的接口格式,这是通用性最强的选择。Model ID:输入你想使用的模型标识符,例如gpt-4o、claude-3-5-sonnet-20241022或deepseek-chat。这个模型ID需要在中转API支持的模型列表中。
- 选择聊天工具:如果你已经准备好了Telegram Bot Token或飞书机器人凭证,可以在这里配置。如果暂时没有,选择
None,后续可以在Web UI中随时添加。 - Gateway端口:默认
18789即可,除非该端口已被占用。 - 选择Skills:使用空格键来勾选你需要的技能。对于初学者,我建议全选或选择
filesystem(文件系统)、terminal(终端)、knowledge(知识库)这几个核心技能。完成后按回车。 - API Key配置:这里指的是其他服务的API Key,比如Serper(搜索)、Google等。如果没有可以跳过。
- 启用Hooks:强烈建议启用
content(内容引导)、logging(日志)、session(会话记录)这三个钩子。它们能极大地帮助调试和优化AI的行为。
向导结束后,它会自动启动Gateway服务,并尝试在浏览器中打开Web管理界面(通常是
http://127.0.0.1:18789)。如果浏览器没有自动打开,你可以手动输入这个地址。- 风险提示:选择
验证服务状态:在终端中,你可以随时使用以下命令检查服务:
openclaw channels status如果一切正常,你会看到
Gateway reachable.的提示。
3.2 Windows部署:WSL2方案是唯一推荐
Windows原生环境(PowerShell)虽然也能运行OpenClaw,但会面临更多的兼容性问题,尤其是某些依赖原生C++模块的Node.js包。因此,通过WSL2(Windows Subsystem for Linux 2)部署一个Ubuntu环境,是Windows用户唯一稳定、可靠的方案。这相当于在你的Windows内部运行了一个完整的、轻量化的Linux虚拟机。
3.2.1 启用WSL2与安装Ubuntu
- 以管理员身份打开PowerShell:在开始菜单搜索“PowerShell”,右键选择“以管理员身份运行”。
- 执行启用命令:
这个命令在较新的Windows版本中会自动完成所有步骤。如果不行,可以分步执行:# 启用WSL和虚拟机平台功能 wsl --installdism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart # 设置WSL2为默认版本 wsl --set-default-version 2 - 重启电脑:这是必须的步骤。
- 安装Ubuntu:重启后,打开Microsoft Store,搜索“Ubuntu 22.04 LTS”或“Ubuntu 24.04 LTS”并安装。安装完成后,首次启动会要求你设置Linux用户名和密码。
3.2.2 在WSL2中配置OpenClaw
现在,你拥有了一个Ubuntu终端。后续所有操作都在这个终端中进行。
更新系统并安装基础工具:
sudo apt update && sudo apt upgrade -y sudo apt install -y curl git wget build-essential安装Node.js 22+:推荐使用NVM(Node Version Manager)来管理Node.js版本,这样可以灵活切换。
# 安装NVM curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash # 关闭并重新打开终端,或者执行以下命令使NVM生效 source ~/.bashrc # 安装Node.js 22 nvm install 22 nvm use 22 # 验证安装 node --version npm --version安装OpenClaw:和macOS步骤完全一样。
curl -fsSL https://openclaw.ai/install.sh | bash安装完成后,同样运行
openclaw onboard进行初始化配置,关键步骤同样是选择Custom Provider,并填入神马中转API的Base URL和API Key。从Windows访问WSL2中的服务:OpenClaw的Gateway运行在WSL2的Ubuntu中,默认监听
127.0.0.1:18789。但这个地址是WSL2内部的回环地址,Windows无法直接访问。你需要通过WSL2的“端口转发”功能来访问。- 简单方法:在WSL2的Ubuntu终端中启动Gateway后,直接在Windows的浏览器中输入
http://localhost:18789。WSL2会自动处理端口转发。 - 创建快捷脚本:为了更方便,你可以在Windows桌面创建一个
start-openclaw.bat批处理文件,内容如下:
双击这个批处理文件,它会启动WSL2中的服务并打开浏览器。@echo off echo Starting OpenClaw Gateway in WSL2... wsl -d Ubuntu-22.04 -u root service openclaw start timeout /t 3 start http://localhost:18789
- 简单方法:在WSL2的Ubuntu终端中启动Gateway后,直接在Windows的浏览器中输入
3.3 Linux部署:为开发者量身定制
Linux部署流程与macOS在终端操作上高度相似,但通常拥有更高的自由度和控制力,适合在云服务器或本地开发机上长期运行。
3.3.1 系统与依赖
- 推荐发行版:Ubuntu 22.04 LTS / 24.04 LTS, Debian 11/12, CentOS Stream 9。这些系统有较好的软件包支持和社区资源。
- 安装Node.js:对于Ubuntu/Debian,建议使用NodeSource的官方仓库。
# Ubuntu/Debian curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - sudo apt-get install -y nodejs # 验证 node --version - 后续步骤:安装OpenClaw (
curl -fsSL https://openclaw.ai/install.sh | bash) 和运行初始化向导 (openclaw onboard) 的步骤与macOS完全一致。
3.3.2 配置系统服务(用于长期运行)
在Linux服务器上,我们通常希望OpenClaw能像Nginx或MySQL一样,作为系统服务在后台持续运行,并在开机时自动启动。
- 检查是否已安装服务:运行
openclaw onboard时,如果选择了安装守护进程,通常已经创建了用户级systemd服务。 - 手动管理服务:
使用# 查看服务状态 systemctl --user status openclaw-gateway.service # 启动服务 systemctl --user start openclaw-gateway.service # 停止服务 systemctl --user stop openclaw-gateway.service # 设置开机自启 systemctl --user enable openclaw-gateway.service # 查看日志 journalctl --user -u openclaw-gateway.service -f--user参数表示这是当前用户的服务,不需要root权限,更安全。
4. 核心配置:深度集成神马中转API
安装只是第一步,让OpenClaw稳定、高效地工作,核心在于配置。我们将重点讲解如何将神马中转API深度集成到你的OpenClaw中,并解释每一个配置参数的意义。
4.1 三种配置方式详解
OpenClaw提供了多种灵活的配置方式,适应不同阶段和不同用户的需求。
4.1.1 安装向导配置(推荐给新手)正如在openclaw onboard向导中所示,这是最直观的方式。在“选择AI模型”步骤选择Custom Provider,然后填入中转API的信息。这种方式会自动生成基础的配置文件。
4.1.2 Web UI可视化配置(最便捷的日常管理)OpenClaw启动后,可以通过Web界面 (http://localhost:18789) 进行大部分配置的修改,无需触碰命令行或配置文件。
- 登录Web UI。
- 点击左侧导航栏的【设置】(Settings)。
- 选择【配置】(Configuration) 标签页。
- 找到
Models部分,点击编辑或添加。 - 在弹出的表单中,填写以下关键信息:
- Provider Name: 自定义一个名称,如
whatai。 - Base URL:
https://api.whatai.cc/v1 - API Key: 你的神马中转API密钥。
- API Type: 选择
OpenAI-compatible。 - Model ID: 输入你想用的模型,例如
gpt-4o-mini。
- Provider Name: 自定义一个名称,如
- 保存后,配置会立即生效(部分可能需要刷新页面或重启Gateway)。
4.1.3 直接编辑配置文件(适合高级用户和批量操作)所有配置最终都保存在一个JSON文件中。直接编辑它适合进行复杂配置、批量修改或版本控制。
- 配置文件位置:
- macOS/Linux:
~/.openclaw/openclaw.json - Windows (WSL2):
~/.openclaw/openclaw.json - Windows (原生):
C:\Users\<你的用户名>\.openclaw\openclaw.json
- macOS/Linux:
4.2 配置文件深度解析与多模型配置
下面是一个配置了神马中转API,并同时接入多个模型的完整配置示例。我将逐段解析其含义。
{ "version": "1.0", "models": { "mode": "merge", // 配置模式:'merge'合并,'replace'替换 "providers": { "whatai": { // 供应商名称,可自定义 "baseUrl": "https://api.whatai.cc/v1", // 中转API的统一入口 "apiKey": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", // 你的中转API密钥 "auth": "api-key", // 认证方式,通常是api-key "api": "openai-completions", // API协议,OpenAI兼容格式最通用 "defaultParams": { // 该供应商下所有模型的默认参数 "temperature": 0.7, "top_p": 0.9 }, "models": [ // 定义该供应商提供的模型列表 { "id": "gpt-4o", // 模型ID,必须与中转API后台支持的名称一致 "name": "GPT-4o", // 在OpenClaw UI中显示的名称 "contextWindow": 128000, // 上下文窗口大小(单位:token) "maxTokens": 4096, // 单次回复的最大token数 "capabilities": ["vision", "json-mode"] // 模型能力标记(可选) }, { "id": "claude-3-5-sonnet-20241022", "name": "Claude 3.5 Sonnet", "contextWindow": 200000, "maxTokens": 8192 }, { "id": "deepseek-chat", "name": "DeepSeek Chat", "contextWindow": 64000, "maxTokens": 4096, "defaultParams": { // 可以覆盖供应商级的默认参数 "temperature": 0.3 } } ] } } }, "agents": { "defaults": { "model": { "primary": "whatai/gpt-4o", // 默认使用的模型,格式为“供应商/模型ID” "fallback": "whatai/deepseek-chat" // 备用模型,当主模型不可用时自动切换 } }, "main-assistant": { // 一个具体的Agent配置 "name": "我的主助理", "model": "whatai/claude-3-5-sonnet-20241022", // 这个Agent专用Claude "skills": ["filesystem", "terminal", "knowledge"] // 为该Agent启用的技能 } }, "gateway": { "port": 18789, "host": "0.0.0.0" // 监听所有网络接口,方便局域网内其他设备访问 } }关键参数解读与配置建议:
contextWindow和maxTokens:contextWindow:模型能“记住”的上文总长度。例如,Claude 3.5 Sonnet支持20万token,意味着你可以一次性给它非常长的文档进行分析。设置准确有助于OpenClaw更好地管理对话历史,避免无意义的token消耗。maxTokens:模型单次回复的最大长度。设置为4096意味着AI一次最多生成约3000个汉字。根据你的需求调整,设置过小可能导致回答被截断,过大则可能浪费资源。- 如何获取准确值:务必查阅神马中转API的文档或后台,确认其支持的每个模型的准确上下文和输出限制。不要盲目使用官方模型的数值,因为中转服务可能有自己的调整。
capabilities:这是一个非常有用的扩展字段。例如,标记"vision"意味着该模型支持图像识别功能,OpenClaw的某些Skill(如截图分析)可能会依赖此标记来启用特定功能。"json-mode"表示模型支持结构化输出。合理设置能提升AI与Skill协作的准确性。多Agent策略:你可以在
agents部分创建多个具有不同特性的AI助理。例如,你可以创建一个code-assistant,专门使用deepseek-chat模型并启用terminal和代码相关Skill;再创建一个writing-assistant,使用claude-3-5-sonnet并专注于文件和知识库技能。这样你就可以根据任务类型,与不同的专用助理对话。fallback配置:这是保障服务高可用的关键。当主模型因网络问题或额度不足调用失败时,OpenClaw会自动切换到备用模型,确保你的助理不会“宕机”。
4.3 配置生效与验证
修改配置文件后,需要重启Gateway服务使配置生效。
# 重启Gateway服务(推荐) openclaw gateway restart # 或者先停止再启动 openclaw gateway stop openclaw gateway start重启后,使用以下命令验证配置和连接:
# 列出所有已配置的模型 openclaw models list # 输出应包含你定义的 whatai/gpt-4o, whatai/claude-3-5-sonnet 等 # 测试某个模型的连接性 openclaw models test whatai/gpt-4o # 如果返回成功信息和模型详情,说明配置正确且网络通畅5. 高级技巧、问题排查与实战心得
经过一段时间的深度使用,我积累了一些在官方文档中不会明确写出的经验和解决棘手问题的技巧。
5.1 性能优化与成本控制
OpenClaw长期运行,模型调用成本是需要关注的重点。通过中转API虽然方便,但费用可能因模型不同而差异巨大。
模型分级使用策略:
- 日常对话/轻量任务:配置
deepseek-chat或gpt-3.5-turbo作为默认或备用模型。它们的成本远低于GPT-4或Claude,响应速度也更快。 - 复杂分析/代码生成:指定使用
claude-3-5-sonnet或gpt-4o。可以在Agent级别或通过特定指令触发。 - 实现方法:在Web UI的聊天设置中,可以设置“默认模型”。更精细的控制可以通过创建多个不同模型配置的Agent来实现。
- 日常对话/轻量任务:配置
上下文管理:AI模型按输入和输出的总token数计费。OpenClaw默认会保留完整的对话历史。
- 定期清理:对于长时间不用的会话,可以在Web UI中手动清除历史。
- 技能优化:像
knowledge技能,在查询知识库时,可以通过优化检索策略,只向模型发送最相关的文档片段,而不是整个知识库,从而节省大量token。
网络延迟优化:如果你感觉响应慢,可能是网络问题。
- 测速:在神马中转API的后台,通常有不同线路的延迟测试。选择一个延迟最低的线路或节点。
- 本地缓存:对于频繁访问且不常变的数据(如知识库索引),确保它们存储在本地SSD上,而不是网络驱动器。
5.2 深度问题排查指南
当OpenClaw出现问题时,不要慌张,按照以下层次进行排查。
5.2.1 Gateway服务无法启动或崩溃
这是最严重的问题。首先查看日志,这是定位问题的第一手资料。
# 查看Gateway的实时日志(最常用) tail -f ~/.openclaw/logs/gateway.log # 查看系统服务日志(Linux/macOS) journalctl -u openclaw-gateway.service -f --user # 以调试模式启动Gateway,输出更详细的信息 openclaw gateway run --log-level debug- 常见错误1:端口被占用。错误信息会明确提示
EADDRINUSE。# 查找占用18789端口的进程 lsof -i :18789 # 或者 netstat -tulpn | grep :18789 # 杀死该进程,或修改OpenClaw配置中的端口号 openclaw config set gateway.port 18790 - 常见错误2:Node.js模块编译失败。通常出现在Windows原生环境或Node.js版本不匹配时。日志中会出现
node-gyp或sharp等模块的错误。解决方案:优先使用WSL2方案。如果必须在原生环境,确保已安装Visual Studio Build Tools或Windows SDK。
5.2.2 模型调用失败(API错误)
在Web UI中聊天时,如果返回“模型不可用”或“API错误”,按以下步骤排查:
- 检查API密钥和Base URL:使用
openclaw config get命令确认配置无误,特别是密钥是否有空格或换行。 - 测试模型连接:使用
openclaw models test <provider/model>命令。如果失败,会返回具体的HTTP状态码和错误信息。- 401/403错误:API密钥无效或没有权限。去神马中转API后台检查密钥状态和余额。
- 404错误:Base URL或模型ID错误。确认URL路径是否为
/v1,模型ID是否在中转API的支持列表中。 - 429错误:请求频率超限。中转API通常有速率限制,需要降低调用频率或升级套餐。
- 502/504错误:中转API服务端或网络问题。等待一段时间再试,或联系服务商。
- 检查网络连通性:在终端中尝试用
curl命令直接调用API,这能排除OpenClaw本身的问题。curl -X POST https://api.whatai.cc/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{"model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Hello"}]}'
5.2.3 Skill工作不正常
某个Skill(如文件读写)失效。
- 检查Skill是否已安装并启用:
查看该Skill的状态是否为openclaw skills listenabled。 - 查看Skill专属日志:每个Skill通常有自己的日志文件。
tail -f ~/.openclaw/logs/skill-<skill-name>.log - 权限问题:这是最常见的原因。尤其是在Linux/macOS上,OpenClaw进程可能没有权限访问你指定的目录。
- 解决方案:确保OpenClaw进程的运行用户(通常是你自己)对目标目录有读写权限。或者,将Skill的工作目录设置在你的用户主目录下。
5.3 安全与隐私实践
OpenClaw运行在你本地,且能执行系统命令和访问文件,安全至关重要。
最小权限原则:
- 不要以root或管理员身份运行OpenClaw Gateway。
- 在配置
terminal技能时,可以限制其可执行的命令范围,或指定一个沙箱环境。 - 为
filesystem技能配置允许访问的特定目录白名单,而不是整个磁盘。
配置文件安全:
- 你的
openclaw.json文件里包含了API密钥。切勿将此文件上传到公开的Git仓库。 - 建议将配置文件加入
.gitignore。 - 如果需要在多台机器同步配置,考虑使用环境变量或密钥管理工具来存储敏感的API Key。
(注意:OpenClaw原生支持可能有限,需查阅其文档是否支持环境变量插值,或使用外部模板工具生成配置)。# 在shell配置文件中设置环境变量 export WHATAI_API_KEY='sk-xxx' # 然后在配置文件中引用 "apiKey": "${WHATAI_API_KEY}"
- 你的
网络暴露控制:默认Gateway只监听
127.0.0.1(本地回环)。如果你修改了host为0.0.0.0以允许局域网访问,请确保你的家庭或公司网络是可信的,或者配置防火墙规则,仅允许特定IP访问18789端口。
5.4 我的实战心得与建议
- 起步从“小”开始:不要一开始就安装所有Skill。先从
filesystem和terminal开始,让AI帮你完成一些简单的文件整理和命令查询。熟悉了交互模式后,再逐步添加knowledge(连接你的笔记)、websearch(联网搜索)等技能。一次添加太多,出了问题难以定位。 - 提示词工程是关键:OpenClaw的强大在于Skill的联动,但这需要清晰的指令。例如,不要只说“总结这个文档”,而应该说“使用filesystem技能读取
/home/user/report.md文件,然后用不超过200字总结其核心观点”。清晰的指令能极大提高AI执行任务的准确率。 - 善用“Agent”分工:正如前面提到的,创建多个专用Agent比只用一个“全能”Agent更高效。我为代码工作创建了一个专用Agent,它的系统提示词里写明了代码规范、常用工具链,并只启用相关Skill。而为写作创建的另一个Agent,则配置了不同的模型和知识库。
- 日志是你的朋友:遇到任何奇怪的行为,第一反应是打开日志。
gateway.log记录了所有核心流程,而各个Skill的日志则记录了具体操作的细节。很多看似玄学的问题,在日志里都有明确的错误堆栈。 - 社区与文档:OpenClaw的迭代速度很快,遇到问题,除了查看官方文档 (
https://docs.openclaw.ai),去GitHub的Issues页面或相关的Discord频道搜索,往往能找到最新的解决方案或遇到同样问题的伙伴。
将OpenClaw与神马中转API结合,你构建的不仅仅是一个AI聊天窗口,而是一个部署在本地的、高度定制化的、能真正替你“动手”的智能工作流中枢。从繁琐的配置管理中解放出来,把精力集中在如何设计提示词、如何组合技能来解决实际问题上,这才是使用这类工具的最大价值所在。这个过程需要一些耐心和调试,但一旦跑通,你会发现一个全新的、与AI协作的生产力模式。