news 2026/5/13 18:25:11

树莓派+Ollama分离部署OpenClaw:打造家庭局域网AI助手

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
树莓派+Ollama分离部署OpenClaw:打造家庭局域网AI助手

1. 项目概述:在树莓派上部署OpenClaw,实现本地网络AI助手

最近在折腾我的家庭实验室,想把AI助手的能力从主力电脑上解放出来,让它变成一个常驻在角落里的独立服务。我的主力机性能不错,跑大语言模型没问题,但我不想让它24小时开着,既耗电又占资源。于是,我盯上了吃灰已久的树莓派4B。它的功耗极低,非常适合作为轻量级服务的载体。我的目标很明确:让树莓派运行OpenClaw的代理和仪表盘,而把最吃资源的模型推理任务,交给局域网里另一台安装了Ollama的电脑。这样一来,我就能通过任何家庭网络内的设备,访问一个功能完整、响应迅速的AI助手界面,而主力机只在需要推理时才工作。

这个方案的核心价值在于“物尽其用”和“灵活访问”。树莓派负责提供稳定的Web服务和任务调度,它本身不承担沉重的计算压力,因此对硬件要求极低,甚至树莓派3B+也能胜任。模型运行在性能更强的x86机器上,保证了生成速度和质量。整个架构通过局域网连接,数据不出内网,在满足功能需求的同时,也兼顾了隐私和可控性。无论是想把它当作一个常亮的智能家居控制中枢,还是一个随时可问的私人知识库,这种分离式部署都提供了一个优雅且高效的解决方案。接下来,我会详细拆解整个搭建过程,从环境准备、网络配置到安全加固,分享我一路踩坑填坑的经验,让你也能快速复现这个实用的家庭AI服务。

2. 架构设计与核心思路拆解

2.1 为什么选择分离式部署?

在开始动手之前,我们得先想清楚为什么要把OpenClaw和Ollama拆开放在两台机器上。最直接的原因就是资源瓶颈。树莓派,尤其是较旧的型号,其ARM处理器和有限的内存(通常为1GB到8GB)根本无力承载哪怕一个7B参数量的模型推理。强行部署只会导致服务卡顿、响应超时,体验极差。而Ollama在x86-64架构的电脑上,可以利用更强大的CPU、更大的内存,特别是如果有独立显卡(NVIDIA/AMD)还能启用GPU加速,推理速度会有数量级的提升。

因此,分离式部署的本质是各司其职。树莓派扮演“网关”和“界面”的角色,它轻量、稳定、低功耗,非常适合7x24小时运行一个Web服务。而你的台式机或笔记本则作为“计算引擎”,在需要时启动Ollama服务进行模型推理。两者通过家庭局域网(LAN)进行通信,树莓派上的OpenClaw将用户请求转发给Ollama的API,拿到结果后再呈现给用户。这种架构不仅解决了性能问题,还带来了部署上的灵活性:你可以随时升级或更换后端计算设备,而前端的服务界面不受影响。

2.2 网络通信与安全考量

一旦服务从“本机localhost”走向“局域网”,安全就成了必须严肃对待的问题。原始的Ollama默认只监听127.0.0.1,这是出于安全考虑。我们的方案需要让它被局域网内的树莓派访问,这就意味着要改变绑定地址。同时,OpenClaw的仪表盘也会暴露在局域网中,任何连接到同一Wi-Fi的设备理论上都能访问它。

所以,我们的核心安全思路是“最小权限”和“访问控制”。具体通过两层来实现:

  1. 应用层认证:为OpenClaw仪表盘配置令牌(Token)认证。没有正确的令牌,即使能连接到服务端口,也无法使用功能。
  2. 网络层过滤:在树莓派上配置防火墙(如UFW),只允许特定的、受信任的设备IP地址访问OpenClaw仪表盘的端口(默认18789)。其他所有未经授权的访问请求都会被直接丢弃。

这就好比给你的房子加了两道锁:第一道是门上的密码锁(Token),第二道是小区门禁(防火墙IP白名单)。只有既在门禁名单内又知道密码的人才能进来。本方案提供的脚本和配置模板,正是为了自动化地完成这两层安全的搭建,避免手动配置出错或遗漏。

2.3 方案组件与工作流总览

整个方案涉及两个物理设备和若干软件组件,它们之间的关系如下:

[设备:树莓派 Raspberry Pi] ├── 操作系统:Raspberry Pi OS (Bookworm) ├── 核心服务:OpenClaw (Agent + Dashboard) ├── 网络配置:绑定到局域网IP (如 192.168.1.100) └── 安全组件:UFW防火墙 (限制对18789端口的访问) [设备:Windows/macOS/Linux PC] ├── 核心服务:Ollama Server ├── 关键配置:监听地址改为 0.0.0.0 (允许局域网连接) └── 已下载模型:例如 Qwen2.5:7B, Llama3.2:3B 等 [通信流程] 1. 用户在浏览器访问 http://树莓派IP:18789/#token=xxx 2. 树莓派上的OpenClaw Dashboard接收请求并验证Token。 3. 用户在界面提问,OpenClaw Agent将问题封装为API请求。 4. 请求通过局域网发送至PC的Ollama服务 (默认端口11434)。 5. Ollama加载指定模型进行推理,生成回复。 6. 回复经由网络返回给树莓派上的OpenClaw Agent。 7. Agent将结果呈现给Dashboard,用户看到回答。

这个工作流清晰地将界面、逻辑和计算分离。openclaw-rpi这个仓库的作用,就是提供一套工具和“配方”,把上述所有环节的安装、配置、连接和安全设置,用脚本的方式固化下来,实现一键式或分步式的快速部署。

3. 环境准备与设备配置要点

3.1 树莓派端基础环境搭建

首先,确保你的树莓派运行着较新的Raspberry Pi OS(推荐64位的Bookworm版本)。使用sudo apt update && sudo apt upgrade -y更新系统到最新状态。接下来,我们需要安装一些必要的依赖。

注意:树莓派上的操作大部分需要sudo权限。建议使用默认的pi用户或在sudo组内的用户进行操作。

基础的依赖包括curl(用于下载脚本和安装包)、python3pip(OpenClaw是Python应用),以及git(用于克隆我们的配置仓库)。可以通过以下命令安装:

sudo apt install -y curl python3 python3-pip git

接下来是安装OpenClaw本身。虽然仓库里提供了部署脚本,但理解手动安装过程有助于排查问题。OpenClaw通常可以通过pip从PyPI安装。但由于它可能处于快速迭代期,有时直接安装GitHub上的最新版本更可靠。我个人的经验是,如果pip install openclaw报错或版本过旧,可以尝试从源码安装:

# 方法一:通过pip安装(推荐先尝试) pip3 install openclaw --user # 如果上述命令失败或版本不对,使用方法二 # 方法二:从GitHub源码安装 pip3 install git+https://github.com/your-openclaw-repo-url.git --user # 请将‘your-openclaw-repo-url’替换为实际的OpenClaw项目地址

安装完成后,可以运行openclaw --version检查是否安装成功。如果提示命令未找到,可能是因为pip--user安装路径未加入PATH,可以尝试退出SSH重新登录,或使用python3 -m openclaw的方式调用。

3.2 PC端Ollama服务配置

这是后端计算力的来源。在你的Windows、macOS或Linux PC上,首先从Ollama官网下载并安装Ollama。安装后,默认情况下,Ollama服务会启动并监听127.0.0.1:11434。我们需要修改配置,使其监听所有网络接口(0.0.0.0),从而允许树莓派访问。

在Linux/macOS上,可以设置环境变量启动:

OLLAMA_HOST=0.0.0.0 ollama serve

或者,更持久的方法是修改systemd服务文件(Linux)或创建启动脚本。

在Windows上,手动修改稍微复杂。这正是openclaw-rpi仓库中scripts/windows/start_ollama_lan_32k.ps1脚本的价值所在。这个PowerShell脚本做了两件关键事:

  1. 设置环境变量OLLAMA_HOST0.0.0.0,然后启动Ollama,使其监听局域网。
  2. 通过OLLAMA_KEEP_ALIVE参数(示例中设为32k)来调整模型的上下文保持策略,这对于需要长对话记忆的场景很有用。

你可以直接运行这个脚本,或者将其内容复制到一个新的PowerShell脚本中,根据你的需要调整参数。一个常见的调整点是--verbose参数,如果你在排查连接问题,可以加上它以获取更详细的日志。

实操心得:在Windows上,为了避免每次开机手动运行脚本,可以将这个PowerShell脚本的快捷方式放到启动文件夹(shell:startup)中。这样PC一开机,Ollama服务就会自动以局域网模式启动。

启动Ollama服务后,务必在PC的防火墙中允许11434端口的入站连接。否则,树莓派的请求会被Windows防火墙拦截。你可以在Windows Defender防火墙的高级设置中,为Ollama(或端口11434)添加入站规则。

最后,在PC上拉取你需要的模型。例如,拉取一个对硬件要求相对友好的7B模型:

ollama pull qwen2.5:7b

模型会下载到本地,之后OpenClaw就可以调用它了。

3.3 网络环境确认与IP地址规划

稳定的局域网通信是这一切的基础。请确保你的树莓派和PC连接到同一个路由器(或交换机)下,处于同一个子网内。通常家中的Wi-Fi和有线网络都属于同一个子网(如192.168.1.0/24)。

你需要确定两个关键的IP地址:

  1. 树莓派的IP地址:在树莓派终端运行hostname -I,会显示其IP地址(例如192.168.1.100)。建议在路由器中为树莓派设置静态IP分配(DHCP保留),这样它的IP就不会变动,避免后续配置失效。
  2. PC的IP地址:在PC上,Windows可以用ipconfig(找IPv4地址),Linux/macOS用ifconfigip addr。同样建议为PC设置静态IP或DHCP保留(例如192.168.1.50)。

此外,你还需要规划哪些设备将被允许访问OpenClaw仪表盘。比如你的主力工作电脑(IP:192.168.1.20)、你的手机(IP:192.168.1.30)。记下这些IP,我们将在配置防火墙白名单时用到。

4. 核心配置解析与自动化部署

4.1 配置文件深度解读

openclaw-rpi仓库的精髓在于其预设的配置文件模板,它们将复杂的配置项参数化,让我们只需填写几个关键变量即可。核心文件有两个:

1.configs/openclaw.sample.json:OpenClaw主配置模板这个文件定义了OpenClaw服务本身的行为。我们重点关注几个需要根据环境修改的字段:

{ “openclaw_gateway”: { “host”: “0.0.0.0”, // 树莓派上OpenClaw监听的地址,0.0.0.0表示监听所有接口 “port”: 18789, // 仪表盘访问端口 “auth_mode”: “token”, // 认证模式,使用令牌 “auth_token”: “{{OPENCLAW_TOKEN}}” // 令牌值,这里是一个待填充的变量 }, “providers”: [ { “type”: “ollama”, // 使用Ollama作为模型提供商 “name”: “local_ollama”, “config”: { “base_url”: “http://{{PC_OLLAMA_IP}}:11434”, // Ollama服务的地址,变量待填充 “model”: “qwen2.5:7b” // 默认使用的模型,可按需修改 } } ] }
  • host: “0.0.0.0”:这很关键,它让OpenClaw服务可以被局域网内的其他设备发现和访问。
  • auth_token:这是仪表盘的安全密码。部署脚本会用我们稍后设置的环境变量值替换{{OPENCLAW_TOKEN}}
  • base_url:这里指向Ollama服务。{{PC_OLLAMA_IP}}会被替换成你PC的实际IP地址。

2.configs/trusted_devices.example.env:环境变量配置文件这是一个环境变量模板,集中管理所有部署参数:

# 受信任的客户端IP地址,用逗号分隔,不允许有空格 TRUSTED_OPENCLAW_CLIENTS=“192.168.1.20,192.168.1.30” # 运行Ollama的PC的IP地址 PC_OLLAMA_IP=“192.168.1.50” # OpenClaw仪表盘的访问令牌,建议使用强密码 OPENCLAW_TOKEN=“your_super_strong_token_here” # 树莓派上运行部署脚本的用户名(用于路径定位) PI_USER=“pi”
  • TRUSTED_OPENCLAW_CLIENTS:防火墙白名单。只有列表中的IP可以访问树莓派的18789端口。请务必准确填写。
  • OPENCLAW_TOKEN:生成一个强密码,不要使用默认值或简单密码。

4.2 自动化部署脚本详解

仓库中的scripts/deploy_rpi_openclaw.sh是主部署脚本。我们来拆解它做了什么:

  1. 依赖检查与安装:检查并安装必要的系统包(如ufw防火墙)和Python包。
  2. 环境变量加载:读取你配置好的trusted_devices.env文件,将变量注入当前Shell环境。
  3. 配置文件生成:使用sed等工具,将openclaw.sample.json模板中的{{PC_OLLAMA_IP}}{{OPENCLAW_TOKEN}}占位符,替换为环境变量中的实际值,生成最终的运行时配置文件~/.openclaw/openclaw.json
  4. 防火墙配置:调用setup_firewall.sh脚本,配置UFW(Uncomplicated Firewall)。其核心逻辑是:
    • 启用UFW。
    • 设置默认策略为拒绝所有入站、允许所有出站(这是一个安全的基础配置)。
    • 针对TRUSTED_OPENCLAW_CLIENTS中的每一个IP地址,添加一条规则,允许该IP访问树莓派的18789端口。
    • 确保SSH端口(通常是22)是开放的,否则你可能会把自己关在树莓派外面!
  5. 服务启动:尝试重启OpenClaw仪表盘服务,使其加载新的配置。

这个脚本将一系列手动操作流程化、自动化,极大地减少了出错概率。你只需要编辑好.env文件,然后运行这一个脚本即可。

4.3 分步执行与手动部署指南

虽然自动化脚本方便,但理解每一步的手动操作对于调试和个性化定制至关重要。以下是等效的手动步骤:

步骤一:克隆仓库并准备配置

git clone https://github.com/zenetio/openclaw-rpi.git cd openclaw-rpi cp configs/trusted_devices.example.env configs/trusted_devices.env # 使用nano或vim编辑 trusted_devices.env,填入你的IP和Token nano configs/trusted_devices.env

步骤二:生成OpenClaw最终配置

# 加载环境变量 source configs/trusted_devices.env # 创建OpenClaw配置目录 mkdir -p ~/.openclaw # 使用环境变量替换模板并生成最终配置 sed -e “s/{{PC_OLLAMA_IP}}/$PC_OLLAMA_IP/g” \ -e “s/{{OPENCLAW_TOKEN}}/$OPENCLAW_TOKEN/g” \ configs/openclaw.sample.json > ~/.openclaw/openclaw.json

步骤三:手动配置防火墙(UFW)

# 安装UFW(如果未安装) sudo apt install ufw -y # 设置默认策略 sudo ufw default deny incoming sudo ufw default allow outgoing # 允许SSH(非常重要!) sudo ufw allow ssh # 为每个受信任IP开放18789端口 IFS=‘,’ read -ra ADDR <<< “$TRUSTED_OPENCLAW_CLIENTS” for ip in “${ADDR[@]}”; do sudo ufw allow from $ip to any port 18789 done # 启用UFW sudo ufw --force enable # 查看规则 sudo ufw status numbered

步骤四:启动OpenClaw仪表盘

# 如果OpenClaw已安装,可以这样启动(具体命令可能因版本而异) openclaw start --config ~/.openclaw/openclaw.json # 或者使用后台运行的方式 nohup openclaw start --config ~/.openclaw/openclaw.json > openclaw.log 2>&1 &

通过手动执行这些步骤,你能更清晰地看到整个配置的脉络,在遇到问题时也能更准确地定位。

5. 安全加固与网络访问控制实践

5.1 令牌认证的原理与最佳实践

OpenClaw使用令牌(Token)进行认证,这是一种简单有效的API认证方式。当你在配置中设置了auth_token后,所有对仪表盘的访问都必须在URL中附带正确的token参数,例如:http://192.168.1.100:18789/#token=your_super_strong_token_here

重要提示:Token相当于密码,请遵循以下最佳实践:

  1. 强度:使用足够长(16位以上)、包含大小写字母、数字和特殊字符的随机字符串。可以借助密码管理器生成。
  2. 保密trusted_devices.env文件包含了Token,请确保该文件权限设置为仅当前用户可读(chmod 600 configs/trusted_devices.env)。
  3. 独立:不要在其他地方复用这个Token。
  4. 更新:如果怀疑Token泄露,应立即在配置文件中更改并重新部署。

这种认证方式防止了未经授权的用户直接使用Web界面,但请注意,Token是以URL片段(#后面)的形式传输,它不会被发送到服务器(OpenClaw服务端是通过前端JavaScript读取的)。这意味着网络嗅探无法直接截获Token,但浏览器历史记录或日志可能会留下痕迹。因此,结合IP白名单是更稳妥的方案。

5.2 UFW防火墙规则深度解析

UFW是Linux上一个简化的防火墙管理工具。我们脚本中的配置建立了一道坚实的网络屏障。我们来分析一下关键的规则:

  • sudo ufw default deny incoming:这是安全基石。意思是默认拒绝所有入站连接。任何没有被明确允许的入站请求都会被拒绝。
  • sudo ufw default allow outgoing:允许所有出站连接。这样树莓派可以主动访问外部,比如向Ollama发送请求、下载更新包等。
  • sudo ufw allow ssh:允许SSH入站。这是你管理树莓派的生命线,必须开放。UFW很智能,它知道ssh对应端口22。
  • sudo ufw allow from <IP> to any port 18789:为核心规则。它为白名单中的每一个IP地址创建一条专属规则,允许从该IP发起的、目标为树莓派任何网络接口的18789端口的TCP连接。

你可以通过sudo ufw status verbose查看详细规则。输出会类似:

Status: active Logging: on (low) Default: deny (incoming), allow (outgoing), disabled (routed) New profiles: skip To Action From -- ------ ---- 22/tcp (SSH) ALLOW IN Anywhere 18789/tcp ALLOW IN 192.168.1.20 18789/tcp ALLOW IN 192.168.1.30

这清晰地展示了只有来自192.168.1.20192.168.1.30的设备可以访问18789端口。

5.3 应对动态IP与扩展访问

家庭网络中,设备的IP地址可能会变(尤其是手机、平板等通过DHCP获取IP)。这会给IP白名单带来麻烦。有几种解决方案:

  1. 路由器静态IP分配(DHCP保留):这是最推荐、最稳定的方法。登录你的路由器管理后台,根据设备的MAC地址,为其分配固定的内网IP。然后将这个固定IP加入白名单。
  2. 使用IP段:如果你的设备IP在一个小范围内变动,可以考虑允许一个IP段。例如,如果你的手机IP通常是192.168.1.100192.168.1.110,UFW规则可以写成sudo ufw allow from 192.168.1.100/28 to any port 18789/28子网掩码包含了这个范围)。但这种方法会扩大攻击面,请谨慎评估风险。
  3. 结合更高级的认证:对于必须从动态IP访问的场景,可以考虑在OpenClaw前方设置一个反向代理(如Nginx),并配置基于用户名/密码的HTTP Basic认证,或者使用VPN(如WireGuard)接入家庭网络,然后使用内网IP访问。这超出了本基础方案的范围,但却是生产环境更安全的做法。

踩坑记录:我曾经因为手机IP变更而无法访问仪表盘,排查了半天才发现是防火墙挡住了。后来在路由器里给所有需要访问的设备做了DHCP保留,一劳永逸。强烈建议大家在部署前就规划好IP,做好静态分配。

6. 连接测试、使用与问题排查实录

6.1 端到端连通性测试

部署完成后,不要急于打开浏览器,先进行一轮系统性的连通性测试,可以快速定位问题所在。

测试1:PC端Ollama服务是否可达在树莓派上,使用curl命令测试是否能访问到PC的Ollama API:

curl http://<PC_OLLAMA_IP>:11434/api/tags

例如:curl http://192.168.1.50:11434/api/tags

  • 预期成功:返回一个JSON,列出Ollama中已拉取的模型。
  • 如果失败
    • 连接被拒绝:说明PC的Ollama服务没启动,或者没绑定到0.0.0.0。回到PC检查Ollama进程和环境变量。
    • 超时:说明网络不通。检查PC防火墙是否放行了11434端口,以及两台设备是否在同一个子网。

测试2:树莓派OpenClaw服务是否运行在树莓派上,检查OpenClaw进程和端口监听:

# 检查进程 ps aux | grep openclaw # 检查端口监听 sudo netstat -tlnp | grep :18789
  • 应该能看到OpenClaw进程和监听在0.0.0.0:18789的服务。

测试3:从受信任客户端测试仪表盘端口在一台被加入白名单的电脑(例如IP为192.168.1.20)上,先测试端口连通性:

# Linux/macOS nc -zv <树莓派IP> 18789 # 或使用telnet telnet <树莓派IP> 18789
  • 如果端口是通的,会显示连接成功。
  • 如果连接被拒绝,说明树莓派的UFW规则可能没生效,或者OpenClaw服务没起来。回树莓派检查sudo ufw status和进程状态。

6.2 仪表盘访问与基础使用

通过上述测试后,就可以在受信任客户端的浏览器中访问仪表盘了。访问格式为:

http://<树莓派IP>:18789/#token=<你的OPENCLAW_TOKEN>

例如:http://192.168.1.100:18789/#token=my_secret_token_123

首次访问,你应该能看到OpenClaw的Web界面。界面通常会有一个聊天输入框。尝试发送一条消息,比如“你好”。这个过程会触发完整的链路:

  1. 浏览器 -> 树莓派18789端口 (HTTP请求)。
  2. 树莓派OpenClaw后端收到请求,验证Token(前端处理)。
  3. OpenClaw将“你好”转换为对Ollama的API调用。
  4. 请求从树莓派发送至PC_IP:11434
  5. Ollama使用配置的模型(如qwen2.5:7b)生成回复。
  6. 回复传回树莓派,再呈现到浏览器界面。

如果长时间显示“正在思考”或出错,就需要查看日志了。

6.3 常见问题与排查技巧

以下是我在部署和使用过程中遇到的一些典型问题及解决方法,整理成了速查表:

问题现象可能原因排查步骤与解决方案
浏览器访问仪表盘,连接被拒绝/无法访问此网站1. 树莓派OpenClaw服务未运行。
2. UFW防火墙阻止了访问。
3. IP地址不在白名单内。
1. 在树莓派运行sudo systemctl status openclaw或检查进程。
2. 运行sudo ufw status确认18789端口规则存在且针对你的客户端IP。
3. 确认客户端IP是否准确包含在TRUSTED_OPENCLAW_CLIENTS中。
能打开登录页,但发送消息后长时间无响应或报错1. 树莓派无法连接到PC的Ollama服务。
2. Ollama服务未运行或配置错误。
3. 配置文件中PC_IP或模型名错误。
1. 在树莓派上执行测试1,确认能访问http://PC_IP:11434/api/tags
2. 在PC上检查Ollama进程,确认启动参数包含OLLAMA_HOST=0.0.0.0
3. 检查~/.openclaw/openclaw.jsonbase_urlmodel字段是否正确。
Ollama返回“model not found”错误配置中指定的模型在PC的Ollama中不存在。1. 在PC上运行ollama list查看已拉取的模型列表。
2. 将配置文件中的model字段改为存在的模型名,或去PC上拉取对应模型ollama pull <model_name>
UFW启用后,树莓派自己无法访问外网(如ping不通)UFW出站规则被意外修改。UFW默认允许所有出站。检查是否有自定义的出站拒绝规则:sudo ufw status verbose。重置出站规则:sudo ufw default allow outgoing
Token无效,无法进入界面1. 配置文件中的Token与访问URL中的不一致。
2. Token包含特殊字符,在URL中未正确编码。
1. 核对trusted_devices.env中的OPENCLAW_TOKEN和浏览器地址栏中的token值是否完全一致。
2. 如果Token包含&,?,=等URL特殊字符,尝试在浏览器中使用百分比编码,或更换一个仅包含字母数字的简单Token进行测试。
服务运行一段时间后中断树莓派资源(内存)不足,或进程意外退出。1. 使用htopfree -h查看内存使用情况。考虑为树莓派增加swap空间。
2. 将OpenClaw配置为系统服务(systemd),实现崩溃后自动重启。这是生产部署的推荐做法。

日志是排查问题的利器

  • OpenClaw日志:查看OpenClaw的输出日志。如果以前台方式启动,日志在终端;如果以后台方式,可能重定向到了文件(如openclaw.log)。查看其中是否有连接错误或异常堆栈。
  • Ollama日志:在PC上启动Ollama时添加--verbose参数,可以获得详细的请求和响应日志,对于调试API调用问题非常有帮助。

7. 进阶优化与维护建议

7.1 将OpenClaw配置为系统服务

使用nohup或直接在终端运行,服务不够稳定,终端关闭进程就结束了。更可靠的方法是创建systemd服务单元文件。

在树莓派上创建文件/etc/systemd/system/openclaw.service

[Unit] Description=OpenClaw AI Assistant Dashboard After=network.target [Service] Type=simple User=pi WorkingDirectory=/home/pi Environment=“PATH=/home/pi/.local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin” ExecStart=/home/pi/.local/bin/openclaw start --config /home/pi/.openclaw/openclaw.json Restart=on-failure RestartSec=10 StandardOutput=journal StandardError=journal [Install] WantedBy=multi-user.target

注意:ExecStart的路径需要根据你OpenClaw的实际安装位置调整(可以用which openclaw查找)。User也请替换为你的实际用户名。

然后启用并启动服务:

sudo systemctl daemon-reload sudo systemctl enable openclaw.service sudo systemctl start openclaw.service sudo systemctl status openclaw.service

现在OpenClaw会在系统启动时自动运行,并在意外退出时自动重启。你可以使用sudo journalctl -u openclaw -f来实时跟踪日志。

7.2 性能调优与监控

对于树莓派这类资源有限的设备,一些微调可以提升体验:

  • 优化Swap:如果内存经常吃紧,可以适当增加swap空间。编辑/etc/dphys-swapfile,将CONF_SWAPSIZE从默认的100增加到512或1024(单位MB),然后重启swap服务:sudo systemctl restart dphys-swapfile。注意,swap使用SD卡空间,频繁读写可能影响卡寿命,但作为内存不足的缓冲是有效的。
  • 监控资源:安装htopglances,可以直观地查看CPU、内存、交换分区的使用情况,帮助判断瓶颈所在。
  • 模型选择:在后端PC上,选择适合你硬件和需求的模型。如果PC性能一般,可以从更小的3B、4B模型开始尝试,如Llama3.2:3bQwen2.5:3b。响应速度会快很多。

7.3 扩展与未来方向

当前方案是一个坚实的起点,你可以在此基础上进行扩展:

  • 多模型支持:在OpenClaw配置文件的providers数组里,可以配置多个Ollama后端,甚至混合其他AI提供商(如OpenAI API)。这样可以在界面上切换不同的模型。
  • 功能集成:OpenClaw通常支持插件或工具调用,你可以探索将其与家庭自动化系统(如Home Assistant)、日历、邮件等连接,打造更强大的个人助理。
  • 反向代理与HTTPS:如果你希望通过域名在家庭网络外安全访问(需配合DDNS),可以在树莓派上安装Nginx或Caddy作为反向代理,配置HTTPS证书(如Let‘s Encrypt),并将OpenClaw服务代理出去。同时,务必在反向代理层面也配置好访问控制。
  • 高可用考虑:对于更严肃的用途,可以考虑将配置容器化(Docker),便于迁移和备份。甚至可以将Ollama也部署在更稳定的小型服务器上,而非个人PC。

这个项目最大的乐趣在于,它用一个简单的架构,将闲置的树莓派和现有的算力组合起来,创造出一个随时待命、功能实用的AI助手。从配置到调试,再到日常使用和优化,整个过程充满了动手的成就感。希望这份详细的指南能帮助你顺利搭建属于自己的家庭AI服务节点。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/13 18:21:18

dzhng/deep-seek量化模型:本地部署高性能大模型的实践指南

1. 项目概述与核心价值最近在折腾一些本地大模型应用时&#xff0c;发现了一个宝藏项目&#xff1a;dzhng/deep-seek。这可不是DeepSeek公司官方发布的模型&#xff0c;而是一个由社区开发者dzhng维护的、针对DeepSeek系列大模型的量化版本仓库。简单来说&#xff0c;它把动辄几…

作者头像 李华
网站建设 2026/5/13 18:19:17

如何高效清理重复图片:AntiDupl.NET智能检测完整指南

如何高效清理重复图片&#xff1a;AntiDupl.NET智能检测完整指南 【免费下载链接】AntiDupl A program to search similar and defect pictures on the disk 项目地址: https://gitcode.com/gh_mirrors/an/AntiDupl 你是否曾为电脑中堆积如山的重复图片而烦恼&#xff1…

作者头像 李华
网站建设 2026/5/13 18:19:02

从Flip Video兴衰看硬件产品战略:企业基因、可编程潜力与创新启示

1. 从“现象级产品”到“战略弃子”&#xff1a;Flip Video的兴衰启示录2011年4月&#xff0c;当思科宣布关闭其两年前收购的Flip Video业务时&#xff0c;整个消费电子和科技行业都感到一阵错愕。这不仅仅是因为Flip曾是全美最畅销的便携摄像机&#xff0c;更因为这一决策背后…

作者头像 李华
网站建设 2026/5/13 18:14:59

贝壳 AI 客服系统 v1.4.0 升级:多方面优化,提升客服场景适配能力

贝壳 AI 客服系统以 AI Agent 为核心&#xff0c;支持通过外部系统 MCP 提供能力。其 v1.4.0 版本围绕认证会话、人工转接等多方面进行升级&#xff0c;为客服场景带来更好体验。系统核心与能力贝壳 AI 客服系统以 AI Agent 为核心&#xff0c;通过外部系统 MCP 提供能力&#…

作者头像 李华
网站建设 2026/5/13 18:14:59

对比直接使用官方API接入Taotoken聚合后的成本体感

&#x1f680; 告别海外账号与网络限制&#xff01;稳定直连全球优质大模型&#xff0c;限时半价接入中。 &#x1f449; 点击领取海量免费额度 对比直接使用官方API接入Taotoken聚合后的成本体感 1. 引言 在开发与使用大模型应用时&#xff0c;成本是团队和个人开发者持续关…

作者头像 李华