Google DeepMind 于 2026 年 4 月 2 日正式发布 Gemma 4,以其多模态能力脱颖而出,在全球开源模型中排上前六位,且显存占用相对很小,可以单显卡部署来保护个人数据隐私。这里在趋动云GPU上部署好了 gemma-4 模型和 OpenClaw 龙虾,启动后可以直接打开 OpenClaw 网页端试用。
以下链接可以免实名注册并送算力点试用 GPU 服务器:
注册链接:https://growthdata.virtaicloud.com/t/xK
登陆后进入项目链接:
https://open.virtaicloud.com/web/project/detail/697844112816304128
点击右上角运行一下,确定克隆项目和数据到自己工作空间,点击立即运行,启动开发环境后点右上角进入开发环境。
(1)运行 Gemma4 模型
在/gemini/code 目录下,打开终端命令行输入 bash start_vllm.sh 回车运行,即可启动 vllm 工具来运行 Gemma4 模型,直到出现 Starting vLLM server on http://0.0.0.0:30000 说明启动成功
然后在趋动云右侧界面添加 30000 的端口,然后就可以获得外部访问链接来使用 Gemma4 模型 API。
API 调用示例:
可以在终端运行 python send_test.py 脚本来快速测试跟 Gemma4 的对话。
也可以任意找一个 AI 应用接入服务器上刚刚运行起来的 Gemma4 模型,这里以有道龙虾 LobsterAI 示例,模型配置中:API key 可以随便填,
API Base URL 填入: http://你的外部访问链接/v1/chat/completions,例如:http://direct.virtaicloud.com:12345/v1/chat/completions
选择 OpenAI 兼容格式,下面模型 ID 填入:/gemini/pretrain/cyankiwi/gemma-4-26B-A4B-it-AWQ-4bit ,支持图像输入。如下图:
(2)云端运行原版 OpenClaw
本项目还顺便在服务器上配置了原版的 OpenClaw,一键启动即可在网页使用,自带接入了上面的 Gemma4 模型。
再次从启动页打开一个终端,在/gemini/code 目录下,打开终端命令行输入 bash start_openclaw.sh 回车运行,即可启动 OpenClaw:
openclaw启动比较慢,需要等待几分钟出现 [canvas] host mounted at http://0.0.0.0:18789/ ,才算启动Web界面成功。然后在在趋动云右侧界面添加 18789 的端口,获取外部访问链接。
然后在浏览器界面打开这个网址使用 OpenClaw (已经在配置文件 /gemini/code/openclaw_data/.openclaw/openclaw.json 里自动配置好了 token 和模型):
http://你的外部访问链接/#token=2026,例如:http://direct.virtaicloud.com:12345/#token=2026
本项目的 OpenClaw 是配置存储在镜像之外的 /gemini/code/openclaw_app 文件夹里的,用户记忆 和 workspace 在/gemini/code/openclaw_data 文件夹里,下次开机启动还可以保留配置和记忆。
如果有专业玩家需要使用其他 openclaw 命令,则需要在命令行输入如下命令,先进入该文件夹,再执行如下带前缀的命令:
cd /gemini/code/openclaw_app
OPENCLAW_HOME=/gemini/code/openclaw_data npx openclaw + 其他命令
仅供学习研究使用,如果遇到 bug 或者对 AIGC 创作技术感兴趣的话,欢迎在项目说明.ipynb后面的群里反馈讨论。