AI视频生成的热度仍在攀升,从HappyHorse-1.0匿名屠榜到各家模型竞相开源,创作者似乎迎来了最好的时代。但一个现实问题始终悬而未决:云端服务固然方便,可谁愿意把未公开的脚本、商业素材甚至客户数据,毫无保留地交给一个黑盒API?
于是,我决定为自己搭建一套完全私有化的短视频制作AI助手。核心诉求很简单:数据不出本地,能用自然语言指挥AI完成从脚本到视频的全流程,而且——尽可能免费。
经过几轮折腾,最终选定了Ollama + Qwen2.5-27B + OpenClaw这套组合。下文是我在本地与阿里云两种环境下的实践记录,以及一些值得分享的思考。
一、为什么是这三样?
Ollama几乎是目前管理本地大模型最省心的工具。它把模型量化、GPU加速、API服务全部封装成了一条命令。你不需要关心Python环境、不用手写FastAPI,ollama run qwen之后,一个兼容OpenAI的接口就自动跑在了localhost:11434上。
模型选型上,我试过7B、14B和27B几个量级。对于短视频脚本创作、字幕生成、素材描述这类任务,7B量化版在普通PC上已经能流畅运行,效果够用;但如果希望模型能理解更复杂的分镜指令、生成更细腻的文案,27B版本的优势非常明显——尤其是长上下文的连贯性。考虑到硬件条件,最终以Qwen2.5-14B作为主力,必要时切换27B(需32GB内存+GPU)。
OpenClaw则是整个架构的“大脑”。它不生产视频,但能指挥一切。你可以把它理解为一个开源的AI智能体框架:它能读写文件、运行命令行、操控浏览器,甚至通过飞书、钉钉跟你交互。最关键的是,2026年4月它的新版正式支持了AI视频生成技能——你可以直接说“帮我做一个关于AI科普的30秒短视频,配乐用轻快的钢琴曲”,它会自动拆解任务、调用模型写脚本、再调用FFmpeg或外部视频API完成渲染。
这三者组合起来,就形成了一个闭环:用户一句话 → OpenClaw 拆解任务 → Ollama + Qwen 生成内容 → 调用本地工具或云端API输出视频。全程数据可以做到不上传任何公网。
二、本地部署:半小时跑通第一版
环境与准备
我用的是一台Windows PC,32GB内存 + RTX 3060(12GB显存)。如果你想复现,最低门槛是16GB内存 + 无独显(用CPU跑7B量化版,慢一点但能用)。
安装Ollama
Ollama官网下载Windows安装包,双击安装,任务栏会出现一只羊驼图标。打开命令行验证:
ollama --version
如果想让Ollama被局域网其他设备访问(比如用另一台电脑的OpenClaw连接),需要设置环境变量:
set OLLAMA_HOST=0.0.0.0
然后重启Ollama服务。
拉取模型
我选择了量化版的Qwen2.5-14B,在效果和资源之间取个平衡:
ollama run qwen2.5:14b-q4_K_M
第一次运行会自动下载,大约10-20分钟(看网速)。下载完成后进入对话界面,随便问一句“你好”,确认能正常回复即可。此时Ollama已经在后台提供了API服务。
安装OpenClaw
OpenClaw在Windows上有两种安装方式:一是直接下载官方提供的exe安装包(约360MB),解压到纯英文路径后双击运行;二是通过WSL2子系统获得更完整的开发体验。我选了后者——因为后续可能要调试自定义脚本。
WSL2的安装不再赘述,安装完成后在Ubuntu子系统中执行一键安装脚本:
curl -fsSL https://openclaw.ai/install.sh | bash
然后运行openclaw onboard --install-daemon,按照向导选择QuickStart模式,几分钟后OpenClaw的Gateway就启动了。管理面板地址是http://localhost:18789。
对接Ollama
关键一步:让OpenClaw知道该调用哪个模型。编辑配置文件~/.openclaw/config.yaml(Windows下在%USERPROFILE%\.openclaw\),添加:
llm: provider: ollama endpoint: http://127.0.0.1:11434 model: qwen2.5:14b-q4_K_M temperature: 0.7
保存后重启OpenClaw服务。然后在管理面板里随便发送一条指令,比如“写一段关于AI视频制作的30秒短视频脚本”,如果能正常返回内容,说明对接成功。
让OpenClaw拥有“视频能力”
OpenClaw本身不带视频生成模型,但它可以调用外部工具。我配置了两个技能:
本地FFmpeg:用于剪辑、拼接、添加字幕。安装FFmpeg并加入PATH,然后在OpenClaw的技能配置里启用
ffmpeg技能。视频生成API(可选):如果你有HappyHorse或Seedance的API Key,可以在配置里添加。不过为了彻底私有化,我暂时只用了本地FFmpeg + 素材库的方式——让OpenClaw自动从本地素材文件夹里选取片段,根据脚本生成剪辑命令。
完成这些后,我试着下达了一条完整指令:“从我的素材文件夹里随机选5段风景视频,合成一段30秒的短片,配上舒缓的背景音乐,片头加上文字‘AI生成实验’。” OpenClaw花了大约40秒——先调用Qwen生成剪辑方案,然后生成FFmpeg命令并执行,最终输出了一段可用的MP4。虽然画质和节奏还需要人工微调,但“从指令到成片”这个闭环已经跑通了。
三、云端部署:用阿里云获得7×24小时在线能力
本地部署虽然隐私性好,但电脑不能一直开着,而且生成视频时CPU/GPU占用高,影响日常使用。于是我把整套系统搬到了阿里云上。
选型与成本
阿里云提供了一键部署OpenClaw的镜像,在轻量应用服务器页面选择「OpenClaw (Moltbot) 官方镜像」,实例配置建议2核4GB起步。注意地域选择:中国大陆的服务器联网搜索功能受限,最好选中国香港或新加坡。
我选了ecs.gn7i-c8g1.4xlarge(8核32GB + T4 GPU)用于测试27B模型,按量付费每小时约3元,跑完就释放。日常轻量使用的话,2核4GB的普通实例(约0.5元/小时)就够了——因为Qwen模型可以走阿里云百炼平台的API,不需要在服务器上跑本地模型。
两种模型调用方式
在云端,有两种方式让OpenClaw获得大模型能力:
方式一:直接使用百炼平台的API Key
这是最简单且成本最低的方案。阿里云百炼提供免费额度(比如Coding Plan),你只需要申请一个API Key,然后在OpenClaw的配置里设置provider: bailian和对应的模型名称(如qwen-max)。数据会经过阿里云,但相比其他第三方API,信任成本低一些。
方式二:在云服务器上安装Ollama,拉取Qwen模型本地推理
如果你对数据隐私有极致要求,或者想完全避免API调用费用,可以在云服务器上重复本地的安装步骤。注意GPU实例需要安装NVIDIA驱动,阿里云大多数GPU镜像已经预装。然后同样配置OpenClaw指向本地的127.0.0.1:11434。
我选择混合模式:日常对话和脚本生成用百炼API(速度快、成本低);涉及敏感素材的剪辑任务,则启动一台带GPU的按量实例,跑本地Ollama。
部署流程简述
在阿里云控制台购买轻量应用服务器,镜像选择OpenClaw官方镜像
放行端口18789(管理面板)和11434(Ollama API,如果需要)
通过
http://<公网IP>:18789访问OpenClaw面板,按提示生成Token并登录如果需要本地Ollama,SSH登录服务器后执行
curl -fsSL https://ollama.com/install.sh | sh安装,再拉取模型修改OpenClaw配置文件,指定模型来源
整个过程大约20分钟,比本地部署还快——因为镜像已经预装了OpenClaw及其依赖。
四、真实体验:它能做什么,不能做什么
经过一段时间的使用,我对这套私有化AI助手的边界有了清晰的认识。
它能做得很好的:
脚本与文案生成:给一个主题,Qwen能产出结构完整的分镜脚本,风格可调(正经、幽默、煽情)。
字幕自动生成:把旁白文本丢给它,能输出带时间轴的SRT文件,准确率很高。
素材检索与剪辑编排:通过自然语言描述想要的画面风格(“找一个阳光穿过树叶的镜头”),OpenClaw可以调用本地脚本检索素材库的标签,然后生成FFmpeg剪辑命令。
批量处理:比如“把文件夹里所有MP4压缩到720p并添加水印”,这类机械化任务AI执行得又快又准。
它还不擅长或者需要人工介入的:
直接生成视频内容:除非你接入了专业的视频生成模型API(如HappyHorse),否则OpenClaw只能做“剪辑”而非“生成”。它可以从素材库里挑片段拼凑,但无法凭空造出不存在的画面。
高质量的口型同步:虽然Qwen可以生成带时间轴的文本,但让生成的虚拟人物说话口型匹配,还需要专门的口型同步模型(比如Wav2Lip),目前OpenClaw没有原生集成。
复杂的视觉审美判断:AI能遵守“镜头切换不要快于1秒”这样的硬规则,但对于“这个色调不够高级”这类主观判断无能为力。
总的来说,这套系统最适合的场景是:你已经有一批素材(或者能够从免费版权网站获取),需要快速将它们组合、配文、配乐、输出成片。它把从“想法”到“粗糙成品”的时间从几小时压缩到了几分钟,剩下的精雕细琢再由人来完成。
五、与HappyHorse-1.0等新一代模型的联动可能
写这篇文章时,HappyHorse-1.0刚刚登顶AI评测榜。虽然它尚未开源(阿里承诺后续开放权重),但其技术路线给了我一个启发:音视频联合生成正在成为趋势。传统的“先视频后配音”模式天然存在口型对齐难的问题,而HappyHorse在统一DiT架构中同时生成画面和音频,从根源上解决了同步问题。
未来,如果HappyHorse或类似模型开放本地部署版本,我的这套架构就可以无缝升级:把OpenClaw的视频生成技能从“调用FFmpeg剪辑”替换成“调用本地视频生成模型的API”。届时,用户只需输入“一个宇航员在火星上弹吉他,背景是落日”,系统就能直接输出带同步音轨的视频——而且全程数据不离开你的服务器。
事实上,OpenClaw已经在最新版中预留了视频生成技能的插件接口,目前支持阿里云百炼的视频服务。一旦开源模型权重放出,社区很快就会出现对应的适配器。
六、一些可能对你有用的经验
模型大小不是越大越好。27B模型在普通消费级显卡上几乎跑不动(需要24GB+显存),14B量化版是性能和资源的最佳平衡点。如果你的任务只是写脚本和字幕,7B完全够用。
善用OpenClaw的TaskFlows功能。你可以把“抓热点→写脚本→找素材→合成视频→发布”整个流程编排成一个任务,定时执行。比如每天早晨自动生成一条当日科技新闻短视频并推送到你的钉钉群。
数据安全不是玄学。即便用了本地Ollama,OpenClaw的一些技能(比如联网搜索)仍然会发出外部请求。建议仔细检查每个技能的配置,把不需要联网的统统禁用。
阿里云部署时留意地域。如果你希望OpenClaw能主动搜索B站、抖音的热点内容,服务器必须放在境外(香港或新加坡),否则很多网站无法访问。
结语
从“用云端AI生成视频”到“自己搭一套私有化AI视频助手”,不只是技术栈的切换,更是一种对数据主权的重新掌握。Ollama和OpenClaw这样的开源工具,让个人创作者第一次拥有了和科技公司同等能力的基础设施——虽然还不能一步到位生成好莱坞大片,但已经足以把日常短视频制作的效率提升一个数量级。
更重要的是,这个领域正在以肉眼可见的速度进化。HappyHorse-1.0的匿名屠榜、OpenClaw对视频技能的快速跟进、模型量化技术的成熟……每过一个月,私有化部署能做的事情就多一圈。或许很快,我们每个人都能拥有一个7×24小时在线的、完全属于自己的AI视频助手,把脑海里的创意一键变成屏幕上的画面。
而这,正是我写下这篇记录的原因——不是为了提供一个标准答案,而是希望更多人意识到:这件事,你现在就可以动手试试。