news 2026/5/1 19:13:33

白嫖党狂喜!OpenClaw 免费模型自动测速插件,9大平台自动选最快的

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
白嫖党狂喜!OpenClaw 免费模型自动测速插件,9大平台自动选最快的

tags: [OpenClaw, AI, LLM, 免费模型, 插件, 开源]

先说结论:如果你用 OpenClaw,这个叫 Free Optimizer 的插件值得装上试试。

地址:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer

我平时喜欢折腾各种 AI 本地部署和网关工具,OpenClaw 算是我目前在用的消息网关(把各种聊天软件和 AI 模型连起来)。但它有一个痛点——我想用免费的模型,但免费模型分布在十几个平台上,有的快有的慢,有的今天能用到明天就限流了。手动切来切去特别烦。

这周逛 GitHub 的时候发现有人写了一个 OpenClaw 插件,叫Free Optimizer,专门干这个事。

它是干什么的

一句话:自动发现 9大平台的免费模型,实时测速,每次聊天自动切换到当前最快那个。

装上之后你在 OpenClaw 里设model: free-opt/auto,剩下的它全自动。不用管哪个平台今天正常、哪个超时——插件每小时跑一次全面测速,把你的模型排名更新一遍,下次聊天自动走排名第一的。

支持哪些平台

目前它支持 9个平台:

平台典型模型国内用户
OpenRouterDeepSeek R1, Llama 4, Qwen3✅ 直连
NVIDIA NIMLlama 3.3 70B, Kimi K2.5✅ 直连
CloudflareLlama 3.2 1B/3B✅ 直连
GitHub ModelsGPT-4o Mini, DeepSeek R1✅ 直连
GoogleGemini 2.5 Pro/Flash❌ 需要代理
GroqLlama 3.3 70B❌ 需要代理
CerebrasLlama 3.3 70B❌ 需要代理
MistralMistral Large, Codestral❌ 需要代理
HuggingFace各种开源模型❌ 需要代理

国内用户只配前三个就能用得挺好,不需要任何代理工具。

实测效果

我在自己的服务器上跑了一轮测试,这是实际排名:

排名模型延迟质量
🥇Cloudflare Llama 3.2 32B444ms★★★★★
🥈NVIDIA Llama 3.3 70B692ms★★★★★
🥉GitHub DeepSeek R11123ms★★★★★

Cloudflare 的小模型只有 32B 参数,但胜在延迟极低,简单对话完全够用。如果要推理能力强的,NVIDIA 的 70B 模型也只花了不到 700ms,非常稳。

插件的排行榜长这样:

┌──────┬──────────────────────────────────────────┬────────┬─────────┬──────┬──────────┐ │ Rank │ Model │ TTFT │ Qual │ Tag │ Ctx │ ├──────┼──────────────────────────────────────────┼────────┼─────────┼──────┼──────────┤ │ 1 │ cloudflare/llama-3.2-32b-instruct │ 444ms │ ★★★★★ │ │ 128K │ │ 2 │ nvidia/llama-3.3-70b-instruct │ 692ms │ ★★★★★ │ ⭐ │ 65K │ └──────┴──────────────────────────────────────────┴────────┴─────────┴──────┴──────────┘

安装真的简单

如果你是 OpenClaw 用户,只需要三步:

# 1. 下载到插件目录cp-ropenclaw-plugin-free-optimizer ~/.openclaw/plugins/free-optimizercd~/.openclaw/plugins/free-optimizer# 2. 安装编译npminstallnpmrun build# 3. 设为主模型# 在 OpenClaw 配置文件里把 model 改成 free-opt/auto

然后去你喜欢的平台搞个 API Key 填一下(推荐 NVIDIA 和 Cloudflare,免费额度大还好申请),执行/free-opt_test就能看到排行榜了。

几个我特别喜欢的设计

1. 质量评分— 不只是看谁回得快,还看回答正不正确。插件会问 “法国的首都是什么?用一个词回答”,正确的给 5星,胡说的给低分。排名时质量优先,速度其次。

2. 一键健康检查/free-opt_health只测当前在用模型,1秒出结果。如果模型挂了,它自动跑全量测速切到下一个。适合写成定时任务,我每半小时跑一次,保证不中断。

3. 过滤系统很灵活— 可以按平台、模型名、参数量、上下文大小来过滤。比如我只想用 NVIDIA 的 70B 以上模型:

{"includeProviders":["nvidia"],"minParamB":70}

4. 缓存聪明— 5分钟内直接用缓存不测速,5-30分钟走旧数据同时后台刷新,超30分钟强制重测。用户请求永远不会因为测速而卡住。

在哪下载

GitHub 仓库:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer

MIT 开源协议,随便用随便改。

总结

如果你是 OpenClaw 用户又不想花钱买模型,这个插件是目前最省心的方案。装上、配 Key、设个 cron 跑健康检查——之后就忘了它存在,每次聊天自动走最快的免费模型。

白嫖到这种程度,挺爽的。🦞


如果你也在用 OpenClaw 或者有什么好用的 AI 插件推荐,评论区聊聊。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 19:13:32

Python 爬虫高级实战:爬虫速度与稳定性平衡调优

前言 在规模化网络爬虫工程落地阶段,开发者普遍面临两大核心矛盾:爬取效率不足与程序稳定性缺失。单一同步串行爬虫开发门槛低、逻辑简洁,但面对海量目标页面与接口数据时,执行效率极低,无法满足业务批量采集需求;而盲目使用多线程、多进程、异步并发等提速手段,又极易…

作者头像 李华
网站建设 2026/5/1 19:10:12

3步彻底清理Mac残留文件:Pearcleaner开源解决方案指南

3步彻底清理Mac残留文件:Pearcleaner开源解决方案指南 【免费下载链接】Pearcleaner A free, source-available and fair-code licensed mac app cleaner 项目地址: https://gitcode.com/gh_mirrors/pe/Pearcleaner 你是否曾为Mac电脑存储空间不足而烦恼&…

作者头像 李华
网站建设 2026/5/1 19:09:38

ComfyUI ControlNet辅助预处理器完整指南:轻松掌握AI图像控制技术

ComfyUI ControlNet辅助预处理器完整指南:轻松掌握AI图像控制技术 【免费下载链接】comfyui_controlnet_aux ComfyUIs ControlNet Auxiliary Preprocessors 项目地址: https://gitcode.com/gh_mirrors/co/comfyui_controlnet_aux 在AI图像生成的广阔领域中&a…

作者头像 李华
网站建设 2026/5/1 18:56:35

父类Animal的getter和setter方法怎么写?

先看实体类私有成员变量:java运行public class Animal {// 私有成员变量【封装】private String name; // 名字private int age; // 年龄 }一、标准 getter /setter 完整写法java运行// name 的 getter & setter // getter:获取属性值public …

作者头像 李华