news 2026/4/27 15:21:26

Skill也有语言虚拟机了!上交大开源SkVM,实现一次编写,处处高效

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Skill也有语言虚拟机了!上交大开源SkVM,实现一次编写,处处高效
IPADS团队 投稿
量子位 | 公众号 QbitAI

Skill确实好用,但架不住模型和Agent Harness适配翻车。

不是所有模型都吃得动Skill,有的用上直接反向掉性能。

从计算机系统架构角度审视“程序语言”和“Skill语言”

为了解决这个问题,来自上海交大的IPADS研究团队提出了SkVM:面向Skill的语言虚拟机。

在Agent时代下,Skill是代码,而不同的LLM是异构处理器

研究团队借鉴了经典语言虚拟机(如Java Virtual Machine)的架构,首次为Skill设计了原生的语言虚拟机,让Skill通过一次编写,能够在任意的模型和Agent Harness上高效运行。

通过SkVM编译后的Skill,甚至能够让小模型(30B)获得匹配Opus4.6的精度,同时减少40%的token消耗量和至多50倍的运行速度提升。

从而一键提升OpenClaw、Hermes、openJiuwen、PI等Agent框架与Clawhub等主流Skill生态的执行速度、Token效率与任务精度

Skill与模型间不匹配

同一个技能在不同模型/不同harness组合上的执行效果天差地别,甚至还会拖后腿。

上海交大IPADS的研究人员分析了超过 11.8万个技能,发现:

  • 15%的任务在使用技能后反而性能下降;

  • 87%的任务至少有一个模型没有任何提升;

  • 有的技能带来的token开销暴增451%,但成功率却纹丝不动。

采取Skill前后,对于任务完成率的影响,红色表示下降,绿色表示上升

原因很简单:

技能写的是“自然语言代码”,但模型和运行环境千差万别,Skill需求的能力和模型与环境提供的能力,存在明显的语义鸿沟!

具体而言:

  1. 模型能力不匹配:技能预设模型很聪明,但如果你用的是个小模型,它可能完全听不懂你在说什么,强行使用甚至会导致15%的任务性能下降;

  2. 环境依赖老报错:技能里写了要用某个Python包,但用户的电脑上根本没装,大模型只能不断试错,疯狂浪费Token;

  3. 又慢又贵:高度重复的死板工作,大模型每次都要重新走一遍“推理-工具调用”的脑回路,Token成本极高 。

SkVM:一次编写,处处高效!

面对上面所述的痛点,上交大团队从传统的语言虚拟机设计中汲取灵感,给出了面向自然语言的虚拟机SkVM架构,其整体架构如下图所示:

SkVM整体架构:包含AOT编译优化和运行时优化两个部分

SkVM类比了经典了Java语言虚拟机(JVM)的设计,提炼了底层运行抽象,结合AOT/JIT等编译方式,并在运行时做自适应调优和运行时调度。

下表展示了SkVM和JVM在不同编译优化策略上的对比:

AOT编译(Ahead-of-Time Compilation):将Skill编译成模型更能看懂的形式

在安装Skill的时候,AOT编译器(由编译优化Skill+LLM组成)会对Skill进行编译,生成多个编译后产物,帮助后续Agent Harness+LLM在运行时更好地理解Skill。

SkVM在运行前会做三件事:

PASS-1基于能力的编译

系统提炼了26种“原子能力”(Primitive Capabilities),像测CPU跑分一样先摸底你的大模型。

不同于其他的LLM 测试集,原子能力并非测试大模型能否解决一个复杂逻辑问题,更多是测试模型是否具备工具调用,指令遵循,格式对齐等对立、可组合、以及逻辑无关的基本能力。

同时,对于每一个“原子能力”,也会进行分级打分,从而生成更加客观的大模型+Harness组合能力画像。
其次,编译器会去分析Skill本身需要哪些“原子能力”,以及对应的等级。

如果Skill需要的“原子能力”等级大于当前运行的大模型+Harness能够提供的能力等级,编译器会编译Skill,以降低Skill的能力需求。

例如,Skill中往往会包含一些预先定义的python/js执行文件,而这些文件通常是通过相对路径定义的。

如果模型+Agent harness 缺乏对应相对路径的解析能力,编译器会在安装Skill的时候,将相对路径转换为绝对路径,以降低Skill 对于“脚本执行”这一原子能力的等级需求。

基于模型原子能力的skill编译

PASS-2 环境绑定

Skill中往往会定义运行需要的环境和依赖。

Agent在运行时候,LLM会检查并且安装对应的环境,导致大量的token浪费 / 环境安装失败。

为此,AOT编译器自动提取技能需要的包和工具,生成安装/检验脚本。运行前一键配好环境,不用大模型自己尝试排错了 。

PASS-3 并发提取

有超过76%的Skill中包含workflow,并且Agent harness 默认会采用串行的方式执行。

AOT编译能够发掘Skill执行过程中,不同粒度的并行机会,包括数据并行(一条指令,多个数据)、指令并行(无依赖的指令并行发射)和线程并行(多个独立的sub-agent,完成不同的子任务),并且生成可并行的DAG工作流图。

同时,开发者还可以自定义编译优化机制,注册到AOT编译器中,从而进一步对Skill进行运行前优化。

运行时优化:越跑越准,越跑越省

除了静态编译,在运行时,SkVM会采用JIT(Just-in-Time Compilation)加速Skill的执行效率。

代码固化(Code Solidification)

Skill中定义的脚本,往往是可变参数的代码模板。

Skill在每次运行时,LLM都需要反复生成可执行的脚本,导致大量token的浪费。

为此,SkVM会在AOT阶段,生成代码的指纹,模板,以及对应的参数列表。

在运行阶段,调用Skill后由LLM生成的代码,和AOT阶段提前生成的代码指纹进行匹配,如果连续多次匹配成功,SkVM会采用JIT编译优化,根据输入参数,直接固化可执行的代码,而非每次由LLM 重新生成。

自适应重编译

如果在运行中出现报错/重试,系统会收集错误日志反馈给编译器,自动重新优化技能。

防止每次运行Skill的过程中,发生同样的错误,并且提高任务的成功率。

在运行时,SkVM除了采用JIT的编译优化外,还会负责Skill生命周期、加载管理,保证Skill编译后新的编译产物,能够正确的加载和执行。

同时,SkVM还会根据当前的系统资源,调节并行粒度,减少不必要的资源竞争。

实验结果:小模型+SkVM比肩Opus4 .6,效率至多提升50倍

研究团队在包含代码生成、数据分析等118个代表性任务上进行了测试。

结果显示,SkVM带来的收益非常显著。尤其是对于偏弱的小模型,提升最为显著,因为它弥补了小模型在处理复杂JSON结构生成、环境依赖、脚本解析上的短板,使得qwen 30B拥有比肩Opus 4.6的任务成功率。

对于顶尖模型,采用SkVM编译后,消耗的token至多下降40%。

经过SkVM编译后和原始Skill在任务完成率上的对比,绿色深度表示提升的幅度,数字表示完成率分数

不同模型+Harness下,没有Skill、原始Skill、Skill-creator、SkVM的任务完成率对比

同时,得益于“代码固化”技术,代码部分的执行时间,从上万毫秒直接压缩到了几百毫秒,速度飙升19到50倍。

而针对Skill中潜在的并行机会,SkVM通过数据并行、指令并行和线程并行,将Skill的执行效率至多提升3.2倍。

数据并行、指令并行、线程并行下Skill效率的提升


触发JIT-代码固化优化前后,token消耗量和执行延迟间的对比

目前,SkVM能够无缝键入openClaw,Hermes Agent,openJiuwen Agent、PI Agent等主流的Agent框架,支持Clawhub等主流的Skill生态。

SkVM论文:https://arxiv.org/abs/2604.03088
项目网站:https://skillvm.ai/
项目仓库:https://github.com/SJTU-IPADS/SkVM/

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/27 15:19:20

Hacker‘s Keyboard自定义配置教程:打造专属你的移动开发环境

Hackers Keyboard自定义配置教程:打造专属你的移动开发环境 【免费下载链接】hackerskeyboard Hackers Keyboard (official) 项目地址: https://gitcode.com/gh_mirrors/ha/hackerskeyboard Hackers Keyboard是一款功能强大的开源键盘应用,专为开…

作者头像 李华
网站建设 2026/4/27 15:18:21

高级PCB封装设计全流程:从仿真到量产闭环技术指南

从消费电子到车载工控,高端硬件的竞争早已到封装级。但多数团队没有闭环方法论:设计靠经验、仿真走形式、DFM 后置、量产被动救火,导致高级封装频频翻车。真正的高级 PCB 封装技术,是一套覆盖设计 — 仿真 —DFM— 试产 — 量产的…

作者头像 李华
网站建设 2026/4/27 15:17:15

FLUX.1-Krea-Extracted-LoRA效果对比:标准FLUX.1-dev与Krea风格并排展示

FLUX.1-Krea-Extracted-LoRA效果对比:标准FLUX.1-dev与Krea风格并排展示 1. 模型介绍 FLUX.1-Krea-Extracted-LoRA 是一款专注于真实感图像生成的AI模型,基于FLUX.1-dev基础模型开发。这个模型通过特殊的LoRA技术,为原本已经强大的FLUX.1-d…

作者头像 李华
网站建设 2026/4/27 15:17:09

基于h变换的扩散模型引导生成技术解析

1. 项目概述:基于h变换的扩散模型引导生成技术在计算机视觉领域,从低质量样本生成高质量视觉内容一直是个核心挑战。传统方法通常需要训练专用模型或依赖精确的前向算子知识,这严重限制了实际应用。我们提出的加权h变换采样方法(W…

作者头像 李华
网站建设 2026/4/27 15:15:21

Obsidian插件本地化终极指南:三步打造全中文笔记工作空间

Obsidian插件本地化终极指南:三步打造全中文笔记工作空间 【免费下载链接】obsidian-i18n 项目地址: https://gitcode.com/gh_mirrors/ob/obsidian-i18n 你是否曾经因为Obsidian插件全是英文界面而感到困扰?想象一下,打开你最喜爱的笔…

作者头像 李华