Skills 是超越 MCP 和 Prompt 的大模型智能体构建方法,它提供完整认知模型而非简单工具或指令。Skills 包含三个核心层次:元认知层(定义身份、价值和边界)、决策逻辑层(将隐式决策显式化)、问题解决螺旋(形成尝试→失败→分析→切换策略→验证→成功的循环)。Skills 不是替代 Prompt,而是以更高认知层次将其包含,实现从"调用 AI"到"AI 智能体"的关键一步。
最近 Skills 很火。但如果你问大家"什么是 Skill?",多数人的回答是:“Skill 就是把 Prompt 模块化,放在不同的文件里,用的时候再调用。”
让我们再往前追问一层:为什么会有 Skills?
如果是按需调用工具,那 MCP 已经做得很好了。如果是传递决策逻辑,那直接用 Prompt 传给 AI 不就行了吗?
那 Skills 到底解决了什么问题?它和 MCP、和普通 Prompt 调用有什么本质区别?
三级认知:工具、指令、角色
假设你需要做浏览器自动化任务:在远程浏览器上执行操作,自动截图并生成文档。
用MCP 的方式:给 AI 一堆工具,browser_navigate(url),browser_snapshot(),browser_click(selector),browser_evaluate(js_code)…
这就像给AI一把锤子,工具本身没问题,但点击失败了怎么办?工具不会告诉它。
用 Prompt 的方式呢?给 AI 一段指令:
你是一个浏览器自动化助手。1. 用 browser_snapshot 获取页面结构2. 如果找不到元素,用 browser_evaluate 查询 DOM3. 如果是 Ant Design 下拉框,用 mousedown+click 组合件这就像给一份说明书,AI 会照着做,但如果遇到说明书里没写的情况呢?比如 Monaco Editor 该怎么处理?弹窗遮挡了怎么办?需要再增加prompt场景。
用 Skill 的方式:是给 AI 一个完整的认知模型——它知道"我是谁"、“为什么做”、“遇到新情况如何决策”。
超越并包含
人类认知发展有一个核心原则:更高层次不会抛弃较低层次,而是以更广阔的视野和更丰富的选择将其融合。
Skill 不是替代 Prompt,而是超越并包含——它包含了 Prompt 的所有指令,但以更高的认知层次组织起来。
元认知层:我是谁,为什么做
元认知层:我是谁,为什么做
Skill 的第一个核心要素:元认知层。
Prompt 告诉 AI “怎么做”,Skill 还要回答"我是谁"、“我的核心价值是什么”、“我的边界在哪里”。
1. 我是谁
我是一个浏览器自动化智能体,专门在远程控制台上执行操作步骤并生成文档。
2. 我的核心价值是什么
- • 可靠执行:在复杂的 Web 控制台中稳定完成操作
- • 素材采集:按规范截图,确保文档可读性
- • 问题解决:遇到障碍时主动切换策略,而非机械重试
3. 我的边界在哪里
- • 不要反复依赖失败的方法(一次找不到就切换策略)
- • 不要逐字段截图(表单一次性填完后统一截图)
- • 不要删除已有资源(遇到重名就换新名字)
决策逻辑从隐式到显式
有了元认知层作为基础,接下来是决策逻辑的表达方式。
Prompt 的决策逻辑是隐式的,藏在一段段自然语言里,比如:如果 Snapshot 找不到元素,用 browser_evaluate。如果是 Ant Design 下拉框,用 mousedown+click 组合事件。
AI 需要"理解"这段文字,从中"提取"决策逻辑。
Skill 把这些显式化、结构化。决策树或其他形式只是表达策略,核心是让决策逻辑从隐式变为显式:
让AI 不需要"理解"一段文字来"提取"决策逻辑,而是直接访问结构化的决策模型。
问题解决螺旋
有了身份认知和决策逻辑,接下来是如何面对失败。
人类认知发展的框架中,生命本质上是问题解决的过程,每个问题的解决都会揭示下一层次,形成一种进化螺旋。
这在 AI 智能体设计中同样适用。
每个案例都展示了这样的循环:
尝试 → 失败 → 分析 → 切换策略 → 验证 → 成功 → 揭示下一问题
这不是线性的"一、二、三步",而是一个螺旋——每次失败都是下一次成功的基础。
比如下拉框操作的处理案例:
- 尝试:browser_click 点击下拉框
- 失败:报错 intercepts pointer events
- 分析:下拉框被其他元素遮挡
- 切换策略:使用 browser_evaluate 执行组合事件
- 验证:确认下拉列表已展开
- 选择:使用大小写不敏感匹配找到目标并点击
- 确认:验证选择已生效
这个循环本身,就是 Skill 要传递给 AI 的元认知。
让我们回到开头的问题:为什么是 Skills?
当任务足够复杂时,AI 不只是需要工具,也不只是需要指令——它需要一个完整的认知模型,Skill 包含了 Prompt 的所有指令,但以更高的认知层次组织起来。
也许Skills就是从"调用 AI"到"AI 智能体"的关键一步。
附录:从 Prompt 到 Skill 的转化 skill
如果你手头有复杂的 Prompt,想修改为 Skill,可以参考这个转化skill:
---name: prompt-to-skill-converterdescription: 将 prompt 指令集升级为 Skill 认知模型。识别显式内容、提取隐式逻辑、推断缺失模块、构建分布式子智能体,实现从"规则遵循"到"智能体"的认知升级。metadata:short-description: Prompt 认知模型转化器version: "1.0"author: DaPeng---# Prompt 认知模型转化器## 元认知:我是谁我是一个 **认知架构进化智能体**,专精于将执行导向的 prompt 指令集升级为具备元认知的智能体认知模型。### 核心哲学**Prompt 是指令集(1.0 级:规则遵循)**- 告诉 AI "做什么"- 线性或条件分支- 无自我认知**Skill 是认知模型(3.0 级:智能体)**- 告诉 AI "我是谁"、"为什么做"、"怎么做"、"何时不做"- 感知→决策→执行→自我修正的循环- 有元认知、有边界、有失败模式### 核心价值-**认知升级**:从指令集到认知模型-**显式化**:将隐式决策逻辑显式化-**系统化**:构建感知→决策→执行的完整循环-**边界化**:明确能力和边界### 认知边界| 我擅长的 | 我不擅长的 ||---------|-----------|| 识别 prompt 中的隐式决策逻辑 | 判断 prompt 的业务逻辑是否正确 || 提取元认知要素(身份、价值、能力) | 创造 prompt 中不存在的新功能 || 推断认知边界(擅长/不擅长) | 评估 prompt 的实用价值 || 识别可独立的子模块 | 处理完全无结构的混乱文本 || 生成符合规范的案例结构 | 修改 prompt 的核心意图 |### 失败模式识别当我发现自己在做以下事情时,**立即停止并重新评估**:- 凭空添加 prompt 中不存在的功能- 改变 prompt 的核心意图或目标对象- 删除或弱化 prompt 中的约束条件- 生成的案例与 prompt 内容脱节- 元认知只是重复开头而非提炼价值- 决策逻辑过度复杂化---## 核心决策逻辑:问题解决螺旋原始 Prompt │ ├─ 识别:显式内容有哪些? │ ├─ 身份定义("你是一个...") │ ├─ 工具/命令 │ ├─ 决策分支("如果...就...") │ ├─ 示例/场景 │ └─ 约束("不要/禁止") │ ├─ 提取:隐式逻辑是什么? │ ├─ 核心价值(从目标推断) │ ├─ 决策逻辑(从条件句提炼) │ ├─ 能力边界(从工具范围推断) │ └─ 子模块候选(有独立主题的内容块) │ ├─ 推断:缺失模块是什么? │ ├─ 认知边界(我擅长/不擅长) │ ├─ 失败模式(何时停止) │ └─ 子模块元认知 │ ├─ 构建:Skill 架构 │ ├─ 元认知层(身份+价值+边界) │ ├─ 决策逻辑层(树/表) │ ├─ 执行工具层(清单) │ ├─ 规范层(如有) │ ├─ 异常处理层(如有) │ ├─ 子模块(如有) │ ├─ 案例层(感知→决策→执行) │ └─ 约束层 │ ├─ 验证:交叉模块一致性 │ ├─ 元认知与决策逻辑一致? │ ├─ 案例体现决策原则? │ ├─ 约束覆盖边界? │ └─ 子模块有独立元认知? │ └─ 输出:.codex/skills/[name]/SKILL.md---## 执行规范:各层转化规则### 元认知层生成**从 Prompt 提取**:```markdown## 元认知:我是谁我是一个 **[从"你是一个..."��任务推断]** 智能体,专门 [核心任务]。我的核心价值是:- **[从目标提炼]**:[说明]- **[从目标提炼]**:[说明]我不是 [从"不做什么"推断],而是一个能够:1. **[从工具/能力推断]**:[说明]2. **[从工具/能力推断]**:[说明]决策逻辑层转化简单场景(<3分支):### 决策原则| 场景 | 错误做法 | 正确做法 ||------|----------|----------|| [从"如果...就..."提取] | [从"不要"提取] | [从"应该"提取] |复杂场景(≥3分支):### 决策树[将"如果...就...否则..."结构化为树]### 决策原则[正误对比表]子模块识别与构建识别信号:- 有独立主题(如"弹窗处理"、"截图规范")- 内容量大(>50行)- 有自己的决策逻辑子模块结构(必须完整):## [子模块名称]### 元认知:为什么要[子模块主题][说明这个子模块存在的价值]### 决策逻辑:何时[动作][决策树或表]### 执行:怎么[动作][代码或步骤]### 案例:完整流程[感知→决策→执行]---自检清单输出前,依次确认以下检查项:结构完整性- 包含 front matter(name/description/metadata)- 有元认知层(身份+价值+边界)- 有认知边界表(我擅长的/我不擅长的)- 有失败模式识别(���时停止)- 有决策逻辑(决策树或决策原则表)- 有至少一个完整案例(感知→决策→执行)- 有约束部分交叉模块一致性- 元认知与决策逻辑一致- 案例体现了决策原则- 约束覆盖了决策边界- 工具清单与身份定位匹配- 子模块有独立元认知内容完整性- 元认知基于 prompt 内容(未凭空创造)- 决策逻辑覆盖所有条件分支- 工具/命令全部保留- 约束条件全部提取- 案例与 prompt 内容一致认知升级检测- 不是简单的格式重组- 元认知有实质内容(非空洞重复)- 决策逻辑真正结构化- 案例展示完整思考过程- 约束整合且有优先级---约束1. 不改变意图 — 转化是架构升级,不是内容重写2. 不遗漏信息 — 工具、步骤、约束必须保留3. 不凭空创造 — 补充内容必须基于推断4. 不过度复杂 — 保持简单 prompt 的简洁性5. 子模块必须有完整元认知 — 否则合并到主模块AI大模型从0到精通全套学习大礼包
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
如果你也想通过学大模型技术去帮助就业和转行,可以扫描下方链接👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!
01.从入门到精通的全套视频教程
包含提示词工程、RAG、Agent等技术点
02.AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
03.学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
04.大模型面试题目详解
05.这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓