news 2026/4/26 5:21:03

继 MCP 之后,Anthropic 再放大招:Agent Skills 正式发布为开放标准!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
继 MCP 之后,Anthropic 再放大招:Agent Skills 正式发布为开放标准!

大家好,我是Tony Bai。

就在刚刚(美国时间2025年12月18日),Anthropic 正式宣布将Agent Skills发布为开放标准。

这是继2024年末推出MCP (Model Context Protocol)标准之后,Anthropic 在构建 AI 开放生态上的又一记重拳,彻底补齐了 AI 原生应用的“能力层”拼图。

如果说MCP是 AI 时代的“USB 接口”,解决了大模型连接外部工具与数据(如 GitHub, Google Drive)的标准化问题;

那么Agent Skills就是 AI 时代的“通用驱动程序”,它定义了 AI 该如何使用这些工具来完成复杂的业务流程。

OpenCode, Cursor, Letta 等头部开发工具已率先宣布支持。这意味着,开发者编写一套 Skill,就可以在所有支持该标准的 AI 平台(Claude Code, Cursor 等)上无缝运行。

AI 开发终于告别了“手搓 Prompt”的草莽时代,进入了“标准化封装”的工业时代。

什么是 Agent Skill?

简单来说,Skill 就是一个可移植的“能力包”

在物理形态上,它就是一个文件夹,里面包含了让 AI 完成特定任务所需的指令(SKILL.md)、脚本(Scripts)和资源(Resources)

你可以把它想象成给 AI 安装的一个“APP”“岗位 SOP”

根据agentskills.io的官方规范,Skill 拥有一个极具工程价值的特性:渐进式披露 (Progressive Disclosure)。

  • Metadata First:系统只需加载约 100 tokens 的元数据,让 AI 知道“我学会了/拥有什么技能”。

  • On-Demand Loading:只有当 AI 真正决定使用该技能时,才会加载完整的指令(<5k tokens)和相关脚本。

这意味着你可以给一个 Agent 装备 1000 个技能(从写 SQL 到 查财报),但平时只占用极少的上下文(Context),只有在干活时才调用相关记忆。这完美解决了长期以来困扰开发者的Token 浪费上下文干扰问题。

开发者最关心的 3 个问题

在研究了 Anthropic 的技术文档后,我整理了开发者最容易混淆的几个概念:

Q1: Skill 和 Prompt 有什么区别?

  • Prompt (提示词):反应式的、一次性的。比如“帮我润色这段代码”。它通常不跨会话持久化。

  • Skill (技能):主动式的、持久化的。比如“公司 Java 编码规范与 CR 指南”。一旦安装,AI 在任何对话中都知道应当遵守这套规范。

Q2: Skill 和 MCP 到底怎么分工?(关键)

这是一个经典的“硬件 vs 软件”的关系。

  • MCP (连接层):它是管道。它让 Claude等大模型 能“连上”你的 PostgreSQL 数据库等。它解决的是“能不能访问”的问题。

  • Skill (能力层):它是逻辑。它教 Claude等大模型 “在查询这个数据库时,必须先检查权限,且不能使用SELECT *”。它解决的是“做得对不对”的问题。

  • 最佳实践:用 MCP 建立连接,用 Skill 定义流程。

Q3: 我该如何开始?

Skill 的格式非常简单且开放。你只需要创建一个包含SKILL.md的目录。

--- name:code-review description:AnalyzecodebasedonOWASPtop10standards. --- # Instructions 1.CheckforSQLinjection...

这种“以文档定义能力”的轻量级模式,正是SDD (Spec-Driven Development)理念的极致体现。

意义:生态闭环已成

随着 Agent Skills 的发布,AI 原生应用的架构分层终于清晰了。我们可以用一张图来看懂这个全新的生态栈:

对于开发者而言,“Prompt Engineering”正在消亡,而“Skill Engineering”正在兴起。

未来的高价值开发者,不再是那些会写漂亮提示词的人,而是那些能将企业隐性知识(Tacit Knowledge),封装成标准化的、可移植的 Agent Skills 的人。

如何集成?

Anthropic 提供了三种极简的集成路径:

  1. Claude Apps 用户:直接在Settings > Capabilities > Skills中浏览目录并启用(类似安装 Chrome 插件)。

  2. Claude Code 用户:将 Skill 文件夹放入项目目录,或从插件市场安装。

  3. API 开发者:通过/v1/skills端点动态挂载技能。


🎯 深度实战:编写你的第一个 Agent Skill

标准已经发布,工具已经就绪。现在的问题是:你如何编写出让 AI 精准执行、不产生幻觉的 Skill 文档?

在我的极客时间专栏《AI 原生开发工作流实战》中,我已第一时间更新关于Agent Skills的实战内容。

我们将深入剖析agentskills.io的官方规范,并带你进行硬核实战:

  • 深度拆解官方 Skill:分析标准 Skill 的目录结构与元数据设计技巧。

  • Go 代码 Review Skill 实战:手把手编写一个专用于 Go 语言项目的 Code Review Skill,定义从 Lint 检查到逻辑验证的完整 SOP,并将其部署到开发环境中。

让你亲身体验从“指挥 AI(Prompting)”“配置 AI(Configuring)”的质变。

别让你的 AI 只有“蛮力”,给它安装“驱动”。扫描下方卡片,跟上 AI 工程化的最新浪潮。

agentskill官网:https://agentskills.io/


如果本文对你有所帮助,请帮忙点赞、推荐和转发

点击下面标题,干货!

- 还在当“上下文搬运工”?我写了一门课,帮你重塑AI开发工作流

- Anthropic内部实践首次公开:揭秘Claude Code如何引爆全员生产力

- Anthropic 内部报告:程序员的“死”与“生”,效率暴增 50% 的残酷启示

- AI 编程的“90% 陷阱”:为什么你生成代码 1 分钟,修 Bug 却要 1 小时?

- Linus 的名言要改了:Talk is cheap, show me the Spec

- 你的大脑是 CPU,别让 AI 把它挂起 (WAIT)

- 🚀重磅!Go 1.26 RC1 发布:Green Tea GC 登场,语法糖真香!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 19:20:29

Open-AutoGLM应用兼容性问题深度拆解(仅限内部流传的修复方案)

第一章&#xff1a;Open-AutoGLM 应用适配失败解决方案在部署 Open-AutoGLM 模型至生产环境时&#xff0c;常因依赖冲突、配置缺失或硬件不兼容导致应用适配失败。此类问题通常表现为服务启动异常、推理超时或模型加载中断。为快速定位并解决故障&#xff0c;需系统性排查关键环…

作者头像 李华
网站建设 2026/4/22 12:34:52

基于Python的网络性能分析实践:从Ping原理到自动化监控

各专栏更新如下&#x1f447; 大模型初探分享零基础AI学习经历 OAI-5G开源通信平台实践 OpenWRT常见问题分析 5G CPE 组网技术分享 Linux音视频采集及视频推拉流应用实践详解 得力工具提升工作效率 基于Python的网络性能分析实践&#xff1a;从Ping原理到自动化监控 引言…

作者头像 李华
网站建设 2026/4/25 3:19:04

终极指南:快速掌握Oscar视觉语言模型的5个核心技巧

终极指南&#xff1a;快速掌握Oscar视觉语言模型的5个核心技巧 【免费下载链接】Oscar Oscar and VinVL 项目地址: https://gitcode.com/gh_mirrors/os/Oscar Oscar是一个强大的开源视觉语言模型&#xff08;VLM&#xff09;&#xff0c;由微软研究院开发&#xff0c;专…

作者头像 李华
网站建设 2026/4/26 1:17:05

为什么你的Open-AutoGLM总在初始化阶段崩溃?:基于日志的逆向诊断法

第一章&#xff1a;Open-AutoGLM 模型启动报错排查修复在部署 Open-AutoGLM 模型过程中&#xff0c;常见的启动报错包括依赖缺失、环境变量未配置以及端口冲突等问题。正确识别错误日志中的关键信息是解决问题的第一步。检查运行环境与依赖项 确保 Python 环境版本符合要求&…

作者头像 李华
网站建设 2026/4/25 8:31:50

Open-AutoGLM推理性能为何上不去?深入剖析3大瓶颈与对应加速策略

第一章&#xff1a;Open-AutoGLM 推理速度优化路径在部署 Open-AutoGLM 模型时&#xff0c;推理速度直接影响用户体验与系统吞吐能力。为提升其性能表现&#xff0c;需从模型结构、运行时环境和硬件适配三个维度进行系统性优化。模型剪枝与量化 通过结构化剪枝移除冗余神经元&a…

作者头像 李华