news 2026/5/12 13:56:37

MCP协议的Token税争议暴露了更大问题:企业AI缺的不是

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
MCP协议的Token税争议暴露了更大问题:企业AI缺的不是

最近AI圈有一件挺有意思的事。

Perplexity——就是那个号称"AI搜索引擎"的产品——公开宣布要弃用MCP协议。原因很直接:Token税太高了,每次通过MCP调用一个工具,中间都要经过大模型推理一次,Token消耗像流水一样哗哗地往外流。

这件事在圈子里炸开了锅。因为MCP可是被Claude的母公司Anthropic大力推广的,一度被誉为"AI世界的USB-C接口"。 Anthropic的愿景很美好:所有AI应用、工具、数据源都通过MCP这个统一标准连接起来,互插互用,就像USB-C统一了充电接口一样。

但Perplexity的退场让很多人开始冷静下来——光有一个标准接口,真的够吗?

一、MCP的初衷是好的,但现实很骨感

我们先理解一下MCP到底在解决什么问题。

在AI应用开发中,一个很常见的场景是:你想让AI帮你查数据库、调API、读文档。这些"外部工具"怎么和AI大模型对接?以前每个厂商各搞各的,OpenAI有Function Calling,百度有文心一言的工具调用,各家协议不通,开发人员头疼得很。

MCP就是想统一这个事。它定义了一套标准协议,任何工具只要按MCP规范封装好,任何支持MCP的大模型就能直接调用。听起来很完美对吧?

但问题出在"调用方式"上。

按照MCP的标准流程,当用户说"帮我查一下上个月的销售数据"时,AI不是直接去查数据库,而是:

  1. 先用大模型理解用户的意图
  2. 再通过MCP协议把调用请求发给对应的工具
  3. 工具返回结果
  4. 大模型再理解结果,组织成自然语言回复

你看,第1步和第4步都需要大模型参与。也就是说,每一次工具调用,至少要消耗两次大模型推理的Token。如果工具调用过程中还有来回确认、参数校验,Token消耗量会成倍增加。

这就是Perplexity说的"Token税"——你为每一次操作都额外付出了大模型推理的成本。

二、为什么Token税对企业来说是个大问题

对于个人用户来说,偶尔多花几个Token不算什么。但对于企业来说,这就是另一回事了。

举个例子。假设你的企业有一个客服系统,每天要处理10000个用户咨询。其中大约60%的咨询需要查订单、查物流、查库存——这些都需要调用后端系统。

如果每次调用都要经过大模型推理,以目前主流大模型的定价来算,光是"工具调用的中间推理"这一项,每个月的Token费用可能就要几万甚至十几万。这笔钱花得冤不冤?

更关键的是,很多工具调用的逻辑是确定的。比如"查订单号12345的状态",这个过程根本不需要大模型来"思考"——直接拿订单号去数据库里查就行了,结果也是确定的。非要把一个确定性的操作绕一圈让大模型推理,既费钱又费时。

这就是问题所在:MCP把所有操作都当成了"需要AI推理的智能任务",但实际上企业的大量操作是确定性的、规则明确的。

三、企业真正需要的是什么:执行环境

Perplexity的退场,表面上是"Token税太高",实际上暴露了一个更深层的问题——企业AI缺的不是接口标准,而是执行环境。

什么是"执行环境"?简单说,就是让AI能够直接执行确定性操作的能力层。

我们来做一个类比。你用电脑的时候,插了一个U盘(USB-C接口),电脑能识别它——这是MCP做的事情。但如果你想从U盘里拷贝一个文件到桌面,你需要的是操作系统提供的文件管理能力——这就是"执行环境"。

对于企业AI来说,光让大模型"知道"有哪些工具可以调用是不够的,还需要一个完整的执行环境来:

  • 直接执行确定性操作,不绕大模型
  • 管理工具调用的权限和审计
  • 处理多步骤任务的编排和串联
  • 保证操作的可追溯性

这恰恰是目前大多数AI应用框架缺失的一环。大家都在拼命做"接入更多模型"、"支持更多协议",但很少有人认真思考:企业真正需要的是什么样的执行环境。

四、怎么解决这个问题

解决Token税的思路其实很清晰:把确定性的操作从大模型推理中剥离出来,让它们直接执行。

具体来说,一个理想的AI执行环境应该具备以下特征:

第一,确定性指令直通。对于那些规则明确、输入输出固定的操作(比如查数据库、调API、读写文件),应该封装成确定性指令,直接执行,不需要经过大模型推理。只有在需要"理解"和"决策"的环节才调用大模型。

第二,多级编排能力。一个复杂的业务场景往往包含多个步骤,有些步骤需要AI推理,有些步骤是确定性操作。好的执行环境应该能把这些步骤编排成一条链路,自动判断哪些步骤走AI、哪些步骤直通。

第三,权限和安全管控。工具调用直接关联到业务数据,必须有严格的权限控制和审计日志。不能因为有了AI就绕过企业的安全体系。

第四,可观测性。企业需要知道每个AI任务的执行过程:哪些步骤花了多少Token、调用了哪些工具、结果是否正确。这对于成本优化和问题排查至关重要。

五、从MCP争议看行业走向

MCP协议本身是有价值的,它推动了AI工具生态的标准化。但Perplexity的退场给行业提了个醒:标准化接口只是第一步,真正的难点在于如何构建高效的执行环境。

最近有一个概念开始被越来越多的人讨论——AREE(AI Runtime Execution Environment,AI运行时执行环境)。这个概念的核心思想就是:为企业AI应用提供一个完整的运行时环境,在这个环境里,确定性操作可以直接执行,只有需要智能推理的部分才走大模型。

这个思路其实和云计算的演进很像。早期大家觉得"能虚拟化就行",后来发现光虚拟化不够,还需要容器编排(Kubernetes)、服务网格(Service Mesh)、可观测性(OpenTelemetry)等一系列基础设施。AI应用也正在经历类似的演进——从"能接入大模型就行"到"需要完整的执行环境"。

对于正在做AI转型的企业来说,我的建议是:不要只盯着模型选型和接口协议,多花点时间评估执行环境的能力。一个好的执行环境,能帮你省掉大量的Token费用,同时让AI应用的稳定性和可维护性大幅提升。

MCP是"USB-C接口",但你的企业AI还需要一个"操作系统"。找到那个操作系统,才是真正解决问题的关键。

就比如JBoltAI平台在思维链编排、Function Call与MCP指令直达方面的设计,正是围绕"确定性操作不走大模型"这个思路来构建的。有兴趣的同学可以了解一下,看看实际工程中是怎么处理这个问题的。

不管怎样,Perplexity的这次"退场"对整个行业来说是一件好事。它让更多人开始思考:企业AI到底需要什么?答案正在变得越来越清晰。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/12 13:56:26

如何轻松在Windows上安装安卓应用:告别臃肿模拟器的完整指南

如何轻松在Windows上安装安卓应用:告别臃肿模拟器的完整指南 【免费下载链接】APK-Installer An Android Application Installer for Windows 项目地址: https://gitcode.com/GitHub_Trending/ap/APK-Installer 你是否厌倦了在电脑上运行安卓应用需要安装庞大…

作者头像 李华
网站建设 2026/5/12 13:55:38

Godot逆向工程工具:全面解析PCK文件反编译与资源恢复

Godot逆向工程工具:全面解析PCK文件反编译与资源恢复 【免费下载链接】gdsdecomp Godot reverse engineering tools 项目地址: https://gitcode.com/GitHub_Trending/gd/gdsdecomp GDScript Decompiler是一款专业的Godot引擎逆向工程工具,专门用于…

作者头像 李华
网站建设 2026/5/12 13:53:52

AI Agent记忆架构2026:短期、长期与语义记忆的工程实现全指南

深度技术解析 | 构建有记忆的AI Agent系统 —## 为什么Agent需要记忆?2026年,一个不会"记事"的AI Agent只能算半个Agent。想象一个客服Agent:用户第一次对话时说"我不喜欢太正式的回复风格",下次打开对话却发…

作者头像 李华
网站建设 2026/5/12 13:52:54

Karpenter v1 成了 EKS 默认推荐,Cluster Autoscaler 该换了

Karpenter v1 成了 EKS 默认推荐,Cluster Autoscaler 该换了 5 月起 EKS 新集群默认推荐用 Karpenter v1 做节点调度。EC2 节点启动速度也提升了。 为什么换 Cluster Autoscaler 扩容要 3-5 分钟(Pod Pending → CA 检测 → ASG 扩 → EC2 启动&#xff…

作者头像 李华
网站建设 2026/5/12 13:51:46

Ubuntu归档与压缩实战:从zip到tar.bz2的格式选择与场景应用

1. 为什么需要了解不同的压缩格式? 在日常使用Ubuntu系统时,我们经常会遇到需要打包或压缩文件的情况。比如要把项目代码发给同事,或者备份重要数据,又或者是想节省磁盘空间。不同的压缩格式就像不同的"打包箱"&#x…

作者头像 李华
网站建设 2026/5/12 13:43:14

mllm指令微调的关键技术

MLLM(Multimodal Large Language Model)指令微调的核心目标是:让模型在图像/视频/文档等多模态输入条件下,像聊天模型一样理解自然语言指令,并输出符合人类偏好的、可 grounding 的答案。关键技术可以按下面几类理解。…

作者头像 李华