您是否曾感觉您的 AI 模型很聪明,但却容易忘记?

它:

  • 回答问题
  • 编写代码
  • 总结数据……但完全忽略了整体情况。 

不记得过去的聊天内容,不了解项目目标,也没有能力遵循您的自定义指示。

超过 70% 的开发人员表示,大型语言模型面临的最大挑战之一是在各个任务之间保持一致的上下文。

这就是模型上下文协议 (MCP) 介入的地方。

在此简单指南中,我们将解释: 

  • 什么是人择 MCP?
  • 在当今快速发展的人工智能领域,它为何如此重要
  • 它如何帮助开发人员和组织构建更具情境感知、更灵活、更高效的模型,而无需技术难题。

无论您是人工智能新手还是正在开发下一个重要产品,这篇文章都将帮助您轻松理解 Claude MCP。

什么是 Claude MCP?为什么它可能是人工智能中最被低估的强力举措?

人们现在正在用 MCP 做一些疯狂的事情。
一位开发人员让 Claude 在 Blender 中生成 3D 艺术作品——完全依靠感觉和最少的提示。

但 MCP 到底是什么?

MCP 是一种开放协议,它正在改变应用程序向 LLM 传递上下文的方式。

可以将其视为一个通用端口——让 AI 模型无需自定义代码即可连接并插入任何源、工具或应用程序。

在 MCP 出现之前,每个 AI 工具都必须对每个服务的连接进行硬编码。这个过程既繁琐,又耗时。

现在?
使用 MCP,您可以使用单一标准化界面将 Claude 或 Windsurf 等代理链接到 Slack、GitHub 甚至本地文件。

不再需要为每个集成构建新的 API 连接器。

即插即用的人工智能时代正式到来。

可以将其视为一座桥梁——将 Claude 无缝连接到实时工具、API、本地文件以及您想要的几乎任何数据源。

那么...您实际上可以用它做什么?

我们来看一些真实的例子:

  • Pietro Schirano 启动了一个连接到 EverArt AI 的 API 的服务器,让 Claude 可以根据需求生成图像。
  • Anthropic 的 Claude 关系主管 Alex Albert 通过将 Claude 与 Brave Search 的 API 连接起来,为 Claude 提供了互联网访问权限。

如果您正在想,“等等,ChatGPT 不是已经对 Bing 和 DALL·E 做到了这一点吗?” — — 您是对的。

但这正是 Claude 的 MCP 占据优势的地方:

为什么选择 MCP > 其余

与硬编码、特定于平台的集成不同,MCP 是开放且灵活的。
它建立在客户端-服务器架构上,这意味着:

  • 客户端 = Claude Desktop、IDE 或 AI 应用等工具
  • 服务器 = 暴露数据源的轻量级适配器

这些来源可以是:

  • 远程(例如 GitHub、Slack 等的 API)
  • 或本地(如系统文件、文件夹和数据库)

Pietro 正是这么做的——他赋予 Claude 创建本地文件并与之交互的能力。它不再只是只读的了。 

它可以建造东西、存储东西,并在以后使用它们。
这是一种严肃的自治。

但 MCP 仅仅是人类的事情吗?

Anthropic 推出了 MCP,但它的未来仍在探索中。

虽然它被定位为一个开放标准,但目前尚不清楚它是否会继续由 Anthropic 主导,还是会演变成一个在整个人工智能生态系统中广泛采用的跨平台协议。

这将是至关重要的。

如果 MCP 成为 AI 上下文共享的通用格式,它可能会塑造跨公司、跨云和跨用例的模型和工具的协作方式。

底线是什么?

MCP 是一个功能齐全的上下文网关——将 Claude 变成一个实践助手,可以利用您的工具、数据和工作流程,而无需任何供应商锁定。

MCP 是一种新方法,可以以干净、可重复且灵活的格式为 AI 模型提供其正确完成工作所需的一切。

有点像在学校午餐上贴标签:
“三明治=午餐。 

果汁 = 休息一下。 

苹果=零食。”

所以不会有任何混乱——就像这样,MCP 消除了 AI 任务中的混乱。

为什么需要 MCP?简要回顾

让我们回顾一下。

像 ChatGPT 这样的大型语言模型 (LLM) 擅长一件事:预测下一个单词。 

确实如此。

例如,如果你说“My Big Fat Greek...”,LLM 可能会根据其训练的所有数据猜测“婚礼”。 

这很聪明——但只是在很狭隘的范围内。 

就其本身而言,法学硕士 (LLM) 实际上并不能起到什么作用。 

他们无法浏览互联网、更新您的日历或阅读您的电子邮件。 

它们只是生成文本。

因此,下一个合乎逻辑的步骤是:如果我们为 LLM 提供工具会怎样?

这就是事情变得有趣的地方。

开发人员开始将 LLM 连接到外部工具和服务,例如:

  • 搜索引擎
  • 电子邮件客户端
  • 数据库
  • 蜜蜂。 

想象一下给你的聊天机器人配备手臂和腿。 

它现在可以做如下事情:

  • 获取实时信息(就像 Perplexity 那样)
  • 通过 Zapier 触发操作
  • 当您收到电子邮件时自动更新电子表格。

现在法学硕士所做的不仅仅是聊天。 

他们正在采取行动。

但是……问题就在这里。

每种工具都有自己的语言。

一个 API 看起来像英语,另一个像西班牙语,第三个可能看起来像日语。 

  • 您必须编写大量代码来将它们粘合在一起。 
  • 调试它。 
  • 維護它。 

如果哪怕只有一项服务改变了其 API 又会怎样呢? 

一切都可能破裂。

这就是为什么我们还没有像贾维斯那样的人工智能助手。 

这并不是因为法学硕士不够强大——而是因为 

因为将所有这些工具连接在一起是一个混乱、脆弱的过程。

这时模型上下文协议 (MCP) 就应运而生了。 

人择MCP的黎明

这就是模型上下文协议 (MCP) 的用武之地。

可以将其视为 LLM 与它需要配合使用的所有外部工具和服务之间的通用翻译器。

MCP 并不使用 10 种不同的 API 语言,而是创建一种通用语言。 

它位于你的法学硕士和工具之间——确保双方相互理解,即使一方的情况发生变化。

因此,当你说“嘿,AI,在我的 Supabase 数据库中创建一个新条目”时,LLM 确切地知道该做什么,因为 MCP 会处理如何做。

可以将其想象为 REST API 为 Web 服务所做的事情——创建一个每个人都可以遵循的通用标准。

借助 MCP,开发人员最终可以构建更智能、功能更强大的助手,并且当单个 API 发生变化时,助手也不会崩溃。 

这不是魔法或某种复杂的理论——这只是为混乱带来秩序的一个急需的层面。

简而言之?
LLM → LLM + 工具 → LLM + 工具 + MCP(使一切运转起来的粘合剂)。

为什么 MCP 很重要?

说实话,如今使用人工智能模型感觉有点像用胶带把火箭粘在一起并希望它飞起来。

每当开发人员希望他们的人工智能做某事时,例如:

  • 发送电子邮件
  • 搜索网络
  • 从电子表格中提取数据——他们必须手动将不同的工具粘合在一起,并一遍又一遍地重复相同的内容。

这时 MCP 就像一股清新的空气一样介入。

将 MCP 想象成 AI 版的乐高积木

不用每次都写又长又乱的说明……

“嘿,AI,你正在回复客户。要有礼貌。利用这些数据。别忘了语气。” 

哦,把用户名从这里加上。你需要的工具就在那里……”

现在您可以创建可重复使用的、干净的小指令块。

因此,您无需每次都重新发明轮子,只需插入正确的模块即可。

之前 vs 之后:没有 MCP 的生活 vs 使用 MCP 的生活

无 MCP 使用 MCP 
冗长、混乱的提示,每次都重复信息使用可重复使用的上下文块的简洁、模块化提示
每个工具/API都是手动集成的,通常采用不同的格式工具通过统一的标准接口连接
如果 API 更新,一切都可能中断——然后你开始调试MCP 更优雅地处理变化,减少损坏
改变语气或目标?你必须重写多个提示在 MCP 层更改一次,所有地方都会更新
开发人员花在完善系统上的时间比开发新功能的时间要多开发人员专注于逻辑和创造力,而不是粘合代码
扩展令人沮丧且容易出错扩展更容易、更一致、更灵活
感觉像是一个 hack 的解决方法感觉像一个干净、可扩展的系统

标准化=无压力

MCP 基本上是 AI 模型和它们需要使用的工具之间的通用语言。

这不是火箭科学——这只是优秀的建筑。

思考:

  • 更清洁的开发(更少的胶带,更多的逻辑)
  • API 更改时的错误更少
  • 实验速度更快,扩展更容易
  • 迈向打造实用人工智能助手的真正一步,而不仅仅是听起来很聪明的聊天机器人

这是什么意思? 

如果你想打造像钢铁侠贾维斯那样的东西,你需要能够像人类一样理解语境的人工智能——而不是重复所有事情 10 次或每隔一周就出现故障。

MCP 就是那个缺失的环节。

不花哨,只是聪明。

这是开发人员喜爱的标准,也是 AI 迫切需要的。

MCP 的工作原理 

想象一下你正在教某人做你最喜欢的三明治。

不必每次都重复所有的事情 — — 例如:

  • 用什么面包
  • 多少蛋黄酱
  • 什么样的填充物
  • 无论是否斜切——你只需给他们一本小小的说明书。 

如果您想从鸡肉换成金枪鱼呢? 

您仅更新手册的一部分。

这正是 MCP 对 AI 的作用方式。

图片来源:The New Stack

让我们分解一下:

  • 您可以创建小的、可重复使用的上下文块。
    思考:
    • 语气:人工智能听起来应该友好还是正式?
    • 用户信息:谁在问?他们想要什么?
    • 目标:我们是在生成电子邮件、博客还是编写代码?
  • 这些块就像乐高积木一样。
    您可以堆叠它们、交换它们或在不同任务中重复使用它们。
  • 人工智能不会将所有信息塞进一个混乱的提示中,而是会得到一组清晰、结构化的指令——量身定制且易于理解。

那么简而言之?
MCP 可以帮助您像专业人士一样与 AI 对话——无需重复,无需破坏事物,也不会在每次发生变化时失去理智。

谁能从 MCP 中受益

MCP 不仅仅是另一个花哨的缩写。 

这是一个实用的解决方案,可以帮助很多不同的人——尤其是那些使用人工智能进行构建的人。

让我们看看谁从中获益最多:

  1. 构建人工智能应用程序的开发人员:

在 MCP 之前,将 AI 与不同的工具(如 API、数据库或文件)集成通常意味着一次又一次地编写自定义代码。 

这是重复且令人沮丧的。

借助 MCP,终于可以通过一致的方式将 Claude 等模型连接到外部工具——无需每次都重新进行设计。 

这节省了时间,减少了错误,并使开发更加清晰、更具可扩展性。

  1. 训练或微调模型的公司:

如果您正在努力使 AI 模型与您的业务更加一致(例如听起来更专业、更随意或与您的品牌保持一致),那么背景就很重要。 

很多。

MCP 有助于在用例之间标准化该上下文。 

团队无需手动调整每个提示,而是可以构建可重复使用的模块,例如“语气”、“用户信息”或“任务目标”。

它使微调变得更容易,结果更加可靠。

  1. 创造个性化人工智能体验的团队:

从用户体验的角度来看,MCP 改变了游戏规则。 

无论您是为零售网站还是生产力助手构建聊天机器人,不同的用户都需要不同的语气、目标和偏好。

有了 MCP,所有这些都变得模块化了。你可以像搭建积木一样,在用户特定的上下文中进行切换,而无需触及核心逻辑。 

这使得人工智能真正感受到个性化,而没有额外的复杂性。

现实生活中的例子:从“手动设置”到“模块化控制”

一位开发人员分享了他们如何构建代码编辑器 AI。 

在旧的设置中,他们必须手动上传代码文件并逐步指导模型。 

它很慢并且消耗了很多代币。

然后他们尝试了 MCP。

他们使用一个简单的配置让 Claude 访问 GitHub 和本地文件。 

现在,克劳德可以:

  • 直接阅读代码
  • 建议修改
  • 检查代码 — 无需重复指令或重新上传文件。

用他们的话说,“这就像是给克劳德一个键盘和鼠标。”

突然之间,他们不再花时间修复上下文或处理文件,而是可以专注于真正重要的事情:构建更好的 AI 体验。

人们在互联网上分享的真实用例

用例发生了什么
域名检查器Claude 通过 MCP 工具根据可用性筛选域名建议。
代码编辑器一位用户授予 Claude 完整代码环境的访问权限。它可以读取、写入,甚至可以检查代码。
仪表板构建器将 Claude 连接到 Grafana。经过一些调整后,Claude 开始自行构建仪表板。
GitHub 访问通过令牌 + MCP,Claude 在真实的 GitHub 存储库中管理代码。
Google 表格您无需通过公式来说明,只需说出您想要的内容,然后 Claude 会处理逻辑。

简而言之:

无论您是开发人员、研究人员还是产品团队,MCP 都能帮助您构建更智能、更快速、更个性化的 AI。

不是通过增加更多复杂性,而是通过最终组织混乱。

互联网对 MCP 有何评价?

人工智能人群正热闹非凡——这是有充分理由的。

MCP(模型上下文协议)赋予了 Claude 一些超能力,开发人员对此非常喜爱。 

但就像任何新事物一样,它还不是全是美好的(目前)。

让我们分解一下。

人们喜欢 Anthropic MCP 的原因

  1. 标准化集成:

之前:每次您想让 AI 使用工具或数据时,都必须编写自定义代码。

现在有了 MCP:有一种标准的、即插即用的方式可以将 Claude 连接到任何东西 - 文件、API、浏览器、数据库......不再需要重新发明轮子。

  1. 克劳德获得“手”: 

MCP 让 Claude 在外部工具中读取、写入和采取行动。
人们分享的真实例子:

  • Claude 阅读和编辑 GitHub 代码
  • 读取和写入本地文件
  • 与 Google Drive、数据库、Slack 等进行交互

基本上,Claude 不再只是在聊天了。它就像长了胳膊和键盘一样。

  1. 不再需要手动上传:

Claude 可以直接从您的系统访问文件,而不需要将文件拖放到聊天中。

无需上传,无需额外代币,流畅无缝访问。

  1. 节省时间(和代币):

MCP 跳过了所有依赖令牌的解决方法,例如上传文件或使用“工件”。
结果如何?响应速度更快,销毁的代币更少。

  1. 开源且可扩展:

任何人都可以在 MCP 上进行构建。
人们已经将它与以下事物联系起来:

  • 概念
  • 格拉法纳
  • GitHub
  • PostgreSQL
  • 谷歌地图等等。

而且由于它是一个开放协议,您不会被锁定在某个公司的生态系统中。

  1. 为自主人工智能代理提供动力:

借助 MCP,Claude 不只是做出反应,它还能采取主动行动。
它可以:

  • 跨工具保持上下文
  • 自行采取行动
  • 像小型项目经理一样处理多步骤任务
  1. 就像人工智能的应用商店:

有些人说这就像是给克劳德一部可以访问应用程序和互联网的手机。
你说出你想要什么——它就知道在后台使用哪个“工具”(应用程序)。

人们不确定或批评的是什么

  1. 感觉有点抽象:

许多用户表示,MCP 很难理解——除非您亲自尝试或观看演示。

它功能强大,但并不总是适合初学者。

  1. 速度并不总是那么快:

一些人注意到 MCP 可能比其他工具(如 OpenAI 的函数或 Perplexity 的 HTTP 调用)慢。 

尤其是在使用 Brave Search 等 API 时。

  1. 它还不是主流:

尽管备受关注,MCP 尚未得到广泛采用。
人们正在等待更多的第三方工具、前端和社区构建的东西。

  1. 最适合高端型号:

如果您使用 Claude Opus,MCP 将会大放异彩。
但在更轻的型号上,体验可能会更有限。

最后的想法

MCP 就像为克劳德提供了一个通用工具箱,并提供了如何使用它的明确说明。
它不再只是回答问题,而是完成工作。

如果您对 AI 工具或智能助手感兴趣,MCP 绝对值得关注。

结论

模型上下文协议 (MCP) 听起来可能只是 AI 世界中的另一个首字母缩略词 - 但正如您所见,它实际上可以改变游戏规则。

它消除了处理大型语言模型的混乱,使您的人工智能更智能、更一致、更易于使用。

无论您是独立开发人员还是不断壮大的 AI 团队的一员,Claude MCP 都可以帮助您停止重复自己,停止将工具拼凑在一起,并开始构建真实的、可扩展的体验。

所以,下次你的 AI 忘记了全局,或者在某些变化时崩溃时,请记住:这不是模型的错,而是缺少了背景信息。

现在,您知道如何解决这个问题了。

使用 Anthropic MCP,您不仅可以发出指令,还可以为您的 AI 提供剧本。

发布者 蒋兆和
上一篇文章
你可能还会喜欢

留下你的评论:

您的邮箱地址不会被公开。 必填项已用 * 标注