什么是模型上下文协议(MCP)?

Bitdeer AI 横幅,介绍 Model Context Protocol(MCP),用于增强 AI 的记忆和上下文感知能力

随着人工智能的快速发展,对模型之间更好的协同、互操作性以及上下文理解的需求变得前所未有地迫切。模型上下文协议(MCP)正是在这样的背景下应运而生——这是一项新兴的规范,目前在 AI 社区和各大科技公司中迅速获得了关注。

到 2025 年初,MCP 已成为开源 AI 生态系统中最受关注的创新之一,标志着模型、工具和智能体之间迈向标准化通信的重大转变。从 GitHub 上的开源贡献者到 Hugging Face 和 OpenAI 等大型平台,MCP 的关注度持续攀升。随着 AI 行业向模块化、可组合系统以及自治智能体方向发展,MCP 不仅是一种趋势,更有可能成为下一代 AI 开发的基础设施。

该协议最初由 Anthropic 于 2024 年 11 月提出。Anthropic 将 MCP 作为一个开源倡议推出,旨在实现 AI 模型与外部工具或数据源之间一致、透明且模块化的集成方式。

为什么我们需要 MCP?

MCP 体现了 Anthropic 更宏大的愿景:构建能够处理复杂多步推理、并能在长期交互中保持稳定表现的透明、模块化 AI 系统。这个愿景回应了当前 AI 生态系统中日益突出的挑战:随着模型、API、工具和用户界面之间的交互流程日益复杂,缺乏共享上下文会导致效率低下和表现不一致。

在一个需要多个组件无缝协作的世界中,上下文碎片化成为关键问题。当前的系统往往是各自孤立的,缺乏对先前交互内容的共享记忆或理解。MCP 试图解决的几个主要挑战包括:

  • 缺乏互操作性:不同的模型、服务和工具之间常常无法高效沟通。
  • 上下文混乱:没有统一的方法来追踪已经交换过的信息。
  • 智能体协作问题:多智能体系统需要一个结构化方式来共享进度、角色和职责。
  • 工具集成复杂:大型语言模型在调用插件、API 和外部服务时,需要一致的输入/输出和执行上下文。

为了更清晰地说明这一点,可以参考下图:在没有 MCP 的情况下,集成不同的 LLM 和产品往往需要复杂且低效的关系管理流程。

对比图,展示未使用 MCP 的多对多集成方式与使用 MCP 的集中式集成方式。

什么是 MCP?它的核心组成要素有哪些?

MCP(模型上下文协议)是一个标准化框架,用于定义在 AI 系统中不同组件之间如何表示、共享和更新上下文信息。协议本质上是一组关于数据格式化和处理的规则。正如其名称所示,MCP 的确是一个协议——具体来说,它是一套规范大语言模型(LLM)如何与外部信息源连接的标准规则。它就像“粘合剂”,使得语言模型、工具、智能体和记忆存储等各类组件能够顺畅地协同工作。

MCP 采用客户端-服务器架构,并使用 JSON-RPC 2.0 协议来促进模型应用与外部数据服务之间的通信。其架构主要包含三个核心组件:

  • MCP Host(主机):指的是启动连接并向 MCP 服务器发送请求的 AI 驱动应用程序。常见示例包括聊天客户端或需要访问外部数据/功能的定制 AI 智能体。
  • MCP Client(客户端):运行在主机应用程序内部,负责与一个或多个 MCP 服务器通信。它处理连接建立、发送请求以及接收响应。一个 AI 应用(即 Host)可以同时连接多个 MCP 客户端,从不同服务器获取各类能力。
  • MCP Server(服务器):通过标准协议向 MCP 客户端暴露服务,提供特定的功能或数据。它会与本地数据源或远程 API 交互,以满足客户端发送的请求。

简单来说,Host 发起任务Client 负责通信Server 提供能力。这三个组件协同运作,使得 AI 应用能够高效访问和利用外部资源,促进互操作性,减少定制集成的需求。MCP 确保无论你是在构建客户服务聊天机器人、多智能体研究助手,还是一套 AI 生产力工具,各个部分都能在同一上下文中协同工作。

MCP 架构图,通过嵌入式客户端和 JSON-RPC 将大语言模型(LLM)连接至服务器。

MCP 的工作原理:一个概念示例

我们以一个基于 Claude 构建的客户支持智能体为例,它可以访问知识库、创建退款工单,并在必要时升级给人工客服。

  • 初始化阶段:用户的查询会触发一个 MCP 上下文,该上下文包含身份信息(如用户 ID)、渠道(如网页聊天)、以及意图(如寻求支持)。
  • 目标结构化:MCP 会编码顶层目标:“解决用户投诉”。随后还会分解出子目标,如:“获取产品历史记录”、“提交退款申请”或“发送确认信息”。
  • 工具调用:Claude 会调用一个工单处理 API,MCP 会记录请求内容、处理状态和结果信息。
  • 记忆更新:随着处理流程的推进,MCP 会持续更新上下文,反映已完成的任务和用户的情绪变化。

这个过程展示了 MCP 如何在任务执行过程中协调智能体与外部工具、数据以及上下文信息,确保系统在每一步都具备一致、透明的认知。

聊天机器人流程图,展示 MCP 如何构建上下文并调用工具以生成 AI 响应。

整个流程由用户通过 Claude Desktop(主机端)发起查询请求开始,系统随后将请求路由至 Claude 模型。当模型需要访问文件数据时,MCP 客户端将自动连接至对应的文件系统 MCP 服务器,执行所需操作并返回处理结果。最终,Claude 模型基于该结果生成响应,并通过 Claude Desktop 界面呈现给用户。

这个结构化流程确保了所有 AI 组件之间的透明性、可追溯性和模块化。此外,这种架构设计使 Claude 能够在不同场景下灵活调用各种工具和数据源,而开发者只需专注于构建对应的 MCP 服务器,无需关心 Host 或 Client 的具体实现细节。

MCP 对 AI 和智能体开发的影响

MCP 的应用对 AI 系统的构建、维护和扩展方式具有深远的影响。

核心优势包括:

  • 支持自治智能体: MCP 使智能体能够共享知识、协同工作,并根据需求动态调整角色。
  • 简化开发流程: 开发者无需再手动构建状态传递逻辑,大幅降低开发复杂度。
  • 支持多模态融合: 语言、视觉、音频、表格等模型可以更容易共享上下文信息。
  • 提升安全性与一致性: 清晰的上下文历史提升了系统可解释性,降低了意外行为的风险。

总结思考

随着 AI 系统越来越深入真实世界的工作流,对“共享记忆”和“协调机制”的需求也在不断增长。MCP 提供了一个统一的标准,就像 AI 领域的 USB-C,让模型能够以一致、开放、灵活的方式连接外部工具和数据源。它让用户可以使用强大功能而无需面对技术复杂性,也为开发者提供清晰的 SDK 和架构以便快速集成。

虽然 MCP 仍处于发展初期,但已经被 Microsoft、AWS 等 AI 领军企业用于研究智能体、AI 助理和 Copilot 等项目。其可扩展的设计正在把今天割裂的工具生态,转变为明日无缝协同的 AI 系统。

如果你的工作涉及多轮任务、工具集成或智能体协作,MCP 值得深入探索。AI 的未来依赖于更智能的协同机制,而 MCP 正在引领这一变革。