Model Context Protocol (MCP) es un estándar abierto que define cómo los modelos de lenguaje comparten y acceden a contexto externo de manera estructurada. Si has visto cómo Claude, GPT-4 u otros LLMs pueden leer archivos, buscar en bases de datos o ejecutar código, MCP es la capa que hace eso posible de forma interoperable.

El problema que resuelve

Antes de MCP, cada integración de LLM con herramientas externas era ad hoc. Anthropic tenía su propia implementación, OpenAI la suya, y los desarrolladores tenían que reimplementar la misma lógica para cada modelo. MCP propone un protocolo común: cualquier herramienta que implemente MCP puede ser usada por cualquier modelo compatible.

Cómo funciona

MCP define tres primitivas fundamentales:

  • Resources: datos que el modelo puede leer (archivos, bases de datos, APIs)
  • Tools: funciones que el modelo puede invocar (búsqueda, cálculos, escritura)
  • Prompts: plantillas predefinidas que el servidor puede sugerir

El modelo no necesita saber cómo funciona cada herramienta. Solo necesita saber qué herramientas existen y cómo pedirlas. El servidor MCP gestiona la implementación.

Por qué importa para la ingeniería de prompts

Con MCP, el contexto ya no tiene que caber en la ventana del prompt. El modelo puede pedir contexto adicional cuando lo necesita, en lugar de recibir todo de golpe. Esto cambia fundamentalmente cómo diseñamos sistemas de IA: de prompts monolíticos a arquitecturas de agentes modulares.

El ecosistema actual

Anthropic publicó la especificación MCP en noviembre de 2024. Desde entonces, docenas de servidores MCP han aparecido en la comunidad: para GitHub, Postgres, Slack, sistemas de archivos locales, y más. Es el primer estándar de facto para integración de LLMs con el mundo exterior.


Este artículo forma parte de la serie sobre infraestructura de agentes IA de elfalsoprofeta.