MCP Servers: qué son y los mejores para empezar
Tienes un modelo de lenguaje potente. Pero cuando le preguntas por el estado de tu base de datos, el contenido de un repositorio o qué pone en ese PDF de la semana pasada, responde con alucinaciones o simplemente dice que no tiene acceso.
El problema no es el modelo. Es la arquitectura.
MCP (Model Context Protocol) resuelve precisamente eso: define un estándar para que los LLMs se conecten a fuentes de datos externas de forma estructurada y segura. Pero MCP por sí solo es solo un protocolo. Lo que lo hace útil en la práctica son los MCP Servers: los procesos que exponen herramientas, recursos y datos al modelo.
Este post va sobre ellos. Qué son, cómo funcionan, cuáles merece la pena instalar primero y cómo montar el tuyo propio.
MCP Server vs MCP Client: la confusión habitual
Antes de entrar en materia, hay una distinción que genera bastante confusión y vale la pena aclarar de entrada.
Un MCP Server es un proceso independiente que expone capacidades al modelo: puede leer archivos, ejecutar queries SQL, hacer llamadas a APIs, interactuar con Git… Su trabajo es ofrecer herramientas y recursos.
Un MCP Client es la aplicación que usa el modelo y que se conecta a esos servidores. Claude Desktop, Claude Code, Cursor o cualquier IDE con soporte MCP actúan como clientes.
El modelo en sí no se conecta directamente a nada. El cliente hace de intermediario: recibe las tools disponibles del servidor, las incluye en el contexto del modelo, y cuando el modelo decide usar una, el cliente ejecuta la llamada y devuelve el resultado.
Cuando la gente dice “instalar un MCP server en Claude”, en realidad está configurando el cliente (Claude Desktop o Claude Code) para que arranque y gestione ese servidor automáticamente.
Cómo funciona la arquitectura
El flujo es más simple de lo que parece:
-
Arranca el servidor. Al abrir Claude Desktop (o Claude Code), el cliente lanza los servidores configurados como procesos locales. Cada servidor implementa el protocolo MCP.
-
El cliente descubre las capacidades. El cliente hace una llamada al servidor para listar qué tools y recursos expone. Por ejemplo, el servidor de filesystem podría exponer
read_file,write_file,list_directory. -
El modelo recibe el catálogo. Esas tools llegan al modelo como parte del contexto, igual que cualquier otra información.
-
El modelo decide cuándo usarlas. Si el usuario pregunta “¿qué archivos hay en mi carpeta de proyectos?”, el modelo genera una llamada a
list_directory. El cliente la ejecuta en el servidor y devuelve el resultado al modelo. -
El modelo responde con información real. No adivina. Consulta.
Todo esto ocurre localmente si usas servidores locales. Los datos no salen a ningún servidor externo por el hecho de usar MCP — aunque sí se envían al LLM como contexto, que es la parte que hay que tener clara desde el punto de vista de privacidad.
Los mejores MCP Servers para empezar
Con más de 97 millones de instalaciones en marzo de 2026 y un ecosistema que crece cada semana, elegir puede ser abrumador. Aquí van los más útiles por categoría, priorizando estabilidad y casos de uso reales.
Archivos y código
Filesystem — El servidor oficial de Anthropic. Lee y escribe archivos en rutas que tú configuras explícitamente. Imprescindible si trabajas con proyectos locales. Tiene controles de acceso configurables: defines exactamente qué directorios puede tocar.
Git — Permite al modelo leer, buscar y manipular repositorios Git. Útil para hacer code review, entender el historial de cambios o buscar en commits. También oficial de Anthropic.
Bases de datos
PostgreSQL — Uno de los más usados en entornos de desarrollo. Permite queries en lenguaje natural contra tu base de datos. Recomendación: usa siempre un usuario de solo lectura para este servidor, especialmente en producción.
MongoDB — Similar al de PostgreSQL pero para MongoDB y Atlas. Soporte nativo de autenticación y control de acceso. Útil si tu stack es más orientado a documentos.
APIs y servicios externos
GitHub — Conecta el modelo a tus repositorios, issues y pull requests. Es el primero que recomiendan instalar en la mayoría de guías para developers. Con un token con permisos mínimos (Contents read, Issues read, Pull requests read) ya tienes un asistente que conoce tu codebase.
Fetch — Permite al modelo obtener contenido de URLs y convertirlo a formato eficiente para el contexto. Simple pero sorprendentemente útil para investigación o scraping ligero.
Zapier MCP — Si trabajas con muchas herramientas SaaS, este servidor conecta al modelo con más de 7.000 acciones de apps a través de un único punto de entrada. Potente pero hay que tener cuidado con los permisos que otorgas.
Desarrollo e IA
Context7 — Resuelve uno de los problemas más frustrantes del desarrollo con LLMs: que el modelo use documentación desactualizada. Context7 expone documentación actualizada de frameworks y librerías populares. Si usas Cursor AI, este servidor marca una diferencia real.
Memory — Sistema de memoria persistente basado en un grafo de conocimiento. El modelo puede guardar y recuperar información entre sesiones. Útil para agentes que necesitan contexto de largo plazo.
Sequential Thinking — Herramienta de razonamiento para que el modelo descomponga problemas complejos en pasos. Mejora la calidad de respuesta en tareas que requieren planificación.
Observabilidad y datos
dbt MCP — Si tu stack incluye dbt, este servidor expone la capa semántica y el grafo de proyectos. Ideal para workflows de analytics donde el modelo necesita entender las transformaciones de datos.
Semgrep — Para equipos que hacen security reviews. Permite al modelo ejecutar análisis de código con reglas personalizadas. Fuera del top of mind habitual pero muy sólido.
Cómo montar tu primer MCP Server
El caso más fácil es añadir servidores oficiales. Aquí el proceso para Claude Desktop o Claude Code.
1. Abre el archivo de configuración MCP.
En Claude Desktop, el archivo está en ~/Library/Application Support/Claude/claude_desktop_config.json (macOS) o %APPDATA%\Claude\claude_desktop_config.json (Windows).
En Claude Code, usa el comando claude mcp add o edita .claude/mcp.json en tu proyecto.
2. Añade los servidores que quieras.
La estructura básica:
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/ruta/a/tus/proyectos"
]
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_PERSONAL_ACCESS_TOKEN": "tu_token_aqui"
}
},
"postgres": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-postgres",
"postgresql://usuario:contraseña@localhost:5432/tu_base_de_datos"
]
}
}
}
3. Reinicia el cliente.
Los servidores arrancan cuando el cliente se inicia. Sin reinicio, no los detecta.
4. Verifica que funcionan.
En Claude Desktop verás un icono de herramientas en la interfaz. En Claude Code puedes ejecutar claude mcp list para ver los servidores activos.
Requisito previo: Necesitas Node.js 18+ instalado. Los servidores oficiales se instalan automáticamente vía npx la primera vez que se usan.
Si quieres construir tu propio servidor
El SDK oficial está disponible para Python y TypeScript. La estructura mínima de un servidor MCP en TypeScript es manejable: defines tools con sus esquemas de input, implementas los handlers, y arrancas el servidor sobre stdio o SSE.
Para casos de uso personalizados — conectar el modelo a una API interna, exponer datos de un sistema legacy, o integrar con herramientas específicas de tu empresa — construir un servidor propio tiene sentido. La documentación de modelcontextprotocol.io tiene guías de quickstart para ambos lenguajes.
Si tu stack es Python y tienes experiencia con FastAPI, el patrón es muy familiar. Si trabajas más en el ecosistema de datos, este tipo de integración encaja bien con el stack de desarrollo con IA de 2026.
Cuándo NO usar MCP Servers
MCP no es la respuesta a todo. Antes de añadir un servidor nuevo, vale la pena preguntarse si realmente lo necesitas.
No uses MCP cuando el contexto que necesitas cabe en el prompt. Si vas a hacer una consulta puntual a un archivo de configuración, copiar y pegar el contenido es más rápido y tiene menos overhead que montar un servidor.
No conectes todo porque puedes. Tres servidores es el punto dulce según la mayoría de referencias prácticas. Cinco puede funcionar, pero el overhead de tokens de describir las tools disponibles empieza a comerse presupuesto de contexto. Más de cinco y empiezas a ver degradación real de la calidad de respuesta. Esto conecta directamente con los costes ocultos de los sistemas multi-agente: más herramientas disponibles no siempre significa mejor resultado.
Ten cuidado con los permisos. En enero y febrero de 2026, auditorías independientes encontraron que el 66% de los servidores MCP escaneados tenían al menos un hallazgo de seguridad, con más de 30 CVEs identificados. El registro de Smithery (uno de los principales directorios) y el propio repositorio oficial de Anthropic son los puntos de partida más seguros. Para servidores de base de datos, siempre credenciales de solo lectura.
MCP no reemplaza una buena RAG pipeline. Si tu caso de uso es búsqueda semántica sobre corpus grandes, una arquitectura RAG dedicada va a darte mejores resultados que conectar el filesystem entero a través de MCP. Son herramientas para problemas distintos.
No uses servidores MCP de terceros sin revisar el código. El protocolo es abierto y cualquiera puede publicar un servidor. A diferencia de una librería npm donde el riesgo es bien conocido, un servidor MCP tiene acceso privilegiado a tu entorno local. Revisar el código o al menos el historial de commits antes de instalar algo que no sea oficial no es paranoia, es sentido común.
Si estás construyendo flujos de trabajo más complejos, por ejemplo con Claude Sonnet 4.6 como base o montando agentes de IA desde cero, MCP Servers es la pieza que convierte al modelo de un asistente genérico en algo que realmente conoce tu entorno.
La madurez del ecosistema en 2026 hace que el punto de entrada sea mucho más bajo que hace un año. Los servidores oficiales de Anthropic funcionan bien out of the box, la documentación ha mejorado considerablemente, y el patrón de configuración via JSON ya lo conocen todos los IDEs principales.
El único error que veo repetirse es instalar demasiados servidores demasiado rápido. Empieza con uno. Entiende cómo fluye la información. Después añade el siguiente.
Sigue explorando
- MCP (Model Context Protocol): qué es y por qué importa — El post anterior de esta serie: entender el protocolo antes de los servidores
- Costes ocultos de los sistemas multi-agente — Antes de montar pipelines complejas con MCP, entiende dónde se va el dinero
- Mi stack de desarrollo con IA en 2026 — Dónde encajan los MCP Servers dentro de un stack real de trabajo
Curso relacionado
Aprende Máster de Desarrollo con IA con práctica real
Módulos paso a paso, ejercicios prácticos y proyectos reales. Sin humo.
Ver curso →Consultoría
¿Tienes un problema parecido con Integraciones con IA?
Puedo ayudarte. Cuéntame qué tienes y te doy un diagnóstico honesto — sin compromiso.
Ver consultoría →También te puede interesar
MCP (Model Context Protocol): qué es y por qué importa
Guía completa sobre MCP, el estándar que conecta agentes de IA con tus sistemas. Cómo funciona, servidores disponibles y ejemplos prácticos.
OpenAI compra uv y Ruff: ¿qué significa?
OpenAI ha adquirido Astral, creadores de uv y Ruff. Te cuento qué compró realmente, por qué la comunidad está dividida y qué deberías hacer tú.
Cursor vs Windsurf vs GitHub Copilot: comparativa real 2026
Comparativa honesta de los 3 IDEs con IA más usados. Precios, modelos, flujo de trabajo y cuál elegir según tu perfil. Probados en proyectos reales.