Cómo construir un agente productivo con el SDK de Anthropic, paso a paso
Tutorial completo: tool use, streaming, prompt caching, observabilidad y un servidor MCP propio. Repo de referencia incluido.
Etiqueta
Tutorial completo: tool use, streaming, prompt caching, observabilidad y un servidor MCP propio. Repo de referencia incluido.
Tras dieciocho meses de adopción multi-vendor, MCP es el estándar de hecho para conectar modelos a herramientas. Esta es la guía completa: arquitectura, servidores, políticas, autenticación, composición y los antipatrones que ya hemos visto en producción.
El Model Context Protocol, propuesto por Anthropic a finales de 2024 y adoptado durante 2025-2026 por todos los grandes proveedores, tiene ya patrones operativos probados. Este es el estado del arte.
Model Context Protocol ha pasado de propuesta a estándar de facto para conectar editores con herramientas. Guía práctica para levantar un servidor MCP local, conectarlo a VS Code o a tu cliente favorito y entender qué estás exponiendo realmente.
El stack de herramientas IA que un desarrollador usa en 2026 es distinto al de hace dieciocho meses. Editores agénticos, herramientas de revisión, agentes de terminal y asistentes de pruebas se han estabilizado en roles reconocibles. Guía práctica por categoría.
Tras dieciséis meses desde la primera versión de computer use de Anthropic y el empuje paralelo de browser-use, OpenAI Operator y Gemini Control, los agentes que manejan navegador y escritorio han pasado de demo a flujos reales. Toca revisar qué patrones sobreviven cuando los ejecutas todos los días en producción.
Model Context Protocol cumple diez meses desde su anuncio de Anthropic y ya no es una propuesta: hay cientos de servidores, implementaciones cruzadas entre proveedores y un registro público. Repaso de qué ha funcionado, qué sigue flojo y por qué 2025 marca el paso de curiosidad a infraestructura básica.
Tras meses de rumores, OpenAI publicó GPT-5 a principios de agosto. Las primeras semanas de uso real dejan una imagen menos espectacular que el marketing y más útil que lo que muchos esperaban. Vale la pena separar lo nuevo de lo incremental.
Anthropic presentó Claude Opus 4 y Claude Sonnet 4 el 22 de mayo de 2025, el primer salto grande de nomenclatura desde la serie 3.5. Un mes de uso real en código, documentación técnica y agentes para separar lo que ha mejorado de lo que sigue igual.
Prompt injection es la vulnerabilidad más común en aplicaciones con LLM y mucha gente la defiende con filtros que no sirven. Revisamos capas de defensa con evidencia, qué sí funciona y qué es teatro de seguridad.
Los agentes de IA han pasado de ser un tema de laboratorio a tener SDKs serios en tres grandes proveedores. Reflexión sobre cómo pasar de la demo llamativa a un caso de uso interno que mueva una métrica real.
Google ha lanzado Gemini 2.0 con un énfasis claro en uso de herramientas y agentes. Repaso de qué aporta, dónde está por detrás de la competencia y en qué tipo de aplicaciones encaja mejor.