Cómo construir un agente productivo con el SDK de Anthropic, paso a paso
Tutorial completo: tool use, streaming, prompt caching, observabilidad y un servidor MCP propio. Repo de referencia incluido.
Categoría
Tutorial completo: tool use, streaming, prompt caching, observabilidad y un servidor MCP propio. Repo de referencia incluido.
Tres agentes de código en producción, cinco tareas reales medidas en tiempo, tokens y calidad de PR. Sin marketing: la cinta de medición.
Tras dieciocho meses de adopción multi-vendor, MCP es el estándar de hecho para conectar modelos a herramientas. Esta es la guía completa: arquitectura, servidores, políticas, autenticación, composición y los antipatrones que ya hemos visto en producción.
Direct Preference Optimization y sus primas han desplazado a RLHF como alineamiento preferido en gran parte del ecosistema. Este es el estado práctico del campo en 2026.
La idea de que la UI se genere sobre la marcha en lugar de ser prediseñada llegó a producción en 2025. Tras un año de casos reales, el balance es más matizado que el entusiasmo inicial.
Mientras OpenAI y Anthropic acaparan titulares con rondas gigantes, un conjunto creciente de startups de IA de nicho factura millones con equipos de tres a diez personas. Estos son los patrones que comparten.
La primera factura de un agente en producción suele ser más alta de lo que el equipo esperaba. Este artículo recoge las palancas reales para controlar el coste sin sacrificar calidad.
Opus 4.7 se lanzó como el modelo más capaz de Anthropic con énfasis en trabajo agéntico de horizonte largo. Tras dos meses de uso intensivo, estos son los cambios prácticos frente a Opus 4.6.
Tres años después del boom inicial, el RAG en producción ha convergido en patrones híbridos que combinan búsqueda densa, léxica y reranking. Estos son los que sobreviven al paso del tiempo.
Sonnet 4.6 es el modelo por defecto de la mayoría de cargas de trabajo en 2026. Estos son los casos donde brilla, dónde no basta y por qué sigue siendo el sweet spot.
Usar un LLM como juez de otro LLM se generalizó en 2024 y sigue siendo la única forma escalable de evaluar calidad cualitativa. La pregunta madura es cuándo fiarse de esos números.
El Model Context Protocol, propuesto por Anthropic a finales de 2024 y adoptado durante 2025-2026 por todos los grandes proveedores, tiene ya patrones operativos probados. Este es el estado del arte.