GPT-5: disponibilidad pública y primeras impresiones

Diagrama oficial de la estructura corporativa de OpenAI en Wikimedia Commons, que contextualiza a la compañía responsable del lanzamiento de GPT-5 discutido en el artículo

OpenAI publicó GPT-5 a principios de agosto de 2025 después de casi año y medio de rumores, retrasos y expectativas infladas. Tras unas semanas de uso real en proyectos propios y ajenos, las primeras impresiones se pueden ya ordenar. El salto no es el terremoto que el hilo de marketing sugería, pero tampoco es trivial. Es, sobre todo, una versión que consolida líneas ya abiertas por o1 y o3 y las pone al alcance de cualquiera con una cuenta de pago, no solo de early adopters.

Lo que realmente es GPT-5

La confusión inicial sobre GPT-5 venía de que OpenAI llevaba mucho tiempo ofreciendo dos familias en paralelo. Por un lado GPT-4o y sus variantes, pensados para chat general con multimodal integrado. Por otro lado la familia o, con o1, o1-mini, y luego o3 y o3-mini, pensados para razonamiento paso a paso. GPT-5 es la fusión anunciada de ambas: un modelo único que adapta internamente cuánto razonamiento aplica según la complejidad del problema.

En la práctica esto significa que la misma llamada a la API puede resolver una suma rápida en menos de un segundo y una demostración matemática compleja gastando treinta segundos de razonamiento interno. El parámetro reasoning_effort, heredado de la familia o, permite controlar explícitamente cuánto pensar antes de responder: low, medium y high son las opciones. Sin este parámetro, el modelo decide por sí mismo en función de la pregunta.

La arquitectura interna no está publicada, pero las características externas apuntan a un modelo mezcla de expertos de mayor tamaño que GPT-4o y con una capa de planificación en modo razonamiento más refinada que o3. OpenAI no ha dado cifras de parámetros, manteniéndose en la línea de no publicarlas desde GPT-4.

Dónde rinde mejor

Las tareas donde GPT-5 da un salto claro frente a sus predecesores son las que requieren razonamiento estructurado. Problemas de matemáticas de nivel universitario, generación de código que requiere planificación entre varios ficheros, análisis de contratos legales con extracción de cláusulas dependientes. En estos, la combinación de mayor capacidad bruta y razonamiento explícito da resultados notablemente mejores que GPT-4o y comparables o superiores a o3 con menos coste de latencia.

En generación de código he notado una diferencia concreta respecto a modelos anteriores: GPT-5 es mucho mejor entendiendo el contexto entre archivos cuando se le pasa un repositorio o varios ficheros. Las refactorizaciones que implican cambios coordinados en múltiples lugares salen bien a la primera con más frecuencia. Esto es un tipo de ganancia práctico: no es que haga cosas nuevas, es que las que antes fallaban el cincuenta por ciento de las veces ahora fallan el quince.

También ha mejorado el seguimiento de instrucciones largas y la adherencia a formatos de salida estrictos, que era un punto frágil de GPT-4o. Si le pides JSON con un esquema concreto, cumple con precisión alta. Si le pides seguir una checklist con varios pasos, el orden se respeta. Esto tiene implicaciones para quienes construyen agentes: el esfuerzo de validación de salidas se reduce.

Dónde no cambia tanto

Para conversación casual, resúmenes de correos, borradores de textos o traducciones, la diferencia con GPT-4o es pequeña. Tanto que en muchos flujos el coste adicional de GPT-5 no se justifica. OpenAI lo reconoce implícitamente manteniendo GPT-4o y sus variantes más baratas disponibles como opciones. La recomendación de la propia documentación es usar GPT-5 cuando la tarea se beneficia de razonamiento y usar GPT-4o cuando es conversación estándar.

Las alucinaciones siguen existiendo. Son menos frecuentes y tienden a aparecer en temas más específicos, pero siguen siendo un problema real. En preguntas sobre librerías de programación recientes, sobre eventos de actualidad fuera del corte de entrenamiento, o sobre temas muy especializados, el modelo sigue pudiendo inventar con gran aplomo. El consejo clásico no cambia: cualquier dato importante que salga del modelo debe verificarse contra una fuente primaria.

Tampoco resuelve las limitaciones fundamentales de los modelos transformer. No hay memoria persistente entre conversaciones distintas por defecto, aunque OpenAI ha añadido un sistema opcional de memoria con consentimiento. La ventana de contexto es más grande, 400 mil tokens, pero sigue siendo finita y con degradación de atención en los extremos. El modelo no puede ejecutar código por sí mismo, depende de herramientas externas.

Precio y disponibilidad

GPT-5 está disponible en ChatGPT Plus, Pro y Enterprise, y en la API. Los precios publicados en agosto sitúan GPT-5 en torno a ocho veces el coste por token de GPT-4o, con un modelo GPT-5-mini a precio comparable a GPT-4o. La API sigue siendo la ruta preferida para integración en productos: GPT-5 soporta nativamente salidas estructuradas, llamadas a herramientas paralelas y un modo de respuesta incremental que emite razonamiento y resultado intercalados. Para quienes ya usaban o3 con tool use, la transición es trivial; para quienes venían solo de GPT-4o, hay que adaptar el código. OpenAI ha endurecido algunas políticas de uso y el rate limit en la API es más estricto en los primeros niveles.

Impacto sobre competidores

La aparición de GPT-5 reaviva la pregunta sobre dónde están los rivales. Anthropic mantiene Claude 3.7 Sonnet como referente en razonamiento estructurado. Google publicó Gemini 2.5 Pro a principios de año. Meta lanzó Llama 4 en junio con versiones open weights. El panorama en agosto de 2025 es de paridad aproximada entre laboratorios, con cada uno destacando en áreas concretas. GPT-5 no es claramente superior en todo: en matemáticas Claude rinde al mismo nivel, en multimodal Gemini tiene ventajas y los Llama 4 grandes se acercan a GPT-4o con la ventaja de correr en hardware propio.

Cómo pensar la decisión

Mi lectura de las primeras semanas es que GPT-5 es una actualización útil pero no imprescindible. Para equipos ya montados sobre GPT-4o con flujos que funcionan, la pregunta correcta no es si migrar sino qué partes del flujo se beneficiarían. La respuesta suele ser: las que involucran razonamiento multipaso, generación de código compleja, o seguimiento estricto de instrucciones largas. Esas partes pueden moverse a GPT-5 sin cambiar el resto.

Para equipos que están empezando ahora, elegir GPT-5 como modelo por defecto y GPT-5-mini como modelo de volumen es una estrategia razonable. La combinación ofrece un compromiso aceptable entre coste y capacidad, con una curva de repliegue sencilla si el coste crece. La API unificada evita tener que aprender tres familias distintas.

Para proyectos sensibles al coste o que dependen de soberanía sobre los datos, los modelos abiertos en 2025 son lo bastante buenos como para cubrir una fracción importante de casos. Mezclar un modelo abierto local con llamadas puntuales a GPT-5 para los casos que lo requieren es un patrón que veo cada vez más y que tiene economía razonable. Lo que ya no tiene sentido en 2025 es usar un solo proveedor para todo: cada tarea tiene su modelo mejor adaptado.

Entradas relacionadas