En marzo de 2023 OpenAI abrió la beta de plugins de ChatGPT con una promesa ambiciosa: convertir el chat en una plataforma donde ChatGPT pudiera hablar con servicios externos — bancos, hoteles, APIs de datos, herramientas internas — del mismo modo que hablaba con el usuario. Tres meses después, el ecosistema tiene alrededor de 500 plugins disponibles y un patrón claro de qué casos de uso funcionan bien y cuáles no.
Qué hace un plugin
Un plugin es, en esencia, una especificación OpenAPI + un manifiesto que describe al modelo cuándo invocarlo. ChatGPT lee ambos, y cuando el usuario hace una pregunta relevante, el modelo decide llamar al plugin con los parámetros adecuados, interpreta la respuesta y la integra en la conversación.
El flujo típico:
- El usuario instala el plugin (browser store, similar al modelo de apps móviles).
- Hace una pregunta: “¿Cuál es la mejor hora para volar de Madrid a Roma el 15 de julio?”
- ChatGPT decide que el plugin de Kayak es relevante y lo llama.
- El plugin devuelve datos estructurados (vuelos, precios, horarios).
- ChatGPT los presenta al usuario con lenguaje natural.
La clave conceptual: el modelo no aprende el plugin — decide invocarlo caso a caso, basándose en la descripción del manifiesto y el contexto de la conversación.
Lo que funciona bien
Tres escenarios donde los plugins destacan:
- Consulta de datos en vivo. Plugins como WolframAlpha, Kayak, OpenTable o Instacart resuelven una limitación real de ChatGPT: acceso a información dinámica o específica que el entrenamiento no cubre. Buscar un restaurante disponible esta noche en una ciudad concreta es un caso de libro.
- Acciones con bajo riesgo transaccional. Generar un documento con el plugin de Zapier, crear un diagrama con Show Me Diagrams, resumir un PDF: tareas donde un error se detecta fácilmente y no cuesta dinero.
- Exposición de datos internos. Empresas que ya publican OpenAPI pueden crear plugins privados (dentro de un plan Enterprise) para que su equipo interactúe con datos corporativos en lenguaje natural.
Donde aparecen las fricciones
Pero hay áreas donde los plugins, a la fecha de este artículo, no cumplen la promesa:
- Orquestación de múltiples plugins en un flujo. ChatGPT permite activar hasta 3 plugins a la vez, pero elegir bien entre ellos es frágil. Cuando preguntas “busca un vuelo y reserva un restaurante en el destino”, frecuentemente el modelo se atasca o invoca al plugin equivocado.
- Transacciones con dinero real. Aunque técnicamente posible, los plugins comerciales son cautelosos: Kayak te busca vuelos pero te redirige a su web para el pago; Instacart arma la cesta pero tú cierras la compra. La fricción de salir del chat para pagar reduce el valor percibido.
- Latencia acumulada. Cada plugin añade 2-5 segundos al tiempo de respuesta. Conversaciones con dos o tres invocaciones pasan de instantáneas a notablemente lentas.
- Descubrimiento. El store de plugins es un listado muy largo sin rankings fiables. Encontrar el plugin correcto para un caso concreto es tarea manual.
Plugins vs. function calling
En junio de 2023 OpenAI introdujo function calling en su API pública — una capacidad más granular para que el desarrollador defina funciones que el modelo puede invocar, sin pasar por el store de plugins. Esto plantea la pregunta: ¿función es el nuevo plugin?
En la práctica, ambos coexisten con roles distintos:
- Plugins son una experiencia de consumidor final en ChatGPT. Tienen que superar un proceso de revisión de OpenAI y están orientados a uso no técnico.
- Function calling es una API directa para desarrolladores que construyen sus propias experiencias. Sin store, sin gatekeeper, sin UX predefinida.
Para un equipo que integra IA en su producto, function calling es casi siempre la mejor primitiva, porque mantiene el control sobre UX y transacciones. Los plugins brillan solo cuando el objetivo es que ChatGPT mismo sea la interfaz.
Este encaja con lo que vimos en prompt engineering como disciplina madura: la API de function calling ha canalizado muchos de los patrones de salida estructurada antes hechos con prompts manuales.
Hacia dónde va el ecosistema
Tres predicciones razonables para los próximos meses:
- Consolidación. De los 500+ plugins actuales, sobrevivirán los que resuelvan un caso de uso claro y mantenible. La long tail va a desvanecerse.
- Plugins verticales empresariales. En lugar de buscar ser general como ChatGPT, los próximos plugins de éxito serán específicos: ChatGPT dentro de herramientas como Notion o Salesforce, con contexto del negocio.
- Convergencia con agentes. La distinción entre “plugin” y “agente” se va a borrar. Los próximos sistemas probablemente orquestarán múltiples plugins en planes multi-paso, no solo respondan a una pregunta.
Ver también nuestro análisis de Code Interpreter como caso donde el plugin está integrado de forma más profunda y resuelve tareas más complejas.
Conclusión
Los plugins de ChatGPT son un experimento interesante en cómo un asistente conversacional puede abrir su comportamiento a servicios externos. Tres meses de adopción real muestran el potencial (consulta de datos en vivo) y los límites (orquestación compleja, transacciones con dinero). Como estándar industrial, la pelota la tiene function calling; los plugins son más un producto de consumo.
Síguenos en jacar.es para más sobre integración de IA en producto, APIs y arquitectura de asistentes conversacionales.