Mistral liberó Mixtral 8x22B por magnet link sin fanfarria. Qué aporta técnicamente, cómo se compara con 8x7B y GPT-4, y qué hardware necesita.
Leer másEtiqueta: llm
Claude 2: la alternativa de Anthropic a GPT-4
Claude 2 ofrece contexto largo (100K tokens) y un enfoque distinto a la seguridad. Cómo se compara realmente con GPT-4 en uso práctico.
Leer másLangChain: el framework para orquestar aplicaciones con LLM
LangChain unifica la construcción de aplicaciones con LLM: prompts, retrievers, agentes y memoria. Cuándo ayuda y cuándo añade complejidad innecesaria.
Leer másFunction calling en OpenAI: estructurando salidas del modelo
Function calling convierte el LLM en un componente que devuelve datos estructurados. Cómo funciona, casos de uso reales y errores comunes.
Leer másGPT-4 en profundidad: capacidades reales frente a expectativas
Cinco meses después del lanzamiento de GPT-4, es momento de separar capacidades reales de hype. Dónde destaca y dónde sigue fallando.
Leer másBard y PaLM 2: la apuesta de Google en IA generativa
Google lanzó Bard con PaLM 2 como respuesta directa a ChatGPT. Análisis de capacidades, comparativa con GPT-4 y estrategia de integración con su ecosistema.
Leer másFine-tuning de LLM: cuándo merece la pena entrenar el tuyo
Fine-tuning sigue siendo caro y operativamente complejo. Guía para decidir entre RAG, prompt engineering y entrenamiento propio.
Leer másPrompt engineering: de truco a disciplina madura
Prompt engineering ha pasado de ser una colección de trucos virales a una disciplina con patrones reproducibles. Guía práctica 2023.
Leer más