Mistral liberó Mixtral 8x22B por magnet link sin fanfarria. Qué aporta técnicamente, cómo se compara con 8x7B y GPT-4, y qué hardware necesita.
Leer másEtiqueta: moe
Gemini 1.5: contexto de millones de tokens en producción
Gemini 1.5 Pro demostró que el contexto de un millón de tokens es real. Qué cambia en RAG y arquitecturas cuando el modelo se puede tragar un libro entero.
Leer más