Tras dos años de RAG, patrones claros emergen: chunking inteligente, hybrid search, re-ranking, evaluación continua. Qué evitar.
Leer másEtiqueta: rag
OpenAI Assistants API: agentes con estado sin infraestructura propia
Assistants API simplifica agents con threads persistentes, tool calling y file search. Cuándo compensa vs chat completions + logic propia.
Leer másRe-ranking en RAG: la pieza que sube la calidad de verdad
Embeddings solo no es suficiente. Un re-ranker sobre top-100 suele subir precision 15-30%. Cuándo y cómo integrar sin drama.
Leer másnomic-embed-text: embeddings abiertos competitivos
Nomic liberó un modelo de embeddings open source que rivaliza con los de OpenAI. Cuándo usarlo, comparativa y cómo integrar en tu RAG.
Leer másGemini 1.5: contexto de millones de tokens en producción
Gemini 1.5 Pro demostró que el contexto de un millón de tokens es real. Qué cambia en RAG y arquitecturas cuando el modelo se puede tragar un libro entero.
Leer mástext-embedding-3 de OpenAI: qué cambia respecto al anterior
OpenAI liberó text-embedding-3 con calidad superior y el truco de dimensiones variables. Cómo aprovechar lo nuevo sin rehacer toda la pila RAG.
Leer máspgvector en 2024: índices HNSW y escalado real
pgvector 0.5 añadió HNSW y cambió la conversación. Cuándo PostgreSQL con pgvector es suficiente, cómo indexar bien y dónde empieza a sufrir.
Leer másCohere Embed v3: multilingüe y orientado a empresa
Cohere Embed v3 añadió un ranking interno de calidad de documentos y mantuvo su foco multilingüe. Cómo compara con OpenAI y cuándo encaja mejor.
Leer másBases de datos vectoriales: Qdrant, Pinecone y Weaviate
Las bases vectoriales han pasado de ser experimentales a base de productos LLM. Comparativa pragmática entre las tres opciones más usadas en 2023.
Leer máspgvector: busqueda semantica sin salir de Postgres
pgvector convierte PostgreSQL en una base vectorial competente. Cuándo elegirlo frente a Qdrant o Pinecone y cómo configurarlo bien.
Leer más