Cohere liberó Embed v3 a finales de 2023 y marcó una distinción concreta frente a OpenAI y los embeddings de código abierto: señales explícitas de calidad de documento. No es solo que calcule embeddings; es que los genera sabiendo si tu texto es una query (pregunta) o un documento (respuesta potencial), y además valora si el documento está bien estructurado o es ruido. Este artículo cubre qué aporta Embed v3, en qué casos supera a OpenAI, y cuándo encaja con una arquitectura RAG seria.
Qué trae nuevo Embed v3
Cohere Embed v3 introduce varios cambios sobre v2:
- input_type explícito:
search_query,search_document,classification,clustering. El modelo ajusta el embedding según el propósito. - Conciencia de calidad: documentos ruidosos (mucho boilerplate, poca señal) se representan de forma que bajan en ranking automáticamente.
- Multilingüe: el modelo
embed-multilingual-v3.0cubre 100+ idiomas con calidad pareja, incluido español, portugués, francés, alemán, árabe, chino, japonés. - Dimensiones reducidas: 1024 en
v3.0(vs 4096 del modelo xl), lo que abarata almacenamiento y acelera búsquedas.
La combinación de calidad explícita + multilingüe es el diferenciador.
Ejemplos de uso
import cohere
co = cohere.Client("YOUR_API_KEY")
# Documentos: indexarlos para RAG
docs = co.embed(
texts=["La inflación subyacente cerró 2023 en 3.8%...", ...],
model="embed-multilingual-v3.0",
input_type="search_document"
).embeddings
# Query: pregunta del usuario
q = co.embed(
texts=["¿cómo evolucionó la inflación el año pasado?"],
model="embed-multilingual-v3.0",
input_type="search_query"
).embeddings[0]
# Similaridad coseno como siempre
El input_type es crítico. Si indexas documentos con search_query, la calidad del retrieval cae notablemente.
Cohere vs OpenAI embeddings
Comparación honesta con text-embedding-3-small de OpenAI (el recién salido a finales de 2023):
| Aspecto | Cohere Embed v3 | OpenAI text-embedding-3-small |
|---|---|---|
| Dimensiones | 1024 | 1536 (ajustables) |
| Multilingüe | Excelente, 100+ idiomas a la par | Bueno, dominado por inglés |
| input_type | Sí — impacto real en calidad | No |
| Precio / 1M tokens | $0.10 | $0.02 |
| Latencia | Competitiva | Muy rápida |
| Residencia datos | US/EU opcional (enterprise) | US por defecto |
Para RAG en inglés puro con alto volumen, OpenAI gana por precio y velocidad. Para RAG multilingüe (especialmente donde el contenido y las queries son en español/portugués/francés), Embed v3 suele dar mejor recall.
Donde destaca el multilingüe real
Probarlo con documentos en varios idiomas es revelador. Ejemplo: una base de conocimiento corporativa con docs en inglés y español. Query en español debe encontrar docs en inglés si son relevantes.
Con OpenAI text-embedding-3-small, el recall cross-lingual es aceptable pero hay bleed — queries en español a veces priorizan docs en español mediocres sobre docs en inglés mejores. Con Embed v3 multilingüe, la similaridad semántica se calcula mejor independientemente del idioma.
Para empresas con operaciones multilingües (muy común en Europa), esto es diferenciador real.
Ranking de calidad de documento
La característica menos documentada pero más interesante: Embed v3 está entrenado para generar embeddings que ya incluyen una señal de calidad intrínseca del documento. Un documento lleno de boilerplate HTML scrapeado tiene una dirección diferente en el espacio vectorial que un documento bien editado.
El efecto práctico: al hacer retrieval top-k, los docs de baja calidad bajan naturalmente, incluso sin re-ranker explícito. Esto mejora la calidad del pipeline RAG sin añadir latencia.
Integración con bases vectoriales
Compatible con todas las populares:
- Pinecone, Qdrant, Weaviate: integraciones directas.
- pgvector: funciona sin cambios — solo configurar dimensión=1024.
- Chroma, Milvus: ídem.
El resto del stack RAG (LangChain, LlamaIndex) tiene conectores Cohere oficiales. Migración desde OpenAI es cambiar la función de embedding.
Re-ranking: el combo Cohere
Embed v3 + Cohere Rerank es un combo potente. El flujo:
- Recall amplio con Embed v3 (top-100 por similaridad).
- Re-rank con Rerank, modelo cross-encoder que ordena los 100 mejor.
- Pasar top-10 al LLM generador.
Las evaluaciones internas de Cohere (y las comunitarias) muestran mejoras de 10-20% en relevancia respecto a solo embedding. El coste extra es pequeño para pipelines serios.
Precios y uso
Cohere ofrece:
- Trial con rate limits para evaluación.
- Production con precios por 1M tokens (~$0.10 embedding, $1 rerank).
- Enterprise con SLAs, residencia europea, modelos dedicados.
El deployment privado (modelo en tu infra, sin salir datos) está disponible para grandes clientes. Casos regulados (finanzas, salud) lo usan.
Cohere abierto: Command R
Paralelamente, Cohere ha liberado Command R con pesos abiertos (aunque con restricciones de uso comercial). Embed v3 no tiene equivalente totalmente abierto, pero su modelo base de Command R se puede usar con otras herramientas para embeddings artesanales.
Limitaciones
Ser honesto:
- Longitud máxima: 512 tokens. Para documentos largos, hay que hacer chunking. No es peculiar de Cohere — es lo habitual.
- Modelo propietario: no hay acceso a pesos para Embed v3.
- Rate limits: con planes básicos, picos fuertes pueden saturar.
- Precio: 5x más caro que OpenAI por volumen.
Cuándo elegirlo
Elige Cohere Embed v3 si:
- Tu RAG es multilingüe con volumen relevante.
- Quieres señales de calidad integradas sin re-ranker.
- Tienes requisitos de residencia europeos (Cohere ofrece EU).
- Vas a usar Rerank en el mismo pipeline.
Quédate con OpenAI si:
- Tu dominio es principalmente inglés.
- Precio unitario es factor dominante.
- Ya tienes la integración OpenAI montada.
Conclusión
Cohere Embed v3 es la opción seria para RAG multilingüe. Sus señales de input_type y calidad intrínseca son diferenciadores reales, no trucos de marketing. Para contextos europeos y multilingües, batirla con OpenAI requiere pipeline extra (clasificación de idioma, re-ranker) que Cohere trae integrado. La decisión final depende más de tu contexto lingüístico y de compliance que de preferencias técnicas abstractas.
Síguenos en jacar.es para más sobre RAG, embeddings y arquitecturas de búsqueda semántica.