Mascota Jacar — leyendo contigo Un portátil cuyos ojos siguen el cursor mientras lees.
Tecnología

Computación cuántica: progreso real sin bombo

Computación cuántica: progreso real sin bombo

Actualizado: 2026-05-03

Durante años, hablar de computación cuántica significó elegir entre dos extremos igual de poco útiles: la fantasía de máquinas que resolverían en segundos lo intratable, o el escepticismo que la trataba como una tecnología a veinte años vista sin aplicaciones tangibles. Con varias generaciones de hardware ya en producción, los primeros experimentos de corrección de errores a escala y una comunidad académica e industrial bastante más madura, conviene hacer una lectura honesta de dónde estamos. No es el momento de la revolución que prometía el marketing, pero tampoco es el desierto del escepticismo: hay progreso real, medible, y también límites que siguen siendo duros.

Puntos clave

  • La métrica relevante ya no es el número de cúbits físicos sino los cúbits lógicos útiles: cuántos se pueden construir agrupando cúbits físicos bajo un código de corrección de errores.
  • El hito de Google Willow (2024) fue demostrar que añadir más cúbits físicos bajaba la tasa de error efectiva del cúbit lógico, cruzando por fin el umbral teórico.
  • La criptografía poscuántica es la aplicación con mayor urgencia práctica hoy: NIST finalizó los primeros estándares (ML-KEM, ML-DSA) en agosto de 2024 y la migración es prioridad real en infraestructura crítica.
  • Quantum ML, algoritmos de optimización empresarial y predicciones de ruptura de RSA a corto plazo siguen siendo investigación, no producto.
  • Para la mayoría de equipos: información sin inversión operativa, salvo en química computacional o infraestructura crítica.

Dónde está el hardware a día de hoy

La métrica que dominaba los titulares hace cinco años era el número de cúbits físicos. IBM anunció su procesador Condor con 1121 cúbits a finales de 2023, Google presentó Willow con 105 cúbits en 2024 demostrando por primera vez corrección de errores por debajo del umbral. Lo importante es que la comunidad ha abandonado la carrera estéril por el número bruto y ahora mide la calidad: fidelidad de puertas, tiempo de coherencia, conectividad del grafo de cúbits, y sobre todo cuántos cúbits lógicos útiles se pueden construir a partir de esos físicos.

La diferencia entre físico y lógico es decisiva:

  • Un cúbit físico es el dispositivo real —circuito superconductor, ion atrapado o fotón— con tasas de error altas: alrededor de una operación errónea por cada mil en los mejores sistemas actuales.
  • Un cúbit lógico agrupa decenas o cientos de físicos bajo un código de corrección de errores, y su tasa de error efectiva puede ser órdenes de magnitud menor.

El hito de Willow en 2024 fue demostrar que al añadir más cúbits físicos la tasa efectiva del cúbit lógico bajaba, no subía, cruzando por fin el umbral teórico después de décadas de trabajo. Varios laboratorios operan entre dos y diez cúbits lógicos, todavía lejos del centenar que hace falta para algoritmos útiles, pero ya en un régimen donde la mejora es cuestión de ingeniería incremental.

Los ecosistemas industriales relevantes:

  • IBM con su familia Eagle, Condor y sucesores superconductores.
  • Google Quantum AI con hoja de ruta centrada en corrección de errores.
  • Quantinuum (fusión Honeywell + Cambridge Quantum) con iones atrapados que ofrecen fidelidades altísimas.
  • IonQ y PsiQuantum como alternativas fotónicas.
  • Microsoft publicó en 2025 los primeros resultados verificados de partículas de Majorana que llevaban prometiendo desde 2018, aunque todavía a escala de pocos cúbits.

Qué algoritmos realmente funcionan

La parte más sobria es reconocer que, fuera de publicaciones académicas concretas, la computación cuántica aún no ha entregado ventaja sobre la clásica en ninguna aplicación de interés comercial general. El famoso experimento de supremacía cuántica de Google (2019) resolvía un problema diseñado específicamente para ser difícil para un ordenador clásico, sin utilidad práctica. Los algoritmos de optimización tipo QAOA se comportan bien en puntos de referencia sintéticos pero empatan o pierden frente a heurísticas clásicas sofisticadas en problemas reales.

El nicho donde sí hay progreso medible es la simulación de sistemas cuánticos nativos. Simular la dinámica de un material magnético frustrado, un superconductor de alta temperatura o un sistema molecular con muchos electrones fuertemente correlacionados es un problema cuántico que los ordenadores clásicos abordan con aproximaciones costosas. En 2025 aparecieron los primeros experimentos donde máquinas con decenas de cúbits lógicos resolvieron dinámicas imposibles de simular clásicamente con precisión equivalente. Esto interesa sobre todo a química computacional y ciencia de materiales.

El otro campo con avance real es la criptografía poscuántica, aunque aquí el empuje viene del miedo más que del progreso cuántico real. En agosto de 2024 el NIST finalizó los primeros estándares poscuánticos:

  • ML-KEM para intercambio de claves.
  • ML-DSA y SLH-DSA para firmas.

A lo largo de 2025 la industria los ha ido integrando: TLS 1.3 con híbrido X25519MLKEM768 ya es el predeterminado en Chrome y Firefox, OpenSSH 10 añadió soporte nativo. El algoritmo de Shor, el que rompería RSA y curvas elípticas, sigue necesitando cientos de miles de cúbits lógicos de alta fidelidad, muy lejos de lo que hay. Pero el principio de cosechar datos cifrados hoy para descifrarlos mañana ha movido suficiente presión regulatoria como para que la migración sea prioridad real en infraestructura crítica. Este punto conecta directamente con la soberanía tecnológica en Europa: la dependencia de sistemas criptográficos vulnerables a largo plazo es otro vector de riesgo estratégico que los reguladores europeos están tomando en serio.

Las promesas que siguen sin cumplirse

Hay que decir con claridad lo que sigue siendo investigación, no producto:

  • Quantum machine learning — no ha demostrado ventaja clara sobre métodos clásicos en tareas útiles; varios resultados teóricos recientes sugieren que las ventajas que parecían existir desaparecen al cuantificar bien el coste de cargar datos clásicos en estados cuánticos.
  • Algoritmos de optimización cuántica para negocio — las promesas de revolución en finanzas y logística siguen siendo demostraciones de laboratorio.
  • Criptoanálisis cuántico (Shor) — varios grupos académicos estiman entre diez y veinte años, y las estimaciones más recientes tienden a ser más conservadoras, no menos.
  • Uso comercial masivo — el mercado real es todavía pequeño, dominado por investigación académica, algunas farmacéuticas explorando simulación molecular y agencias gubernamentales con intereses estratégicos.

Cómo pensar la decisión

Mi lectura para un equipo técnico o directivo es que la computación cuántica merece atención vigilante pero no inversión operativa salvo en nichos muy concretos:

  • Si trabajas en química computacional, ciencia de materiales o farmacéutica con problemas de simulación fuera del alcance clásico, tiene sentido dedicar presupuesto a exploración activa.
  • Si trabajas en infraestructura crítica, migración a criptografía poscuántica sí es prioridad urgente, independientemente de cuándo llegue la máquina capaz de romper RSA, porque la ventana de cosecha de datos ya está abierta.
  • Para el resto: informarse sin invertir. Entender el vocabulario de cúbits físicos frente a lógicos, saber qué es ML-KEM y por qué importa, pero no dedicar tiempo ni presupuesto a pilotos especulativos.

El balance honesto: la computación cuántica ha dejado de ser vaporware sin dejar de ser investigación. Hay hardware que funciona, hay cúbits lógicos que corrigen errores, hay experimentos con valor científico real. No hay ventaja económica masiva, no hay aplicaciones de consumo, no hay la revolución que vendían las diapositivas de 2019. Saber distinguir las dos cosas es probablemente más valioso hoy que cualquier predicción sobre dentro de cinco años.

¿Te ha resultado útil?
[Total: 10 · Media: 4.4]

Escrito por

CEO - Jacar Systems

Apasionado de la tecnología, la infraestructura cloud y la inteligencia artificial. Escribe sobre DevOps, IA, plataformas y software desde Madrid.