La computación cuántica ha vivido durante años entre dos extremos: promesas enormes y avances demasiado lentos para el calendario de la industria. Esa percepción empieza a cambiar. Investigadores vinculados a la Harvard Quantum Initiative in Science and Engineering sostienen que el progreso en tolerancia a fallos ha adelantado entre cinco y diez años las previsiones más habituales del sector, hasta el punto de que las primeras formas de ordenadores cuánticos grandes y corregidos frente a errores podrían aparecer antes de que termine esta década.
La afirmación no significa que en 2029 vaya a existir un ordenador cuántico universal, barato y disponible para cualquier empresa. Tampoco implica que los sistemas cuánticos vayan a sustituir a los superordenadores clásicos o a las GPU. La lectura real es más prudente, pero igualmente importante: por primera vez, parte de la comunidad científica ve al alcance una arquitectura capaz de escalar hacia máquinas útiles, siempre que los próximos años confirmen lo que hoy todavía son resultados de laboratorio, prototipos avanzados y sistemas comerciales tempranos.
El cambio se explica por un problema que ha perseguido a la computación cuántica desde sus inicios: los errores. Los cúbits son extremadamente sensibles al ruido, a la pérdida de coherencia y a interferencias del entorno. En un ordenador clásico, un bit vale 0 o 1. En un sistema cuántico, un cúbit puede trabajar con superposición y entrelazamiento, pero esa ventaja también lo hace mucho más delicado. Sin corrección de errores, los cálculos se degradan rápidamente y el resultado pierde utilidad.
La tolerancia a fallos cambia el calendario
Mikhail Lukin, codirector de la Harvard Quantum Initiative y profesor de Física en Harvard, ha explicado que muchos expertos esperaban que los grandes ordenadores cuánticos tolerantes a fallos llegaran hacia el final de la próxima década. Ahora considera probable que aparezcan, al menos en alguna forma, antes de que acabe la actual. Ese adelanto de cinco a diez años se apoya en avances recientes en corrección de errores cuánticos, una de las barreras más difíciles para pasar de experimentos prometedores a máquinas realmente útiles.
El hito más citado procede del propio entorno de Harvard. En noviembre de 2025, investigadores de la universidad presentaron un sistema con 448 cúbits atómicos capaz de detectar y retirar errores por debajo de un umbral clave. El trabajo combinaba varios elementos esenciales para una computación cuántica corregida y escalable: entrelazamiento físico, entrelazamiento lógico, operaciones lógicas y mecanismos para eliminar entropía. Lukin lo describió entonces como una base científica para la computación cuántica práctica a gran escala.
Ese punto es importante porque la computación cuántica no se mide solo por el número de cúbits físicos. Durante años, parte de la conversación pública se ha centrado en cifras cada vez más grandes, pero el verdadero salto está en los cúbits lógicos, formados a partir de muchos cúbits físicos y protegidos frente a errores. Una máquina con miles de cúbits físicos, pero sin corrección robusta, puede ser menos útil que un sistema más pequeño con mejor fidelidad y arquitectura más estable.
La comparación con la informática clásica ayuda a entenderlo. Tener más transistores no basta si el sistema no puede operar con fiabilidad. En computación cuántica, esa fiabilidad es todavía más compleja porque el propio acto de medir puede alterar el estado cuántico. Por eso la tolerancia a fallos se ha convertido en la frontera real del sector.
De la investigación al mercado
La aceleración no se queda en los laboratorios. Harvard destaca que su ecosistema cuántico ya ha dado lugar a varias empresas. QuEra, fundada en 2018 por Mikhail Lukin, Markus Greiner y socios de Harvard y MIT, trabaja con ordenadores cuánticos basados en átomos neutros. LightsynQ, creada en 2024 por Mihir Bhaskar para comercializar tecnología de redes cuánticas, fue adquirida por IonQ. CavilinQ, otra spinout vinculada a tecnologías de interconexión cuántica, anunció 8,8 millones de dólares de financiación semilla.
Esta actividad empresarial muestra que la computación cuántica está saliendo poco a poco del terreno puramente académico. No porque ya haya reemplazado a la computación clásica, sino porque empieza a formar una cadena industrial: hardware, redes cuánticas, software, criogenia, control electrónico, corrección de errores, simulación y servicios cloud.
La propia QuEra ha suministrado sistemas a instituciones como el National Institute of Advanced Industrial Science and Technology de Japón. El caso es representativo de una etapa híbrida: los ordenadores cuánticos no se instalan como servidores convencionales, sino como plataformas especializadas conectadas a supercomputadores clásicos. Esa convivencia será la norma durante años. Incluso si los avances se aceleran, la computación cuántica funcionará como un acelerador para problemas concretos, no como sustituto general de CPUs, GPUs o clusters HPC.
IBM sigue una dirección parecida. La compañía mantiene una hoja de ruta para entregar IBM Quantum Starling en 2029, un sistema tolerante a fallos con 200 cúbits lógicos capaz de ejecutar circuitos de 100 millones de puertas cuánticas. En España, IBM y el Gobierno Vasco inauguraron en 2025 el primer IBM Quantum System Two de Europa, instalado en Donostia-San Sebastián y basado en un procesador Heron de 156 cúbits. Conviene corregir aquí una confusión frecuente: no se trata de una máquina de 1.121 cúbits, sino de un sistema de nueva generación diseñado para ser expandible y orientado a investigación, formación y desarrollo de casos de uso.
Google también ha contribuido a cambiar el ánimo del sector. Su chip Willow, presentado en 2024, demostró avances en corrección de errores y en la reducción de fallos al aumentar el tamaño del código cuántico. La compañía lo describió como un paso hacia ordenadores cuánticos útiles a gran escala, aunque el propio resultado no resolvía todavía un problema comercial práctico que no pudiera abordarse de otra manera.
Lo que sí puede cambiar antes de 2030
El impacto más inmediato de estos avances estará en química, materiales, optimización, simulación física y criptografía. Richard Feynman ya defendió en los años 80 que simular la naturaleza cuántica con ordenadores clásicos era una tarea profundamente ineficiente. Esa intuición sigue siendo una de las razones más sólidas para desarrollar ordenadores cuánticos: moléculas, materiales, reacciones químicas y sistemas físicos complejos encajan de forma natural con este tipo de computación.
En salud, podría ayudar a estudiar interacciones moleculares y acelerar parte del descubrimiento de fármacos. En energía, podría mejorar la simulación de catalizadores, baterías o materiales superconductores. En finanzas y logística, algunos algoritmos podrían aportar ventajas en problemas de optimización, aunque este terreno exige mucha prudencia porque no todos los problemas empresariales se benefician de una máquina cuántica.
La criptografía merece una lectura separada. Un ordenador cuántico suficientemente grande y corregido podría amenazar sistemas actuales de clave pública como RSA o curvas elípticas. Ese escenario no está aquí, pero el riesgo de “capturar ahora y descifrar después” ya ha llevado a gobiernos y empresas a preparar la transición hacia criptografía poscuántica. El NIST publicó en agosto de 2024 sus primeros estándares finales para algoritmos resistentes a ataques cuánticos, una señal de que la planificación ya no puede esperar al día en que exista la máquina capaz de romper esos esquemas.
El entusiasmo de Harvard contrasta con el escepticismo que Jensen Huang, consejero delegado de NVIDIA, expresó en enero de 2025, cuando situó los ordenadores cuánticos “muy útiles” entre 15 y 30 años vista. Sus palabras provocaron una fuerte caída bursátil en varias empresas del sector. Dos meses después, el propio Huang matizó el mensaje al anunciar un centro de investigación cuántica de NVIDIA en Boston, en colaboración con científicos de Harvard y MIT, y reconoció públicamente que el ritmo de avance había sorprendido a muchos.
La conclusión más razonable queda entre el entusiasmo y la cautela. La computación cuántica avanza más rápido de lo que muchos esperaban, pero todavía no ha demostrado una utilidad generalizada en producción. Los próximos años decidirán si los avances en tolerancia a fallos pueden escalar de forma industrial y si las aplicaciones compensan el coste y la complejidad de estas máquinas.
Lo que ya parece claro es que la computación cuántica ha dejado de ser una promesa lejana para convertirse en una tecnología que empresas, gobiernos y centros de investigación deben seguir de cerca. No porque vaya a reemplazar al ordenador clásico, sino porque puede añadir una nueva capa de capacidad para resolver problemas que hoy siguen fuera del alcance práctico de la informática convencional.
Preguntas frecuentes
¿Qué han dicho los investigadores de Harvard sobre la computación cuántica?
Investigadores vinculados a la Harvard Quantum Initiative sostienen que los avances en tolerancia a fallos han adelantado entre cinco y diez años las previsiones y que podrían verse primeras formas de ordenadores cuánticos grandes y corregidos antes de que termine esta década.
¿Qué es un ordenador cuántico tolerante a fallos?
Es un sistema capaz de detectar, corregir o compensar errores durante el cálculo cuántico, de forma que las operaciones puedan escalar sin que el ruido destruya el resultado.
¿La computación cuántica sustituirá a los ordenadores clásicos?
No en un sentido general. Lo más probable es que actúe como acelerador especializado para problemas concretos, junto a superordenadores, CPUs, GPUs y sistemas de IA.
¿Debemos preocuparnos ya por la criptografía cuántica?
Sí, desde el punto de vista de planificación. Aunque todavía no existe una máquina capaz de romper a gran escala los sistemas actuales más usados, organismos como el NIST ya han publicado estándares de criptografía poscuántica para preparar la transición.
vía: the quantum insider