Ordenadores cuánticos tras Nighthawk de IBM y Princeton: ¿entramos en una nueva fase?
Mientras la mayoría de los titulares tecnológicos giran en torno a la IA, en segundo plano está ocurriendo algo igual de apasionante: los ordenadores cuánticos están entrando poco a poco en una fase más seria y más práctica. En poco tiempo han llegado dos anuncios importantes:
- IBM, en su Quantum Developer Conference, presentó el nuevo procesador Nighthawk con 120 qubits y una hoja de ruta clara hacia máquinas cuánticas tolerantes a fallos.
- Un equipo de ingenieros de la Universidad de Princeton ha creado un nuevo tipo de qubit superconductor hecho de tántalo y silicio ultrapuro que puede mantener la información cuántica durante mucho más tiempo de lo habitual hoy en día.
Para la gente del mundo IT, cripto y la ciencia, son dos caras de la misma historia: cómo conseguir más qubits y qubits más estables al mismo tiempo.

Nighthawk de IBM: 120 qubits y una hoja de ruta hasta 2029
En su conferencia, IBM presentó el nuevo procesador IBM Quantum Nighthawk. Es su chip más avanzado hasta la fecha y ofrece:
- alrededor de 120 qubits conectados mediante
- más de 200 acopladores ajustables (tunable couplers), que permiten interacciones más complejas entre qubits
- la capacidad de ejecutar algoritmos cuánticos significativamente más complejos que en la generación anterior de procesadores, manteniendo tasas de error bajas
IBM es muy transparente con su hoja de ruta:
- en los próximos años: alcanzar la llamada ventaja cuántica (quantum advantage), es decir, casos en los que un ordenador cuántico es prácticamente más útil que uno clásico para problemas concretos
- hacia finales de la década: construir los primeros sistemas realmente tolerantes a fallos, es decir, máquinas capaces de funcionar durante largos periodos corrigiendo errores de forma activa
En paralelo con Nighthawk, IBM también está desarrollando un chip experimental conocido con el nombre en clave Loon, que sirve como banco de pruebas para códigos de corrección de errores avanzados, nuevas geometrías de red y decodificadores ultrarrápidos. La idea es que Loon demuestre que el hardware y el software para el modo tolerante a fallos pueden funcionar juntos como un sistema completo antes de que todo esto se empaquete en máquinas más grandes.
Los qubits de Princeton: mantener el “foco” cuántico durante más tiempo
La segunda parte de la historia llega desde la Universidad de Princeton. Su equipo ha desarrollado una nueva versión de qubit superconductor de tipo “transmon”, construido con tántalo sobre silicio ultrapuro. El resultado:
- tiempos de coherencia superiores a un milisegundo
- en los experimentos, se alcanzaron tiempos de coherencia de hasta 1,6 milisegundos aproximadamente
- esto es varias veces más que lo que actualmente se considera estándar en la industria
¿Por qué es importante?
Porque un ordenador cuántico tiene que realizar miles o decenas de miles de operaciones cuánticas antes de “terminar” un cálculo. Si un qubit “olvida” su estado antes de que el algoritmo finalice, el resultado es prácticamente inútil. Un mayor tiempo de coherencia significa:
- más pasos de computación antes de que el sistema salga de su estado cuántico
- esquemas de corrección de errores menos agresivos (y menos costosos)
- una integración más sencilla con diseños de chips existentes, ya que los materiales son compatibles con los procesos estándar de fabricación de semiconductores
¿Por qué es tan importante el tiempo de coherencia?
Un bit clásico puede permanecer en 0 o 1 todo el tiempo que quieras, pero un qubit cuántico solo mantiene su superposición de estados durante un tiempo limitado: ese intervalo es su tiempo de coherencia. Después:
- el ruido del entorno,
- las imperfecciones del material,
- o los errores en las señales de control
rompen la superposición y se pierde la información cuántica.
En un mundo ideal nos gustaría tener:
- muchos qubits (cientos o miles)
- con una conectividad fuerte (para que puedan “hablar” entre sí)
- y tiempos de coherencia largos
Nighthawk de IBM ataca el problema de la escalabilidad y la conectividad, mientras que Princeton aborda el problema de cuánto tiempo puede mantenerse coherente un qubit individual. Son dos piezas clave que tienen que encajar si queremos pasar de las demostraciones a los ordenadores cuánticos prácticos.
¿Qué podría significar esto en los próximos 5–10 años?
A corto plazo, estas noticias no van a cambiar el trabajo diario de programadores, traders o usuarios medios. Los ordenadores cuánticos siguen siendo:
- caros,
- muy especializados,
- y accesibles sobre todo a través de servicios en la nube y programas de investigación.
Pero a medio plazo (5–10 años) es razonable esperar:
- máquinas cuánticas que, para ciertas tareas (optimización, simulación de materiales, química, modelado financiero), ofrezcan ventajas reales y concretas frente a los ordenadores clásicos
- un trabajo cada vez más serio en criptografía post-cuántica, ya que los algoritmos criptográficos clásicos (RSA, ECC y otros) tendrán que adaptarse poco a poco a un mundo en el que existen ordenadores cuánticos
- sistemas híbridos en los que parte de la carga de trabajo se ejecute en hardware clásico CPU/GPU y otra parte en un backend cuántico, a través de APIs especializadas
Para la comunidad cripto y el ecosistema Web3 en general, esto es una señal de que en la próxima década la seguridad no será un tema de “configurar y olvidar”, sino algo que habrá que revisar de nuevo a medida que avance el hardware cuántico.
Conclusión
Nighthawk de IBM y los qubits de Princeton con tiempos de coherencia extendidos son mucho más que un titular científico más: representan pasos concretos hacia ordenadores cuánticos prácticos.
Por un lado, el objetivo es disponer de más qubits mejor conectados; por otro, hacer que cada qubit individual sea más estable y duradero. Cuando estas dos líneas de progreso converjan, aparecerán nuevas clases de cómputo que las máquinas clásicas simplemente no podrán igualar.
Por ahora, los ordenadores cuánticos siguen siendo una historia de laboratorio de gama alta, pero estos avances muestran que la transición de la teoría a la práctica ya ha comenzado, y que la próxima década podría ser un punto de inflexión no solo para la ciencia, sino también para las finanzas, el cripto, la seguridad y los sistemas de IA complejos que algún día podrían funcionar sobre hardware cuántico.






