
La estrategia de IBM en computación cuántica entra en una fase clave con la presentación de dos nuevos procesadores cuánticos y mejoras de software orientadas a estabilizar la ejecución de circuitos. La compañía sitúa sus próximos hitos en la ventaja cuántica verificable y en los primeros sistemas tolerantes a fallos, reforzando el papel del hardware y del código en un mismo movimiento.
Más allá del anuncio, el enfoque integra verificación comunitaria y fabricación de 300 mm para acelerar el ciclo de diseño. Para el ecosistema europeo y español, acostumbrado a combinar laboratorios cuánticos con infraestructuras HPC, el mensaje es nítido: hardware más conectado, herramientas más precisas y una ruta industrial que busca ganar ritmo.
IBM Quantum Nighthawk: arquitectura y hoja de ruta
El primer protagonista es IBM Quantum Nighthawk, un chip con 120 qubits y 218 acopladores sintonizables dispuesto en una malla cuadrada en la que cada qubit enlaza con cuatro vecinos. Esta conectividad, superior a generaciones previas, permite ejecutar circuitos con aproximadamente un 30% más de complejidad manteniendo tasas de error contenidas.
Según la hoja de ruta comunicada, el diseño está pensado para escalar en operaciones de dos qubits, un aspecto crítico en el rendimiento real de estos sistemas. La compañía proyecta 5.000 puertas de dos qubits como capacidad base y apunta a ampliaciones progresivas en los próximos años.
- Conectividad más densa frente a Heron, facilitando menos puertas SWAP y mejor fidelidad efectiva
- Objetivos de operación: 5.000 puertas (base), 7.500 (siguientes revisiones), 10.000 y hasta 15.000 con arquitecturas de mayor escala
- Entrega de los primeros Nighthawk a usuarios antes de que finalice el periodo previsto por la compañía
El objetivo de Nighthawk es situar el hardware en un régimen problemático para la simulación clásica. En esa zona, la probabilidad de demostrar ventaja cuántica aumenta siempre que se contenga el error y se optimice el flujo híbrido cuántico–clásico.
Verificación abierta de la ventaja cuántica
Para evitar afirmaciones unilaterales, IBM impulsa junto a Algorithmiq, Flatiron Institute y BlueQubit un rastreador abierto de ventaja cuántica. Esta herramienta documenta avances en tres frentes: estimación de observables, métodos variacionales y tareas con verificación clásica eficiente, permitiendo a la comunidad seguir y someter a escrutinio los resultados.
El planteamiento reconoce que el listón también lo marcan los mejores algoritmos clásicos disponibles. Por eso se invita a investigadores a contribuir con nuevos experimentos y simulaciones, un mecanismo que fortalece la validación y reduce el margen para conclusiones precipitadas, también en grupos de investigación europeos.
Qiskit y HPC: software al servicio del hardware
El acompañamiento por software llega con una actualización de Qiskit que amplía el uso de circuitos dinámicos y su integración con computación de alto rendimiento. Con estos cambios, IBM reporta un incremento del 24% en precisión a escalas superiores a 100 qubits y un nuevo modelo de ejecución con C-API que habilita mitigación de errores acelerada por HPC, reduciendo más de 100 veces el coste de obtener resultados fiables.
Para facilitar la adopción en infraestructuras científicas, Qiskit incorpora una interfaz C++ que permite programar directamente en entornos HPC ya consolidados. De cara a próximas versiones, la compañía planea bibliotecas para aprendizaje automático y optimización, con foco en ecuaciones diferenciales y simulación de Hamiltonianos, áreas relevantes para física y química computacional.
Quantum Loon y la corrección de errores
Si Nighthawk pretende acercar la ventaja cuántica, IBM Quantum Loon se orienta a la tolerancia a fallos. El procesador integra los elementos necesarios para una arquitectura de corrección de errores práctica, incluyendo múltiples capas de enrutamiento de baja pérdida que permiten conexiones más largas dentro del chip (c-couplers) y mecanismos de reinicio de qubits entre ciclos.
En paralelo, IBM ha mostrado decodificación de errores en tiempo real con códigos qLDPC en menos de 480 nanosegundos, una velocidad diez veces superior al enfoque líder previo y alcanzada antes de lo esperado. Este punto es crítico: la decodificación rápida reduce la acumulación de ruido y viabiliza operar en regímenes más exigentes.
Fabricación en obleas de 300 mm: acelerar el desarrollo
El tercer pilar del anuncio es industrial. La producción principal de los obleas de 300 mm se ha trasladado a una instalación avanzada del Albany NanoTech Complex (Nueva York). El acceso a herramientas litográficas de última generación recorta tiempos y permite iterar más diseños en paralelo.
- Duplicación de la velocidad de I+D al reducir a la mitad el tiempo para construir nuevos procesadores
- Diez veces más complejidad física en los chips fabricados
- Capacidad para explorar múltiples diseños simultáneamente en la línea de producción
Qué significa para España y Europa
Para universidades, centros de supercomputación y empresas europeas, la confluencia de flujo de trabajo híbrido consolida un flujo de trabajo híbrido donde el software de alto rendimiento es tan relevante como el qubit. La validación abierta y la reducción de costes de mitigación de errores son palancas útiles para proyectos con recursos competitivos.
Con hojas de ruta explícitas y mecanismos públicos de verificación, la conversación pasa de la promesa a la medición. Fechas públicas, métricas comparables y pilotos reales marcarán los próximos pasos para evaluar si el avance en conectividad, corrección de errores y fabricación se traduce en cargas de trabajo científicas y empresariales de mayor calado.
La combinación de Nighthawk, Loon, Qiskit con HPC y la fabricación en 300 mm dibuja un escenario en el que la mejora sostenida en procesadores cuánticos podría acelerar, siempre que el control de errores y la verificación independiente acompañen el ritmo del hardware y del software.