IBM impulsa el recuento de qubits a más de 400 con un nuevo procesador

IBM impulsa el recuento de qubits a más de 400 con un nuevo procesador

IBM anunció hoy la última generación de su familia de procesadores cuánticos con temática aviar, el Osprey. Con más de tres veces el número de qubits de su procesador Eagle de la generación anterior, Osprey es el primero en ofrecer más de 400 qubits, lo que indica que la empresa sigue en camino de lanzar el primer procesador de 1000 qubits el próximo año.

A pesar del alto número de qubits, no hay necesidad de apresurarse a volver a cifrar todos sus datos confidenciales todavía. Si bien las tasas de error de los qubits de IBM han mejorado constantemente, aún no han alcanzado el punto en el que los 433 qubits de Osprey se pueden usar en un solo algoritmo sin una probabilidad muy alta de error. Por ahora, IBM enfatiza que Osprey es una indicación de que la compañía puede apegarse a su hoja de ruta agresiva para la computación cuántica, y que el trabajo necesario para que sea útil está en progreso.

En el camino

Para comprender el anuncio de IBM, es útil comprender el mercado de la computación cuántica en su conjunto. Ahora hay muchas empresas en el mercado de la computación cuántica, desde nuevas empresas hasta grandes empresas establecidas como IBM, Google e Intel. Han apostado por una variedad de tecnologías, desde átomos atrapados hasta electrones de repuesto y bucles superconductores. Prácticamente todos están de acuerdo en que para alcanzar el máximo potencial de la computación cuántica, necesitamos llegar a un número de decenas de miles de qubits y que las tasas de error en cada qubit individual sean lo suficientemente bajas como para que puedan vincularse en un número menor de qubits de corrección de errores.

También existe un consenso general de que la computación cuántica puede ser útil para algunos problemas específicos mucho antes. Si los recuentos de qubit son lo suficientemente altos y las tasas de error son lo suficientemente bajas, es posible que volver a ejecutar cálculos específicos suficientes veces para evitar un error aún obtenga respuestas a problemas que son difíciles o imposibles de lograr en las computadoras típicas.

La pregunta es qué hacer mientras trabajamos para reducir la tasa de error. Dado que la probabilidad de errores aumenta en gran medida con el recuento de qubits, agregar más qubits a un cálculo aumenta la probabilidad de que los cálculos fallen. Un ejecutivo de una empresa de qubits de iones atrapados me dijo que sería trivial para ellos atrapar más iones y tener un recuento de qubits más alto, pero no ven el sentido: el aumento de errores dificultaría la tarea. para completar cualquier cálculo. O, dicho de otro modo, para tener una buena probabilidad de obtener un resultado de un cálculo, tendría que usar menos qubits de los disponibles.

Osprey no cambia fundamentalmente nada de eso. Si bien la persona de IBM no lo reconoció directamente (y preguntamos dos veces), es poco probable que un solo cálculo pueda usar los 433 qubits sin encontrar un error. Pero, como explicó Jerry Chow, director de Infraestructura del grupo cuántico de IBM, aumentar el número de qubits es solo una rama del proceso de desarrollo de la empresa. La publicación de los resultados de ese proceso como parte de una hoja de ruta a largo plazo es importante debido a las señales que envía a los desarrolladores y posibles usuarios finales de la computación cuántica.

En el mapa

IBM lanzó su hoja de ruta en 2020 y pidió que el procesador Eagle del año pasado fuera el primero con más de 100 qubits, acertó con el recuento de qubits de Osprey e indicó que la empresa sería la primera en eliminar 1000 qubits con el Condor del próximo año. La iteración de este año en la hoja de ruta amplía la línea de tiempo y proporciona muchos detalles adicionales sobre lo que está haciendo la empresa más allá de aumentar el número de qubits.

La hoja de ruta cuántica actual de IBM es más elaborada que su oferta inicial.

La hoja de ruta cuántica actual de IBM es más elaborada que su oferta inicial.

La adición más notable es que Condor no será el único hardware lanzado el próximo año; un procesador adicional llamado Heron está en el mapa que tiene un recuento de qubit más bajo, pero tiene el potencial de vincularse con otros procesadores para formar un paquete de múltiples chips (un paso que ya ha dado un competidor en el espacio). Cuando se le preguntó cuál era la mayor barrera para escalar el número de qubits, Chow respondió que “es el tamaño del chip real. Los qubits superconductores no son las estructuras más pequeñas; en realidad, son bastante visibles a simple vista”. Colocar más de ellos en un solo chip crea desafíos para la estructura del material del chip, así como para las conexiones de control y lectura que deben enrutarse dentro de él.

“Creemos que vamos a girar esta manivela una vez más, utilizando este tipo de tecnología básica de un solo chip con Condor”, dijo Chow a Ars. “Pero, sinceramente, no es práctico si comienzas a hacer chips individuales que probablemente tengan una gran proporción del tamaño de una oblea”. Entonces, mientras que Heron comenzará como una rama secundaria del proceso de desarrollo, todos los chips más allá de Condor tendrán la capacidad de formar enlaces con procesadores adicionales.

Ir a debate…

Leave a Reply

Your email address will not be published. Required fields are marked *