Gil Kalai cada vez tiene menos argumentos a los que aferrarse. Este matemático israelí y profesor en Yale ha pronosticado que los ordenadores cuánticos nunca serán capaces de enmendar sus errores. Y es necesario que lo hagan si queremos utilizarlos para resolver un abanico amplio de problemas que realmente sean significativos.
Afortunadamente, el rápido desarrollo que está experimentando la computación cuántica está desmontando poco a poco las opiniones que ponen en duda el potencial de esta disciplina. Uno de los mayores retos a los que se enfrenta consiste, precisamente, en la necesidad de que los ordenadores cuánticos sean capaces de enmendar sus propios errores, y tres estudios diferentes defienden lo cerca que estamos de lograrlo.
Un grupo de investigación en computación cuántica australiano, otro holandés y un tercer equipo japonés han publicado en Nature otros tantos artículos científicos en los que explican con todo detalle el procedimiento que han utilizado para poner a punto cúbits superconductores que tienen una precisión superior al 99%. Pero lo mejor de todo es que cuando los errores son tan poco frecuentes es mucho más fácil corregirlos.
Estamos más cerca de los ordenadores cuánticos plenamente funcionales
Durante la conversación que mantuvimos hace unos meses con Ignacio Cirac, el director de la División Teórica del Instituto Max Planck de Óptica Cuántica alojado en Garching (Alemania), este científico español nos explicó lo importante que es que los ordenadores cuánticos sean capaces de corregir los errores que cometen, y también cuáles son los dos caminos que podemos seguir para conseguir que estas máquinas sean capaces de resolver problemas realmente significativos:
Hay dos caminos. Desarrollar un ordenador cuántico que no tenga errores es muy complicado. No tengo ninguna duda de que va a pasar (en este ámbito no estoy de acuerdo con lo que dice Gil Kalai), pero creo que va a tardar mucho tiempo. El otro camino consiste en coger los prototipos que ya tenemos, que son muy pequeños y no funcionan del todo bien porque tienen errores, y hacer con ellos algo que sea significativo.
La primera opción es la más importante porque creo que tendrá un impacto enorme en la sociedad, pero tendremos que esperar. La segunda, sin embargo, es algo que está abierto. Es posible que surjan algunas aplicaciones importantes que sea posible abordar con los prototipos de ordenadores cuánticos que tenemos, o puede que no. Todavía no lo sabemos con certeza, pero creo que merece la pena apostar por ello porque en el caso de que surja alguna podría tener un impacto grande en la sociedad.
Primero llegó la guerra del gHz, después la del número de núcleos, y ahora la del rendimiento por vatio: por qué la actual es la más dura de todas
Ignacio Cirac es un científico riguroso y extremadamente prudente, dos cualidades que le honran, y por esta razón durante nuestra conversación prefirió no fantasear con la posibilidad de que la tan ansiada corrección de errores llegue pronto. Pero podría hacerlo.
Cada uno de estos tres equipos de investigación ha llevado a cabo su análisis de forma independiente
Y es que los investigadores de los que os he hablado unas líneas más arriba han logrado poner a punto cúbits superconductores con una precisión extremadamente alta, y que, además, pueden ser fabricados utilizando la tecnología de producción de semiconductores basada en silicio que se emplea actualmente para producir chips de alta integración.
Que estos cúbits puedan ser producidos utilizando una tecnología robusta y perfectamente conocida es muy importante. Pero es que, además, cada uno de estos tres equipos de investigación ha llevado a cabo su análisis de forma independiente. Y dos de ellos, el australiano y el holandés, han certificado sus medidas empleando un método tomográfico muy preciso y ampliamente aceptado por la comunidad científica. Como veis, suena muy bien.
Echemos un vistazo a sus resultados. El equipo australiano liderado por Andrea Morello ha obtenido una precisión del 99,95% utilizando un cúbit, y del 99,37% empleando dos cúbits superconductores. El grupo de investigadores holandés dirigido por Lieven Vandersypen ha conseguido una precisión del 99,87% usando un cúbit, y del 99,65% utilizando dos cúbits. Y, por último, el equipo japonés liderado por Seigo Tarucha ha arrojado una precisión del 99,84% con un cúbit, y del 99,51% empleando dos cúbits.
Como podemos intuir, estas cifras tan altas nos indican que las operaciones llevadas a cabo con estos cúbits raramente introducen algún error debido a que son capaces de preservar la coherencia cuántica durante mucho tiempo. Según Andrea Morello, de hecho, durante nada menos que 35 segundos. Puede parecer un instante, y para nosotros lo es, pero para un procesador cuántico es una eternidad debido a que durante este tiempo es capaz de llevar a cabo muchísimos cálculos.
La razón por la que es importante que la incidencia de los errores sea tan baja es que cuando está por debajo del 1% a los protocolos cuánticos de corrección de errores les resulta mucho más fácil llevar a cabo su cometido. Un procesador cuántico de uno o dos cúbits es demasiado simple para resolver problemas significativos, pero estos grupos de investigación han afianzado un punto de partida extraordinario desde el que debería ser posible escalar esta cifra y poner a punto procesadores cuánticos fiables y con muchos más cúbits. Ese será el mayor desafío a partir de ahora.
Imágenes | IBM
Más información | Nature | SciTechDaily
–
La noticia
La computación cuántica acalla las críticas: ya rozamos la corrección de errores, uno de sus mayores retos, con la punta de los dedos
fue publicada originalmente en
Xataka
por
Juan Carlos López
.