martes, 23 de junio de 2020

Computación cuántica - Diego García Martín

11.3
Computación cuántica.
La persistencia de la memoria.





La computación cuántica es uno de los grandes retos intelectuales y tecnológicos de la actualidad. Por un lado, atañe a cuestiones de hondo calado filosófico; por otro, la promesa de una nueva computación, exponencialmente más eficiente en ciertos casos que la posibilitada por los ordenadores clásicos, alberga un gran potencial disruptivo para la Ciencia, la industria (en sentido amplio), y para otros ámbitos de la sociedad. En este capítulo, se revisarán muy brevemente el concepto y la historia de la computación cuántica; se pretende dar así una visión cercana del campo, el cual ha experimentado un desarrollo espectacular durante las últimas décadas.
La computación cuántica se fundamenta en la utilización de ciertos efectos (cuánticos) que aparecen a escalas microscópicas a la hora de definir cuál es la unidad básica de información, el denominado qubit. Esto tiene increíbles consecuencias. La naturaleza intrínsecamente cuántica de los qubits hace que su comportamiento siga unas reglas diferentes de las que sigue la lógica binaria basada en bits clásicos (ceros y unos), en la cual por otra parte están basados todos los dispositivos electrónicos digitales tales como ordenadores, teléfonos móviles, etc. Propiedades tales como la superposición, el entrelazamiento y la interferencia proporcionan las herramientas para manipular (¡y entender!) la información de un modo totalmente novedoso, que trae consigo algoritmos cuánticos que resuelven algunos problemas de manera exponencialmente más rápida que los mejores algoritmos clásicos conocidos. Una consecuencia directa es que numerosos métodos de encriptado ampliamente utilizados en la actualidad quedarán obsoletos cuando exista un ordenador cuántico con corrección de errores. Esto significa que la privacidad y seguridad de las comunicaciones (transacciones bancarias, correos electrónicos, etc.) a nivel global se verán comprometidas. Por lo tanto, en unos años habrá que cambiar estos sistemas de encriptación por otros protocolos resistentes a ordenadores cuánticos, a escala planetaria.  Debido a éste y a otros motivos, las implicaciones de los ordenadores cuánticos trascienden el ámbito puramente académico y científico, y mantienen a las grandes potencias con un ojo (y un fajo de billetes) sobre esta potencialmente disruptiva nueva tecnología. 

     Para entender la historia y los fundamentos de la computación cuántica, es necesario adentrarse en las raíces de la Ciencia de la Computación. En 1936, mientras en España estallaba la guerra civil, Alan Turing (o como se refería a él nada menos que el genial físico Richard Feynman, el “señor Turing”) publicaba un artículo que a la postre cambiaría el rumbo del mundo. Y no sólo porque sus ideas le permitirían a él y a sus colaboradores construir una máquina que acabó descifrando Enigma, el código secreto utilizado por los nazis para encriptar sus comunicaciones durante la segunda guerra mundial; sino porque además sentó, de manera decisiva, las bases matemáticas rigurosas de lo que hoy en día entendemos por “computación”.
En dicho artículo se introducía la denominada máquina de Turing, que en realidad es un dispositivo abstracto. ¿Qué hace tan especial a una máquina de Turing? Alan Turing demostró en su artículo que existe lo que se denomina una máquina de Turing universal. Es decir, una máquina de Turing que es capaz de imitar el comportamiento de cualquier otra máquina de Turing. Esto significa, por un lado, que no necesitamos construir una máquina para leer el correo, otra para reproducir vídeo y otra para jugar al ajedrez. Es posible tener una sola máquina que haga todo esto. No obstante, el verdadero alcance del resultado de Turing se debe a la denominada hipótesis de Church-Turing. Ésta afirma que cualquier aparato de computación posible es emulable por una máquina universal de Turing. Esto significa, de ser cierto, que no necesitamos preocuparnos por las características particulares del ordenador que queramos construir (ahora o en el futuro), ya que si estudiamos las máquinas de Turing, entonces podremos derivar resultados que son aplicables a cualquier aparato de computación imaginable. Vemos por lo tanto la potencia y utilidad de esta hipótesis. La hipótesis de Church-Turing es considerada verdadera por la mayoría de expertos en el tema, si bien no ha sido demostrada.
Los ordenadores clásicos son, en esencia, un montón de ceros y unos sobre los que se aplican operaciones (puertas) que siguen la lógica binaria. Existe un resultado de universalidad que dice que absolutamente todo lo que hacen los ordenadores hoy en día puede reducirse en principio a montones de operaciones NAND, COPY y SWAP sobre miles de millones de bits. Esto incluye desde navegar por internet, reproducir música, etc. hasta generar exquisitos “nuevos cuadros de Rembrandt” digitalizados o ganar al ajedrez a los mejores y más brillantes jugadores del mundo. Los ordenadores muestran de forma espectacular cómo algo tremendamente complejo puede emerger a partir de unas unidades constituyentes tremendamente sencillas, cuando juntas muchísimas de ellas de la manera apropiada. También demuestran las inquietantes capacidades “humanas” que pueden adquirir las máquinas, tales como aprender la técnica de un maestro de la pintura y reproducir su estilo en nuevas obras originales. Crear arte. Muchos estarán de acuerdo en que el arte es algo genuina y exclusivamente humano… ¿pero es así realmente? ¿O tal vez es que nosotros mismos no somos sino meros ordenadores, sofisticados, pero emulables al fin y al cabo por una máquina universal de Turing? Sea como fuere, cuando se discuten éste y otros temas similares, es interesante también tener presente la reflexión de Feynman, que nos recuerda que los aviones pueden volar, pero tal vez sean de limitado uso para intentar comprender la naturaleza última de las aves.
Volviendo a la computación cuántica, la idea surgió inicialmente a raíz de dos cuestiones fundamentales. Por un lado, la consideración de cuáles son las limitaciones últimas que imponen las leyes de la Física a la computación. En particular, fue el físico Charles Bennett quien le sugirió a Feynman esta pregunta con respecto de la Mecánica Cuántica. El propio Bennet había demostrado ya que la computación reversible, es decir, aquella que hace uso de puertas lógicas reversibles (a diferencia del NAND, que es irreversible), también es universal. Las leyes cuánticas son reversibles en el tiempo; por lo tanto, las puertas cuánticas son también reversibles, y el resultado de Bennet implica que la computación cuántica puede ser universal. Por otro lado, el segundo motivo que llevó a la idea de la computación cuántica fue la comprensión de que la descripción clásica de los sistemas cuánticos necesita en general de un número de parámetros que crece exponencialmente con el tamaño del sistema (por ejemplo, con el número de partículas), y por lo tanto, no es eficiente. Feynman se dio cuenta de que un sistema (un ordenador) cuántico, en cambio, sí podría emular a otro sistema cuántico de forma más eficiente, pues ambos están regidos por las mismas leyes. La ineficiencia de los ordenadores clásicos para describir sistemas cuánticos había sido observada también por el matemático Yuri Manin. Feynman propuso un simulador cuántico, expandiendo las ideas de Paul Benioff a este respecto. El siguiente gran avance teórico lo introdujo el físico David Deutsch al definir por primera vez una máquina de Turing cuántica. La máquina de Turing cuántica es a los ordenadores cuánticos lo que la máquina de Turing a los ordenadores clásicos. Fundamental.
Otro resultado importantísimo en computación cuántica, análogo al de la universalidad de la puerta NAND en computación clásica, es la universalidad de las puertas de dos qubits. Esto significa que sólo es necesario un conjunto apropiado (y reducido) de puertas lógicas cuánticas que actúen sobre un qubit y de puertas que actúen sobre dos qubits conjuntamente para aproximar tanto como se quiera cualquier otra transformación cuántica posible. Considero estos dos resultados de universalidad (clásico y cuántico) tremendamente sugerentes. Es como si la Naturaleza y las leyes de la Física nos quisieran regalar esta enorme simplificación en términos tanto conceptuales como prácticos a la hora de construir ordenadores. Otro resultado crucial que nos brinda la Naturaleza, descubierto en la década de los 90, es la posibilidad de incorporar esquemas de corrección de errores a los ordenadores cuánticos. Esto parece casi un milagro, teniendo en cuenta que los sistemas cuánticos no pueden ser observados, por ejemplo para comprobar si se ha producido un error, sin destruir su estado previo a la medida. Y teniendo en cuenta también que los qubits tampoco pueden ser clonados o copiados, lo cual constituye por su parte otro resultado sorprendente y fundamental. Muchos de los algoritmos cuánticos conocidos más importantes necesitarán de corrección de errores para poder resolver problemas. Esto tardará todavía un tiempo en llegar. Mientras tanto, se han propuesto toda una serie de algoritmos híbridos cuánticos-clásicos que son más robustos a los errores sistemáticos presentes en los ordenadores cuánticos, y que no requieren necesariamente de corrección de errores. Estos algoritmos acercarán las primeras aplicaciones útiles de la computación cuántica en el tiempo, y hoy en día se ha desarrollado todo un campo de investigación en torno a ellos. Las futuribles aplicaciones de los ordenadores cuánticos incluyen la ciencia de materiales, la ciberseguridad, la bioinformática, el análisis financiero, la industria militar, la logística, la inteligencia artificial y un largo etcétera1. Esto puede dar una idea del gran impacto que puede suponer la computación cuántica. No en vano, es un potencial factor diferencial, y como tal, un elemento de competición geopolítica. Esto es aplicable también a la supercomputación clásica. Basta observar cuáles son los países con mayor poder de supercomputación hoy en día: EEUU y China.

Prototipo de ordenador cuántico.

En definitiva, la computación cuántica alberga un gran potencial disruptivo. La mejora de los ordenadores clásicos basada en la continua miniaturización de los transistores al ritmo marcado por la ley de Moorese acerca a su fin. Los transistores no pueden hacerse infinitamente pequeños, ya que a cierta escala empiezan a aparecer los efectos cuánticos. Todavía no sabemos cuál será el soporte físico definitivo de los ordenadores cuánticos del futuro, pero el objetivo de su construcción está suponiendo un gran esfuerzo de investigación experimental en multitud de sistemas físicos distintos, desde materiales superconductores o semiconductores hasta sistemas de unos pocos átomos o fotones. Esto es muy bueno en sí mismo, aunque algunas de estas tecnologías no lleguen a alcanzar el objetivo final. Asimismo, la Teoría de la Información Cuántica nos ha posibilitado una comprensión muchísimo más amplia de la propia Mecánica Cuántica. Así pues, en el peor de los casos, en el supuesto escenario en el que la construcción de un ordenador cuántico no fuera viable, el camino recorrido habría merecido la pena con creces. No obstante, lo increíble es que nada parece indicar que ése vaya a ser el caso.


Notas:
1 Nota de los coordinadores: Extracto de la conferencia de D. Ignacio Cirac en la Fundación Ramón Areces el 26/09/2019 donde anima/fomenta a los jóvenes a ser científicos, y no solo a los físicos, en multitud de disciplinas que terminarán teniendo importancia en el desarrollo de la computación cuántica: https://youtu.be/n9YLhLb_wl0
2 La ley de Moore es una ley empírica, formulada en 1965 por Gordon Moore, cofundador de Intel. Afirma que el poder computacional de los ordenadores desarrollados por la humanidad se duplica aproximadamente cada dos años; es decir, crece exponencialmente.


Diego García-Martín.
Estudiante de doctorado en computación cuántica en el Barcelona Supercomputing Center y el Instituto de Física Teórica UAM-CSIC.


Doctor 21/11/2022. Fuente: IFT





No hay comentarios:

Publicar un comentario