2020, la odisea cuántica

27 09 2009
a

En 2020 la información no tendrá que recorrer distancia alguna para llegar del emisor al receptor porque los ordenadores se basarán en la mecánica cuántica, que describe aquellos estados de la materia en los que las partículas se comportan como si no existiera el espacio. Por Pedro J. Salas Peralta y Angel L. Sanz Sáenz.

El ordenador ha acompañado al hombre a lo largo de la historia. Las máquinas de cálculo se han ido complicando a la vez que se hacían más versátiles, desde el ábaco pasando por las calculadoras de Pascal hasta llegar al primer ordenador el “Electronic Numerical Integrator and Computer” o ENIAC, construido en la Universidad de Pensilvania para los Balistic Research Laboratories, hacia 1946. El ENIAC constaba de 17.468 tubos de vacío, pesaba 27.000 kilos, ocupaba toda una habitación de 460 m3 y realizaba 5.000 operaciones por segundo.
A medida que los ordenadores aumentan su velocidad de funcionamiento, su tamaño disminuye. La miniaturización ha llevado de los relés, válvulas y transistores hasta los actuales circuitos integrados…, pero ¿dónde está el límite? Según la primera ley de Moore, “el número de transistores que se pueden introducir en un chip, se incrementa de forma exponencial (cada 3.4 años, este número se multiplica por cuatro)”. Parece que el próximo nivel será el molecular. A este nivel no sólo hay que tener en cuenta la Mecánica Cuántica (MC) para conseguir que los dispositivos funcionen correctamente, sino que la MC participa activamente en el comportamiento global.

Ordenadores clásicos

La teoría de la computación moderna nace de un problema planteado por David Hilbert en 1900. Turing se enfrentó a este desafío e introdujo el concepto de Máquina de Turing (MT) como herramienta para estudiar la computación desde dos puntos de vista básicos:
a) Posibilidad de computar ciertas funciones, estableciendo que “cualquier función que sea computable, se puede computar mediante una máquina de Turing constituida por un dispositivo físico razonable”.
b) Eficiencia: La eficiencia se establece clasificando los algoritmos en determinadas Clases de Complejidad, en función de cómo escalan los recursos de un cálculo con el tamaño de los datos. Durante mucho tiempo se creyó que este tipo de clasificación no tenía ninguna relación con el tratamiento físico de la información, por lo que se podía estudiar completamente la teoría de ordenadores sin referencia a su implementación física. La situación había de cambiar con la computación cuántica.

Limitaciones del proceso de cómputo

Hacia el inicio de la década de los 60, Rolf Landauer comenzó a preguntarse si las leyes físicas imponían limitaciones al proceso de cómputo. En concreto se preguntaba sobre el origen del calor disipado por los ordenadores, y si este calor era algo inherente a las leyes de la física o se debía a la falta de eficiencia de la tecnología disponible. La pregunta era: ¿será posible idear una puerta que funcione de forma reversible, y que por tanto no disipe energía? La respuesta no estaba clara, ya que la lógica clásica estaba basada en puertas no reversibles. La idea de computación clásica reversible la introdujo matemáticamente Yves Lecerf en 1963 y la desarrolló Bennett en 1973, demostrando que, desde un punto de vista teórico, es posible la existencia de una máquina de Turing (y por tanto un ordenador) reversible. Este hecho nos indica que, teóricamente, no hay una cantidad mínima de energía que necesariamente haya que poner en juego para efectuar un cómputo concreto.

Computación y física

La teoría clásica de la computación no hacía referencia a la física del dispositivo. Se suponía que los fundamentos de tal teoría eran independientes de la realización física de los mismos. Hubieron de pasar 20 años hasta que Deutsch, Feynman y otros pusieran de manifiesto que esta idea es falsa, mostrando la conexión entre las leyes de la física y la información, y en concreto con la computación. A partir de aquí se produjo una de tantas uniones entre ideas distintas que han aparecido en la física: computación y MC. De esta unión surgió la Computación Cuántica.
De forma general se puede decir que la computación es la creación de conjuntos de símbolos (resultados) a partir de ciertos conjuntos de símbolos iniciales (o datos). Si interpretamos a los símbolos como objetos físicos, la computación correspondería a la evolución de sus estados. Si la evolución es cuántica, tenemos la computación cuántica.
Dado que la MC permitía nuevas formas de evolución a través de estados que son superposición de otros, las MT cuánticas eran distintas de las clásicas. La posibilidad de que una máquina de Turing cuántica pudiera hacer algo genuinamente cuántico fue propuesto por Richard Feynman en 1982.
Mostró que ninguna máquina de Turing clásica podía simular algunos comportamientos cuánticos sin incurrir en una ralentización exponencial. Sin embargo, una máquina de Turing cuántica sí podía hacer una simulación efectiva. No es difícil comprender por qué, si notamos que la dimensión del espacio de Hilbert accesible al sistema que evoluciona, aumenta de forma exponencial (2 elevado a n, en una representación binaria) con el número de amplitudes (n) a manejar y guardar. Feynman describió un “simulador cuántico universal” que simulaba el comportamiento de cualquier sistema físico finito. Desafortunadamente, Feynman no diseñó este simulador y su idea tuvo poco impacto en su época.
El siguiente paso se dio en 1985, cuando David Deutsch describió la primera máquina de Turing cuántica (MTC) que establecía la posibilidad de construir un ordenador universal que puede programarse para simular cualquier sistema físico finito operando con unos recursos limitados.
Estas MT cuánticas usan una representación de la información algo distinta de la clásica. El fragmento de información clásica fundamental es el bit, entendiéndose como tal un sistema material que puede adoptar uno de los dos posibles estados distintos que representan dos valores lógicos (0 y 1 o sí y no, verdadero y falso, etc.).
Si la codificación de la información es cuántica, y se hace a través de dos estados de un sistema microscópico, que por analogía al caso clásico podemos representar por los kets cuánticos (0) y (1), ahora también es posible un estado del sistema que sea una superposición coherente del tipo Q = a (0) + b (1), denominado quantum-bit o qubit.
Un átomo en una de tales superposiciones estaría en “ambos estados a la vez”, no siendo ni un 0 ni un 1 clásicos. La existencia de estos estados “esquizofrénicos” nos indica que el ordenador cuántico tiene que poder tratarlos: generarlos y trabajar con ellos. Notemos que debido a que no existen restricciones acerca de los posibles valores de estos coeficientes a y b (salvo quizás la condición de normalización), en un solo qubit podríamos codificar una cantidad de información “infinita”.
Esto no representa un problema conceptual, pues esta información no está accesible, ya que para extraerla necesitaríamos medir sobre el qubit, lo que implicaría su colapso (Postulado de Proyección) en uno de los dos estados (0) ó (1), perdiéndose la información acerca de los coeficientes. Esto causa una complicación adicional en el planteamiento de la extracción de la información en los algoritmos cuánticos, que habrá que resolver.

Tres características cuánticas

Existen tres características cuánticas que son las que proporcionan la potencia de los ordenadores cuánticos:

1.- Estados “entangled”: La posibilidad de usar estados “entangled” (que se podría traducir por “embrollados”) no es una característica de la MC, sino que (como diría el propio Schrödinger) es la característica de la MC. Supongamos que un sistema S está formado por dos subsistemas A y B. Si su estado (S) no se puede expresar como un producto tensorial del tipo (A)x(B), se trata de un estado embrollado de los subsistemas A y B, existiendo entre ellos correlaciones típicamente cuánticas no-locales, tal como pusieron de manifiesto Einstein, Podolsky y Rosen (EPR) en 1935.
2.- Paralelismo: La MC es una teoría lineal y existe la posibilidad de usar superposiciones coherentes de qubits para realizar los cálculos. Por ejemplo, desde un punto de vista clásico, si necesitamos evaluar los valores de una función f(x) para los 4 valores desde x = 0,..,3, haríamos 4 cálculos, obteniendo f(0),…,f(3). En un ordenador cuántico, podríamos preparar una superposición de todos los registros clásicos representando los valores de x, en un solo estado y realizar el cálculo aplicándole una sola puerta cuántica, transformando el estado en una superposición de todos los resultados de los valores de f(x).
Ahora nos encontramos con el problema de extraer la información codificada en el estado final. Si medimos sobre este estado, obtendremos cualquiera de los resultados posibles con la misma probabilidad (1/4), colapsando el estado y obteniendo un solo resultado.
Sin embargo, existen otras formas más sutiles de obtener información usando alguna propiedad global de los valores de f(x), por ejemplo su periodicidad. En este sentido podemos decir que la potencia de la computación cuántica no reside en la rapidez de aplicación de las puertas cuánticas, sino más bien en que debe de usarse un número exponencialmente menor que las necesarias en el caso clásico, para realizar la misma tarea.
Entonces ¿cuál es la diferencia entre un ordenador cuántico y uno clásico con muchos procesadores actuando en paralelo? La diferencia es que existen tareas que ningún ordenador clásico puede hacer, concretamente generar, manejar y calcular usando superposiciones de bits, lo que abre múltiples posibilidades.
3.- Interferencia. Dos ondas clásicas pueden superponerse para producir un diagrama de interferencia, mostrando máximos y mínimos. De igual forma en un ordenador cuántico es posible producir una interferencia controlada con el objetivo de que los resultados buscados aparezcan como los máximos de la interferencia, mientras que los no deseados se anulen (o minimicen) por interferencia destructiva.

Software cuántico

Dado que el tratamiento de la información cuántica es notablemente distinto del de la clásica, necesitamos algunas herramientas para construir los programas cuánticos. Se necesitan tres ingredientes básicos en el software cuántico. En primer lugar un conjunto apropiado de puertas.
Análogamente a los ordenadores clásicos, podemos representar la evolución de los cuánticos mediante circuitos formados por puertas cuánticas que realizan las operaciones sobre los qubits. En 1989 Deutsch describió los circuitos cuánticos como formados por puertas cuánticas conectadas mediante hilos, demostrando que existía una puerta cuántica universal y reversible análoga a la de Toffoli clásica.
Una forma de obtener puertas cuánticas es la cuantización de las puertas clásicas, que pasa por reinterpretar los bits como qubits. El propósito de los hilos es transmitir estados cuánticos de una a otra puerta y su forma concreta dependerá de las realizaciones tecnológicas concretas de los qubits.
Se puede demostrar que el conjunto de puertas cuánticas que afectan a un sólo qubit, conjuntamente con las puertas llamadas control-not (que afectan a dos qubits), forman un conjunto universal con las que se puede construir cualquier programa cuántico.
El segundo ingrediente para el software cuántico son los algoritmos. A pesar del esfuerzo que se ha dedicado a la obtención de algoritmos que aprovechen el comportamiento cuántico, en la actualidad, su número es reducido.
Ya se ha mencionado que aunque mediante superposiciones apropiadas, es posible manejar un número exponencial de estados, eso no supone que esta información esté disponible. Para acceder a esa información debemos medir sobre el estado colapsándolo, y la información se pierde casi en su totalidad. Para aprovechar los aspectos cuánticos, debemos combinar la posibilidad del paralelismo cuántico con la interferencia.
En 1994 Peter Shor puso a punto el primer algoritmo de interés práctico, ya que logró plantear un algoritmo eficaz para la factorización usando los recursos de un ordenador cuántico. La importancia de esta posibilidad radica en que la dificultad de la factorización está en la base de los códigos criptográficos actuales muy usados en todo tipo de transacciones bancarias o en secretos militares.
Romper estos códigos significaría acceder a una gran cantidad de información, al mismo tiempo que destrozar estas claves. Hughes ha analizado las previsiones de factorización de números, comparando los resultados de un conjunto de 1.000 estaciones de trabajo con los de un ordenador cuántico. Por ejemplo para factorizar un número de 1.024 bits se tardarían unos 100.000 años (en el año 2006) mientras que en un ordenador cuántico se tardarían ¡4.5 minutos!
El tercer ingrediente del software cuántico es disponer de métodos apropiados para controlar los posibles errores. Quizás es éste uno de los mayores problemas a la hora de construir un ordenador. Estos errores provienen de la inexorable interacción del ordenador con su entorno, proceso denominado decoherencia.
Durante algún tiempo se pensó que no podían existir métodos para el control de errores cuánticos, debido a varios hechos: a que los errores cuánticos son analógicos; no se pueden usar métodos típicamente clásicos en su corrección y a que cualquier medida conduce a una pérdida irreversible de información.
Afortunadamente, dos contribuciones en 1995 (ahora ya clásicas) debidas a Shor y a Steane, han cambiado este panorama. Estos autores han mostrado cómo es posible contener los errores mediante códigos cuánticos correctores de errores. Estos códigos, detectan y corrigen estos errores, usando sofisticadas técnicas cuánticas.

Hardware cuántico

Uno de los desafíos actuales más importantes es la construcción de un hardware cuántico apropiado, siendo el cuello de botella de los ordenadores cuánticos. Debido a los problemas de la creación, control y corrección de errores en las superposiciones coherentes de estados cuánticos, la tecnología actual que implementa puertas y circuitos cuánticos, está sólo en su infancia.
A pesar de todo se han construido puertas experimentales control-not de dos qubits, y se han usado algunas técnicas simples de corrección de errores. Para construir un ordenador cuántico se necesita solventar varios problemas: elección de los sistemas físicos que representan los qubits, control de las puertas cuánticas, control de los errores y posibilidad de escalar el ordenador para tratar problemas de distinto tamaño. Con estos requerimientos, se están estudiando diferentes sistemas físicos que se pueden clasificar dependiendo de sus características o de su interacción.
Entre los más prometedores están los siguientes:
1.- Dipolos magnéticos en moléculas, controlados mediante técnicas de resonancia magnética nuclear. Con estos sistemas se han logrado los mayores progresos desde el punto de vista experimental. Se ha implementado el algoritmo de Deutsch (por Jones y Mosca en 1998) y un algoritmo de búsqueda (por Chuang et al en 1998). Cory et al (1998), ha podido implementar un método para corregir errores de fase debidos a fluctuaciones de un campo magnético externo, usando como sistemas de tres qubits la alanina (tres Carbonos-13) y el tricloroetileno (un H y dos Carbonos-13). D. Wei et al. en el 2001, han implementado puertas control-not y control-raizcuadrada-not, usando 7 qubits representados por los 4 carbonos y 3 hidrógenos del ácido crotónico.
2.- Sistemas de iones ultrafrios atrapados en trampas iónicas y controlados mediante haces láser. Mediante esta técnica se construyó la primera puerta CNOT cuántica en el National Institute of Standards and Technology (Colorado). En los experimentos se usaron dos niveles hiperfinos del estado fundamental del ion Be+ como qubit imagen, mientras que los dos primeros modos de vibración (fonones) simulan el qubit de control. Ambos qubits de la puerta CNOT están en distintos grados de libertad del mismo sistema. Monroe et al (1995) obtienen un funcionamiento correcto de la puerta en un 90%. Cirac (científico español) y Zoller propusieron en 1995 el uso trampas de iones lineales lo cual eliminaría el problema de escala. Hasta el momento y a pesar del gran esfuerzo dedicado, no se ha implementado ninguna puerta CNOT mediante estos sistemas, aunque existen trampas (Nägerl et al 1998) para controlar conjuntos de iones como los de Ca+.
3.- Polarización de los fotones, o bien algún tipo de proceso que permita introducir fases globales. Existen dos métodos principales: el método de los “qubits voladores” del grupo de Kimble en Caltech (Turchette et al 1995), y el montaje de Haroche (Domokos et al 1995) de la École Normale Supérieure de París.
4.- Sistemas en fase sólida, basados en las características de coherencia macroscópica de los pares de Cooper a través de una heterounión Josephson para implementar una lógica cuántica.
Aunque se han construido puertas experimentales CNOT que involucran dos qubits, y se han usado algunas técnicas simples de corrección de errores, no se espera que existan ordenadores cuánticos de forma inminente que hagan tareas de cierta importancia.

Teleportación cuántica y códigos densos

Existen otros comportamientos que están directamente relacionados con el tratamiento cuántico de la información, y con los ordenadores cuánticos, concretamente la teleportación y los códigos densos. La idea de la teleportación es usar las correlaciones no locales que existen en un par de partículas “entangled” EPR (también llamado ebit) , para preparar un sistema cuántico en un estado que es una réplica exacta del de otro sistema situado a cualquier distancia del primero (en realidad el proceso no “copia” el estado, pues el estado inicial, desconocido, se destruye). Para conseguir una teleportación completa es necesario realizar una medida que distinga entre los cuatro estados de Bell de dos partículas.
La primera realización práctica de la teleportación la llevó a cabo el grupo de Anton Zeilinger en 1997 (Universidad de Innsbruck), consiguiendo la teleportación del estado de polarización de un fotón a lo largo de 1 m de distancia. Usando un montaje basado en analizadores ópticos, sólo se identificó uno de los cuatro estados de Bell y la teleportación se producía en un 25% de los casos (como máximo). A partir de aquí se han realizado multitud de experimentos relacionados con la teleportación.
En 1998 ,en Los Álamos, se consiguió una teleportación intramolecular completa. Se teleportó un estado de spin nuclear de un carbono (Carbono-13 más alejado) al hidrógeno del tricloroetileno, usando técnicas RMN. También en la Universidad de Maryland (en 2000) se realizó la teleportación del estado de polarización de un fotón, realizando una medida de Bell completa.
Bouwmeester en 1998 consiguió una teleportación del “entanglement”, para lo cual se usan dos pares EPR (1,2) y (3,4). Haciendo una medida de Bell sobre el par (2,3), se proyecta el estado de las partículas (1,4) (que no han interactuado nunca) en un estado “entangled”.
En 1998 el grupo de Kimble en Caltech teleportó variables continuas (análogas a posición y momento) usando sofisticadas técnicas que implican la generación de estados comprimidos (“squeezed”). Todas estas técnicas sólo usan estados de unas pocas partículas. En septiembre del 2001 (en la Universidad de Aarhus, Dinamarca) se ha conseguido el “entanglement” entre los spines totales de dos nubes que contienen trillones de átomos de cesio. A pesar de la corta vida de este estado, el experimento demuestra que es posible crear estos estados en sistemas macroscópicos. La teleportación al estilo “Star Trek” está aún lejos, pero estamos en el camino.
En los códigos densos se aprovecha la compartición previa de un ebit entre dos interlocutores para enviar dos bits clásicos usando sólo un qubit, que es más de lo que clásicamente se puede hacer. El esquema teórico fue propuesto por Bennett y Wiesner en 1992 y la realización práctica se consiguió en 1996 por el grupo de Zeilinger.

Conclusión

Estamos ante otra de esas revoluciones interdisciplinares que producen nuevas relaciones entre campos inicialmente casi inconexos. La teoría cuántica está alcanzando también a la información, no sólo en sus métodos de procesado, sino entrando en su propia concepción. La posibilidad de construir ordenadores cuánticos permitirá estudiar novedosas formas de tratar la información hasta ahora insospechadas, además de poner de manifiesto ciertos comportamientos cuánticos fundamentales, de momento sólo plasmados como experimentos mentales en los libros de texto. El ingenio de los investigadores y los recursos económicos puestos en juego, nos inducen a pensar que unos 20 ó 30 años se pueda disponer de un prototipo de ordenador cuántico que permita realizar alguna tarea de interés. Si la situación actual es análoga a la que existía en los años 40, cuando se construyó el primer ordenador, el futuro cercano nos depara todavía muchas sorpresas.

(*) Pedro Salas es Profesor Titular del Dpto. de Tecnologías Especiales Aplicadas a la Telecomunicación de la Universidad Politécnica de Madrid.
Angel L. Sanz Sáenz es Profesor Titular del Dpto. Física Aplicada a las Tecnologías de la Información de la misma Universidad.

Anuncios