Pagina exelentemente documentada sobre viajes en el tiempo

27 09 2009

LITERATURA, MAQUINAS, OTROS VIAJES, PREHISTORIAS, LA MENTE, CICLOS

Enlace:usuarios.iponet.es

Anuncios




Teletransportacion y viaje en el tiempo.

27 09 2009

Viajes hacia el Futuro

En los comienzos de la Física Moderna, Isaac Newton creía que el tiempo era universal, era una magnitud absoluta, es decir, es un escalar que cuya medida es idéntica para todos los observadores. En 1905, Einstein presentó la Teoría de la Relatividad Especial, donde introdujo el efecto de los gemelos. Los satélites que orbitan alrededor de la Tierra, en órbita geoestacionaria (36.000 km), lo hacen a tan elevadas velocidades (9.500 km/h) que sus relojes marcan el tiempo más despacio que los relojes que están sobre la Tierra, aumentando la diferencia horaria entre la Tierra y los satélites cuanto más tiempo pasa.

En la mecánica relativista el tiempo depende del sistema de referencia donde esté situado el observador y de su estado de movimiento, y es considerado como una dimensión más del espacio. Si un hermano estuviese en el interior de dicho satélite, cuando regresase a la tierra descubriría que su hermano ha envejecido. Realmente lo que habría pasado, aplicando la Teoría de la Relatividad, es que su tiempo ha pasado más despacio que el de su hermano en la Tierra.

El viaje en el tiempo es siempre posible hacia el futuro. De hecho, mientras estás leyendo estás líneas te encuentras inmerso en un trepidante viaje hacia el futuro, por situarte sobre la Tierra, que se encuentra en movimiento con respecto al sistema de referencia del Sol o de la Vía Láctea, o en definitiva, del universo. Este fenómeno se pone más de manifiesto a velocidades relativistas, y puede ser observado en los aceleradores de partículas, instrumentos donde partículas cargadas son aceleradas a velocidades cercanas a la de la luz (c), límite máximo de cualquier partícula según la relatividad especial, con lo que dichas partículas, de corta vida, “viven” por un tiempo mucho mayor del normal bajo nuestro sistema de referencia.

Viajes hacia el Pasado

Sin embargo, por máquina del tiempo entendemos un instrumento para moverse en el tiempo, con independencia de cual sea su sentido. El viaje hacia atrás en el tiempo, aunque no haya limitaciones por parte de las leyes físicas conocidas, plantea serias dudas debido a las paradojas causales que plantea, es decir, la información sería recibida antes de ser mandada, así la causa puede ser observada después del efecto, lo que implicaría a su vez para su consecución, la superación de la velocidad de la luz.

Científicos del “NEC Research Institute at Princeton” afirman haber logrado pulsos de luz,a una velocidad 300 veces superior a c. En Italia, otro grupo de físicos del “Italian National Research Council”afirman haber superado en un 25% la barrera de la velocidad de la luz mediante ondas microondas. Este grupo también especula sobre la posibilidad de transmitir información más rápida que la luz.

Distintos tipos de paradojas son, por ejemplo, la del hombre sin padres, es decir, si al volver atrás en el tiempo, matas a tus padres, entonces ¿cómo podrías haber nacido para matarlos en primer lugar? También está la paradoja del joven que recibe la visita de un hombre que le da el secreto de como realizar una máquina del tiempo. Con el tiempo éste descubre que quien le dio el secreto fue él mismo al hacer un viaje hacia el pasado. ¿De dónde vino la idea de la máquina del tiempo?

El físico norteamericano Kip Thorne fue el primero que a mediados de los años ochenta reflexionó en cómo podría fabricarse una máquina del tiempo, y Davies explicó más tarde cómo la tecnología del siglo XXI facilitaría este cometido. La máquina propuesta por Davies requiere una ingeniería espectacular, la de emplear un acelerador de partículas para crear un agujero de gusano, o “atajo” a través del espacio y el tiempo, lo que supondría un gasto ingente de dinero.

El físico Amos Ori del Instituto de Tecnología de Haifa en Israel ha propuesto un modelo teórico de máquina del tiempo sin la necesidad de usar materia exótica e hipotética para funcionar, como por ejemplo, “la energía negativa”. Amos Ori propone una región vacía de forma toroidal (tipo rosquilla) envuelta por una esfera de materia ordinaria. La distorsión del espacio tiempo provendría de una gran masa exterior como podría ser un agujero negro. Para ir al pasado el crononauta circularía dentro del toro retrocediendo una fracción de tiempo con cada órbita.

Teletransportacion

Cuando los científicos hablan de “teletransportación”, se refieren a la transferencia de estados cuánticos, que son propiedades físicas como la energía, el movimiento y el campo magnético del átomo. Uno de los inconvenientes que presenta la cuántica es el principio de incertidumbre de Heisenberg que establece que, a escalas microscópicas, cuanta mayor precisión se tenga en medir la posición de una partícula, menor precisión se tendrá para determinar su velocidad, y viceversa.

La idea de la teletransportación no es nueva y se remonta a 1993, cuando el físico Charles Bennet y un equipo de investigadores de IBM confirmaron que la teleportación del quantum era posible, es decir, que el estado cuántico de un objeto, es decir, su estructura más elemental, podía en teoría ser teletransportada. En realidad, de lo que se habla es de transportar su estructura, es decir, su esencia última, y no la materia del objeto, que permanece inamovible tanto en el punto de partida como de llegada.

En 2002, científicos de la Universidad Nacional de Australia consiguieron desintegrar un rayo láser y hacerlo aparecer, casi instantáneamente, un metro más lejos. Un año después, el equipo del profesor Nicolas Gisin, de la Universidad de Ginebra, consiguió transferir las propiedades de un fotón a otro fotón que estaba distante dos kilómetros.

Físicos austriacos, dirigidos por el profesor Rainer Blatt de la Universidad de Insbruck, así como el equipo de científicos del Instituto Nacional de Estándares y Tecnología (NIST) de Boulder (Colorado), lograron, en 2004, teletransportar “estados cuánticos” entre átomos de dos formas diferentes, lográndolo así, por primera vez, con partículas masivas. Esta diferencia de proceder abrió el camino a nuevas posibles variantes para conseguirlo.

En 2005, el profesor Eugene Polzik y su equipo del Instituto Niels Bohr en la Universidad de Copenhague en Dinamarca, junto con el Max-Planck Institut for Quantum Optics de Alemania, dirigido por el español Juan Ignacio Cirac Sasturain, consiguieron teletransportar un objeto atómico macroscópico (muy pequeño pero visible para el ojo humano sin microscopio), es decir, teletransportaron el estado cuántico de hasta 500 fotones a varios billones de átomos. La transmisión de información cuántica se realizó a distancias de 100 km, usando la luz como vehículo, con unos resultados en los niveles de éxito en las transmisiones de 70%.

Entrelazamiento o Entanglement

La consecución de la teletransportación se debe al entrelazamiento cuántico. Esta propiedad, predicha ya en 1935 por Einstein, Podolsky y Rosen (en lo sucesivo EPR) en su formulación de la llamada paradoja EPR, en un principio planteada por sus autores como un argumento en contra de la mecánica cuántica. Los sistemas físicos que sufren entrelazamiento cuántico son típicamente sistemas microscópicos, pues en el ámbito macroscópico esta propiedad se pierde en general debido al fenómeno de la decoherencia.

Dos fotones que nacen de una misma fuente coherente estarán entrelazados. Entonces, lo que le ocurra a uno de los dos fotones influirá de forma instantánea a lo que le ocurra al otro, aunque estén separados una distancia, dado que sus distribuciones de probabilidad están indisolublemente ligadas con la dinámica de ambas. Este hecho, que parece burlar el sentido común, ha sido comprobado experimentalmente, e incluso se ha conseguido el entrelazamiento triple, en el cual se entrelazan tres fotones.

Lo que hacen en el experimento estos fotones gemelos es jugar el papel de terminales para la transmisión. Se coloca la partícula que se quiere teletransportar junto a uno de ellos sufriendo una serie de efectos en este encuentro cuántico, que son medidos por una serie de instrumentos. Estos cambios son registrados por el fotón gemelo, induciéndolos en la partícula que se encuentre junto a él, convirtiéndose en una copia idéntica de la primera partícula así verificada por los instrumentos de medición.

Ordenadores Cuánticos

Los resultados de los experimentos en teletransportación suponen un gran avance en el campo de la computación cuántica, al representar un gran progreso en la búsqueda de computadoras ultra-rápidas que podrán transmitir información a la velocidad de la luz. En las computadoras del futuro, esta información conformaría los qubits, la versión cuántica de los bits digitales (1 y 0) que se utilizan en la actualidad. La importancia de sustituir al fotón por el electrón como medio de transmisión de la información radica en la velocidad, que hará que las computadoras cuánticas sean entre un millón y mil millones de veces más rápidas que la mejor computadora disponible en la actualidad.

Para construir materialmente una computadora cuántica se necesitarían millones de átomos. Cuantos más átomos uno quiere controlar, más difícil se hace mantener los estados, ya que la interacción con el medio ambiente destruye el entrelazamiento e impide que la computadora funcione. Esto hace que la teletransportación de personas todavía pertenezca a la ciencia ficción…

Fuente: explayandose.zoomblog.com





Eslabón perdido en la Vía Láctea

27 09 2009

Un grupo de científicos coordinados por el CSIC considera que el cuerpo celeste que emitió 40 erupciones visibles durante tres días podría ser un nuevo tipo de púlsar o estrella de neutrones.

Si se confirma la propuesta del estudio, publicado en la revista Nature, habría que clasificar al astro SWIFT J195509+261406 como un magnetar, una estrella de neutrones joven con un campo magnético muy intenso, en un estado de evolución que no había sido observado hasta el momento.

Subtitulos en Español





Boriska – El niño extraterreste

27 09 2009

Enlaces realcionados a Boriska :
www.bibliotecapleyades.net

Video entrevista en Ingles:
www.youtube.com





Experimento Albert Einstein Teletransportacion invisibilidad

27 09 2009

Asombroso experimento realizado gracias a los conocimientos de Albert Einstein en el que se consigue la teletransportacion y la invisibilidad de un barco de guerra… supuso la muerte de todos los tripulantes de la embarcacion..





2020, la odisea cuántica

27 09 2009
a

En 2020 la información no tendrá que recorrer distancia alguna para llegar del emisor al receptor porque los ordenadores se basarán en la mecánica cuántica, que describe aquellos estados de la materia en los que las partículas se comportan como si no existiera el espacio. Por Pedro J. Salas Peralta y Angel L. Sanz Sáenz.

El ordenador ha acompañado al hombre a lo largo de la historia. Las máquinas de cálculo se han ido complicando a la vez que se hacían más versátiles, desde el ábaco pasando por las calculadoras de Pascal hasta llegar al primer ordenador el “Electronic Numerical Integrator and Computer” o ENIAC, construido en la Universidad de Pensilvania para los Balistic Research Laboratories, hacia 1946. El ENIAC constaba de 17.468 tubos de vacío, pesaba 27.000 kilos, ocupaba toda una habitación de 460 m3 y realizaba 5.000 operaciones por segundo.
A medida que los ordenadores aumentan su velocidad de funcionamiento, su tamaño disminuye. La miniaturización ha llevado de los relés, válvulas y transistores hasta los actuales circuitos integrados…, pero ¿dónde está el límite? Según la primera ley de Moore, “el número de transistores que se pueden introducir en un chip, se incrementa de forma exponencial (cada 3.4 años, este número se multiplica por cuatro)”. Parece que el próximo nivel será el molecular. A este nivel no sólo hay que tener en cuenta la Mecánica Cuántica (MC) para conseguir que los dispositivos funcionen correctamente, sino que la MC participa activamente en el comportamiento global.

Ordenadores clásicos

La teoría de la computación moderna nace de un problema planteado por David Hilbert en 1900. Turing se enfrentó a este desafío e introdujo el concepto de Máquina de Turing (MT) como herramienta para estudiar la computación desde dos puntos de vista básicos:
a) Posibilidad de computar ciertas funciones, estableciendo que “cualquier función que sea computable, se puede computar mediante una máquina de Turing constituida por un dispositivo físico razonable”.
b) Eficiencia: La eficiencia se establece clasificando los algoritmos en determinadas Clases de Complejidad, en función de cómo escalan los recursos de un cálculo con el tamaño de los datos. Durante mucho tiempo se creyó que este tipo de clasificación no tenía ninguna relación con el tratamiento físico de la información, por lo que se podía estudiar completamente la teoría de ordenadores sin referencia a su implementación física. La situación había de cambiar con la computación cuántica.

Limitaciones del proceso de cómputo

Hacia el inicio de la década de los 60, Rolf Landauer comenzó a preguntarse si las leyes físicas imponían limitaciones al proceso de cómputo. En concreto se preguntaba sobre el origen del calor disipado por los ordenadores, y si este calor era algo inherente a las leyes de la física o se debía a la falta de eficiencia de la tecnología disponible. La pregunta era: ¿será posible idear una puerta que funcione de forma reversible, y que por tanto no disipe energía? La respuesta no estaba clara, ya que la lógica clásica estaba basada en puertas no reversibles. La idea de computación clásica reversible la introdujo matemáticamente Yves Lecerf en 1963 y la desarrolló Bennett en 1973, demostrando que, desde un punto de vista teórico, es posible la existencia de una máquina de Turing (y por tanto un ordenador) reversible. Este hecho nos indica que, teóricamente, no hay una cantidad mínima de energía que necesariamente haya que poner en juego para efectuar un cómputo concreto.

Computación y física

La teoría clásica de la computación no hacía referencia a la física del dispositivo. Se suponía que los fundamentos de tal teoría eran independientes de la realización física de los mismos. Hubieron de pasar 20 años hasta que Deutsch, Feynman y otros pusieran de manifiesto que esta idea es falsa, mostrando la conexión entre las leyes de la física y la información, y en concreto con la computación. A partir de aquí se produjo una de tantas uniones entre ideas distintas que han aparecido en la física: computación y MC. De esta unión surgió la Computación Cuántica.
De forma general se puede decir que la computación es la creación de conjuntos de símbolos (resultados) a partir de ciertos conjuntos de símbolos iniciales (o datos). Si interpretamos a los símbolos como objetos físicos, la computación correspondería a la evolución de sus estados. Si la evolución es cuántica, tenemos la computación cuántica.
Dado que la MC permitía nuevas formas de evolución a través de estados que son superposición de otros, las MT cuánticas eran distintas de las clásicas. La posibilidad de que una máquina de Turing cuántica pudiera hacer algo genuinamente cuántico fue propuesto por Richard Feynman en 1982.
Mostró que ninguna máquina de Turing clásica podía simular algunos comportamientos cuánticos sin incurrir en una ralentización exponencial. Sin embargo, una máquina de Turing cuántica sí podía hacer una simulación efectiva. No es difícil comprender por qué, si notamos que la dimensión del espacio de Hilbert accesible al sistema que evoluciona, aumenta de forma exponencial (2 elevado a n, en una representación binaria) con el número de amplitudes (n) a manejar y guardar. Feynman describió un “simulador cuántico universal” que simulaba el comportamiento de cualquier sistema físico finito. Desafortunadamente, Feynman no diseñó este simulador y su idea tuvo poco impacto en su época.
El siguiente paso se dio en 1985, cuando David Deutsch describió la primera máquina de Turing cuántica (MTC) que establecía la posibilidad de construir un ordenador universal que puede programarse para simular cualquier sistema físico finito operando con unos recursos limitados.
Estas MT cuánticas usan una representación de la información algo distinta de la clásica. El fragmento de información clásica fundamental es el bit, entendiéndose como tal un sistema material que puede adoptar uno de los dos posibles estados distintos que representan dos valores lógicos (0 y 1 o sí y no, verdadero y falso, etc.).
Si la codificación de la información es cuántica, y se hace a través de dos estados de un sistema microscópico, que por analogía al caso clásico podemos representar por los kets cuánticos (0) y (1), ahora también es posible un estado del sistema que sea una superposición coherente del tipo Q = a (0) + b (1), denominado quantum-bit o qubit.
Un átomo en una de tales superposiciones estaría en “ambos estados a la vez”, no siendo ni un 0 ni un 1 clásicos. La existencia de estos estados “esquizofrénicos” nos indica que el ordenador cuántico tiene que poder tratarlos: generarlos y trabajar con ellos. Notemos que debido a que no existen restricciones acerca de los posibles valores de estos coeficientes a y b (salvo quizás la condición de normalización), en un solo qubit podríamos codificar una cantidad de información “infinita”.
Esto no representa un problema conceptual, pues esta información no está accesible, ya que para extraerla necesitaríamos medir sobre el qubit, lo que implicaría su colapso (Postulado de Proyección) en uno de los dos estados (0) ó (1), perdiéndose la información acerca de los coeficientes. Esto causa una complicación adicional en el planteamiento de la extracción de la información en los algoritmos cuánticos, que habrá que resolver.

Tres características cuánticas

Existen tres características cuánticas que son las que proporcionan la potencia de los ordenadores cuánticos:

1.- Estados “entangled”: La posibilidad de usar estados “entangled” (que se podría traducir por “embrollados”) no es una característica de la MC, sino que (como diría el propio Schrödinger) es la característica de la MC. Supongamos que un sistema S está formado por dos subsistemas A y B. Si su estado (S) no se puede expresar como un producto tensorial del tipo (A)x(B), se trata de un estado embrollado de los subsistemas A y B, existiendo entre ellos correlaciones típicamente cuánticas no-locales, tal como pusieron de manifiesto Einstein, Podolsky y Rosen (EPR) en 1935.
2.- Paralelismo: La MC es una teoría lineal y existe la posibilidad de usar superposiciones coherentes de qubits para realizar los cálculos. Por ejemplo, desde un punto de vista clásico, si necesitamos evaluar los valores de una función f(x) para los 4 valores desde x = 0,..,3, haríamos 4 cálculos, obteniendo f(0),…,f(3). En un ordenador cuántico, podríamos preparar una superposición de todos los registros clásicos representando los valores de x, en un solo estado y realizar el cálculo aplicándole una sola puerta cuántica, transformando el estado en una superposición de todos los resultados de los valores de f(x).
Ahora nos encontramos con el problema de extraer la información codificada en el estado final. Si medimos sobre este estado, obtendremos cualquiera de los resultados posibles con la misma probabilidad (1/4), colapsando el estado y obteniendo un solo resultado.
Sin embargo, existen otras formas más sutiles de obtener información usando alguna propiedad global de los valores de f(x), por ejemplo su periodicidad. En este sentido podemos decir que la potencia de la computación cuántica no reside en la rapidez de aplicación de las puertas cuánticas, sino más bien en que debe de usarse un número exponencialmente menor que las necesarias en el caso clásico, para realizar la misma tarea.
Entonces ¿cuál es la diferencia entre un ordenador cuántico y uno clásico con muchos procesadores actuando en paralelo? La diferencia es que existen tareas que ningún ordenador clásico puede hacer, concretamente generar, manejar y calcular usando superposiciones de bits, lo que abre múltiples posibilidades.
3.- Interferencia. Dos ondas clásicas pueden superponerse para producir un diagrama de interferencia, mostrando máximos y mínimos. De igual forma en un ordenador cuántico es posible producir una interferencia controlada con el objetivo de que los resultados buscados aparezcan como los máximos de la interferencia, mientras que los no deseados se anulen (o minimicen) por interferencia destructiva.

Software cuántico

Dado que el tratamiento de la información cuántica es notablemente distinto del de la clásica, necesitamos algunas herramientas para construir los programas cuánticos. Se necesitan tres ingredientes básicos en el software cuántico. En primer lugar un conjunto apropiado de puertas.
Análogamente a los ordenadores clásicos, podemos representar la evolución de los cuánticos mediante circuitos formados por puertas cuánticas que realizan las operaciones sobre los qubits. En 1989 Deutsch describió los circuitos cuánticos como formados por puertas cuánticas conectadas mediante hilos, demostrando que existía una puerta cuántica universal y reversible análoga a la de Toffoli clásica.
Una forma de obtener puertas cuánticas es la cuantización de las puertas clásicas, que pasa por reinterpretar los bits como qubits. El propósito de los hilos es transmitir estados cuánticos de una a otra puerta y su forma concreta dependerá de las realizaciones tecnológicas concretas de los qubits.
Se puede demostrar que el conjunto de puertas cuánticas que afectan a un sólo qubit, conjuntamente con las puertas llamadas control-not (que afectan a dos qubits), forman un conjunto universal con las que se puede construir cualquier programa cuántico.
El segundo ingrediente para el software cuántico son los algoritmos. A pesar del esfuerzo que se ha dedicado a la obtención de algoritmos que aprovechen el comportamiento cuántico, en la actualidad, su número es reducido.
Ya se ha mencionado que aunque mediante superposiciones apropiadas, es posible manejar un número exponencial de estados, eso no supone que esta información esté disponible. Para acceder a esa información debemos medir sobre el estado colapsándolo, y la información se pierde casi en su totalidad. Para aprovechar los aspectos cuánticos, debemos combinar la posibilidad del paralelismo cuántico con la interferencia.
En 1994 Peter Shor puso a punto el primer algoritmo de interés práctico, ya que logró plantear un algoritmo eficaz para la factorización usando los recursos de un ordenador cuántico. La importancia de esta posibilidad radica en que la dificultad de la factorización está en la base de los códigos criptográficos actuales muy usados en todo tipo de transacciones bancarias o en secretos militares.
Romper estos códigos significaría acceder a una gran cantidad de información, al mismo tiempo que destrozar estas claves. Hughes ha analizado las previsiones de factorización de números, comparando los resultados de un conjunto de 1.000 estaciones de trabajo con los de un ordenador cuántico. Por ejemplo para factorizar un número de 1.024 bits se tardarían unos 100.000 años (en el año 2006) mientras que en un ordenador cuántico se tardarían ¡4.5 minutos!
El tercer ingrediente del software cuántico es disponer de métodos apropiados para controlar los posibles errores. Quizás es éste uno de los mayores problemas a la hora de construir un ordenador. Estos errores provienen de la inexorable interacción del ordenador con su entorno, proceso denominado decoherencia.
Durante algún tiempo se pensó que no podían existir métodos para el control de errores cuánticos, debido a varios hechos: a que los errores cuánticos son analógicos; no se pueden usar métodos típicamente clásicos en su corrección y a que cualquier medida conduce a una pérdida irreversible de información.
Afortunadamente, dos contribuciones en 1995 (ahora ya clásicas) debidas a Shor y a Steane, han cambiado este panorama. Estos autores han mostrado cómo es posible contener los errores mediante códigos cuánticos correctores de errores. Estos códigos, detectan y corrigen estos errores, usando sofisticadas técnicas cuánticas.

Hardware cuántico

Uno de los desafíos actuales más importantes es la construcción de un hardware cuántico apropiado, siendo el cuello de botella de los ordenadores cuánticos. Debido a los problemas de la creación, control y corrección de errores en las superposiciones coherentes de estados cuánticos, la tecnología actual que implementa puertas y circuitos cuánticos, está sólo en su infancia.
A pesar de todo se han construido puertas experimentales control-not de dos qubits, y se han usado algunas técnicas simples de corrección de errores. Para construir un ordenador cuántico se necesita solventar varios problemas: elección de los sistemas físicos que representan los qubits, control de las puertas cuánticas, control de los errores y posibilidad de escalar el ordenador para tratar problemas de distinto tamaño. Con estos requerimientos, se están estudiando diferentes sistemas físicos que se pueden clasificar dependiendo de sus características o de su interacción.
Entre los más prometedores están los siguientes:
1.- Dipolos magnéticos en moléculas, controlados mediante técnicas de resonancia magnética nuclear. Con estos sistemas se han logrado los mayores progresos desde el punto de vista experimental. Se ha implementado el algoritmo de Deutsch (por Jones y Mosca en 1998) y un algoritmo de búsqueda (por Chuang et al en 1998). Cory et al (1998), ha podido implementar un método para corregir errores de fase debidos a fluctuaciones de un campo magnético externo, usando como sistemas de tres qubits la alanina (tres Carbonos-13) y el tricloroetileno (un H y dos Carbonos-13). D. Wei et al. en el 2001, han implementado puertas control-not y control-raizcuadrada-not, usando 7 qubits representados por los 4 carbonos y 3 hidrógenos del ácido crotónico.
2.- Sistemas de iones ultrafrios atrapados en trampas iónicas y controlados mediante haces láser. Mediante esta técnica se construyó la primera puerta CNOT cuántica en el National Institute of Standards and Technology (Colorado). En los experimentos se usaron dos niveles hiperfinos del estado fundamental del ion Be+ como qubit imagen, mientras que los dos primeros modos de vibración (fonones) simulan el qubit de control. Ambos qubits de la puerta CNOT están en distintos grados de libertad del mismo sistema. Monroe et al (1995) obtienen un funcionamiento correcto de la puerta en un 90%. Cirac (científico español) y Zoller propusieron en 1995 el uso trampas de iones lineales lo cual eliminaría el problema de escala. Hasta el momento y a pesar del gran esfuerzo dedicado, no se ha implementado ninguna puerta CNOT mediante estos sistemas, aunque existen trampas (Nägerl et al 1998) para controlar conjuntos de iones como los de Ca+.
3.- Polarización de los fotones, o bien algún tipo de proceso que permita introducir fases globales. Existen dos métodos principales: el método de los “qubits voladores” del grupo de Kimble en Caltech (Turchette et al 1995), y el montaje de Haroche (Domokos et al 1995) de la École Normale Supérieure de París.
4.- Sistemas en fase sólida, basados en las características de coherencia macroscópica de los pares de Cooper a través de una heterounión Josephson para implementar una lógica cuántica.
Aunque se han construido puertas experimentales CNOT que involucran dos qubits, y se han usado algunas técnicas simples de corrección de errores, no se espera que existan ordenadores cuánticos de forma inminente que hagan tareas de cierta importancia.

Teleportación cuántica y códigos densos

Existen otros comportamientos que están directamente relacionados con el tratamiento cuántico de la información, y con los ordenadores cuánticos, concretamente la teleportación y los códigos densos. La idea de la teleportación es usar las correlaciones no locales que existen en un par de partículas “entangled” EPR (también llamado ebit) , para preparar un sistema cuántico en un estado que es una réplica exacta del de otro sistema situado a cualquier distancia del primero (en realidad el proceso no “copia” el estado, pues el estado inicial, desconocido, se destruye). Para conseguir una teleportación completa es necesario realizar una medida que distinga entre los cuatro estados de Bell de dos partículas.
La primera realización práctica de la teleportación la llevó a cabo el grupo de Anton Zeilinger en 1997 (Universidad de Innsbruck), consiguiendo la teleportación del estado de polarización de un fotón a lo largo de 1 m de distancia. Usando un montaje basado en analizadores ópticos, sólo se identificó uno de los cuatro estados de Bell y la teleportación se producía en un 25% de los casos (como máximo). A partir de aquí se han realizado multitud de experimentos relacionados con la teleportación.
En 1998 ,en Los Álamos, se consiguió una teleportación intramolecular completa. Se teleportó un estado de spin nuclear de un carbono (Carbono-13 más alejado) al hidrógeno del tricloroetileno, usando técnicas RMN. También en la Universidad de Maryland (en 2000) se realizó la teleportación del estado de polarización de un fotón, realizando una medida de Bell completa.
Bouwmeester en 1998 consiguió una teleportación del “entanglement”, para lo cual se usan dos pares EPR (1,2) y (3,4). Haciendo una medida de Bell sobre el par (2,3), se proyecta el estado de las partículas (1,4) (que no han interactuado nunca) en un estado “entangled”.
En 1998 el grupo de Kimble en Caltech teleportó variables continuas (análogas a posición y momento) usando sofisticadas técnicas que implican la generación de estados comprimidos (“squeezed”). Todas estas técnicas sólo usan estados de unas pocas partículas. En septiembre del 2001 (en la Universidad de Aarhus, Dinamarca) se ha conseguido el “entanglement” entre los spines totales de dos nubes que contienen trillones de átomos de cesio. A pesar de la corta vida de este estado, el experimento demuestra que es posible crear estos estados en sistemas macroscópicos. La teleportación al estilo “Star Trek” está aún lejos, pero estamos en el camino.
En los códigos densos se aprovecha la compartición previa de un ebit entre dos interlocutores para enviar dos bits clásicos usando sólo un qubit, que es más de lo que clásicamente se puede hacer. El esquema teórico fue propuesto por Bennett y Wiesner en 1992 y la realización práctica se consiguió en 1996 por el grupo de Zeilinger.

Conclusión

Estamos ante otra de esas revoluciones interdisciplinares que producen nuevas relaciones entre campos inicialmente casi inconexos. La teoría cuántica está alcanzando también a la información, no sólo en sus métodos de procesado, sino entrando en su propia concepción. La posibilidad de construir ordenadores cuánticos permitirá estudiar novedosas formas de tratar la información hasta ahora insospechadas, además de poner de manifiesto ciertos comportamientos cuánticos fundamentales, de momento sólo plasmados como experimentos mentales en los libros de texto. El ingenio de los investigadores y los recursos económicos puestos en juego, nos inducen a pensar que unos 20 ó 30 años se pueda disponer de un prototipo de ordenador cuántico que permita realizar alguna tarea de interés. Si la situación actual es análoga a la que existía en los años 40, cuando se construyó el primer ordenador, el futuro cercano nos depara todavía muchas sorpresas.

(*) Pedro Salas es Profesor Titular del Dpto. de Tecnologías Especiales Aplicadas a la Telecomunicación de la Universidad Politécnica de Madrid.
Angel L. Sanz Sáenz es Profesor Titular del Dpto. Física Aplicada a las Tecnologías de la Información de la misma Universidad.





Consiguen la primera teletransportación cuántica a larga distancia

27 09 2009

Por primera vez en la historia se ha conseguido la teletransportación de un fotón a larga distancia, lo que constituye un fuerte impulso para el desarrollo de la criptografía y los ordenadores cuánticos, así como para nuevos sistemas de telecomunicaciones capaces de obtener la transmisión instantánea de datos. De esta forma, la teletransportación no sólo se consolida como fenómeno físico controlable, sino como un nuevo desafío a la concepción del mundo basada en el tiempo y el espacio. Por Eduardo Martínez.

Consiguen la primera teletransportación cuántica a larga distancia
Consiguen la primera teletransportación cuántica a larga distancia

La mayor teletransportación cuántica de la historia ha sido conseguida por el equipo del profesor Nicolas Gisin, de la Universidad de Ginebra, según se explica en un artículo que acaba de aparecer en la revista Nature. Lo que ha conseguido este equipo de físicos es transferir las propiedades de un fotón a otro fotón que estaba distante dos kilómetros. La experiencia constituye toda una proeza porque hasta ahora las distancias en que se conseguían estos fenómenos eran mucho más cortas. En un principio se creía que los objetos estaban constituidos de materia y de forma, pero en la actualidad los físicos hablan de energía y de estructuras para definir la realidad. Sin embargo, esta concepción avanzada del mundo no lleva implícita la posibilidad de que la materia pueda ser llevada de un lado a otro sin haber recorrido un trayecto. Para concebir la posibilidad de que un fotón pueda ser transportado dos kilómetros sin haber recorrido ningún trayecto, los físicos de Ginebra han debido apoyarse en sus conocimientos de la mecánica cuántica, que ofrece un marco teórico en el que la teletransportación es concebible. Desde 1993 La idea de la teletransportación no es nueva y se remonta a 1993, cuando se descubrió que el estado cuántico de un objeto, es decir, su estructura más elemental, podía en teoría ser teletransportada. De esta forma se imaginó que una entidad muy pequeña podía ser transportada de un lugar a otro sin moverse de su posición original. En realidad, de lo que se habla es de transportar su estructura, es decir, su esencia última, y no la materia del objeto, que permanece inamovible tanto en el punto de partida como de llegada. En base a este razonamiento, desde 1997 se ha comprobado que la teletransportación es posible, siempre referida a partículas cuánticas separadas entre sí no más de un metro. Lo que ha conseguido ahora el equipo del profesor Gisin es precisamente transportar el estado cuántico de un fotón entre dos laboratorios unidos entre sí por una línea de fibra óptica de dos kilómetros de largo. En realidad, los dos laboratorios, y por ende las partículas del experimento, estaban separadas entre sí 55 metros, pero el cable que separó a los dos fotones gemelos tenía una extensión mayor para simular una distancia de dos kilómetros y verificar que a esta distancia la teletransportación también es factible. Identidad cuántica En una entrevista a SwiussInfo que puede seguirse en Internet, el profesor Nicolas Gisin explica que la materia y la energía no pueden ser teletransportadas, pero sí la identidad cuántica de una partícula, es decir, su más íntima estructura. De esta forma, de una partícula situada en el punto A, es posible transferir todas las informaciones relativas a sus características físicas a otra partícula situada en el punto B. Esta segunda partícula sufre una transformación y se convierte en un doble perfecto de la partícula A. El experimento requirió controlar previamente la inestabilidad de los fotones, que son las partículas elementales de las que se compone la luz. Para conseguir la teletransportación, el equipo de físicos se valió de los así llamados fotones gemelos. A través de una técnica conocida en inglés como “entanglement” (enredo), consiguieron reproducir una copia idéntica de un fotón, y de esta forma obtuvieron los fotones gemelos. Cuando esto se consigue, cualquier modificación que sufre uno de los fotones la reproduce instantáneamente el otro, aunque esté a distancia del primero, una aportación de la física cuántica que compromete la noción clásica de tiempo y de espacio. Junto al enredo Lo que hacen en el experimento estos fotones gemelos es jugar el papel de terminales para la transmisión. Se coloca la partícula que se quiere teletransportar junto a uno de ellos y una serie de instrumentos miden los efectos de este encuentro cuántico. La partícula que se pretende teletransportar se altera cuando se le sitúa junto a uno de los fotones gemelos y esta alteración es registrada instantáneamente por el otro fotón gemelo, que de esta forma se convierte en una copia idéntica de la primera partícula así verificada por los instrumentos de medición. El experimento constituye un fuerte impulso al desarrollo de las telecomunicaciones, la criptografía y la informática, particularmente a la emergencia de los llamados ordenadores cuánticos, si bien la técnica de teletransportación deberá ser todavía perfeccionada. La teletransportación cuántica permite en efecto la transferencia de información por este sistema, ya sea para el envío de datos (telecomunicaciones), ya para el envío de instrucciones a un ordenador, que de esta forma aumentaría hasta el límite su velocidad de funcionamiento. Misión imposible Hasta 1993 se consideraba imposible la teletransportación porque necesita la copia exacta de cada partícula en un objeto, lo que según el principio de incertidumbre es imposible porque el mismo acto de medir una partícula altera su naturaleza. La fórmula encontrada por los físicos fue la del enredo, ya que cuando dos partículas se enredan como dos enamorados, en la práctica actúan como si fueran una sola, aunque lleguen a separarse entre sí. El enredo se consigue tomando un fotón y enredándolo con otro y luego separándolos entre sí. En ese momento se aproxima el objeto que se quiere teletransportar a uno de los fotones del enredo y el segundo fotón reproduce la alteración del primero instantáneamente, sin que medie ninguna influencia perceptible entre ellos. Dos principios Todo esto es posible porque en el mundo cuántico rigen leyes diferentes de las que conocemos en el universo cotidiano. Átomos, protones, neutrones y fotones se comportan de manera sorprendente para nuestros sentidos según dos principios. El primer principio es el de superposición de estados: en contra de lo que ocurre en el mundo de los sentidos, los objetos cuánticos como los fotones pueden estar en dos estados diferentes a la misma vez, sin que pueda preverse de antemano en qué estado estaba antes de la medición. El segundo principio que rige la física cuántica es el de incertidumbre formulado por Heisenberg, según el cual la mera observación de un sistema cuántico lo modifica de tal forma que impide que pueda ser conocido tal como es en realidad en el estado no observado.

Fuente: tendencias21.net