ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

COMPUTACIÓN CUÁNTICA


Enviado por   •  23 de Febrero de 2015  •  4.221 Palabras (17 Páginas)  •  218 Visitas

Página 1 de 17

INTRODUCCIÓN

La computación cuántica es lo que se obtiene de la convergencia de dos teorías tan fascinantes

como la cuántica y la computación. Los mismos conceptos que hacen que la primera haya sido

tan discutida en sus inicios parece que abren un nuevo horizonte a la segunda. Seguidamente,

voy a ofrecer una visión lo más simple y concisa posible y a la vez completa, a nivel de

licenciado, sobre este campo.

A mediados de la década de los 40 toma impulso la ciencia de la información, pronto parece

claro que el concepto propio de información contiene un significado mucho más profundo. De

repente, se hace importante conocer cómo la naturaleza previene o permite que la

información se exprese o sea manipulada. ¿Cuánto ocupa un bit? ¿Cuántos recursos (energía,

masa,...) son necesarios para transmitir un cierto tamaño de información dado? Y qué hay del

‘ruido’, ¿es posible enviar satisfactoriamente información a través de un canal ‘ruidoso’

(entiéndase ruido como interferencia)?

En esos años, Shannon, Golay y Hamming presentan las bases de la codificación y la corrección

de errores en la información. Simultáneamente, y no por casualidad, nace la computación. A

mediados de los años 30 Alan Turing presenta la ‘maquina universal de Turing’(1)

, basada en el

trabajo de Charles Babbage en el siglo XIX.

Más allá de los usos iniciales en decriptación-encriptación y otros usos militares, la

computación se hizo cada vez importante en el ámbito científico. Al principio se centró en la

resolución de algunas proposiciones matemáticas, como por ejemplo la conjetura ‘fuerte’ de

Goldbach (cualquier número entero par mayor que 2 puede descomponer como suma de 2

números primos) pero pronto se extendió y hoy en día es un recurso valoradísimo en todos los

aspectos cotidianos. Los avances posteriores representaron un avance enorme en cuanto a

tamaño y velocidad, pero no variaron sustancialmente el concepto esencial de lo que era una

computadora. La computación cuántica, en cambio, sí que transforma el ‘núcleo’ conceptual

de la computación.

En los años siguientes, se pone de manifiesto las importantes correlaciones entre sistemas

cuánticos separados que han interaccionado en (y sólo en) el pasado. El grado de correlación

en estos sistemas es mayor que el que podría ser previsto en base a cualquier ley física que

describa interacciones locales.

El desarrollo de todas estas teorías llevó primeramente a la criptografía cuántica, justo cuando

la computación cuántica aun se encontraba en estado ‘fetal’.

El desarrollo teórico del ‘qubit’ por Benjamin Schumacher (5), y el trabajo de Deutsch en 1985 (6)

(presentando las ‘puertas cuánticas’, los análogos a las puertas lógicas de la computación

clásica) junto con el desarrollo de los primeros algoritmos para la computación cuántica y el

desarrollo de un sistema para corregir errores en la transmisión de información de forma

cuántica (mediados de los 90) decidieron a la comunidad científica a apostar por esta

disciplina.Más allá de la teoría, los esfuerzos actuales también incluyen el diseño de dispositivos físicos

capaces de llevar a cabo la llamada computación cuántica. En los siguientes capítulos voy a

adentrarme en los principales aspectos apuntados en esta breve introducción.

TEORÍA CLÁSICA DE LA INFORMACIÓN (TCI)

De la misma forma que en determinadas circunstancias, aproximamos algunas leyes cuánticas

a sus hermanas clásicas, es necesario conocer las bases de la computación clásica y la teoría

clásica de la información, antes de definir sus análogos cuánticos.

Existen tres ideas centrales en la teoría clásica de la información que deben ser transportadas

al contexto cuántico:

-El problema más básico en esta teoría es obtener una medida elemental de información:

La máxima cantidad de información que puede ser almacenada por una variable que puede

tomar N valores diferentes es log2(N). De esta forma, una variable doble-evaluada contiene

una unidad de información. Una unidad de información se llama bit. Los dos valores que puede

tomar un bit son 0 y 1.

-Por otro lado, debemos poder codificar secuencias enteras de información mediante fuentes

idénticas e independientes, en este caso bits, de forma que cualquier secuencia de bits va a

transportar un cierto tamaño de información (coherente o no, dependiendo del mensaje).

-No es necesario que el codificado sea totalmente exento de error, es suficiente que la

fidelidad del mensaje sea cercana a 1:

Se define fidelidad (F) como la probabilidad de que el mensaje decodificado sea idéntico al

mensaje anterior a la codificación. De esta forma, la probabilidad de error será: 1-F

Si podemos enviar

...

Descargar como (para miembros actualizados)  txt (28.5 Kb)  
Leer 16 páginas más »
Disponible sólo en Clubensayos.com