ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Optica Y Fisica Moderna


Enviado por   •  4 de Septiembre de 2014  •  4.307 Palabras (18 Páginas)  •  245 Visitas

Página 1 de 18

IV.- OPTICA

PROPIEDADES DE LA LUZ

• TEORIAS DE LA PROPAGACION DE LA LUZ

La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o como una partícula. Estos dos estados no se excluyen, sino que son complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa según su interpretación teórica:

Teoría ondulatoria

Esta teoría considera que la luz es una onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de Ampère) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la onda se auto propaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la dirección de propagación .

Teoría corpuscular

La teoría corpuscular estudia la luz como si se tratase de un torrente de partículas sin carga y sin masa llamadas fotones, capaces de portar todas las formas de radiación electromagnética. Esta interpretación resurgió debido a que, la luz, en sus interacciones con la materia, intercambia energía sólo en cantidades discretas (múltiples de un valor mínimo) de energía denominada cuantos. Este hecho es difícil de combinar con la idea de que la energía de la luz se emita en forma de ondas, pero es fácilmente visualizado en términos de corpúsculos de luz o fotones.

Teoría electromagnética

Fue propuesta en 1873 por James Clerk Maxwell (1831-1879), físico ingles autor del electromagnetismo y cuyas contribuciones son equiparables a las de Newton en la mecánica.

Demostró matemáticamente la existencia de campos eléctricos y magnéticos, los cuales vibran uno respecto al otro de manera perpendicular conforme se propaga la onda luminosa transversal, por lo que no tendría que depender de un medio material para viajar.

Teoría cuántica

Propuesta por Max Planck en 1901. Indicaba que en la emisión de luz por átomos intervienen “saltos” de electrones, de un nivel de menor energía (más interno) a un nivel de mayor energía (más externo). Y solo es de manera momentánea, ya que pronto regresan al lugar de donde partieron; a esta acción se le llama “estado excitado” y es precisamente en el regreso cuando se emite un fotón; un impulso palpitante de radiación electromagnética cuya frecuencia esta asociada al salto que efectuó.

Puede considerarse como un “corpúsculo” de energía pura, una “partícula” de luz expulsada del átomo. Por ejemplo, un fotón de luz roja lleva una cantidad de energía que corresponde a su frecuencia, otro fotón con el doble de frecuencia tendrá el doble de energía y corresponderá a luz ultravioleta.

Si se excitan muchos átomos en un material, se emitirán muchos fotones con frecuencias que corresponden a los distintos niveles que se excitaron y que se asocian a los colores característicos que identifican a cada elemento químico.

• REFLEXION

La reflexión es el cambio de dirección de una onda, que al estar en contacto con la superficie de separación entre dos medios cambiantes, regresa al punto donde se originó. Ejemplos comunes son la reflexión de la luz, el sonido y las ondas en el agua.

Reflexión de la luz y sus leyes

La luz es una manifestación de energía. Gracias a ella las imágenes pueden ser reflejadas en un espejo, en la superficie del agua o un piso muy brillante. Esto se debe a un fenómeno llamado reflexión de la luz. La reflexión ocurre cuando los rayos de luz que inciden en una superficie chocan en ella, se desvían y regresan al medio que salieron formando un ángulo igual al de la luz incidente, muy distinta a la refracción.

Es el cambio de dirección, en el mismo medio, que experimenta un rayo luminoso al incidir oblicuamente sobre una superficie. Para este caso las leyes de la reflexión son las siguientes:

1a. ley: El rayo incidente, el rayo reflejado y la normal, se encuentran en un mismo plano.

2a. ley: El ángulo de incidencia es igual al ángulo de reflexión.

Reflexión interna total

Cuando en la refracción el ángulo de incidencia es mayor que el ángulo crítico ocurre lo que se conoce como reflexión interna total. Cálculo del ángulo crítico:

En fórmula:

: Ángulo crítico;

: Índice de refracción.

• REFRACCION

La refracción es el cambio de dirección que experimenta una onda al pasar de un medio material a otro. Solo se produce si la onda incide oblicuamente sobre la superficie de separación de los dos medios y si estos tienen índices de refracción distintos. La refracción se origina en el cambio de velocidad de propagación de la onda señalada.

Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece quebrado. También se produce refracción cuando la luz atraviesa capas de aire a distinta temperatura, de la que depende el índice de refracción. Los espejismos son producidos por un caso extremo de refracción, denominado reflexión total. Aunque el fenómeno de la refracción se observa frecuentemente en ondas electromagnéticas como la luz, el concepto es aplicable a cualquier tipo de onda.

Refracción de ondas de radio

El fenómeno de la refracción se observa en todo tipo de ondas. En el caso de las ondas de radio, la refracción es especialmente importante en la ionosfera, en la que se producen una serie continua de refracciones que permiten a las ondas de radio viajar de un punto del planeta a otro.

Refracción de ondas sísmicas

Otro ejemplo de refracción no ligado a ondas electromagnéticas es el de las ondas sísmicas. La velocidad de propagación de las ondas sísmicas depende de la densidad del medio de propagación y, por lo tanto, de la profundidad y de la composición de la región atravesada por las ondas. Se producen fenómenos de refracción en los siguientes casos:

Refracción entre la transición entre dos capas geológicas, especialmente entre el manto terrestre y el núcleo de la Tierra.

En el manto, por pequeñas desviaciones de la densidad entre capas ascendentes menos densas y descendentes, más densas.

Ley de refracción (Ley de Snell)

La relación entre el seno del ángulo de incidencia y el seno del ángulo de refracción es igual a la razón entre la velocidad de la onda en el primer medio y la velocidad de la onda en el segundo medio, o bien puede entenderse como el producto del índice de refracción del primer medio por el seno del ángulo de incidencia es igual al producto del índice de refracción del segundo medio por el seno del ángulo de refracción, esto es:

: Índice de refracción del primer medio

: Ángulo de incidencia

: Índice de refracción del segundo medio

: Ángulo de refracción

• ESPEJOS

Es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la reflexión.

El ejemplo más sencillo es el espejo plano. En este último, un haz de rayos de luz paralelos puede cambiar de dirección completamente en conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. La imagen resulta derecha pero invertida en el eje normal al espejo.

También existen espejos curvos que pueden ser cóncavos o convexos. En un espejo cóncavo cuya superficie forma un paraboloide de revolución, todos los rayos que inciden paralelos al eje del espejo, se reflejan pasando por el foco, y los que inciden pasando por el foco, se reflejan paralelos al eje.

Los espejos son objetos que reflejan casi toda la luz que choca contra su superficie debido a este fenómeno podemos observar nuestra imagen en ellos.

• LENTES

Clasificación de las lentes

a) Lentes convergentes o positivos

b) Lentes divergentes o negativos

Formación de imágenes a través de las lentes

Las lentes con superficies de radios de curvatura pequeños tienen distancias focales cortas. Una lente con dos superficies convexas siempre de corazones los rayos paralelos al eje óptico de forma que converjan en un foco situado en el lado de la lente opuesta al objeto. Una superficie de lente cóncava desvía los rayos incidentes paralelos al eje de forma divergente; a no ser que la segunda superficie sea convexa y tenga una curvatura mayor que la primera, los rayos divergen al salir de la lente, y parecen provenir de un punto situado en el mismo lado de la lente que el objeto. Estas lentes sólo forman imágenes virtuales, reducidas y no invertidas.

Si la distancia del objeto es mayor que la distancia focal, una lente convergente forma una imagen real e invertida. Si el objeto está lo bastante alejado, la imagen será más pequeña que el objeto. En ese caso, el observador estará utilizando la lente como una lupa o microscopio simple. El ángulo que forma en el ojo esta imagen virtual aumentada (es decir, su dimensión angular aparente) es mayor que el ángulo que formaría el objeto si se encontrara a la distancia normal de visión. La relación de estos dos ángulos es la potencia de aumento de la lente. Una lente con una distancia focal más corta crearía una imagen virtual que formaría un ángulo mayor, por lo que su potencia de aumento sería mayor. La potencia de aumento de un sistema óptico indica cuánto parece acercar el objeto al ojo, y es diferente del aumento lateral de una cámara o telescopio, por ejemplo, donde la relación entre las dimensiones reales de la imagen real y las del objeto aumenta según aumenta la distancia focal. La cantidad de luz que puede admitir una lente aumenta con su diámetro. Como la superficie que ocupa una imagen es proporcional al cuadrado de la distancia focal de la lente, la intensidad luminosa de la superficie de la imagen es directamente proporcional al diámetro de la lente e inversamente proporcional al cuadrado de la distancia focal. Por ejemplo, la imagen producida por una lente de 3 cm de diámetro y una distancia focal de 20 cm sería cuatro veces menos luminosa que la formada por una lente del mismo diámetro con una distancia focal de 10 cm. La relación entre la distancia focal y el diámetro efectivo de una lente es su relación focal, llamada también número f. Su inversa se conoce como abertura relativa. Dos lentes con la misma abertura relativa tienen la misma luminosidad, independientemente de sus diámetros y distancias focales.

v.- Física moderna

• ÁTOMO Y TEORÍA CUÁNTICA

El átomo es un constituyente de la materia ordinaria, con propiedades químicas bien definidas, formado a su vez por constituyentes más elemental sin propiedades químicas bien definidas. Cada elemento químico está formado por átomos del mismo tipo (con la misma estructura electrónica básica), y que no es posible dividir mediante procesos químicos.

La teoría cuántica, es una teoría física basada en la utilización del concepto de unidad cuántica para describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la radiación. Las bases de la teoría fueron sentadas por el físico alemán Max Planck, que en 1900 postuló que la materia sólo puede emitir o absorber energía en pequeñas unidades discretas llamadas cuantos. Otra contribución fundamental al desarrollo de la teoría fue el principio de incertidumbre, formulado por el físico alemán Werner Heisenberg en 1927, y que afirma que no es posible especificar con exactitud simultáneamente la posición y el momento lineal de una partícula subatómica.

Líneas espectrales del hidrógeno

Cuando un electrón pasa de un nivel de energía a otro, emite un fotón con una energía determinada. Estos fotones dan lugar a líneas de emisión en un espectroscopio. Las líneas de la serie de Lyman corresponden a transiciones al nivel de energía más bajo o fundamental. La serie de Balmer implica transiciones al segundo nivel. Esta serie incluye transiciones situadas en el espectro visible y asociadas cada una con un color diferente.

En los siglos XVIII y XIX, la mecánica newtoniana o clásica parecía proporcionar una descripción totalmente precisa de los movimientos de los cuerpos, como por ejemplo el movimiento planetario. Sin embargo, a finales del siglo XIX y principios del XX, ciertos resultados experimentales introdujeron dudas sobre si la teoría newtoniana era completa. Entre las nuevas observaciones figuraban las líneas que aparecen en los espectros luminosos emitidos por gases calentados o sometidos a descargas eléctricas. Según el modelo del átomo desarrollado a comienzos del siglo XX por el físico británico nacido en Nueva Zelanda Ernest Rutherford, en el que los electrones cargados negativamente giran en torno a un núcleo positivo, en órbitas dictadas por las leyes del movimiento de Newton, los científicos esperaban que los electrones emitieran luz en una amplia gama de frecuencias, y no en las estrechas bandas de frecuencia que forman las líneas de un espectro.

Otro enigma para los físicos era la coexistencia de dos teorías de la luz: la teoría corpuscular, que explica la luz como una corriente de partículas, y la teoría ondulatoria, que considera la luz como ondas electromagnéticas. Un tercer problema era la ausencia de una base molecular para la termodinámica. En su libro Principios elementales en mecánica estadística (1902), el físico estadounidense J. Willard Gibbs reconocía la imposibilidad de elaborar una teoría de acción molecular que englobara los fenómenos de la termodinámica, la radiación y la electricidad tal como se entendían entonces.

• RELATIVIDAD

La teoría de la relatividad incluye tanto a la teoría de la relatividad especial y como a la relatividad general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.

La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento.

La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.

No fue hasta el 7 de marzo de 2010 cuando fueron mostrados públicamente los manuscritos originales de Einstein por parte de la Academia Israelí de Ciencias, aunque la teoría se había publicado en 1905. El manuscrito contiene 46 páginas de textos y fórmulas matemáticas redactadas a mano, y fue donado por Einstein a la Universidad Hebrea de Jerusalén en 1925 con motivo de su inauguración.

• PREDECIBILIDAD

Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.

Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación. Por ejemplo, en cuestiones climáticas podría tratarse de temperaturas medias de la atmósfera en determinados niveles, concentraciones de gases, precipitación, etc. También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales. Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes agencias e institutos de Meteorología y Climatología.

Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para estos experimentos la tercera propiedad de la predicción no tiene demasiado interés, pues la predicción -o mejor, simulación- del pasado no incita a la prisa.

Sin embargo, en las predicciones día a día para fenómenos meteorológicos, o anualmente para situaciones climáticas, es conveniente que la predicción pueda llevarse a cabo con antelación suficiente. Por supuesto, hay predictores que se pueden formular de inmediato: por ejemplo tomemos la permanencia y el paseo aleatorio. El primero consiste en suponer que la situación actual se prolongará hasta el momento para el que se quiere predecir; el segundo supone que la predicción es una mera cuestión de suerte.

• CAOS

LA TEORIA DEL CAOS Tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra. La idea de caos en la psicología y en el lenguaje.

1. Efecto mariposa y caos matemático.- Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total.

En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista: cualitativo y cuantitativo. Desde la primera perspectiva, las relaciones causa-efecto pueden ser concebidas de varias maneras: a) como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales; b) como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros; c) como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos. Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.

La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la postura (b), pero en la medida en que dice que ciertos otros procesos no son caóticos sino ordenados, sostiene que sí, que existen vínculos causales. Los vínculos causales que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones: por ejemplo, una pequeña causa inicial, mediante un proceso amplificador, podrá generar un efecto considerablemente grande. No nos alarmemos. Esto lo iremos aclarando poco a poco.

2. Causa-efecto: relaciones cuantitativas.- Si examinamos las posibles relaciones cuantitativas que pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:

1) Causas y efectos son razonablemente proporcionales: pequeñas causas producen pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta agresiva, siendo ambas variaciones razonablemente proporcionales);

2) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente desata una crisis psicótica);

3) Una causa grande produce un pequeño efecto (como cuando una interpretación nuclear que apunte directamente al conflicto patógeno infantil, genera una respuesta indiferente en el paciente).

Los seres humanos tendemos inevitablemente a creer en alguno de estos supuestos en la vida cotidiana, y por motivos muy diversos. Detrás de toda creencia hay un deseo, que es quien le da su intensidad, su persistencia, su razón de ser. Así, la creencia en una desproporción causa-efecto del caso 2 oculta un deseo de poder: la ilusión de que con muy poco se puede lograr mucho.

3. Causas pequeñas, grandes efectos.-

El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. El psicoanálisis invoca la misma idea para justificar la idea de que una terapia breve produce pequeños cambios, y de que un tratamiento prolongado genera cambios más importantes.

• RADIACTIVIDAD

La radiactividad o radioactividad1 es un fenómeno físico por el cual los núcleos de algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, inestables, que son capaces de transformarse, o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables.

La radiactividad ioniza el medio que atraviesa. Una excepción lo constituye el neutrón, que posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfa, beta, gamma y neutrones.

La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electrones, positrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba convirtiéndose en plomo.

La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades, entre otras).

La radiactividad puede ser:

Natural: manifestada por los isótopos que se encuentran en la naturaleza.

Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.

• FISION NUCLEAR

En física nuclear, la fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleo atómico. La fisión ocurre cuando un núcleo pesado se divide en dos o más núcleos pequeños, además de algunos subproductos como neutrones libres, fotones (generalmente rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía).

Mecanismo

La fisión de núcleos pesados es un proceso exotérmico, lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas las cortezas electrónicas; la energía se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión.

La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; la partícula es generalmente un neutrón libre. Este neutrón libre es absorbido por el núcleo, haciéndolo inestable (a modo de ejemplo, se podría pensar en la inestabilidad de una pirámide de naranjas en el supermercado, al lanzarse una naranja contra ella a la velocidad correcta). El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión que incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones.

Los núcleos atómicos lanzados como productos de la fisión pueden ser varios elementos químicos. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con la mitad de protones y neutrones del átomo fisionado original.

Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante cadenas de desintegración.

• FUSION NUCLEAR

En física nuclear, fusión nuclear es el proceso por el cual varios núcleos atómicos de carga similar se unen y forman un núcleo más pesado. Simultáneamente se libera o absorbe una cantidad enorme de energía, que permite a la materia entrar en un estado plasmático.

La fusión de dos núcleos de menor masa que el hierro (en este elemento y en el níquel ocurre la mayor energía de enlace nuclear por nucleón) libera energía en general. Por el contrario, la fusión de núcleos más pesados que el hierro absorbe energía. En el proceso inverso, la fisión nuclear, estos fenómenos suceden en sentidos opuestos.

En el caso más simple de fusión, en el hidrógeno, dos protones deben acercarse lo suficiente para que la interacción nuclear fuerte pueda superar su repulsión eléctrica mutua y obtener la posterior liberación de energía.

En la naturaleza ocurre fusión nuclear en las estrellas, incluido el Sol. En su interior las temperaturas son cercanas a 15 millones de grados Celsius.1 Por ello a las reacciones de fusión se les denomina termonucleares. En varias empresas se ha logrado también la fusión (artificial), aunque todavía no ha sido totalmente controlada.

Sobre la base de los experimentos de transmutación nuclear de Ernest Rutherford, conducidos pocos años antes, Mark Oliphant, en 1932, observó por primera vez la fusión de núcleos ligeros (isótopos de hidrógeno).

Posteriormente, durante el resto de ese decenio, Hans Bethe estudió las etapas del ciclo principal de la fusión nuclear en las estrellas.

La investigación acerca de la fusión para fines militares se inició en la década de 1940 como parte del Proyecto Manhattan, pero no tuvo éxito hasta 1952. La indagación relativa a fusión controlada con fines civiles se inició en la década de 1950, y continúa hasta el presente.

...

Descargar como  txt (27 Kb)  
Leer 17 páginas más »