ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

LINEA DE TIEMPO NEUROPSICOLOGIA


Enviado por   •  11 de Febrero de 2014  •  16.595 Palabras (67 Páginas)  •  436 Visitas

Página 1 de 67

Segunda ley de Newton o Ley de fuerza

La segunda ley del movimiento de Newton dice que:

El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.7

En las palabras originales de Newton:

Mutationem motus proportionalem esse vi motrici impressæ, & fieri secundum lineam rectam qua vis illa imprimitur.6

Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados en el momento lineal de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; las fuerzas son causas que producen aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se define simplemente en función del momento en que se aplica a un objeto, con lo que dos fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto.

En términos matemáticos esta ley se expresa mediante la relación:

{\mathbf {F}}_{{{\text{net}}}}={{\mathrm {d}}{\mathbf {p}} \over {\mathrm {d}}t}

Donde:

{\mathbf {p}} es el momento lineal

{\mathbf {F}}_{{{\text{net}}}} la fuerza total o fuerza resultante.

Suponiendo que la masa es constante y que la velocidad es muy inferior a la velocidad de la luz8 la ecuación anterior se puede reescribir de la siguiente manera:

Sabemos que {\mathbf {p}} es el momento lineal, que se puede escribir m.V donde m es la masa del cuerpo y V su velocidad.

{\mathbf {F}}_{{{\text{net}}}}={{\mathrm {d}}(m{\mathbf {v}}) \over {\mathrm {d}}t}

Consideramos a la masa constante y podemos escribir {{\mathrm {d}}{\mathbf {v}} \over {\mathrm {d}}t}={\mathbf {a}} aplicando estas modificaciones a la ecuación anterior:

{\mathbf {F}}=m{\mathbf {a}}

La fuerza es el producto de la masa por la aceleración, que es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad, distinta para cada cuerpo, es su masa de inercia. Veamos lo siguiente, si despejamos m de la ecuación anterior obtenemos que m es la relación que existe entre {\mathbf {F}} y {\mathbf {a}}. Es decir la relación que hay entre la fuerza aplicada al cuerpo y la aceleración obtenida. Cuando un cuerpo tiene una gran resistencia a cambiar su aceleración (una gran masa) se dice que tiene mucha inercia. Es por esta razón por la que la masa se define como una medida de la inercia del cuerpo.

Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta. La expresión anterior así establecida es válida tanto para la mecánica clásica como para la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve dicho cuerpo.

De la ecuación fundamental se deriva también la definición de la unidad de fuerza o newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y sentido.

La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la dinámica de determinar la clase de fuerza que se necesita para producir los diferentes tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente acelerado (m.r.u.a).

Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector suma de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la tierra con una resistencia del aire igual a cero, la fuerza sería su peso, que provocaría una aceleración descendente igual a la de la gravedad.

La Segunda Ley de Newton, también conocida como Ley Fundamental de la Dinámica, es la que determina una relación proporcional entre fuerza y variación de la cantidad de movimiento o momento lineal de un cuerpo. Dicho de otra forma, la fuerza es directamente proporcional a la masa y a la aceleración de un cuerpo.

Cuando Newton unificó la fuerza de gravedad terrestre, incluida en su segunda ley o Ley de Fuerza, con la fuerza de gravedad de las órbitas planetarias en su Ley de Gravitación Universal tenía sentido el principio de igualdad entre masa inercial y masa gravitatoria citado, pues así lo indicaban todos los experimentos científicos y fenómenos naturales.

Fuerza / masa = aceleración

F = m a Fuerza / masa = aceleración

Además, la Física Clásica de Newton asumía que una fuerza constante podría acelerar una masa hasta el infinito.

La Segunda Ley de Newton ha sido modificada por la Teoría de la Relatividad Especial de Einstein al recoger el fenómeno de aumento de la masa de un cuerpo con la velocidad y, posteriormente, por la Relatividad General al introducir perturbaciones del espacio-tiempo. Una fuerza constante ya no podrá acelerar una masa hasta el infinito; no obstante la relación de proporcionalidad entre masa y fuerza que provoca la aceleración se sigue manteniendo para la masa en un instante concreto.

El primer experimento que confirmaba la masa relativista fue el descubrimiento por Bücherer en 1908 de que la relación de la carga del electrón y su masa (e / m) era menor para electrones rápidos que para los lentos. Posteriormente, incontables experimentos confirman los resultados y fórmulas físicas anteriores.

La masa y la energía se convierten así en dos manifestaciones de la misma cosa. Los principios de conservación de la masa y de la energía de la mecánica clásica pasan a configurar el principio de conservación de la energía-masa relativista más general.

Sin embargo, la Teoría de la Relatividad de Einstein sigue sin decirnos qué es esa cosa que se manifiesta como masa o como energía. Por ello, la idea de incontables experimentos que confirman dicha teoría es un poco aventurada, una cosa es que matemáticamente cuadren algunos resultados y otra que la realidad física subyacente sea la propugnada por la Mecánica Relativista.

Por el contrario, la Mecánica Global explica la fuerza de la gravedad como el efecto de la tensión de la curvatura longitudinal de la estructura reticular de la materia o globina, para no confundirla con la materia normal. También explica en qué consiste la energía electromagnética y cómo se forma la masa, es decir, ha unificado la gravedad, la energía y la masa.

Por supuesto, como se verá más adelante, a la nueva teoría alternativa también le cuadran los mismos experimentos y resultados con idéntica precisión que los de la Mecánica Relativista de Einstein. Además a la Teoría de la Equivalencia Global le encajan otros aspectos derivados de la no existencia de las típicas singularidades relativistas y de la compatibilidad entre la teoría del átomo, la dinámica de la escala humana normal y la Astrofísica correspondientes al modelo físico de la Mecánica Global.

Como se ha comentado, el principio de igualdad entre masa inercial y masa gravitatoria permite encuadrar en la Ley Fundamental de la Dinámica a la fuerza de gravedad de los planetas. La Física Relativista de Einstein mantiene dicho principio, pero se ve obligada a alterar el espacio y el tiempo para cuadrar pequeñas diferencias observadas en la órbita de Mercurio y de los planetas en general.

En la nueva perspectiva de la Teoría de la Equivalencia Global dicho principio deja de ser necesario; pues con la definición y caracterización de la masa física, el movimiento de la masa sigue las mismas reglas en la estructura reticular de la materia o globina, con independencia del origen de las fuerzas. Además de la variación de la masa física con la velocidad, la Ley de la Gravedad Global introduce la variación de la fuerza gravitacional con la velocidad para un mismo punto de la globina.

En el nuevo modelo de la Dinámica Global, la Segunda Ley de Newton, Ley de Fuerza o Ley Fundamental de la Dinámica se sigue cumpliendo en cuanto a la proporcionalidad entre fuerza, masa y aceleración.

Cuando la velocidad empieza a ser relevante respecto a la velocidad de la luz, el aumento de masa física se debe al propio mecanismo de conversión entre la fuerza aplicada, provenga de la energía gravitacional o no, y energía cinética. Ahora bien; el incremento de masa se verá compensado con un incremento de la atracción gravitacional, como en el caso de las órbitas de los planetas, por lo que este efecto no provocará la precesión anómala del perihelio de Mercurio.

En otras palabras, de las dos componentes de la atractis causa, la debida a la tensión de la curvatura longitudinal de la globina y la debida a la velocidad de los cuerpos con masa respecto a la globina, solo la segunda será la responsable de la variación adicional de la fuerza gravitacional que causa la precesión anómala de las órbitas de los planetas respecto a lo previsto por la Ley de Gravitación Universal de Isaac Newton.

De acuerdo con la Mecánica Global, la diferencia conceptual se debe a los mecanismos de la interacción de la globina con la energía electromagnética y con los cuerpos con masa, por ser soporte material de ambas manifestaciones de la energía en general.

La discusión del concepto de la atractis causa se efectúa en los apartados de la Ley de la Gravitación Universal de Newton y de la Ley de la Gravedad Global del libro en línea sobre esta última ley.

Torre de Pisa

Fuerza, masa y aceleración Proporcionalidad entre fuerza, masa y aceleración

Resumiendo, la Dinámica Global mantiene el igual comportamiento de la masa física en movimiento con o sin fuerzas de gravedad en cuanto a la proporcionalidad entre fuerza, masa y aceleración, siendo necesario realizar las siguientes matizaciones:

El principio de igualdad entre masa inercial y masa gravitatoria de Newton y Einstein deja de ser un principio para pasar a ser una realidad de las características del movimiento de la masa física.

Con la velocidad se produce un aumento de la masa física. Aunque con diferencias conceptuales respecto al marco de referencia del movimiento, este efecto es parecido en la Mecánica Relativista y en la Dinámica Global. Nótese que el incremento de masa relativista debido a la velocidad no afectaría a la proporcionalidad de la fuerza y la masa global o total.

La precesión anómala de la órbita de los planetas se explica en la Dinámica Global por una fuerza adicional de la interacción masa-globina derivada de la velocidad. En la Mecánica Relativista de Einstein y en la Mecánica Cuántica, dicha precesión se justifica con alteraciones del espacio-tiempo.

Desde otra perspectiva, la Segunda Ley de Newton acumulará problemas para su cumplimiento general por la citada característica de la globina como soporte material de la energía electromagnética y la masa.

De acuerdo con la Dinámica Global, los problemas serán derivados de:

La variación de la posición espacial de la globina.

La variación de la tensión longitudinal de la globina para un mismo punto espacial.

Se podría intentar resolver los problemas de la Ley Fundamental de la Dinámica o Ley de Fuerza de Newton con una definición de fuerza más general que incluyera los desplazamientos respectivos; pero habrá que tener cuidado pues, además de enmascarar conceptos distintos, podría no existir la proporcionalidad estricta con la masa. Probablemente los desplazamientos derivados de los dos puntos anteriores se pueden reconducir al tratamiento del movimiento de la masa sobre la globina, por suponer una variación de la velocidad relativa en el sentido de Galileo entre la globina y la masa.

Es importante recordar que la Teoría de la Equivalencia Global además de matizar la Segunda Ley de Newton, lo hace en un contexto en que el movimiento de los cuerpos no se produce en un vacío abstracto sino en la estructura reticular tridimensional de la materia o globina, con su característica simetría radial en un espacio euclidiano.

Finalmente, no veo que la Mecánica Cuántica diga nada en relación a esta Segunda Ley de Newton, excepto que supone una aproximación macroscópica de la realidad debido a su principio de incertidumbre. Aunque, en el ámbito subatómico, tampoco la Mecánica Cuántica sabe muy bien qué es un electrón y sigue buscando explicaciones al denominado efecto túnel o al experimento de doble rendija con fotones, incluso busca la solución en viajes en el tiempo hacia atrás.

La Mecánica Global explica, entre otras muchas cosas, el efecto túnel y el experimento de doble rendija y mantiene que el movimiento orbital de los electrones es consecuencia del movimiento de los puntos de relajación de la tensión gravito-magnética de la globina. La justificación detallada de estas afirmaciones se deduce de la nueva estructura del átomo propuesta en el libro en línea de la Mecánica Global.

-----: Estatica :

La Estática es la parte de la mecánica que estudia el equilibrio de fuerzas, sobre un cuerpo en reposo.

Análisis del equilibrio

La estática proporciona, mediante el empleo de la mecánica del sólido rígido solución a los problemas denominados isostáticos. En estos problemas, es suficiente plantear las condiciones básicas de equilibrio, que son:

El resultado de la suma de fuerzas es nulo.

El resultado de la suma de momentos respecto a un punto es nulo.

Estas dos condiciones, mediante el algebra vectorial, se convierten en un sistema de ecuaciones, la resolución de este sistema de ecuaciones, es resolver la condición de equilibrio.

Existen métodos de resolución de este tipo de problemas estáticos mediante gráficos, heredados de los tiempos en que la complejidad de la resolución de sistemas de ecuaciones se evitaba mediante la geometría, si bien actualmente se tiende al cálculo por ordenador.

Para la resolución de problemas hiperestáticos (aquellos en los que el equilibrio se puede alcanzar con distintas combinaciones de esfuerzos) es necesario considerar ecuaciones de compatibilidad. Dichas ecuaciones adicionales de compatibilidad se obtienen mediante la introducción de deformaciones y tensiones internas asociadas a las deformaciones mediante los métodos de la mecánica de sólidos deformables, que es una ampliación de la teoría del sólido rígido que además da cuenta de la deformabilidad de los sólidos y sus efectos internos.

Existen varios métodos clásicos basados la mecánica de sólidos deformables, como los teoremas de Castigliano o las fórmulas de Navier-Bresse, que permiten resolver un buen número de problemas hiperestáticos de modo simple y elegante.

debemos tener en cuenta las formulas para torques : F=KX k es una constante para decifrar

Aplicaciones

La estática abarca el estudio del equilibrio tanto del conjunto como de sus partes constituyentes, incluyendo las porciones elementales de material.

Uno de los principales objetivos de la estática es la obtención de esfuerzos cortantes, fuerza normal, de torsión y momento flector a lo largo de una pieza, que puede ser desde una viga de un puente o los pilares de un rascacielos.

Su importancia reside en que una vez trazados los diagramas y obtenidas sus ecuaciones, se puede decidir el material con el que se construirá, las dimensiones que deberá tener, límites para un uso seguro, etc. mediante un análisis de materiales. Por tanto, resulta de aplicación en ingeniería estructural, ingeniería mecánica, construcción, siempre que se quiera construir una estructura fija. Para el análisis de una estructura en movimiento es necesario considerar la aceleración de las partes y las fuerzas resultantes.

El estudio de la Estática suele ser el primero dentro del área de la ingeniería mecánica, debido a que los procedimientos que se realizan suelen usarse a lo largo de los demás cursos de ingeniería mecanica att: MARIO HERRERA CEL:3214202499 ESCUELA NORMAL SUPERIOR

------ EQUILIBRIO:

La estática estudia los cuerpos que están en equilibrio, que es el estado de un cuerpo no sometido a aceleración; un cuerpo, que está en reposo, o estático, se halla por lo tanto en equilibrio.

Para que un objeto este en equilibrio es necesario que todas las fuerzas que actúan sobre él se compese exactamente. Cuando, empleado este criterio, se establece que un objeto este en equilibrio, se puede deducir la estabilidad de dicho equilibro.

Introducción

las leyes de la mecánica, una partícula en equilibrio no sufre aceleración lineal ni de rotación, pero puede estar moviéndose a velocidad uniforme o rotar a velocidad angular uniforme. Esto es ampliable a un sólido rígido. Las ecuaciones necesarias y suficientes de equilibrio mecánico son:

• Una partícula o un sólido rígido está en equilibrio de traslación cuando: la suma de todas las fuerzas que actúan sobre el cuerpo es cero.

En el espacio se tienen tres ecuaciones de fuerzas, una por dimensión; descomponiendo cada fuerza en sus coordenadas resulta:

Y como un vector, es cero, cuando cada una de sus componentes es cero, se tiene:

1.

2.

3.

Un sólido rígido está en equilibrio de traslación cuando la suma de las componentes de las fuerzas que actúan sobre él es cero.

CONDICIONES DE EQUILIBRIO

PRIMERA CONDICIÓN: EQUILIBRIO DE TRASLACIÓN

Cuando se estudio la primera ley de Newton, llegamos a la conclusión de que si sobre un cuerpo no actúa ninguna fuerza externa, este permanece en reposo en un movimiento rectilíneo uniforme. Pero sobre un cuerpo pueden actuar varias fuerzas y seguir en reposo en un movimiento rectilíneo uniforme.

Hay que tener en cuenta, que tanto para la situación de reposo, como para la de movimiento rectilíneo uniforme la fuerza neta que actúa sobre un cuerpo es igual a cero.

ECUACIONES

-----Clasificacion del equilibrio :

Equilibrio estable, equilibrio inestable y equilibrio neutro.

El equilibrio estable corresponde a un cuerpo en equilibrio el cual, al ser aplicada una fuerza, se eleva su centro de gravedad, de modo que si se retira la fuerza, el cuerpo vuelve a su posición original.

El equilibrio inestable, corresponde a un cuerpo en equilibrio, con su centro de gravedad a una cierta altura, tal que si se aplica una fuerza (aún la más mínima), el cuerpo tiende a reducir esta altura del centro de gravedad, y por lo tanto su energía potencial.

El equilibrio neutro corresponde a un cuerpo, que por más que se aplique una fuerza cualquiera sobre él, no cambia la altura de su centro de gravedad, y por lo tanto su energía potencial se mantiene constante.

Entonces, esta clasificación de equilibrio se hace en torno a la energía potencial del cuerpo.

El análisis de la estabilidad del equilibrio puede llevarse a cabo estudiando los mínimos y máximos locales (extremos locales) de la función de energía potencial.

Un resultado elemental del análisis matemático dice una condición necesaria para la existencia de un extremo local de una función diferenciable es que todas las derviadas primeras se anulen en algún punto. Para determinar problemas unidimensionales, comprobar si un punto de equilibrio es estable, inestable o indiferente implica verificar las derivadas segundas de la energía potencial:

Un punto es de equilibrio inestable, si la segunda derivada de la energía potencial < 0 y por tanto la energía potencial tiene un máximo local. Si el sistema se sufre una desplazamiento ni que sea pequeño de su posición de equilibrio entonces se alejará más y más de él (de ahí el nombre inestabilidad para esa situación).

Un punto es de equilibrio indiferente o neutral, si la segunda derivada = 0, entonces encontramos una región donde la energía no varía. Así si el sistema es desplazado de la posición de equilibrio una cantidad suficientemente pequeña, posiblemente no volverá a acercarse al equilibrio pero tampoco divergerá mucho de la posición anterior de equilibrio.

Un punto es de equilibrio estable si la segunda derivada > 0 y por tanto la energía potencial tiene un mínimo local. La respuesta del sistema frente a pequeñas perturbaciones o un alejamiento arbitrariamente pequeño de del punto de equilibrio es volver u oscilar alrededor del punto de equilibrio. Si existe más de un punto de equilibrio estable para un sistema, entonces se dice que cualquiera de ellos cuya energía potencia es mayor que el mínimo absoluto representa un estado metaestable.

Para problemas bidimensionales y tridimensionales (o más generalmente n-dimensionales) la discusión anterior de la estabilidad se hace más complicada y requiere examinar la forma cuadrática Q(x1,...,xn) definida por la matriz hessiana de la energía potencial:

Equilibrio estable, se da cuando la forma cuadrática Q(x1,...,xn) es definida positiva y, por tanto, todos sus autovalores son números positivos.

Equilibrio totalmente inestable, se da cuando la forma cuadrática Q(x1,...,xn) es definida negativa, por tanto, todos sus autovalores son negativos.

Equilibrio mixto inestable, se da cuando la forma cuadrática Q(x1,...,xn) es no es definida positiva y alguno de sus autovalores es negativo. Esto implica que según ciertas direcciones puede haber estabilidad unidimensional pero según otras habrá inestabilidad unidimensional.

*** Teoria de John dalton (primera):

TEORIA ATOMICA DE DALTON

La teoría atómico-molecular clásica tiene por base la teoría atómica de Dalton. Existe entre estas dos teorías algunas diferencias fundamentales.

Para Dalton, la partícula mas pequeña de una sustancia era el átomo. Si la sustancia era simple, Dalton hablaba de "átomos simples"; por ejemplo de cloro, de hidrogeno, etc. Si la sustancia era Compuesta, Dalton hablaba de" átomos compuestos"; por ejemplo de agua. En realidad, los "átomos" de Dalton, son las partículas que nosotros Llamamos moléculas Los siguientes postulados, son los que constituyen la teoría atómico-molecular clásica: (1 - Toda la materia es discreta y esta formada por partículas pequeñas, definidas e indestructibles denominadas átomos, que son indivisibles por los métodos químicos ordinarios, (2 - Los átomos de un mismo elemento son iguales y tienen las mismas propiedades; los átomos de elementos distintos son diferentes y tienen propiedades también diferentes (3 - Las moléculas se forman por la unión de un numero entero de átomos del mismo o de distintos elementos, en relaciones numéricas simples. (1: 1; 2: 1; 3: 2; etc. )En el siguiente ejemplo se representa la formación de una molécula de cloro Cl2,a partir de dos átomos de cloro: relación numérica 1:1

Para ver el gráfico seleccione la opción "Descargar" del menú superior

En el siguiente ejemplo se representa la formación de una molécula de oxigeno O2 y una de hidrogeno H2 :

Para ver el gráfico seleccione la opción "Descargar" del menú superior

En el siguiente ejemplo se representa la formación de dos moléculas de agua, a partir de una molécula de oxigeno y dos de hidrogeno: relación numérica 2:1

Para ver el gráfico seleccione la opción "Descargar" del menú superior

.( 4 - Las sustancias simples y compuestas están constituidas por moléculas. ( 5 - Las moléculas de una misma sustancia son iguales en todos sus aspectos y distintas a las de otras sustancias, (6 – Las moléculas de las sustancias simples están formadas por átomos iguales (del mismo elemento). Cuando el numero de átomos que forma la molécula de una sustancia simple es uno, la molécula de esta sustancia se identifica con el átomo del elemento correspondiente. (7 - Las moléculas de las sustancias compuestas están formadas por átomos de por lo menos dos elementos diferentes. El numero de átomos de cada elemento que interviene en la formación de una molécula de una misma sustancia compuesta, es el mismo para todas las moléculas de la misma sustancia.

RAYOS CATODICOS

Entre los experimentos con electricidad había algunos que tenían que ver con enviar corrientes eléctricas a través de tubos de vidrio que contienen diferentes clases de gases. Cuando la corriente se encendía, el electrodo negativo, o cátodo, se iluminaba con una extraña luz verde, y en forma similar, un punto brillante verde aparecía en la pared opuesta del tubo. Era claro que algo estaba viajando en línea recta a través del tubo, a partir del cátodo; este "algo fue llamado rayo catódico.

Alguien sugirió que los rayos catódicos deberían ser ondas, como la luz o los recientemente descubiertos rayos-x. Pero las ondas, como todo el mundo sabía entonces, no podrían llevar carga eléctrica; solamente las partículas pueden hacer eso. Por esta razón los resultados experimentales de Thomson lo convencieron de que los rayos catódicos tenían que estar hechos de partículas.

Rayos Catódicos

Son electrones de alta velocidad emitidos por el electrodo negativo de un tubo de vacío al ser atravesado por una corriente eléctrica. Los rayos catódicos se generaron por primer vez utilizando el tubo de Crookes, invento del físico británico William Crookes. En 1895, mientras trabajaba en investigación, el físico alemán Wilhelm Roentgen descubrió casualmente que los rayos catódicos que golpeaban una placa metálica generaban rayos X. Los rayos catódicos pueden ser desviados y enfocados por campos magnéticos o electroestáticos. Estas propiedades se utilizan en el microscopio electrónico, en el osciloscopio de rayos catódicos y en el tubo de imagen de los receptores de televisión.

Un tubo de rayos catódicos básicamente en un recipiente provisto de dos electrodos en el cual se ha hecho una presión muy baja. Cuando la presión dentro de los tubos es de alrededor de 0.01 ó 0.001 mm Hg y los electrodos se cuentan a una fuente de potencia aparecer una corriente de rayos conocidos como rayos catódicos.

RAYOS X

Rayos X, radiación electromagnética penetrante, con una longitud de onda menor que la luz visible, producida bombardeando un blanco —generalmente de volframio— con electrones de alta velocidad. Los rayos X fueron descubiertos de forma accidental en 1895 por el físico alemán Wilhelm Conrad Roentgen mientras estudiaba los rayos catódicos en un tubo de descarga gaseosa de alto voltaje. A pesar de que el tubo estaba dentro de una caja de cartón negro, Roentgen vio que una pantalla de platinocianuro de bario, que casualmente estaba cerca, emitía luz fluorescente siempre que funcionaba el tubo. Tras realizar experimentos adicionales, determinó que la fluorescencia se debía a una radiación invisible más penetrante que la radiación ultravioleta (Ver Luminiscencia). Roentgen llamó a los rayos invisibles "rayos X" por su naturaleza desconocida. Posteriormente, los rayos X fueron también denominados rayos Roentgen en su honor.

Los rayos X son radiaciones electromagnéticas cuya longitud de onda va desde unos 10 nm hasta 0,001 nm (1 nm o nanómetro equivale a 10-9 m). Cuanto menor es la longitud de onda de los rayos X, mayores son su energía y poder de penetración. Los rayos de mayor longitud de onda, cercanos a la banda ultravioleta del espectro electromagnético, se conocen como rayos X blandos; los de menor longitud de onda, que están más próximos a la zona de rayos gamma o incluso se solapan con ésta, se denominan rayos X duros. Los rayos X formados por una mezcla de muchas longitudes de onda diferentes se conocen como rayos X ‘blancos’, para diferenciarlos de los rayos X monocromáticos, que tienen una única longitud de onda. Tanto la luz visible como los rayos X se producen a raíz de las transiciones de los electrones atómicos de una órbita a otra. La luz visible corresponde a transiciones de electrones externos y los rayos X a transiciones de electrones internos. En el caso de la radiación de frenado o bremsstrahlung (ver más adelante), los rayos X se producen por el frenado o deflexión de electrones libres que atraviesan un campo eléctrico intenso. Los rayos gamma, cuyos efectos son similares a los de los rayos X, se producen por transiciones de energía en el interior de núcleos excitados. Ver Átomo; Radiactividad.

Los rayos X se producen siempre que se bombardea un objeto material con electrones de alta velocidad. Gran parte de la energía de los electrones se pierde en forma de calor; el resto produce rayos X al provocar cambios en los átomos del blanco como resultado del impacto. Los rayos X emitidos no pueden tener una energía mayor que la energía cinética de los electrones que los producen. La radiación emitida no es monocromática, sino que se compone de una amplia gama de longitudes de onda, con un marcado límite inferior que corresponde a la energía máxima de los electrones empleados para el bombardeo. Este espectro continuo se denomina a veces con el término alemán bremsstrahlung, que significa ‘radiación de frenado’, y es independiente de la naturaleza del blanco. Si se analizan los rayos X emitidos con un espectrómetro de rayos X, se encuentran ciertas líneas definidas superpuestas sobre el espectro continuo; estas líneas, conocidas como rayos X característicos, corresponden a longitudes de onda que dependen exclusivamente de la estructura de los átomos del blanco. En otras palabras, un electrón de alta velocidad que choca contra el blanco puede hacer dos cosas: inducir la emisión de rayos X de cualquier energía menor que su energía cinética o provocar la emisión de rayos X de energías determinadas, que dependen de la naturaleza de los átomos del blanco.

El primer tubo de rayos X fue el tubo de Crookes, llamado así en honor a su inventor, el químico y físico británico William Crookes; se trata de una ampolla de vidrio bajo vacío parcial con dos electrodos. Cuando una corriente eléctrica pasa por un tubo de Crookes, el gas residual que contiene se ioniza, y los iones positivos golpean el cátodo y expulsan electrones del mismo. Estos electrones, que forman un haz de rayos catódicos, bombardean las paredes de vidrio del tubo y producen rayos X. Estos tubos sólo generan rayos X blandos, de baja energía. Ver Ion; Ionización.

Un primer perfeccionamiento del tubo de rayos X fue la introducción de un cátodo curvo para concentrar el haz de electrones sobre un blanco de metal pesado, llamado anticátodo o ánodo. Este tipo de tubos genera rayos más duros, con menor longitud de onda y mayor energía que los del tubo de Crookes original; sin embargo, su funcionamiento es errático porque la producción de rayos X depende de la presión del gas en el tubo.

La siguiente gran mejora la llevó a cabo en 1913 el físico estadounidense William David Coolidge. El tubo de Coolidge tiene un vacío muy alto y contiene un filamento calentado y un blanco. Esencialmente, es un tubo de vacío termoiónico en el que el cátodo emite electrones al ser calentado por una corriente auxiliar, y no al ser golpeado por iones, como ocurría en los anteriores tipos de tubos. Los electrones emitidos por el cátodo calentado se aceleran mediante la aplicación de una alta tensión entre los dos electrodos del tubo. Al aumentar la tensión disminuye la longitud de onda mínima de la radiación.

La mayoría de los tubos de rayos X que se emplean en la actualidad son tubos de Coolidge modificados. Los tubos más grandes y potentes tienen anticátodos refrigerados por agua para impedir que se fundan por el bombardeo de electrones. El tubo antichoque, muy utilizado, es una modificación del tubo de Coolidge, con un mejor aislamiento de la carcasa (mediante aceite) y cables de alimentación conectados a tierra. Los aparatos como el betatrón (Ver Aceleradores de partículas) se emplean para producir rayos X muy duros, de longitud de onda menor que la de los rayos gamma emitidos por elementos naturalmente radiactivos.

Los rayos X afectan a una emulsión fotográfica del mismo modo que lo hace la luz (Ver Fotografía). La absorción de rayos X por una sustancia depende de su densidad y masa atómica. Cuanto menor sea la masa atómica del material, más transparente será a los rayos X de una longitud de onda determinada. Cuando se irradia el cuerpo humano con rayos X, los huesos —compuestos de elementos con mayor masa atómica que los tejidos circundantes— absorben la radiación con más eficacia, por lo que producen sombras más oscuras sobre una placa fotográfica. En la actualidad se utiliza radiación de neutrones para algunos tipos de radiografía, y los resultados son casi los inversos. Los objetos que producen sombras oscuras en una imagen de rayos X aparecen casi siempre claros en una radiografía de neutrones

ELECTRÓN

En el Electrón la sustancia espacial se desplaza permanentemente pero en forma oscilatoria desde el PEI hacia el PEE como si intentase vaciar el sector del infinito microcosmos encerrado por el PEI. A la vez este movimiento crea masa o cuerpo para el electrón. Por otro lado el PEE del electrón propulsa una parte de la masa acumulada por el sector ínter esférico. Dada la condición infinitamente elástica de la sustancia espacial pudiese pasarse toda la eternidad extrayendo sustancia desde su ultra microscópico centro que es además infinito. Esto hace a la vez que los electrones se repudien entre sí. Cada uno expulsa sustancia interponiéndola delante de todo lo que se les acerca. Esta condición facilita el carácter errante de los mismos. La apariencia de la sustancia espacial en el área de descompresión es lo que conocemos como luz electrónica.

Todas las partículas están compuestas de dos planos esféricos:

Plano Esferoidal Interno PEI: Que no es más que un área esférica determinada en el interior de otra esfera llamada "Plano Esferoidal externo".

Plano Esferoidal Externo PEE: Que envuelve al Plano Esferoidal Interno

Unidad fundamental de carga eléctrica. Cualquier carga eléctrica es un múltiplo entero de esta cantidad. Su valor es: e = -1,602177·10-19 C y su masa es 9,109390·10-31 kg

RADIOACTIVIDAD

Los átomos que constituyen la materia suelen ser, generalmente, estables pero algunos de ellos se transforman espontáneamente y emiten radiaciones que transportan energía. Es lo que se denomina radioactividad. En la naturaleza, la materia -ya se trate de agua, de gases, de rocas, de seres vivos- está formada por moléculas que son combinaciones de átomos. Los átomos tienen un núcleo cargado positivamente y a su alrededor se desplazan los electrones, cargados negativamente. El átomo es neutro. El núcleo del átomo esta formado a su vez por protones cargados positivamente y neutrones. En ciertos átomos, el núcleo al transformarse emite una radiación, manifestando de esta manera la radioactividad del átomo. Los protones y los neutrones están a su vez formados por quarks.

Los isótopos

Todos los átomos cuyos núcleos tienen el mismo número de protones constituyen un elemento químico. Como tienen el mismo número de protones, tienen el mismo número de electrones y, por consiguiente, las mismas propiedades químicas. Cuando su número de neutrones es diferente, reciben la denominación de "isótopos". Cada isótopo de un elemento determinado se designa por el número total de sus nucleones (protones y neutrones). Por ejemplo, el uranio 238 y el uranio 235 tienen ambos 92 electrones. Su núcleo tiene 92 protones. El isótopo 238 tiene 146 neutrones, o sea, 3 neutrones más que el uranio 235. Los isótopos del hidrógeno

Las radiaciones de la radioactividad

Se distinguen tres clases de radiaciones correspondientes a tres formas de radioactividad. La radioactividad a se traduce por la emisión de un núcleo de helio, denominado partícula a, que es particularmente estable y esta formado por dos protones y dos neutrones. La radioactividad b corresponde a la transformación, dentro del núcleo:- Ya sea de un neutrón en protón, radioactividad b-, caracterizada por la emisión de un electrón e-, Ya sea de un protón en neutrón, radioactividad b+, caracterizada por la emisión de un antielectrón o positrón e+ que sólo se manifiesta en núcleos radioactivos producidos artificialmente por reacciones nucleares. La radioactividad g contrariamente a las dos anteriores, no está vinculada a una transmutación del núcleo. Se traduce por la emisión, por el núcleo, de una radiación electromagnética, como la luz visible o los rayos X, pero más energética. La radioactividad g puede manifestarse sola o conjuntamente con la radioactividad a o b.

Modelo Atómico Dalton

Hacia el 1800, el profesor inglés John Dalton recogió la idea del átomo que dio el filosofo Demócrito, si bien esta vez basándose en métodos experimentales. Mediante el estudio de las leyes pondérales, concluye que:

la materia está constituida por partículas indivisibles (átomos), todos los átomos de un mismo elemento químico son iguales, los átomos de elementos diferentes son también diferentes.

Modelo atómico de Thompson.-

En 1897 Joseph John Thompson realiza una serie de experimentos y descubre el electrón. En tubos de gases a baja presión en los que se establece una diferencia de potencial superior a 10.000 voltios, se comprobó que aparecían partículas con carga eléctrica negativa a las que se llamó electrones, y demostró que habían sido arrancados de los átomos (los cuales eran neutros). Tal descubrimiento modificó el modelo atómico de Dalton, que lo consideraba indivisible. Thompson supuso el átomo como una esfera homogénea e indivisible cargada positivamente en la que se encuentran incrustados los electrones.

5.1.7 Modelo atómico de Rutherford

Posteriormente otro físico inglés, Ernest Rutherford, realizó una serie de experimentos. Hizo incidir sobre una lámina finísima de oro un delgado haz de partículas cargadas positivamente de masa mucho mayor que el electrón y dotadas de energía cinética alta. En el choque observó distintos comportamientos:

la mayoría atravesaban la lámina sin desviarse algunas se desviaban muy pocas retrocedían

Esta experiencia implicaba:

que los átomos estaban casi vacíos, pues la mayoría de las partículas las atravesaban

que hay una zona cargada positivamente, ya que algunas partículas retrocedían o se desviaban. Esta zona debe estar muy concentrada ya que es mayor el número de desviaciones que de choques.

Esto le condujo a proponer en 1911 un nuevo modelo atómico en el que se afirmaba que los átomos estaban constituidos por 2 zonas bien diferenciadas:

Una de carga positiva con el 99,9% de la masa muy concentrada y por tanto de gran densidad a la que llamó núcleo.

Otra rodeando al núcleo a la que llamó corteza donde estaban los electrones con carga negativa girando alrededor del núcleo.

Sin embargo, el modelo de Rutherford presentaba fallos:

Según la teoría clásica de electromagnetismo, una partícula eléctrica acelerada emite energía. Y el electrón girando el torno al núcleo está sometido a una aceleración centrípeta por lo que irradiaría energía, perdería velocidad y, por fin, caería al núcleo desestabilizando el átomo. Pero como el átomo de hecho es estable, las cosas no pueden ocurrir según el modelo de Rutherford.

No explicaba los espectros

TEORIA ONDULATORIA DE LA LUZ

Esta teoría explica las leyes de la reflexión y la refracción , define la luz como un movimiento ondulatorio del mismo tipo que el sonido. Como las ondas se trasmiten en el vacío, supone que las ondas luminosas necesitan para propagarse un medio ideal, el ETER, presente tanto en el vacío como en los cuerpos materiales.

Esta teoría tiene una dificultad fundamental que es precisamente la hipótesis del éter. Tenemos que equiparar las vibraciones luminosas a las vibraciones elásticas transversales de los sólidos, y no transmitiendo por tanto vibraciones longitudinales. Existe, pues, una contradicción en la naturaleza del éter, ya que por un lado debe ser un sólido incompresible y por otro no debe oponer resistencia al movimiento de los cuerpos. (Nota: Las ondas transversales solo se propagan en medios sólidos)

Esta teoría no fue aceptada debido al gran prestigio de Newton. Tuvo que pasar más de un siglo para que se tomara nuevamente en consideración la "Teoría Ondulatoria". Los experimentos de Young (1801) sobre fenómenos de interferencias luminosas, y los de Fresnel sobre difracción fueron decisivos para que se tomaran en consideración los estudios de Huygens y para la explicación de la teoría ondulatoria.

Fue también Fresnel (1815) quien explicó el fenómeno de la polarización transformando el movimiento ondulatorio longitudinal, supuesto por Huygens, en transversal. Existe, sin embargo, una objeción a esta teoría, puesto que en el éter no se puede propagar la luz por medio de ondas transversales, ya que éstas solo se propagan en medios sólidos.

TEORIA DE MAX PLANCK

La teoría cuántica fue primeramente introducida por Planck, en 1900.

Max Planck, (1858 – 1947) nacido en Kiel, Alemania el 23 de abril de 1858. Es el "padre de la cuántica". Planck dedujo la hipótesis de la discontinuidad de la energía y en el año de 1900 Planck descubre los cuantos y formula la teoría que lo haría famoso, y que daría nacimiento a un campo desconocido hasta entonces, la Mecánica Cuántica, la cual da una nueva y muy especial forma de ver los fenómenos físicos. Gracias a sus esfuerzos, y muy merecidamente, Planck recibió el premio Nobel de Física en 1918. Max Planck muere el 4 de octubre de 1947.

Planck retomó la teoría defendida hace tiempo por Newton, la cual en ese entonces ya no tenía validez alguna. Newton consideraba a la luz como un haz de corpúsculos que se propagaban en línea recta, al aparecer la teoría ondulatoria de Huygens (1678), la teoría de los corpúsculos de Newton se vio destruida, pero era retomada nuevamente por Planck en 1900.

La teoría cuántica básicamente nos dice que la luz no llega de una manera continua, sino que está compuesta por pequeños paquetes de energía, a los que llamamos cuantos. Estos cuantos de energía se llaman fotones. Toda luz que nos llega viene por pequeños paquetes, no es continua.

Los fotones son las partículas "fundamentales" de la luz, así como los electrones son las partículas fundamentales de la materia, esta analogía es la que sirvió para realizar el descubrimiento del carácter cuántico de la luz. Por esta misma analogía, años después, de Broglie desarrolló la teoría que formula que la materia también tiene un carácter ondulatorio. La carga eléctrica y la energía tienen una estructura granular (está formada por cuantos), al igual que la materia.

La teoría cuántica ha servido para demostrar los fenómenos que no se pudieron explicar con la teoría ondulatoria de la luz, pero hay fenómenos que no pueden ser explicados con la teoría cuántica, y además hay ciertos fenómenos que pueden ser explicados por ambas teorías. Esto nos lleva a una duda: ¿cuál de las dos teorías es la correcta? ¿o son correctas ambas teorías? ¿Cómo pueden asociarse las dos teorías?

En 1900 emitió una hipótesis que interpretaba los resultados experimentales satisfactoriamente como los cuerpos captaban o emitían energía.

Según Planck, la energía emitida o captada por un cuerpo en forma de radiación electromagnética es siempre un múltiplo de la constante h, llamada posteriormente constante de Planck por la frecuencia v de la radiación.

e =nhv

h=6,62 10-34 J·s, constante de Planck

v=frecuencia de la radiación

A hv le llamó cuanto de energía. Que un cuanto sea más energético que otro dependerá de su frecuencia.

ESPECTROS CONTINUOS Y DISCONTINUOS

Los espectros

Es el conjunto de todas las variaciones electromagnéticas que existen en el universo.

Consiste en la descomposición de la radiación que emite un cuerpo.

Espectros: Continuos y Discontinuos.

Los espectros de absorción continuos se obtienen al intercalar el sólido entre el foco de radiación y el prisma. Así, por ejemplo, si intercalamos un vidrio de color azul quedan absorbidas todas las radiaciones menos el azul.

Cuando los limites de la radiación no son nítidos y forman una imagen continua, por ejemplo, el espectro de la luz blanca.

Los espectros de absorción discontinuos se producen al intercalar vapor o gas entre la fuente de radiación y el prisma. Se observan bandas o rayas situadas a la misma longitud de onda que los espectros de emisión de esos vapores o gases.

Este está formado por rayas separados entre sí, por ejemplo el espectro de emisión del sodio, que consiste en dos líneas amarillas separadas entre sí.

LA TEORÍA DE BOHR

En el caso atómico, la dispersión de electrones está dominada por un campo de largo alcance, el coulombiano, que modifica la trayectoria de la partícula incidente siendo poco probable una interacción más directa con las constituyentes individuales del átomo. Es más, aún cuando esto último ocurre, la transferencia de energía puede verse como un proceso de dos cuerpos interaccionando bajo la influencia del campo generado por el resto de los electrones. Esto, que es consecuencia de la relativamente baja densidad atómica, tiene como resultado que la sección eficaz para procesos elásticos domina sobre las de procesos inelásticos como excitación, ionización y captura. En los términos de Bohr, el átomo es un sistema "abierto".

Las evidencias de Fermi indicaban que el caso nuclear refleja una naturaleza muy diferente, con secciones de reacción del orden de las elásticas o aún mayores. Ante esto, Bohr razona que, dada la densidad nuclear, la probabilidad de que un neutrón atraviese un núcleo sin interacciones directamente con uno de los constituyentes debería ser ínfima. Además, dada la naturaleza de corto alcance y la magnitud de la fuerza nuclear, una vez dentro seguramente se vería obligado a compartir su energía con el resto de los nucleones. El fenómeno de emisión, ya sea de partículas o de radiación gamma, se trataría entonces de un proceso estadístico complicado de desexcitación independiente. En este caso la probabilidad de emitir una partícula idéntica a la incidente, lo que sería el canal "elástico", compite con la de otros procesos energéticamente permitidos (evidencia a)). Los tiempos requeridos por este proceso, además, serían tales que la probabilidad de emisión gamma no sería tampoco despreciable (evidencia b)). En este sentido, para Bohr, el núcleo es un sistema "cerrado" en que las reacciones sólo se pueden llevar a cabo a través de la formación intermedia de un sistema compuesto relativamente estable cuyo decaimiento ocurre luego de un tiempo lo suficientemente largo como para poder ser considerado como un proceso dinámicamente independiente.

Bohr también hizo notar que las diferencias entre el caso atómico y el nuclear también se deberían reflejar en el esquema de niveles de ambos. En el átomo, por la naturaleza del campo coulombiano, la energía de ligadura de los diferentes electrones varía enormemente entre aquellos que se encuentran cercanos al núcleo y aquellos que se encuentran en la periferia. Dado que hay pocos electrones en las partes más externas, y están poco ligados, las excitaciones de baja energía tienden a envolver a electrones individuales siendo relativamente fácil liberarlos. Aun en el caso de excitaciones de electrones más internos al espectro de energías es bastante restringido.

Por otra parte, la idea de un "sistema compuesto", que corresponda a la formación de un ion negativo, es poco probable pues los niveles son escasos y, en todo caso, la energía del electrón incidente será en general mayor que la energía de ligadura correspondiente.

En el caso nuclear, el fenómeno de captura selectiva refleja algún nivel de respuesta resonante. Sin embargo, indica Bohr, estas resonancias no deben ser vistas como las de una partícula aislada en un pozo, ya que en ese caso la probabilidad de que esa misma partícula escape siempre será mayor que la de captura, en contraste con lo observado por Fermi. Las resonancias nucleares deben ser más complejas, de carácter colectivo. Al aumentar la energía incidente, la creciente variedad de maneras en que los constituyentes del núcleo pueden repartírsela debería reflejarse en un rápido aumento de la densidad de niveles que, sin embargo, se mantendrían relativamente angostos dada la baja probabilidad de concentrar suficiente energía en una sola partícula, con capacidad como para ser emitida.

Cabe recordar que la relación entre la "anchura" de un estado, es decir la máxima resolución en energía a la que se puede aspirar al observar su espectro y el tiempo promedio que el núcleo tarda en desexcitarse, está limitado por el principio de incertidumbre de Heisenberg: ?E ? ?t = h. En otras palabras, estados "angostos" corresponden a vidas medias largas y viceversa,

Por lo anterior, el espectro de niveles, aun a excitaciones relativamente altas, seguiría caracterizándose por líneas bien definidas (evidencia c)), hasta el punto en que la probabilidad de emisión de partículas se hiciera comparable. Esto explicaría la ausencia de absorción selectiva para neutrones no moderados aun cuando el espectro de gammas muestra líneas angostas (evidencia d)), fenómeno que sólo refleja la estabilidad del sistema compuesto. A energías suficientemente altas, la captura radiactiva disminuiría, dando lugar a la emisión de partículas, con un espectro de energías que incluya la dispersión inelástica tal como lo observó Ehrenberg.

En cuanto a la dependencia con la energía y con la carga del blanco de la emisión de partículas cargadas, Bohr las explica como simples reflejos de la diferencia entre la energía del estado y la barrera conlombiana (evidencia e)). Estos efectos, dada la independencia entre la formación y el decaímiento del sistema compuesto, tendrían su equivalente en el caso de reacciones inducidas por partículas cargadas. Salvo esta diferencia, la dinámica de reacciones propuesta debería ser la misma, tal como se había observado.

Consciente del carácter puramente conceptual de su teoría, Bohr indica al inicio de su plática las dificultades de desarrollar una descripción detallada ya que, además de tratarse de un problema de muchos cuerpos, aún se desconocía la constitución misma del núcleo. A este respecto, menciona los riesgos de suponer la existencia dentro del núcleo de partículas idénticas a los protones y neutrones libres, en vista de que no hace mucho tiempo la idea de la existencia de electrones en el núcleo, para explicar el decaimiento beta, hubo de cambiarse por el de una creación en el momento de la emisión. Sin embargo, descarta la posibilidad, sugerida por el éxito de Gamow al describir el decaímiento alfa, de la existencia de esas partículas como tales dentro del núcleo.

Para concluir, Bohr especula sobre lo que ocurriría si la energía de las partículas incidentes fuera aumentada de unos cuantos MeV, accesibles en ese momento, a 100 y hasta 1000 MeV, prediciendo que aun a tales energías sobreviviría su sistema compuesto, aumentando solamente el número de partículas emitidas hasta el punto de provocar una verdadera explosión del núcleo.

Hacia 1939, junto con Peielrs y Placzek, Bohr4 ya había desarrollado una primera formulación para calcular secciones eficaces en reacciones tipo núcleo compuesto, también llamadas fusión, en base a la sección de colisión del sistema ("canal") —proyectil-blanco— inicial y la probabilidad de decaímiento a través de las diferentes combinaciones posibles [núcleo residual-partícula emitida] evaluadas a través de las anchuras de los estados poblados en la región del continuo.

ECUACIÓN DE RYDBERG

El razonamiento de Bohr era que la existencia de un átomo como el hidrógeno, formado por un protón cargado positivamente y un electrón cargado negativamente que gira alrededor de él, sólo se puede entender a partir de una determinada distancia básica entre ambos que explique las dimensiones estables del átomo (es decir, que explique por qué el electrón no "cae" en el núcleo). Como las consideraciones dimensiónales demuestran que esta distancia no puede obtenerse mediante una combinación matemática que implique exclusivamente la carga del electrón, e, y su masa, m, Bohr argumentó que había que introducir en la teoría atómica otra constante física fundamental que, combinada adecuadamente con las constantes e y m, proporcionara la distancia buscada. Bohr halló que la constante de Planck, h, cumplía bien ese cometido, y sugirió que la distancia básica venía dada por la combinación matemática

Para ver la fórmula seleccione la opción "Descargar" del menú superior

El valor de esta distancia es de 5,29·10-11 m, que constituye el llamado radio de Bohr del átomo de hidrógeno. Este valor también se denomina radio de la primera órbita de Bohr. Bohr utilizó un concepto revolucionario y totalmente opuesto a la física clásica, introducido por la teoría cuántica. Según este concepto, existe una cantidad física llamada acción que está cuantizada en unidades de valor h (lo que significa que no puede haber una acción menor que h). Bohr explicó la estabilidad del átomo de hidrógeno asignando una única unidad de acción a la primera de las llamadas órbitas de Bohr. Con ello se eliminaba cualquier posible órbita más pequeña, porque una órbita así tendría una acción menor que h, lo que violaría la hipótesis cuántica. A continuación, Bohr supuso que cada órbita permitida del electrón, a medida que se aleja del protón, difiere de la órbita inmediatamente anterior en una única unidad de acción h. Por tanto, la acción de la segunda órbita debe ser 2h, la acción de la tercera órbita 3h, y así sucesivamente. Esto significa que la acción de la órbita número n, donde n es un entero, debe ser nh, y entonces se puede demostrar que el radio de la n-ésima órbita tiene que ser

Para ver la fórmula seleccione la opción "Descargar" del menú superior

Por la dinámica clásica, Bohr sabía que la energía total cinética y potencial de una partícula que se mueve en una órbita circular es negativa, porque la energía potencial negativa de la órbita es mayor que su energía cinética (que es positiva). Además, la energía total es inversamente proporcional al radio de la órbita. Por tanto, asignó a la energía del electrón en la órbita n-ésima el valor

Para ver la fórmula seleccione la opción "Descargar" del menú superior

multiplicando la inversa del radio por e2/2 y cambiando su signo por motivos dimensiónales. Cuando el electrón salta de la órbita n-ésima a la órbita k-ésima, experimenta un cambio de energía igual a

Para ver la fórmula seleccione la opción "Descargar" del menú superior

o

Para ver la fórmula seleccione la opción "Descargar" del menú superior

Este cambio aparece en la forma de un único cuanto de energía, o fotón, emitido o absorbido. Cuando k es mayor que n, se absorbe un fotón; cuando k es menor que n, se emite un fotón.

Así, se llega a la fórmula de Bohr para la inversa de la longitud de onda del fotón emitido cuando el electrón salta de la órbita n a la órbita k, al igualar la fórmula anterior con signo cambiado y la energía del fotón, hc/?. Esto proporciona la ecuación

Para ver la fórmula seleccione la opción "Descargar" del menú superior

La cantidad

Para ver la fórmula seleccione la opción "Descargar" del menú superior

se conoce como constante de Rydberg, R, en honor al físico sueco Robert Johannes Rydberg. Si k se hace igual a 2, la fórmula de Bohr es totalmente equivalente a la de Balmer, y se obtienen todas las líneas de la serie de Balmer haciendo n igual a 3, 4, 5, y así sucesivamente. Esto significa que las líneas de Balmer corresponden a transiciones de electrones desde órbitas superiores hasta la segunda órbita.

Si k se hace igual a 1 y n adopta los valores 2, 3, 4... (transiciones de los electrones a la órbita más baja) se obtiene la llamada serie de Lyman, un conjunto de líneas espectrales situado en el ultravioleta. Otras series de líneas como las de Paschen, Brackett o Pfund, situadas en el infrarrojo, se obtienen igualando k a 3, 4 y 5, y haciendo que n adopte todos los valores enteros superiores

Teoría de la relatividad

Teoría de la relatividad Teoría propuesta por Einstein* en 1905 con respecto a la estructura del tiempo y del espacio, que trasciende algunos de los conceptos y leyes de la física clásica.

Según la teoría de la relatividad, para los objetos que se mueven con velocidades muy próximas a la de la luz no existe explicación de ciertos fenómenos dentro del marco de la física clásica; los postulados de la teoría restringida o especial de la relatividad permiten, sin embargo, explicarlos convincentemente. Para velocidades mucho más pequeñas que

la velocidad de la luz, la teoría de la relatividad coincide exactamente con la física clásica (principio de correspondencia).

La teoría de la relatividad se basa en tres puntos:

1. La longitud de un cuerpo en movimiento disminuye en la dirección de su desplazamiento (contracción longitudinal).

2. El tiempo que transcurre entre dos sucesos simultáneos no es el mismo para dos observadores en movimiento relativo (dilatación del tiempo).

3. La masa de un cuerpo aumenta con su velocidad, de tal forma que a la velocidad de la luz se hace infinita, motivo por el cual esta velocidad es inalcanzable (inaccesibilidad a la velocidad de la luz).

Postulado de la universalidad de la velocidad de la luz: En el vacio, la luz se propaga con la velocidad universal c=299792458 ms-1 en todos los sistemas inerciales de referencia.

Postulado del principio de Relatividad Especial: Las leyes de la naturaleza son

invariantes (tienen la misma forma) bajo el grupo de transformaciones de Lorentz (L,a)

que mantienen la constancia de la velocidad de la luz en todos los sistemas de referencia inerciales.

TEORIA DE BROGLIE

La nueva teoría permite explicar, además, porque en un campo eléctrico o magnético en gran escala los electrones se comportan como corpúsculos de tipo clásico, y lleva también a revenir fenómenos de carter totalmente nuevo. Puesto que la onda luminosa regula la repartición, en el espacio, de los fotones que le están asociados; puesto que en las experiencias de interferencia y de difracción los fotones se localizan en el espacio, proporcionalmente a la intensidad de la onda luminosa en cada punto, habrá que esperar que suceda algo análogo con los corpúsculos materiales; si la propagación de onda asociada a un flujo de corpúsculos materiales de la misma energía da a lugar a interferencias, los corpúsculos en cuestión deberán repartirse en el espacio prpoporcionalmente a la intensiadad de la onda y dar origen a manifiestaciones que la antigua dinámica de los puntos materiales era ciertamente incapaz de prever. La experiencia ha confirmado esta audaz previsión de la teoría. En efecto, según la mecánica ondulatoria, si se envía un haz paralelo de electrones de la misma energía sobre un cristal, la onda que dirige el movimiento de los electrones será difundida por los centros, regularmente dispuestos, de la red cristalina, las onditas difundidas interferirán entre sí y resultará la existencia del máximum de difusión en ciertas direcciones, direcciones que se podrán calcular fácilmente conociendo las constantes de la red cristalina utilizada y la longitud de onda incidente. Puesto que, en la nueva teoría, todo pasa como si la onda dirigiera el conjunto del movimento de los corpúsculos, los electrones difundidos porel cristal deberán concentrarse en las direcciones de difusión privilegiada de que acabamos de hablar. Y esta confirmación ha sido cuantitativa porque se ha podido verificar, con una gran precisión, la exactitud de la fórmula fundamental de la mecánica ondulatoria:

l =h/mv

Fórmula que da la longitud de la onda de la onda asociada a un corpúsculo de masa m y de velocidad v por el intermedio de la constante b de los quanta.

Así se establece sobre una sólida base experimental la nueva mecánica ondulatoria y cuántica. Nos ha ensenado a considerar la constante de b de un Planck como una especie de guión entre la imagen de los corpúsculos. Las dos imágenes son a la vez necesarias y sus valideces respectivas se limitan mútuamente porque la constante b tiene un valor finito.

Quisiera hacer hincapié sobre un punto interesante. Si la constante b tuviera un valor infinatamente pequeno, los quanta de la luz de valor bv serían infinatamente pequenos, y su número, en una radiación de energía dada, sería infinatamente grande: todo pasaría entonces como si las radiaciones tuvieran una estructura continua y puramente ondulatoria, que les atribuían Fresnel y sus continuadores. Por el contrario, los corpúsculos materiales obedecerían entonces exactamente(puede demostarse esto con facilidad) a las leyes clásicas de la dinámica del punto material, y no habría necesidad ninguna de introducir ondas en la teoría de la materia. Por lo tanto, si el valor de valor b fuera infinitamente pequeno, en la física clásica sería rigurosamente exacta. Por el contrario, si la constante de Planck fuera infinitamente grande, los quanta de luz serían enormes y su existencia saltaría a los ojos, por si decirlo, del físico menos perspicaz, pero en este cásalos corpúsculos materiales no seguirán jamás las leyes de la dinámica clásica, y se vería que en su estudio era necesario introducir desde el principio una onda para prever los movimientos de aquellos. Ahora bien, en la naturaleza real, la constante b no es infinitamente grande ni infinitamente pequeña, sino que su valor es finito, pero desde nuestro punto de vista humano parece extremadamente pequeno, pues se expresa rn unidades de c.g.s. Para nosotros, humanos, el caso de b infinitamente pequeno está, pues, mucho más próximo a realizarse que el caso opuesto que es infinitamente grande. Esta simple observación ilustra el verdadero sentido de la evolución reciente de la física. En efecto, ahora se comprende en seguida que la física de ayer, a consecuencia de un examen todavía algo superficial, se haya visto impulsada a proclamar la estructura continua y la naturaleza ondulatoria de la luz, mientras atribuía a la materia una estructura discontinua constituida por corpúsculos que obedecen a las leyes dinámicas clásicas. Han sido necesarios experimentos de los físicos contemporáneos para revelar la otra cara de la realidad; me refiero al aspecto discontinuo de la luz y al aspecto ondulatorio de la materia.

Cuando un electrón se mueve con una rapidez v , tiene asociada una onda de longitud l según la relación:

l =h/mv

Donde:

m es la masa del electrón en reposo ( = 9,11 × 10 - 31 [ kg ] ) y

h es la constante de Planck ( = 6,63 × 10 - 34 [ J - s ] ).

La Teoría Atómica moderna

Cada sustancia del universo, las piedras, el mar, nosotros mismos, los planetas y hasta las estrellas más lejanas, están enteramente formada por pequeñas partículas llamadas átomos. Son tan pequeñas que no son posible fotografiarlas. Para hacernos una idea de su tamaño, un punto de esta línea puede contener dos mil millones de átomos. Estas pequeñas partículas son estudiadas por la química, ciencia que surgió en la edad media y que estudia la materia. Pero si nos adentramos en la materia nos damos cuenta de que está formada por átomos. Para comprender estos átomos a lo largo de la historia diferentes científicos han enunciado una serie de teorías que nos ayudan a comprender la complejidad de estas partículas. Estas teorías significan el asentamiento de la química moderna. Como ya hemos dicho antes la química surgió en la edad media, lo que quiere decir que ya se conocía el átomo pero no del todo, así durante el renacimiento esta ciencia evoluciona. Posteriormente a fines del siglo XVIII se descubren un gran número de elementos, pero este no es el avance más notable ya que este reside cuando Lavoisier da una interpretación correcta al fenómeno de la combustión. Ya en el siglo XIX se establecen diferentes leyes de la combinación y con la clasificación periódica de los elementos (1871) se potencia el estudio de la constitución de los átomos. Actualmente su objetivo es cooperar a la interpretación de la composición, propiedades, estructura y transformaciones del universo, pero para hacer todo esto hemos de empezar de lo más simple y eso son los átomos, que hoy conocemos gracias a esas teorías enunciadas a lo largo de la historia. Estas teorías que tanto significan para la química es lo que vamos a estudiar en las próximas hojas de este trabajo

La Teoría Atómica se basa en la suposición (ratificada después por datos experimentales) de que la materia no es continua, sino que está formada por partículas distintas. Esta teoría describe una parte de nuestro mundo material a la que no es posible acceder por observación directa, y permite explicar las propiedades de las diversas sustancias.

El concepto de átomo ha ido pasando por diversas concepciones, cada una de las cuales explicó en su momento todos los datos experimentales de que se disponía, pero con el tiempo fue necesario modificar cada modelo para adaptarlo a los nuevos datos. Cada modelo se apoya en los anteriores, conservando determinados aspectos y modificando otros.

La primera aparición conocida del concepto de átomo procede de una escuela filosófica griega (Demócrito, Leucipo), la cual consideraba que la sustancia esencial de cualquier objeto debía permanecer constante, y trató de conciliar esa idea con el hecho de que en la materia se puede observar un cambio constante.

Sin embargo, esta primera aproximación no puede considerarse una teoría científica, tal y como la entendemos hoy en día, ya que le faltaba el apoyarse en experimentos rigurosos (la idea moderna de que el conocimiento científico debe apoyarse siempre en experimentos que cualquiera pueda reproducir, procede del Renacimiento, con los trabajos de Copénico, Galileo, Newton...). La primera teoría científica sobre el átomo fue propuesta por John Dalton a principios del siglo XIX, y a partir de ahí se fueron proponiendo diversos modelos.

DISTRIBUCIÓN ELECTRÓNICA

Para llegar a la configuración electrónica de los átomos, se debe conocer el orden que ocupan en los diversos subniveles. Los electrones ocupan los subniveles vacantes, en orden ascendente de sus energías, así pues, llenarán cada subnivel antes de pasar al siguiente.

*** Elementos quimicos:

Un elemento químico es un tipo de materia constituida por átomos de la misma clase. En su forma más simple posee un número determinado de protones en su núcleo, haciéndolo pertenecer a una categoría única clasificada con el número atómico, aun cuando este pueda desplegar distintas masas atómicas. Es un átomo con características físicas únicas, aquella sustancia que no puede ser descompuesta mediante una reacción química, en otras más simples. No existen dos átomos de un mismo elemento con características distintas y, en el caso de que estos posean número másico distinto, pertenecen al mismo elemento pero en lo que se conoce como uno de sus isótopos. También es importante diferenciar entre un «elementos químicos» de una sustancia simple. Los elementos se encuentran en la tabla periódica de los elementos.

El ozono (O3) y el dioxígeno (O2) son dos sustancias simples, cada una de ellas con propiedades diferentes. Y el elemento químico que forma estas dos sustancias simples es el oxígeno (O). Otro ejemplo es el elemento químico carbono, que se presenta en la naturaleza como grafito o como diamante (estados alotrópicos).

Algunos elementos se han encontrado en la naturaleza y otros obtenidos de manera artificial, formando parte de sustancias simples o de compuestos químicos. Otros han sido creados artificialmente en los aceleradores de partículas o en reactores atómicos. Estos últimos suelen ser inestables y sólo existen durante milésimas de segundo. A lo largo de la historia del universo se han ido generando la variedad de elementos químicos a partir de nucleosíntesis en varios procesos, fundamentalmente debidos a estrellas.

Los nombres de los elementos químicos son nombres comunes y como tales deben escribirse sin mayúscula inicial, salvo que otra regla ortográfica lo imponga.

Los elementos químicos son una sustancia que por ningún procedimiento, ni físico ni químico, puede separarse o descomponerse en otras sustancias más sencillas. Entre los elementos químicos tenemos los elementos metálicos y los no metálicos.

Los elementos Metálicos tienen altos puntos de fusión y de ebullición; son indispensables y los podemos encontrar en todas partes y se caracteriza por ser buenos conductores del calor y la electricidad, poseer alta densidad, y ser sólidos a temperaturas normales (excepto el mercurio y el galio); sus sales forman iones electropositivos (cationes) en disolución. Donde Los metales poseen ciertas propiedades físicas características: La mayoría de ellos son de color grisáceo, pero algunos presentan colores distintos; el bismuto (Bi) es rosáceo, el cobre (Cu) rojizo y el oro (Au) amarillo. En otros metales aparece más de un color, y este fenómeno se denomina policroísmo. Los metálicos son cobre, oro, plata, alumio.etc

A diferencia de los elementos no metálicos que metales comprenden una de las tres categorías de elementos químicos siguiendo una clasificación de acuerdo con las propiedades de enlace e ionización. Se caracterizan por presentar una alta electronegatividad, por lo que es más fácil que ganen electrones a que los pierdan.

También tienen sus propiedades No tienen ilustre; diversos colores, Los sólidos suelen ser quebradizos; algunos duros y otros blandos, Malos conductores del calor y la electricidad al compararlos con los metales, La mayor parte de los óxidos no metálicos son sustancias moleculares que forman soluciones ácidas. Entre los no metálicos podemos nombrar: carbono, oxigeno, nitrógeno, azufre etc.

i

ELEMENTOS QUIMICOS:

Es una sustancia que por ningún procedimiento, ni físico ni químico, puede separarse o descomponerse en otras sustancias más sencillas. Las sustancias simples se agrupaban en cuatro grupos, sustancias que pueden considerarse como elementos de los cuerpos, sustancias no metálicas oxidables y acidificables, sustancias metálicas oxidables y acidificables y sustancias salidificables térreas.

Elementos Metálicos:

Son elementos químicos con altos puntos de fusión y de ebullición; son indispensables y los podemos encontrar en todas partes y se caracteriza por ser buenos conductores del calor y la electricidad, poseer alta densidad, y ser sólidos a temperaturas normales (excepto el mercurio y el galio); sus sales forman iones electropositivos (cationes) en disolución.

Propiedades Físicas:

Los metales poseen ciertas propiedades físicas características: La mayoría de ellos son de color grisáceo, pero algunos presentan colores distintos; el bismuto (Bi) es rosáceo, el cobre (Cu) rojizo y el oro (Au) amarillo. En otros metales aparece más de un color, y este fenómeno se denomina policroísmo. Otras propiedades serían:

Brillo: reflejan la luz que incide en su superficie.

Dureza: la superficie de los metales oponen resistencia e dejarse rayar por objetos agudos.

Tenacidad: los elementos presentan mayor o menor resistencia a romperse cuando ejercen sobre ellos una presión.

Ductibilidad: los metales son fácilmente estirados en hilos finos (alambres), sin romperse.

Maleabilidad: ciertos metales, tales como el oro, la plata y el cobre, presentan la propiedad de ser reducidos a delgadas láminas, sin romperse.

Conductividad Calórica: los metales absorben y conducen la energía calórica.

Conductividad Eléctrica: los metales permiten el paso de la corriente eléctrica a través de su masa.

Densidad: la inmensa mayoría de los metales presentan altas densidades.

Fusibilidad: la inmensa mayoría de los metales presentan elevadísimos puntos de fusión, en mayor o menor medida para ser fundidos.

Propiedades químicas:

Reaccionan con los ácidos para formar sales.

Forman iones electropositivos o cationes.

Reaccionan con el oxigeno para formar óxidos básicos.

******** Clasificacion de los elementos quimicos:

Clasificación de los elementos químicos

De acuerdo con la Tabla del Sistema Periódico los elementos químicos se clasifican de la siguiente forma según sus propiedades físicas:

§ Metales

§ Metales de transición.

§ Metaloides

§ No metales

§ Gases Nobles

§ Lactínidos y Actínidos

Metales:

Son elementos químicos que generalmente contienen entre uno y tres electrones en la última órbita, que pueden ceder con facilidad, lo que los convierte en conductores del calor y la electricidad.

Los metales, en líneas generales, son maleables y dúctiles, con un brillo característico, cuya mayor o menor intensidad depende del movimiento de los electrones que componen sus moléculas.

El oro y la plata, por ejemplo, poseen mucho brillo y debido a sus características físicas constituyen magníficos conductores de la electricidad, aunque por su alto precio en el mercado se prefiere emplear, como sustitutos, el cobre y el aluminio, metales más baratos e igualmente buenos conductores.

Un 75% de los elementos químicos existentes en la naturaleza son metales y el resto no metales gases nobles, de transición interna y metaloides.

Metaloides: Son elementos que poseen, generalmente, cuatro electrones en su última órbita, por lo que poseen propiedades intermedias entre los metales y los no metales. Esos elementos conducen la electricidad solamente en un sentido, no permitiendo hacerlo en sentido contrario como ocurre en los metales. El silicio (Si), por ejemplo, es un metaloide ampliamente utilizado en la fabricación de elementos semiconductores para la industria electrónica, como rectificadores diodos, transistores, circuitos integrados, microprocesadores, etc.

No metales: Poseen, generalmente, entre cinco y siete electrones en su última órbita. Debido a esa propiedad, en lugar de ceder electrones su tendencia es ganarlos para poder completar ocho en su última órbita. Los no metales son malos conductores del calor y la electricidad, no poseen brillo, no son maleables ni dúctiles y, en estado sólido, son frágiles.

Gases nobles: Son elementos químicos inertes, es decir, no reaccionan frente a otros elementos, pues en su última órbita contienen el máximo de electrones posibles para ese nivel de energía (ocho en total). El argón (Ar), por ejemplo, es un gas noble ampliamente utilizado en el interior de las lámparas incandescentes y fluorescentes. El neón es también otro gas noble o inerte, muy utilizado en textos y ornamentos lumínicos de anuncios y vallas publicitarias extremadamente oxidante y forma cloruros con la mayoría de los elementos.

Por su reactividad

En los siguientes resúmenes hablaremos de la reactivada de algunos elementos al mezclarse con otro o solo su gran impacto.

Cuando se combina con el hidrógeno para dar cloruro de hidrógeno en presencia de luz difusa se produce una reacción lenta pero si se combinan bajo luz solar directa se produce una explosión y se desprende una gran cantidad de calor.

El cloro también se combina con los compuestos hidrogenados como amoníaco y ácido sulfhídrico formando ácido clorhídrico con el hidrógeno de éstos.

Descompone muchos hidrocarburos pero si se controlan las condiciones de la reacción se consigue la sustitución parcial del hidrógeno por el cloro.

Al rojo reacciona reversiblemente con el vapor de agua formando ácido clorhídrico y liberando oxígeno:

Cl2 + H2 O = 2HCl + ½O2

En frío y en presencia de la luz, reacciona lentamente con el agua dando ácido clorhídrico y ácido hipocloroso HClO, que se descompone a su vez para formar oxígeno. A ello se debe el poder oxidante del agua de cloro.

Puede formar cloruros con la mayor parte de los metales aunque en diferentes condiciones y con distinta intensidad. Por ejemplo, con el sodio en frio reacciona lentamente, pero si se calienta arde con llama muy brillante formándose cloruro de sodio.

******* Origen de los elementos quimicos :

La teoria más aceptada, hoy en dia, para explicar el origen del Universo es la del "Big Bang" o la Gran Explosión.

Ésta postula que hace diez mil o veinte mil millones de años, toda la materia y energía presente, incluyendo el espacio que ellas llenan, se concentro en un volumen muy pequeño y por tanto de una densidad e inestabilidad muy grande. Al ocurrir la inmensa explosión, todo comenzó a expandirse en un proceso que aun no ha cesado.

En el universo primitivo se formo hidrogeno y helio, a partir de las partículas elementales que existían o se formaban como producto de la explosión primigenia.

Sin embargo, el resto de los elementos no podían conformarse en tales condiciones, pues sus núcleos atómicos se disociarían a altas energías. A medida que ocurría la expansión del universo, las temperaturas fueron disminuyendo y con el tiempo, las estrellas se convirtieron en las fábricas naturales de los elementos.

La capacidad que tienen las estrellas para producir determinados elementos químicos depende de sus masas, que pueden ir desde 0,1 hasta 100 veces la masa del Sol. De esta forma, la enorme fuerza gravitacional de estos cuerpos estelares propiciara el proceso.

Ello tiene lógica: para que dos núcleos atómicos se fusiones es necesario vencer la fuerza eléctrica de repulsión de estas partículas, de tal manera que puedan acercarse a una distancia que les permitan atraerse mediante la denominada “fuerza nuclear fuerte”.

En sucesivas fusiones nucleares se han conformado los núcleos de elementos cada vez más pesados, hasta llegar al isotopo más estables del hierro que es el 56. Por ser éste el núcleo más estable, a partir de allí ya no es posible continuar la fusión de núcleos, por lo que entra en vigencia una vía energéticamente menos exigente: la captura de neutrones que, al no tener carga eléctrica, pueden penetrar en los núcleos sin ser repetidos. Luego este núcleo emite radiación beta, dando origen a un nuevo elemento.

En la tierra se conocen actualmente 112 elementos, de los cuales 90 comprendidos entre el hidrógeno y el uranio son elementos naturales, pero existen el promecio y el tecnecio que no son naturales, y los demás se obtienen por reacciones nucleares.

El origen del universo nos da respuesta a las preguntas de porqué solo existen 90 elementos naturales y la abundancia de ellos. La teoría más seguida sobre la formación del universo es la del Big-Bang que se basa en un principio donde toda la materia del universo estaba contenida en un núcleo primitivo con una densidad de aproximado 1096 g/cm3 y una temperatura aproximada a 1032 K, se supone que este núcleo explosionó y distribuyó materia y radiación uniformemente a través del espacio. Se produjo así el principio de expansión del universo que al ir expandiendo se enfrió, lo que permitió la formación de las primeras partículas llamadas quarks, y se diferenciaban ya las cuatro fuerzas principales: gravitacional, electromagnética, nuclear fuerte y débil.

Transcurrido un tiempo de aproximadamente 6·10-6 s desde el Big-Bang se cree que la temperatura era de ˜1,4·1012 K, los quarks en estas condiciones interaccionan entre sí y forman protones, neutrones y después se estabilizan los electrones.

Sigue corriendo el tiempo y en un segundo, después de un periodo de extensas aniquilaciones partícula – antipartícula, se forman los fotones electromagnéticos.

A continuación las fuertes fuerzas nucleares hicieron que una gran cantidad de neutrones y de protones se combinaran para dar núcleos de Deuterio (n + p) y de Helio (2n+ 2p).

Durante un tiempo comprendido entre 10 y 500 s, el universo se comporta como un colosal reactor nuclear de fusión, y va a convertir el H en He, la temperatura antes de esto era tan alta que no podía existir He y solo existía H.

Se cree que a los 8 minutos del Big-Bang la composición del universo era ¼ de la masa era He y las ¾ eran H, también se cree que había 10-3% de Deuterio y 10-6% núcleos de Li.

Existen grandes diferencias en la composición de los elementos en el sistema solar pero existe gran uniformidad en conjunto el universo.

El H es el elemento más abundante en el universo constituyendo el 88,6%, después el He que es 8 veces menor que el H (11.3 %) y los demás elementos el 0,1% .

­La vida media de un neutrón es de 11,3 minutos descomponiéndose en un protón, electrón y De. Un segundo después el universo estaba formado por un plasma de neutrones, protones, neutrinos. La temperatura era tan alta que no había átomos. Este plasma y las elevadas energías dieron lugar a distintas reacciones nucleares. Como consecuencia de la expansión la temperatura fue disminuyendo y cuando se alcanzó el 109 ºK se dieron lugar unas reacciones nucleares.

De las cuatro reacciones la primera es la limitante, ejerciendo un control sobre las demás, dando lugar a una relación de He/H=1/10 que es la relación existente en las estrellas jóvenes.

Con el tiempo la temperatura disminuye lo suficiente para que las partículas positivas puedan capturar electrones y formar átomos y la novedad es que estas reacciones no se ven afectadas por las radiaciones electromagnéticas los átomos pueden interaccionar entre sí independientemente de la radiación. Esta interacción conduce a la formación de átomos diferentes, los cuales empiezan a condensarse y forman el núcleo de estrellas y la radiación se expande con el universo.

Para un tiempo de 11,3 minutos la mitad del universo eran protones y la temperatura era de 5·108 ºK. Pasado otro tiempo de 30 a 60 minutos los núcleos formados eran los siguientes: 2H; 3He; 4He; 5He. Este último tiene una vida media corta que es de 2,1·10-21, transformándose en el anterior átomo. En este tiempo los núcleos formados son establecidos hasta el 4He. Van evolucionando a átomos y en las estrellas tiene lugar reacciones nucleares que dan lugar a los elementos químicos.

Para justificar esta formación se recurre a los hornos de combustión que actúan como reactores nucleares y en estos se van a formar los elementos.

La primera etapa de formación es el llamado Horno de Hidrógeno y consiste en que se van acumulando los núcleos para formar estrellas densas en las cuales la fuerza de gravedad mantenga en el núcleo unas elevadas temperaturas que van a facilitar algunas reacciones de tipo nuclear. Los átomos que se van a formar en esta etapa son H y He y a partir de estos en el núcleo de las estrellas se van a formar otros elementos.

Par generar otros elementos se requiere la combinación de H-He ó He-He por reacciones termonucleares de fusión de las estrellas con mayor temperatura interna @108K. Ahora se dan en el interior otras reacciones que constituyen el horno de He.

En estrellas mayores con temperatura mayor a ˜ 6·108 K, que además de las reacciones anteriores se pueden dar otras como el Horno de Carbono-Nitrógeno.

El resultado de todas estas reacciones hasta ahora es la transformación de H en He, pero ya vamos obteniendo varios elementos más pesados. Estos elementos más pesados interaccionan entre sí para dar lugar a otros más pesados.

La síntesis de estos elementos va en función de la temperatura que hay en el centro del núcleo de la estrella. Las reacciones de estos elementos pesados, dependen de una compleja relación ente, la temperatura, la estabilidad del mismo y su vida media. La máxima estabilidad de estos sé sitúa alrededor del hierro, y todas las reacciones que se producen hasta el Fe son de tipo exotérmico. Por esto el hierro es más abundante que sus vecinos.

Si las reacciones se produjeran indefinidamente el universo estría comprendido prácticamente de Fe, pero a consecuencia de la expansión del universo la temperatura fue disminuyendo de forma que las reacciones de fusión se hicieron más lentos ó pararon.

En el universo existen elementos más pesados que el Fe, y estos se formaron a partir de la adición de neutrones a los núcleos y posterior emisión electrónica. En entornos de baja densidad neutrónica la adición se producía más lentamente, sin embargo en entornos de alta densidad neutrónica la adición era rápida, como se da en a las Novas se puede adicionar de 10 a 15 neutrones en poco tiempo originando otro tipo de elementos.

36

Fe

26

+

13

1

n

0 flecha 69

Fe

26 flecha 69

Co

27

+

0

e

-1

Los elementos muy pesados se pueden formar también por este tipo en donde después de la adición neutrónica tiene lugar la perdida de electrones de los núcleos.

Para la explicación del origen de los elementos en la tierra se discuten muchas teorías de las cuales la más aceptada es la siguiente: la tierra en un principio tenía una temperatura muy elevada, por la expansión sufrió un enfriamiento generándose las distintas capas; un núcleo denso, sólido y formado por Fe y Ni; envuelto por una fase líquida(magma); y por último una corteza externa.

La distribución de los elementos en la tierra ha dependido de las fuerzas que han actuado sobre ella. Nos encontramos en la corteza muchos depósitos de materiales (menas), las cuales se justifican se recurre a la tectónica de placas¼. Estos materiales proceden del magma fluido que asciende por grietas existentes en la corteza llegando a la superficie, en esta se solidifican formando filones u otros dispositivos, explicando así las distintas concentraciones de elementos de la corteza.

Los agentes atmosféricos nos dan una reacción la cual ayuda a comprender algunos depósitos de Al no esperados, esta reacción son:

4 KalSi3O8 + 4 CO2 + 22 H2O flecha 4 K+ + 4 HCO3- + Al4Si4O10(OH)8 + 8 H4SiO4

La clasificación de los elementos de la tierra podía ser en 4 grandes grupos:

Siderófilos: se refiere a aquellos elementos amantes del Fe ó parecidos a él, y normalmente se encuentran e el núcleo metálico ó cerca de este, pero también se encuentran en la corteza terrestre pero su aparición es debida a reacciones que los originan.

Litófilos: son aquellos elementos amantes de las rocas, forman parte de ellas, estos se combinan fácilmente con él O y X y son los más abundantes de la corteza terrestre.

Calcófilos: Son aquellos que se combinan fácilmente con S, Ar, Se... También forman parte mayoritariamente de la corteza terrestre.

Atmósfilos: Son aquellos elementos gaseosos que forman parte de la atmósfera terrestre.

******** tabla periodica de los elementos:

La tabla periódica de los elementos clasifica, organiza y distribuye los distintos elementos químicos conforme a sus propiedades y características; su función principal es establecer un orden específico agrupando elementos.

Suele atribuirse la tabla a Dmitri Mendeléyev, quien ordenó los elementos basándose en sus propiedades químicas,1 si bien Julius Lothar Meyer, trabajando por separado, llevó a cabo un ordenamiento a partir de las propiedades físicas de los átomos.2 La estructura actual fue diseñada por Alfred Werner a partir de la versión de Mendeléyev. En 1952, el científico costarricense Gil Chaverri (1921-2005) presentó una nueva versión basada en la estructura electrónica de los elementos, la cual permite colocar las series lantánidos y los actínidos en una secuencia lógica de acuerdo con su número atómico.

--- Origen de la tabla periodica:

En 1869, un Químico ruso llamado Dmitri Mendeleev ideó una forma de organizar los elementos que eran conocidos en su época.

El los colocó en orden de acuerdo con su peso atómico, y luego los agrupó en filas y columnas basado en sus propiedades químicas y físicas.

1869...eso es bastante antes del modelo de Schrödinger , o inclusive del modelo de Rutherford.

Es verdad, Mendeleev no tenía ni idea de cómo estaban conformados los átomos o de por qué se comportaban como lo hacían. Sin embargo, fué capaz de organizar la tabla periódica casi exactamente como la conocemos hoy en día--excepto que algunos elementos estaban faltando, porque eran desconocidos en 1869.

Basado en los 'huecos' de su tabla, Mendeleev incluso tuvo éxito en predecir la existencia y propiedades de varios nuevos elementos.

Eso es realmente impresionante. Puede decirme más acerca de cómo Medeleev organizó la tabla? Qué clase de propiedades utilizó?

Su regla básica fué esta: los elementos en cualquier columna, o grupo, de la tabla son similares a sus compañeros de columna. Por ejemplo, observe la primera columna a la izquierda, bajo el hidrógeno (H). Los elementos en este grupo son conocidos como los metales alcalinos; todos son metales blandos que reaccionan violentamente con agua para producir gas hidrógeno.

La tabla periódica actual viene del año 1914 cuando H.Moseley determinó el número atómico de los elementos y comprobó que si se colocaban los elementos por orden creciente de su número atómico tenía lugar una repetición periódica de ciertas propiedades físicas o químicas. Así, la tabla se distribuye en grupos y periodos. De esta forma los periodos, o lo que es lo mismo, las filas, se designan por números correlativos del 1 al 7 presentando dentro de ellos propiedades diferentes que varían progresivamente desde el comportamiento metálico hasta el comportamiento no metálico para acabar siempre como un gas noble. El nivel energético en el que se encuentran los electrones de valencia en los elementos de un mismo periodo es el mismo ya que uno posee un electrón de valencia más que el anterior y es que ese electrón recibe el nombre de electrón diferenciador porque es el responsable de la diferencia entre las propiedades de los elementos correlativos en un periodo. Por otro lado, los grupos o columnas, se designan mediante números correlativos del 1 al 18 y entre los elementos de un mismo grupo podemos decir que tienen las mismas propiedades debido a que todos coinciden en su configuración electrónica de los electrones de valencia. La configuración electrónica de gas noble es la más estable y es por eso que todos los elementos intentan imitarla. Así por ejemplo, se forman con mucha frecuencia aniones como el F- y el Cl- y cationes como el Li+, el Na+ y el K+ entre otros. Como podemos ver, la tabla periódica juega con la configuración electrónica de los elementos y eso por eso que resulta imprescindible conocer lo que son los iones isoelectrónicos que se podrían definir como aquellos iones que tienen la misma configuración electrónica y es que al comparar sus radios podemos concluir algunas de sus propiedades químicas. Por ejemplo; los iones de configuración electrónica:1s2 2s2 2p6 3s2 3p6 podrían ser el Cl- y el S2-

------conepto en la tabla periodica :

La tabla periódica de los elementos es una tabla (cuadro con casilleros) que contiene todos los elementos químicos conocidos hasta el presente, con determinadas características de los mismos, y organizados debido a ciertos criterios. En ella aparecen diferenciados tres tipos de elementos: los elementos inertes, los elementos representativos, y los elementos de transición.

Los elementos inertes, también conocidos como gases nobles, poseen sus orbitales completos. Además, es poco común que se combinen con otros elementos, debido a que son estables; y son considerados a su vez no metales. Una pequeña cantidad de gases nobles se halla en el aire.

Los elementos representativos se clasifican en metales y no metales; y todos ellos tienen la propiedad de tener orbitales incompletos en su último nivel de energía. Los metales tienden a ceder electrones, mientras que los no metales tienden a recibir electrones.

Los elementos de transición son metales, cuyos átomos tienen una configuración bastante compleja; esto se debe a que tienen orbitales incompletos en distintos niveles de energía.

El responsable de la creación de la tabla periódica de los elementos fue el químico ruso Dmitri Ivanovich Mendeleiev (1834-1907), que publicó este invento el 6 de marzo de 1869, integrado en aquel entonces portan sólo 63 elementos químicos. Mendeleiev, al igual que muchos científicos del siglo XIX, se interesó por conocer más arduamente las propiedades de los elementos químicos y las relaciones que existen entre varios de ellos. Dos meses después de publicar la tabla periódica, le anunció de este suceso a la Sociedad Rusa de Química, que el propio Mendeleiev había ayudado a fundar.

Cuando se combinan átomos que son parte de distintos elementos químicos, se forman diversas moléculas, que integran los compuestos químicos. Por ejemplo: el dióxido de carbono es un compuesto químico, conformado por un átomo de carbono y dos átomos de oxígeno.

***** tipos de compuestos quimicos :

ada compuesto tiene unas propiedades físicas y químicas

definidas que le permite

n

diferenciarse de los demás.

Tales propiedades son, en buena medida, reflejo de su

composición elemental. Pero esto no significa que las

propiedades de un compuesto sean la simple sumatoria

de las propiedades de los elementos que le constituyen.

El cloruro de sodio sería un buen ejemplo para desmentirlo.

En condiciones ambientales estándar, el sodio (izquierda)

es un sólido gris; el cloro (derecha) un gas

amarillo-verdoso

muy tóxico. Al combinarse ambos producen un sólido

blanco, la sal de mesa (centro) por todos conocida.

Por otra parte, dos compuestos pueden estar formados

por los mismos elementos pero dependiendo de la

proporción en que se encuentren combinados pueden

tener propiedades químicas y físicas bien diferentes. Por

ejemplo: el agua y el agua oxigenada son sustancias

diferentes debido a la proporción en que se encuentran

presentes en ellas los elementos que las componen.

Para calmar la sed no tomaríamos agua

oxigenada, sustancia muy corrosiva

que al intentar ingerirla destrozaría

nuestro tracto digestivo, a pesar de que

está formada por los elementos

hidrógeno y oxígeno al igual que

nuestra vital aguaEste ejemplo nos conduce a valorar la importancia de la

escritura exacta de las llamadas fórmulas de los

compuestos. La fórmula del agua es, como prácticamente

todo el mundo sabe, H

2

O y, en cambio, la del agua

oxigenada, cuyo nombre químico formal es peróxido de

hidrógeno, es H

2

O

2

. Dado que estas fórmulas representan

la composición de una molécula del compuesto, por lo

que se les conoce como fórmulas moleculares, es posible

afirmar que una molécula de agua tiene 2 átomos de

hidrógeno por cada átomo de oxígeno, mientras que la

molécula de peróxido de hidrógeno tiene 2 átomos de

hidrógeno y 2 de oxígeno.Muchos compuestos no se presentan comúnmente en

la naturaleza como moléculas aisladas sino más bien

en estado sólido, como infinitas redes de átomos

ionizados. Se les conoce como compuestos iónicos. Su

representación molecular se hace a través de fórmulas

empíricas, las cuales constituyen la proporción mínima

de números enteros en que se combinan los átomos de

los diferentes elementos. Por ejemplo, cuando decimos

que la fórmula del fluoruro de calcio (fotografía derecha)

es CaF

2

, no estamos pensando en una molécula sino

en una red con innumerables iones en la que por cada

ión de calcio se encuentran 2 iones de fluoruro. Para

los compuestos moleculares en cuya composición se

encuentran átomos no del todo ionizados también es

posible escribir la fórmula empírica. Es el caso del agua

oxigenada cuya fórmula empírica sería HO

--- Oxidos :

Un Óxido es un compuesto inorgánico que se forma al unir algún elemento químico con Oxígeno. Los óxidos se clasifican en dos grupos: Óxidos Básicos y Óxidos Ácidos.

Un Óxido es básico si el elemento químico que se junta con el Oxígeno (O) es un metal. Un Óxido es Ácido si el elemento químico que se junta con el oxígeno es un no metal.

Óxidos

Son un extenso grupo de compuestos binarios que resultan de la unión de un metal o no metal con el oxigeno. Se clasifican en óxidos básicos u óxidos metálicos y óxidos ácidos u no metálicos.

Óxidos Metálicos:

Son compuestos con elevado punto de fusión que se forman como consecuencia de la reacción de un metal con él oxigeno. Esta reacción es la que produce la corrosión de los metales al estar expuesto al oxigeno del aire.

Un ejemplo de formación de un óxido metálico es la reacción del magnesio con él oxigeno, la cual ocurre con mayor rapidez cuando se quema una cinta de magnesio. La cinta de magnesio de color grisáceo se torna en un polvo blanco que es el óxido de magnesio. Ecuación:

Magnesio + Oxigeno Óxido de Magnesio

2mg + O2 2mgO

Los Óxidos Metálicos se denominan también Óxidos Básicos por que tiene la propiedad de reaccionar con el agua y formar bases o hidróxidos.

Ejemplo: Óxido de Magnesio + Agua Hidróxido de Magnesio

mgO + H2O mg (OH)2

Las bases se pueden reconocer fácilmente a través de un cambio de color en un indicador acido-básico como el papel tornasol. Las disoluciones básicas tornan el papel tornasol rosado a un color azul al entrar en contacto con ella.

Óxidos No Metálicos u Ácidos:

Los óxidos no metálicos son compuestos de bajos puntos de fusión que se forman al reaccionar un no metal con el oxigeno. Se denominan también anhídridos y muchos de ellos son gaseosos.

Ejemplo: Carbono + Oxigeno Dióxido de Carbono.

C + O2 CO2

Cuando los óxidos metálicos reaccionan con el agua forman ácidos, por lo que se le llaman también óxidos ácidos.

Ejemplo: Dióxido de Carbono + Agua Acido Carbónico

CO2 + H2O H2CO3

Los Ácidos se pueden también reconocer por el cambio de color de un indicador ácido-base como el papel tornasol. Las disoluciones ácidas tornan el papel tornasol azul a un color rosado al entrar en contacto con ella.

Los ácidos producidos por la reacción de los óxidos no metálicos con el agua se denominan Oxácidos debido a que contienen Oxigeno.

--- acidos:

Los ácidos y las bases son grupos de compuestos que pueden ser identificados por su acción frente a los indicadores.

Los hidrácidos y los oxácidos se forman de la siguiente manera:

Al reaccionar un no metal con el hidrogeno se forma un hidrácido.

Ejemplo: Cloro + Hidrogeno Acido Clorhídrico

Cl2 + H2 2HCl

Al reaccionar un óxido ácido con agua se forma un oxácido.

Ejemplo: Trióxido de Azufre + Agua Acido Sulfúrico.

SO3 + H2O H2SO4.

Propiedades de Los Ácidos:

Tienen sabor ácido como en el caso del ácido cítrico en la naranja.

Cambian el color del papel tornasol azul a rosado, el anaranjado de metilo de anaranjado a rojo y deja incolora a la fenolftaleina.

Son corrosivos.

Producen quemaduras de la piel.

Son buenos conductores de electricidad en disoluciones acuosas.

Reaccionan con metales activos formando una sal e hidrogeno.

Reacciona con bases para formar una sal mas agua.

Reaccionan con óxidos metálicos para formar una sal mas agua.

-------- hidroxidos:

1. HIDROXIDOS O BASES? Un hidróxido o una base es el resultado de la combinación de un óxido metálico (óxido básico) con agua. Los hidróxidos son compuestos ternarios (es decir, constituidos por tres elementos): un metal, oxígeno e hidrógeno. Pero en los hidróxidos el oxígeno y el hidrógeno se encuentran formando uno o más grupos OH (grupos hidroxilo), por lo que estos compuestos siempre tienen el mismo número de átomos de oxígeno que de hidrógeno. Los hidróxidos se caracterizan por tener el grupo OH-, llamado hidróxido, de valencia -1, unido a un metal. Estos compuestos se llaman hidróxidos (o bases) por el carácter básico de sus disoluciones acuosas. Según la IUPAC, se nombran con la palabra genérica hidróxido seguida del metal correspondiente en genitivo; si el metal necesita especificar la valencia, se utiliza la notación de Stock. El grupo hidróxido se coloca siempre a la derecha por ser más electronegativo que el metal.

2. LOS HIDROXIDOS? son un grupo de compuestos químicos formados por un metal y uno o varios aniones hidroxilos en lugar de oxígeno como sucede con los óxidos.? El hidróxido, combinación que deriva del agua por sustitución de uno de sus átomos de hidrógeno por un metal, está presente en muchas bases. No debe confundirse con hidroxilo, el grupo OH formado por un átomo de oxígeno y otro de hidrógeno, característico de los alcoholes y fenoles.? Los hidróxidos se formulan escribiendo el metal seguido del grupo dependiente con la base de un ion de radical adecuado con hidroxilo; éste va entre paréntesis si el subíndice es mayor de uno. Se nombran utilizando la palabra hidróxido seguida del nombre del metal, con indicación de su valencia, si tuviera más de una. Por ejemplo, el Ni(OH)2 es el hidróxido de níquel (II) y el Ca(OH)2 es el hidróxido de calcio (véase Nomenclatura química).? Las disoluciones acuosas de los hidróxidos tienen carácter básico, ya que éstos se disocian en el catión metálico y los iones hidróxido. Esto es así porque el enlace entre el metal y el grupo hidróxido es de tipo iónico, mientras que el enlace entre el oxígeno y el hidrógeno es covalente. Por ejemplo:? NaOH(aq) ? Na+(aq) + OH-Los hidróxidos resultan de la combinación de un óxido básico con el agua. Los hidróxidos también se conocen con el nombre de bases. Estos compuestos son sustancias que en solución producen iones hidroxilo.

---- Anhibridos :

Antiguamente se denominaba anhídrido a los óxidos que se formaban por la combinación de los no metales con el oxigeno.

Son llamados también óxidos ácidos, porque estos óxidos al reaccionar con el agua dan ácidos.

Otra aceptación, de la palabra anhídrido, es la ausencia de agua en las sales cristalizadas. Por ejemplo. Citrato de sodio.anhídrido

o citrato de sodio.2H2O. ( con dos moléculas de agua) el primero es anhídrido, el segundo es bi hidratado.

Se llaman anhidrido u oxido. Es un compuesto químico que contiene uno o varios átomos de oxígeno.

También son llamados anhídridos porque son compuestos que han perdido una molécula de agua dentro de sus moléculas. Por ejemplo el anhídrido carbónico: CO2

----- Sales :

Sales

Son compuestos que resultan de la reacción de un acido con una base.

Formulación y nomenclatura:

Una sal haloidea, es decir, una sal que no contiene oxígeno se puede formar a través de reacciones como las siguientes:

Ejemplo: Potasio + Cloro Cloruro de potasio

2 k + Cl2 2HCl

Al reaccionar un metal con un halógeno.

Ejemplo: Magnesio + Ácido clorhídrico Cloruro de Magnesio

Mg + 2 HCl MgCl2 + H2

Al reaccionar un metal activo con un hidrácido.

Ejemplo: Ácido bromhídrico + Óxido metálico Bromuro de + agua

Sodio

2HBr + 2NaO 2 NaBr + H2O

Al reaccionar un hidrácido con un óxido metálico.

Ejemplo: Ácido clorhídrico + Hidróxido de sodio Cloruro de sodio + Agua

HCl + NaOH NaCl + H2O

Una oxisal, es decir, una sal que contiene oxígeno se puede formar así:

Al reaccionar un hidrácido y un hidróxido (neutralización)

Ejemplo: Magnesio + Ácido sulfúrico Sulfato de magnesio

+ Hidrógeno

Mg + H2SO4 MgSO4 + H2O

Al reaccionar un metal activo con un oxácido.

Ejemplo: Hidróxido de calcio + Dióxido de carbono Carbonato de

Calcio + agua

Ca(OH)2 + CO2 CaCO3 + H2O

Al reaccionar un hidróxido con un anhídrido.

Al reaccionar un hidróxido y un oxácido (neutralización)

Ejemplo: Ácido nítrico + hidróxido de bario Nitrato de

Bario + agua

2HNO3 + Ba(OH)2 Ba(NO3)2 + 2H2O

Propiedades de las Sales:

Las sales son por lo general sólido de sabor salado disoluciones acuosas conducen la corriente eléctrica. La mayoría no cambian el color del papel tornasol porque son sales neutras como el cloruro de sodio (NaCl) y nitrato de potasio (KNO3); no obstante, hay sales ácidas y básicas. Las sales ácidas forman disoluciones ácidas como en el caso del cloruro de aluminio (AlCl3) y cloruro de amonio (NH4Cl). Las sales básicas forman disoluciones básicas como en el caso del carbonato de sodio (Na2CO3) y cianuro de potasio (KCN).

...

Descargar como  txt (104.3 Kb)  
Leer 66 páginas más »
txt