Espacios Vectoriales
jacksonarciaTutorial14 de Septiembre de 2012
4.431 Palabras (18 Páginas)773 Visitas
REPÚBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO POLITÉCNICO
“SANTIAGO MARIÑO”
ESCUELA DE INGENIERÍA DE MANTENIMIENTO MECÁNICO
EXTENSIÓN MATURÍN
PROFESOR: INTEGRANTES:
Eglimar Ramírez Carvajal Adonis C.I: 22.724.774
Villanueva Jorge C.I: 20.420.818
Cedeño David C.I: 24.118.710
Maturín, agosto de 2012
Índice
Introducción 3
Estructuras Algebraicas 5
• Propiedades de las Operaciones 6
Espacios Vectoriales 7
• Operaciones Básicas con Vectores en R2 7
• Operaciones Básicas con Vectores en Rn 8
• Cuerpo 8
• Sub cuerpo 9
Sub – Espacios Vectoriales 10
Combinación Lineal 11
• Envolvente Lineal 11
Conjuntos Generadores 12
• Espacio fila y Espacio Columna de una Matriz 12
• Conjuntos Generadores e Independencia Lineal 13
Dependencia e Independencia Lineal 13
• Para comprobar la independencia Lineal. 13
Base y Dimensión 13
• Base y Dependencia Lineal 14
• Numero de Vectores de una Base 14
• Dimensión de un Espacio Vectorial 14
• Para ver que una base en un espacio n-dimensional 14
Coordenadas y cambio de base 14
• Cambio de base 15
Aplicación de los Espacios Vectoriales 15
• Secciones cónicas y rotación de ejes 15
• Ecuaciones diferenciales Lineales 15
Transformaciones Lineales 16
• Existencia de una transformación inversa 17
Conclusión 18
Bibliografía 19
Introducción
Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales.
Los espacios vectoriales se derivan de la geometría afín, a través de la introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la vinculación de las soluciones de una ecuación con dos variables a la determinación de una curva plana. Para lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores de los vectores. Este trabajo hizo uso del concepto de coordenadas baricéntricas de August Ferdinand Möbius de 1827.
La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de los espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.
El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores se reconsideraron con la presentación de los números complejos de Argand y Hamilton y la creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre de vector). Son elementos de R2 y R4; el tratamiento mediante combinaciones lineales se remonta a Laguerre en 1867, quien también definió los sistemas de ecuaciones lineales.
En 1857, Cayley introdujo la notación matricial, que permite una armonización y simplificación de las aplicaciones lineales. Casi al mismo tiempo, Grassmann estudió el cálculo baricéntrico iniciado por Möbius. Previó conjuntos de objetos abstractos dotados de operaciones. En su trabajo, los conceptos de independencia lineal y dimensión, así como de producto escalar están presentes. En realidad el trabajo de Grassmann de 1844 supera el marco de los espacios vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo que hoy en día se llaman álgebras. El matemático italiano Peano dio la primera definición moderna de espacios vectoriales y aplicaciones lineales en 1888.
Un desarrollo importante de los espacios vectoriales se debe a la construcción de los espacios de funciones por Henri Lebesgue. Esto más tarde fue formalizado por Banach en su tesis doctoral de 1920 y por Hilbert. En este momento, el álgebra y el nuevo campo del análisis funcional empezaron a interactuar, en particular con conceptos clave tales como los espacios de funciones p-integrables y los espacios de Hilbert. También en este tiempo, los primeros estudios sobre espacios vectoriales de infinitas dimensiones se realizaron.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización.
En el trabajo que se presenta a continuación ahondaremos en puntos tales como las Estructuras Algebraicas, Espacios Vectoriales, Sub – Espacios Vectoriales, Combinación Lineal, Conjuntos Generadores, Dependencia e Independencia Lineal, Base y Dimensión, Coordenadas y cambio de base, Aplicación de los Espacios Vectoriales, Transformaciones Lineales.
Estructuras Algebraicas
Una estructura algebraica es un conjunto de operaciones binarias, esta se representan <A, operación>, <{a, b, c}, operación>, así se representan las estructuras algebraicas sencillas, las dobles se representan <conjunto, 1o. operación, 2o. operación>.
Las operaciones definidas entre los elementos del conjunto, poseen diversas propiedades que establecen una Estructura algebraica al conjunto.
Tabla de Cayley es una tabla que contiene filas y columnas, para poder trabajar con estas tablas se necesitan dos conjuntos finitos ejemplo:
A {1,2,3} y B {4,5,6}
C = A x B ! C donde x es una multiplicación ordinaria.
C = A x B ! C donde x es una multiplicación ordinaria.
x 4 5 6
1 4 5 6
2 8 10 12
3 12 15 18
Donde c = {4, 5, 6, 8, 10, 12, 15,18}
Las Estructuras Algebraicas se pueden clasificar según la cantidad de operaciones que tengan. Según las leyes que cumplan Las estructuras algebraicas de una operación así tienen un nombre en particular así:
Si cumple la ley de cierre se le denomina como estructura algebraica monoide.
Si cumple la de cierre y la asociativa es un semigrupo.
Si cumple la de cierre, la asociativa y la ley de identidad es un semi grupo con identidad.
Si cumple la de cierre, la asociativa, la de identidad e la inversa es un grupo.
Si cumple ser grupo mas la ley conmutativa es un grupo abeliano.
Mientras que las estructuras algebraicas de dos operaciones, pueden ser: Anillos, divisor cero, dominio entero o cuerpo o campo.
Para que una estructura algebraica de dos operaciones sea anillo esta debe analizarse separadamente y así se clasifica:
Para que sea anillo la primera operación debe de ser grupo abeliano como lo vimos anteriormente. Luego debemos de ver si las dos operaciones son compatibles y esto se hace haciendo que la segunda operación de distribuya en la primera operación.
Si los dos primeros pasos se cumplen entonces empezaremos a operar la segunda operación tomando en cuenta que:
Si la primera operación es grupo abeliano y la segunda operación es grupo entonces este será un anillo. Si la segunda operación es un semigrupo este será anillo conmutativo o abeliano. Si la segunda operación es un semigrupo con identidad es un anillo con identidad.
• Propiedades de las Operaciones:
Ley de cierre: esta dice que al operar dos elementos el resultado debe pertenecer al conjunto asignado en la operación.
Elemento inverso o Identidad: este dice que un elemento operado con el neutro de la operación esta debe de dar de resultado el elemento ejemplo: el elemento neutro de la suma es el 0 entonces a + 0 = a y 0 + a = 0.
Elemento inverso: este es aquel que al ser operado con cualquier elemento este debe de dar de resultado el elemento neutro de la operación ejemplo: el elemento inverso de la suma es la resta entonces a + (-a) = 0 y (-a) + a = 0.
Ley asociativa: este dice que los elementos se pueden asociar sin alterar el resultado ejemplo: (a + b) +
...