Calculo Numerico
jastma20 de Octubre de 2013
2.509 Palabras (11 Páginas)426 Visitas
Interpolación
En el subcampo matemático del análisis numérico, se denomina interpolación a la construcción de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos.
En ingeniería y otras ciencias es frecuente disponer de un cierto número de puntos obtenidos por muestreo o a partir de un muestreo o experimento y pretender construir una función que los ajuste.
Otro problema estrechamente ligado con el de la interpolación es la aproximación de una función complicada por una más simple. Si tenemos una función cuyo cálculo resulta costoso, podemos partir de un cierto número de sus valores e interpolar dichos datos construyendo una función más simple. En general, por supuesto, no obtendremos los mismos valores evaluando la función obtenida que si evaluásemos la función original, si bien dependiendo de las características del problema y del método de interpolación usado la ganancia en eficiencia puede compensar el error cometido.
En todo caso, se trata, a partir de n puntos distintos x_k llamados modos de obtener una función f que verifique
f(x_k )=y_k=1,…,n
A la que se denomina función interpolante de dichos puntos. Algunas formas de interpolación que se utilizan con frecuencia son la interpolación lineal, la interpolación polinómica, de la cual la anterior es un caso particular, o la interpolación por medio de splines.
Diferencia Finita
El método de diferencias finitas es una clásica aproximación para encontrar la solución numérica de las ecuaciones que gobiernan el modelo matemático de un sistema continuo. Es valioso familiarizarse con ésta aproximación porque tal conocimiento reforzará la comprensión de los procedimientos de elementos finitos. Básicamente, en una solución por diferencias finitas, las derivadas son reemplazadas por aproximaciones en diferencias finitas, convirtiendo entonces un problema de ecuaciones diferenciales en un problema algebraico fácilmente resoluble por medios comunes.
Un uso importante de diferencias finitas está en el análisis numérico, especialmente en las ecuaciones diferenciales ordinarias numéricas y las ecuaciones diferenciales parciales numéricas, que tienen como objetivo la solución numérica las ecuaciones diferenciales parciales ordinarias de y respectivamente. La idea es substituir los derivados que aparecen en la ecuación diferencial por las diferencias finitas que las aproximan. El cálculo de las diferencias finitas permite encontrar el grado del polinomio por el cual puede describirse una función tabular.
Dada la función y=f(x) definida en forma tabular como la que se presenta en la Tabla, y suponiendo que los valores de la variable independiente xn están igualmente espaciados entre sí, es decir que el incremento o paso es igual a un valor constante denominado h.
x y
x0 y0
x1=x0+h y1
x2=x0+2h y2
x3=x0+3h y3
……
xn=x0+nh yn
Interpolación con incrementos constantes e Interpolación de Newton
Si se desea encontrar un valor incluido entre dos valores consecutivos de una función tabular puede utilizarse la interpolación de Newton.
Dada la función y=f(x), definida en la tabla anterior, para encontrar un valor de x incluido entre dos valores consecutivos de la tabla mencionada, xh<x<xh+1 se supone que la función f(x) se aproxima a un polinomio Pn(x) de grado n, que pasa por todos los puntos que definen a la función (puesto que la diferencia de orden n es aproximadamente constante).
Recordando la definición de diferencias pueden calcularse los valores de la variable dependiente y en función de estas diferencias como se indica a continuación:
y_1=y_0+a_0
y_2=y_1+a_1=(y_0+a_0 )+(a_0+b_0 )=y_0+2a_0+b_0
y_(3=) y_2+a_2=y_0+2a_0+b_0+(a_1+b_1 )=(y_0+2a_0+b_0 )+(a_0+b_0+b_0+c_0 )=y_0+3a_0+3b_0+c_0
En estas expresiones puede verse que aparecen las primeras de las distintas diferencias de órdenes sucesivos a partir de y_0, afectadas por los coeficientes del desarrollo del binomio de Newton. Suponiendo que esto es verdadero para cualquier valor de y, puede establecerse que:
y_k=y_0+〖ka〗_0+(k(k-1))/2! b_0+(k(k-1)(k-2))/3! c_0+(k(k-1)(k-2)(k-3))/4! d_0..
Y como: a_0=∆y_0.b_0=∆^(2y_0 ).c_0=∆^(3y_0 ).d_0=∆^4 y_0…… puede escribirse:
y_k=y_0+〖k∆y〗_0+k(k-1)/2! ∆^(2y_0 )+(k(k-1)(k-2))/3! ∆³y_0 (k(k-1)(k-2)(k-3))/4! ∆^4 y_0+⋯
Esta fórmula es verdadera para todo valor entero positivo de k, se denomina fórmula de interpolación de Newton y es aplicable para cualquier valor de xk correspondiente o no a la tabla. En esta fórmula, yk es un valor aproximado (interpolado) de la función obtenida para x=xk : y_0 es el valor inicial de y, el cual se considera inmediato al valor que se trata de interpolar; 〖∆y〗_0,〖∆2y〗_0,〖∆3y〗_0,〖∆4y〗_0,……, son las diferencias hacia adelante de órdenes sucesivas correspondientes a y_0:yk se determina como sigue:
x_k=x_0+kh⟹k=(x_k-x_0)/h
Interpolación con incrementos variables e Interpolación de Lagrange
Este método se utiliza para funciones tabulares en las cuales los valores de x no son equidistantes. Para realizar la interpolación, se busca un polinomio que pase por todos los puntos. Si se tienen n puntos el polinomio debe ser de grado n-1, o sea:
y=a_0 x^(n-1)+a_1 x^(n-2)+⋯+a_(n-2) x+a_(n-1)
Este polinomio puede escribirse en la forma:
y=A_1 (x-x_2 )(x-x_3 )…(x-x_n )+A_2 (x-x_n )(x-x_3 )…(x-x_n )+⋯+A_n (x-x_1 )(x-x_2 )…(x-x_(n-1))
El grado del polinomio es n-1 los coeficientes A_0,A_1,A_2…A_n se determinan de manera que la gráfica del polinomio pase por todos los puntos especificados.
Si x=xn, se tiene y=yn, entonces reemplazando en la fórmula para llegar a que:
y_n=A_n (x_n-x_1 )(x_n-x_2 )(x_n-x_3 )…(x_n-x_(n-1))
Y despejando el coeficiente An:
An=y_n/((x_n-x_1 )(x_n-x_2 )(x_n-x_3 )…(x_n-x_(n-1)))
Método de mínimos cuadrados
El procedimiento mas objetivo para ajustar una recta a un conjunto de datos presentados en un diagrama de dispersión se conoce como "el método de los mínimos cuadrados". La recta resultante presenta dos características importantes:
1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta de ajuste
∑▒〖(y-y)=0〗
2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra recta daría
Una suma menor de las desviaciones elevadas al cuadrado ∑▒〖(y-y)²⟶0〗 (mínima).
El procedimiento consiste entonces en minimizar los residuos al cuadrado Ci²
Re emplazando nos queda
La obtención de los valores de a y b que minimizan esta función es un problema que se puede resolver recurriendo a la derivación parcial de la función en términos de a y b: llamemos G a la función que se va a minimizar:
Ajuste de Polinomios
Un experimento produce un conjunto de datos (x1,y2), (x2,y2), ..., (xn,yn). El objetivo en esta sección es determinar una fórmula y = ƒ(x) que relacione las variables. Generalmente se dispone de un conjunto de variables previamente establecidas, y lo que hay que hallar son los valores más adecuados de unos coeficientes o de unos parámetros para estas fórmulas. Aunque existen muchas funciones que se pueden usar, suele ocurrir que existe un modelo matemático subyacente, basado en la situación física que se esté estudiando y determina la forma de la función salvo algunos coeficientes.
Si la relación entre xi e yi para 1 i n, es lineal, entonces la función que mejor se ajusta a los datos es una línea de aproximación de la forma:
y = ax + b
Una forma para encontrar la recta “óptima” es el método de los mínimos cuadrados y consiste en hallar el valor de las constantes a y b de tal manera que reduzcan al mínimo la suma de los cuadrados de los errores entre los valores yi dados y los valores y(xi) = axi + b en la línea de aproximación.
(7)
La cantidad (7) se puede considerar una función de dos “variables” a y b, a la que se le quiere hallar un mínimo. Para que ocurra un mínimo es necesario que las derivadas parciales sean cero.
Transformaciones Aproximaciones funcionales
Es conocido que cuando realizamos cualquier medición, estamos cometiendo errores de diferente índole según la magnitud de medida del instrumento utilizado. Por lo tanto los métodos vistos hasta ahora no nos interesan porque nos daban polinomios que pasaban por dichos puntos. Lo que nos interesa ahora el que el error que haya entre los puntos y la hipotética función
...