Metodología de Superficie de Respuesta (MSR)
Kevin HerreraPráctica o problema21 de Septiembre de 2025
2.595 Palabras (11 Páginas)99 Visitas
“Año de la recuperación y consolidación de la economía peruana”
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS
Universidad del Perú, Decana de América
ESCUELA PROFESIONAL DE INGENIERÍA INDUSTRIAL
[pic 1]
Curso:
Sistema de Gestión de Calidad
Práctica 6
Docente:
Cevallos Ampuero, Juan Manuel
Grupo 4:
Kevin Alonso Herrera Tarazona
Paola Abigail Condor Torres
José Carlos Díaz Muñoz
Luis Vidal Rivera Montalvan
Paucar Ramirez Bruno Eduardo
Tineo Ccaccya Jesus Jonas
Lima, Perú
2025-I
ÍNDICE
ÍNDICE
1. OBJETIVOS 3
2. FUNDAMENTO TEÓRICO 3
2.1 Introducción sobre la Metodología de Superficie de Respuesta (MSR) 3
2.2 Álgebra matricial, mínimos cuadrados, análisis de varianza y principios del diseño experimental 5
2.2.1 Álgebra matricial aplicada al MSR 5
2.2.2 Método de mínimos cuadrados 5
2.2.3 Estimación de la varianza del error 6
2.2.4 Análisis de varianza (ANOVA) 6
2.3 Diseño y modelos de primer orden 7
2.3.1 Formulación del modelo de primer orden 7
2.3.2 Codificación de variables 8
2.3.3 Varianza de la respuesta predicha 8
2.3.4 Estimación de efectos y prueba de significancia 8
2.3.5 Diseños factoriales fraccionarios 8
2.3.6 Sesgo en estimadores por aliasing 9
3. MATERIALES 9
4. PROCEDIMIENTO 9
5. CONCLUSIONES 9
6. BIBLIOGRAFÍA 9
OBJETIVOS
- Elaborar el MSR, MODELO DE PRIMER ORDEN.
FUNDAMENTO TEÓRICO
2.1 Introducción sobre la Metodología de Superficie de Respuesta (MSR)
La Metodología de Superficie de Respuesta (MSR), o Response Surface Methodology (RSM), se fundamenta en un conjunto de técnicas estadísticas y matemáticas diseñadas para modelar y analizar problemas en los que una o más variables de respuesta dependen de varias variables independientes o factores. Esta metodología es especialmente útil en experimentos donde se busca optimizar una respuesta que puede ser influida por múltiples factores simultáneamente.
Según Cevallos, el enfoque experimental se basa en tres objetivos centrales:
- Diseñar un conjunto de experimentos que proporcione datos fiables y pertinentes sobre la variable de interés.
- Ajustar un modelo matemático, normalmente empírico y de naturaleza polinómica, que relacione la respuesta con los factores experimentales.
- Determinar la combinación óptima de los niveles de los factores que maximice (o minimice) dicha respuesta (MSR INTRODUCCIÓN, p. 2). Esta secuencia refleja una aproximación estructurada y racional al diseño experimental, en contraste con los enfoques de prueba y error.
Uno de los fundamentos clave de la MSR es su estrecha relación con el análisis de regresión. El análisis de regresión constituye la base estadística de los modelos usados en la MSR, donde el “análisis de regresiones es una de las herramientas más utilizadas para investigar las relaciones de causa y efecto” y se aplica para construir modelos que expliquen cómo varía una respuesta con respecto a los factores que la afectan (MSR INTRODUCCIÓN, p. 3). En la MSR, este análisis no solo se aplica durante la fase de ajuste del modelo, sino que también guía el diseño experimental y la posterior optimización del sistema.
El modelo matemático más común en la MSR es de tipo polinómico. La función verdadera de respuesta, denotada como η = Ø(X₁, X₂, ..., Xₖ), suele ser desconocida, pero puede aproximarse localmente mediante expansiones en serie de Taylor, lo que conduce a modelos polinomiales de primer o segundo orden, dependiendo de si se requiere capturar efectos lineales o curvaturas en la superficie de respuesta (MSR INTRODUCCIÓN, pp. 5–6). Por ejemplo, una ecuación de primer orden describe un plano (sin curvatura), mientras que una de segundo orden permite representar colinas, valles o puntos de máximo o mínimo en la superficie.
En estos modelos, los coeficientes de regresión (β₀, β₁, β₂, ..., β₁₂) adquieren interpretaciones específicas: los términos lineales (como β₁ y β₂) indican los efectos principales de los factores, mientras que los términos cuadráticos (como β₁₁, β₂₂) y los de interacción (como β₁₂) capturan la curvatura y las interacciones entre factores (MSR INTRODUCCIÓN, p. 7). La estimación de estos parámetros se realiza comúnmente mediante el método de mínimos cuadrados, generando así una “función de respuesta predicha” que puede utilizarse para estimar la variable de interés dentro de la región experimental (MSR INTRODUCCIÓN, p. 8).
Asimismo, se subraya la naturaleza secuencial de la investigación en MSR, aspecto propuesto originalmente por Box y Youle (1955), donde los experimentos se planifican en etapas. Cada conjunto de ensayos proporciona información que sirve para refinar los modelos, identificar factores importantes y ajustar nuevas estrategias experimentales. Este enfoque iterativo no solo mejora la eficiencia del proceso, sino que también incrementa la probabilidad de éxito al permitir el aprendizaje progresivo sobre el sistema bajo estudio (MSR INTRODUCCIÓN, p. 15).
Finalmente, la ejecución efectiva de un programa experimental en el contexto de MSR requiere una planificación rigurosa. Como señala Montgomery (1991), se deben seguir siete pasos clave: desde la definición del problema hasta la formulación de conclusiones. Esta estrategia incluye no solo la selección de factores y diseño experimental, sino también una interpretación crítica de los datos obtenidos (MSR INTRODUCCIÓN, p. 17).
2.2 Álgebra matricial, mínimos cuadrados, análisis de varianza y principios del diseño experimental
2.2.1 Álgebra matricial aplicada al MSR
Se definen formalmente los tipos de matrices relevantes: transpuestas, simétricas, diagonales, identidad, ortogonales e idempotentes. Además, se introduce la notación matricial como herramienta para expresar modelos lineales y sistemas de ecuaciones normales.
“Una matriz que consta de una sola columna se denomina vector columna... Notacionalmente, las matrices se denotan con letras mayúsculas en negrita y los vectores con letras minúsculas en negrita” (MSR MIN CUADRADOS Y ANVA, p. 2).
2.2.2 Método de mínimos cuadrados
Se presenta el modelo de regresión lineal en su forma general:
Y =Xβ+ε
donde Y es el vector de respuestas observadas, X es la matriz de diseño, β el vector de parámetros y ε el vector de errores aleatorios.
El método de mínimos cuadrados (MMC) se utiliza para estimar los coeficientes β, minimizando la suma de los errores al cuadrado. La solución se obtiene mediante la ecuación:
[pic 2]
“El modelo Y = Xβ + ε es correcto, entonces b es un estimador insesgado de β” (p. 6). Se detallan sus propiedades estadísticas:
- Insesgamiento (esperanza matemática igual al valor verdadero).
- Varianza mínima entre los estimadores lineales insesgados (Teorema de Gauss-Markov).
- Normalidad multivariada de las estimaciones cuando los errores son normales.
2.2.3 Estimación de la varianza del error
Dado que la varianza del error (σ²) normalmente es desconocida, se estima a partir de los residuos:
[pic 3]
Este estimador es esencial para calcular intervalos de confianza y realizar pruebas de hipótesis.
2.2.4 Análisis de varianza (ANOVA)
El análisis de varianza se utiliza para evaluar la significancia global del modelo ajustado. Se descompone la variación total en:
- SST: suma total de cuadrados
- SSR: suma de cuadrados de la regresión (modelo)
- SSE: suma de cuadrados del error
La tabla ANOVA permite aplicar la prueba F:
[pic 4]
“Si el valor de F... supera el valor de la tabla, se rechaza Ho... y se infiere que la variación explicada por el modelo es significativa” (p. 11).
También se introducen los coeficientes R² y R² ajustado como medidas de ajuste del modelo.
2.2.5 Pruebas de significancia individuales
Se utilizan pruebas t para verificar si los coeficientes estimados βi difieren significativamente de cero, lo que indica que el factor tiene un efecto en la respuesta. La prueba se basa en:
[pic 5]
“En el nivel α = 0,05, Ho : β_{22} = 0 se rechaza en favor de β_{22} < 0” (p. 17).
...