ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Acerca de la arquitectura de computadores

juanitomeza1545Resumen29 de Noviembre de 2021

5.856 Palabras (24 Páginas)157 Visitas

Página 1 de 24

Una nueva edad de oro para la arquitectura informática


Por John L. Hennessy, David A. Patterson
Comunicaciones de ACM, febrero de 2019, vol. 62 No. 2, Páginas 48-60
10.1145 / 3282307
Comentarios

VISTO COMO:ImpresiónAplicación movilBiblioteca digital ACMTexto completo (PDF)En la edición digitalCUOTA:Enviar por correo electrónicoCompartir en redditCompartir en StumbleUponCompartir en Hacker NewsCompartir en TweeterCompartir en Facebook

Cuota

Desde computadoras complejas hasta con un conjunto de instrucciones reducido. A principios de la década de 1980 se realizaron varias investigaciones sobre computadoras con conjuntos de instrucciones complejas (CISC) habilitadas por los grandes microprogramas en las tiendas de control más grandes. Con Unix demostrando que incluso los sistemas operativos podían usar lenguajes de alto nivel, la pregunta crítica se convirtió en: "¿Qué instrucciones generarían los compiladores?" en lugar de "¿Qué lenguaje ensamblador usarían los programadores?" El aumento significativo de la interfaz hardware / software creó una oportunidad para la innovación de la arquitectura.

El laureado de Turing, John Cocke, y sus colegas desarrollaron ISA y compiladores más simples para miniordenadores. Como experimento, reorientaron sus compiladores de investigación para usar solo las operaciones simples de registro-registro y transferencias de datos de almacenamiento de carga del IBM 360 ISA, evitando las instrucciones más complicadas. Descubrieron que los programas se ejecutaban hasta tres veces más rápido utilizando el subconjunto simple. Emer y Clark 6 encontraron que el 20% de las instrucciones VAX necesitaban el 60% del microcódigo y representaban solo el 0,2% del tiempo de ejecución. Un autor (Patterson) pasó un año sabático en DEC para ayudar a reducir errores en el microcódigo VAX. Si los fabricantes de microprocesadores iban a seguir los diseños CISC ISA de las computadoras más grandes, pensó que necesitarían una forma de reparar los errores de microcódigo. Escribió un artículo de este tipo, 31pero la revista Computer lo rechazó. Los revisores opinaron que era una idea terrible construir microprocesadores con ISA tan complicados que debían ser reparados en el campo. Ese rechazo puso en tela de juicio el valor de las NIA CISC para los microprocesadores. Irónicamente, los microprocesadores CISC modernos sí incluyen mecanismos de reparación de microcódigo, pero el resultado principal de su rechazo de papel fue inspirarlo a trabajar en ISA menos complejas para computadoras con conjuntos de instrucciones reducidos por microprocesadores (RISC).

Estas observaciones y el cambio a lenguajes de alto nivel llevaron a la oportunidad de cambiar de CISC a RISC. Primero, las instrucciones RISC se simplificaron, por lo que no hubo necesidad de un intérprete microcodificado. Las instrucciones RISC eran típicamente tan simples como microinstrucciones y podían ser ejecutadas directamente por el hardware. En segundo lugar, la memoria rápida, anteriormente utilizada para el intérprete de microcódigo de un CISC ISA, se reutilizó para ser una caché de instrucciones RISC. (Una caché es una memoria pequeña y rápida que almacena en búfer las instrucciones ejecutadas recientemente, ya que es probable que dichas instrucciones se reutilicen pronto). En tercer lugar, los asignadores de registros basados ​​en el esquema de coloración de gráficos de Gregory Chaitin hicieron que fuera mucho más fácil para los compiladores usar registros de manera eficiente, lo que benefició a estas ISA de registro-registro. 3 Finalmente, la Ley de Moore significaba que había suficientes transistores en la década de 1980 para incluir una ruta de datos completa de 32 bits, junto con cachés de instrucciones y datos, en un solo chip.


En la era post-PC actual, los envíos de x86 han caído casi un 10% por año desde el pico en 2011, mientras que los chips con procesadores RISC se han disparado a 20 mil millones.


Por ejemplo, la Figura 1 muestra los microprocesadores RISC-I 8 y MIPS 12 desarrollados en la Universidad de California, Berkeley y la Universidad de Stanford en 1982 y 1983, respectivamente, que demostraron los beneficios de RISC. Estos chips se presentaron finalmente en la conferencia de circuitos líder, la Conferencia Internacional de Circuitos de Estado Sólido IEEE, en 1984. 33 , 35 Fue un momento extraordinario cuando unos pocos estudiantes graduados de Berkeley y Stanford pudieron construir microprocesadores que eran posiblemente superiores a los de la industria. podría construir.

[pic 1]
Figura 1. Microprocesadores MIPS de la Universidad de California, Berkeley, RISC-I y la Universidad de Stanford.

Estos chips académicos inspiraron a muchas empresas a construir microprocesadores RISC, que fueron los más rápidos durante los siguientes 15 años. La explicación se debe a la siguiente fórmula para el rendimiento del procesador:

Hora / Programa = Instrucciones / Programa x (Ciclos de reloj) / Instrucción x Hora / (Ciclo de reloj)

Más tarde, los ingenieros de DEC demostraron 2 que el CISC ISA más complicado ejecutaba alrededor del 75% del número de instrucciones por programa como RISC (el primer término), pero en una tecnología similar, CISC ejecutaba entre cinco y seis ciclos de reloj más por instrucción (el segundo término). , lo que hace que los microprocesadores RISC sean aproximadamente 4 veces más rápidos.

Tales fórmulas no formaban parte de los libros de arquitectura de computadoras en la década de 1980, lo que nos llevó a escribir Computer Architecture: A Quantitative Approach 13 en 1989. El subtítulo sugirió el tema del libro: Usar medidas y puntos de referencia para evaluar las compensaciones cuantitativamente en lugar de confiar más en la intuición y la experiencia del arquitecto, como en el pasado. El enfoque cuantitativo que utilizamos también se inspiró en lo que el libro del laureado Turing Donald Knuth había hecho por los algoritmos. 20

VLIW, EPIC, Itanium. Se suponía que la próxima innovación de ISA sucedería tanto a RISC como a CISC. La palabra de instrucción muy larga (VLIW) 7 y su prima, la computadora de instrucción explícitamente paralela (EPIC), el nombre que Intel y Hewlett Packard le dieron al enfoque, usaban instrucciones amplias con múltiples operaciones independientes agrupadas en cada instrucción. Los defensores de VLIW y EPIC en ese momento creían que si una sola instrucción podía especificar, digamos, seis operaciones independientes, dos transferencias de datos, dos operaciones de números enteros y dos operaciones de punto flotante y la tecnología del compilador podría asignar operaciones de manera eficiente en las seis ranuras de instrucciones, el hardware podría simplificarse. . Al igual que el enfoque RISC, VLIW y EPIC cambiaron el trabajo del hardware al compilador.

Trabajando juntos, Intel y Hewlett Packard diseñaron un procesador de 64 bits basado en ideas de EPIC para reemplazar el x86 de 32 bits. Se establecieron altas expectativas para el primer procesador EPIC, llamado Itanium por Intel y Hewlett Packard, pero la realidad no coincidió con las primeras afirmaciones de sus desarrolladores. Aunque el enfoque EPIC funcionó bien para programas de punto flotante altamente estructurados, tuvo problemas para lograr un alto rendimiento para programas enteros que tenían fallas de caché menos predecibles o ramas menos predecibles. Como señaló más tarde Donald Knuth: 21"Se suponía que el enfoque de Itanium era tan fantástico hasta que resultó que los compiladores deseados eran básicamente imposibles de escribir". Los expertos notaron retrasos y bajo rendimiento de Itanium y lo rebautizaron como "Itanic" en honor al desafortunado barco de pasajeros Titantic. El mercado nuevamente finalmente se quedó sin paciencia, lo que llevó a una versión de 64 bits del x86 como sucesora del x86 de 32 bits, y no a Itanium.

La buena noticia es que VLIW aún combina aplicaciones más limitadas con programas pequeños y ramas más simples y omite cachés, incluido el procesamiento de señales digitales.

Volver arriba

RISC vs CISC en las eras de PC y Post-PC

AMD e Intel utilizaron equipos de diseño de 500 personas y tecnología de semiconductores superior para cerrar la brecha de rendimiento entre x86 y RISC. Nuevamente inspirado por las ventajas de rendimiento de canalizar instrucciones simples frente a complejas, el decodificador de instrucciones tradujo las complejas instrucciones x86 en microinstrucciones internas similares a RISC sobre la marcha. Luego, AMD e Intel canalizaron la ejecución de las microinstrucciones RISC. Cualquier idea que los diseñadores de RISC estuvieran usando para el desempeño de cachés de datos e instrucciones separadas, cachés de segundo nivel en chip, canalizaciones profundas y obtención y ejecución de varias instrucciones simultáneamente, podrían incorporarse en el x86. AMD e Intel enviaron aproximadamente 350 millones de microprocesadores x86 anualmente en el pico de la era de las PC en 2011. Los altos volúmenes y los bajos márgenes de la industria de las PC también significaron precios más bajos que las computadoras RISC.

...

Descargar como (para miembros actualizados) txt (39 Kb) pdf (577 Kb) docx (313 Kb)
Leer 23 páginas más »
Disponible sólo en Clubensayos.com