ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Tipo De Memorias Arquitectura De Computadores


Enviado por   •  1 de Diciembre de 2013  •  9.755 Palabras (40 Páginas)  •  478 Visitas

Página 1 de 40

Memorias

Las memoras de los computadores, aunque parezcan conceptualmente sencillas, presentan tal vez la más amplia diversidad de tipos, tecnología, estructura, prestaciones y coste, de entre todos los componentes de un computador. Ninguna tecnología es óptima para satisfacer las necesidades de un computador. En consecuencia, un computador convencional está equipado con una jerarquía de subsistemas de memoria algunos internos (directamente accesibles por el procesador), y otros externos (accesibles por el procesador mediante módulos entrada/salida).ra

Características clave de los sistemas de memoria de computadores

Ubicación Prestaciones

Procesador Tiempo de acceso

Interna (principal) Tiempo de ciclo

Externa (secundaria) Velocidad de transferencia

Capzacidad Dispositivo físico

Tamaño de la palabra Semiconductor

Numero de palabras Soporte magnético

Unidad de transferencia Soporte óptico

Palabra Magneto-óptico

Bloque Características físicas

Método de acceso Volátil/ no volátil

Acceso secuencial Borrable/ no borrable

Acceso directo Organización

Acceso aleatorio

Acceso asociativo

Características de las memorias caché

El objetivo de la memoria caché es lograr que la velocidad de la memoria sea lo mas rápida posible, consiguiendo al mismo tiempo un tamaño grande al precio de memorias semiconductoras menos costosas. El concepto se ilustra en la Figura 4.3. Hay una memoria principal relativamente grande y mas

Lenta, junto con una memoria caché más pequeña y rápida. La caché contiene una copia de partes de la memoria principal. Cuando el procesador intenta leer una palabra de memoria, se hace como comprobación para determinar si la palabra está en la caché. Si es así, se entrega dicha palabra al procesador. Si no, un bloque de memoria principal, consistente en un cierto número de palabras se transfiere a la caché y después la palabra es entregada al procesador. Debido al fenómeno de localidad de las referencias, cuando un bloque de datos es capturado por la caché para satisfacer una referencia a memoria simple, es probable que se hagan referencias futuras a la misma posición de memoria o a otras palabras del mismo bloque.

La Figura 4.4 describe la estructura de un sistema de memorias caché/principal. La memoria principal consta hasta 2n palabra direccionables, teniendo cada palabra una única dirección de n bits. Esta memoria la consideramos dividida en número de bloques de la longitud fija, de K palabras por bloque. Es decir, hay M=2n/K bloques. La cache consta de C líneas. Cada línea contiene K palabras, más una etiqueta de cuantos bits: denominándose tamaño de línea al número de palabras que hay en la línea. El número de líneas es considerablemente menor que el número de bloques de memoria principal (C<<M). en todo momento, un subconjunto de los bloques de memoria reside en líneas de la caché. Si se lee una palabra de un bloque de memoria, dicho bloque es transfiriendo a una de las líneas de la caché. Ya que hay más bloques que líneas, una línea dada no puede dedicarse univoca y permanentemente a un bloque. Por consiguiente, cada línea incluye una etiqueta que identifica que bloque particular almacena. La etiqueta es usualmente una porción de la dirección de memoria principal, como describiremos más adelante en esta sección.

La Figura 4.5 ilustra una operación de lectura. El procesador genera la dirección, RA, de una palabra a leer. Si la palabra está en la caché es entregada al procesador. Si no, el bloque que contiene dicha palabra se encarga en la caché y la palabra después es llevada al procesador. La Figura 4.5 indica como estas dos últimas operaciones se realizan en paralelo y refleja la organización mostrada en la Figura 4.6 que es típica en las organizaciones de caché actuales. En ella la caché se conecta con el procesador mediante líneas de datos, de control y de direcciones. Las líneas de datos y de direcciones conectan también con buffers de datos y de direcciones que las comunican con un bus del sistema a través del cual se accede a la memoria principal. Cuando ocurre un acierto de caché, los buffers de datos y de direcciones se inhabilitan, y la comunicación tiene lugar solo entre el procesador y cacheé, sin tráfico en el bus. Cuando ocurre un fallo de caché, la dirección deseada se carga en el bus del sistema y el dato es llevado a través del buffer de datos, tanto a la caché como al procesador. En otras formas de organización, la caché se interpone físicamente entre el procesador y la memoria principal para todas las líneas de datos, direcciones y control. En este caso, frente a un fallo de caché, la palabra deseada es primero leída por la caché y después transferida desde esta al procesador.

Tamaños de caché de algunos procesadores

Memorias internas

El elemento básico de una memoria semiconductora es la celda de memoria. Aunque se utilizan diversas tecnologías electrónicas todas las celdas de memoria semiconductoras comparten ciertas propiedades:

• Presentan dos estados estables (o semiestables), que pueden emplearse para representar el 1 y el 0 binarios.

• Puede escribirse en ellas (al menos una vez) para fijar su estado.

• Pueden leerse para detectar su estado.

La Figura 5.1 describe el funcionamiento de una celda de memoria. Lo más común es que la celda tenga tres terminales para transportar señales eléctricas. El terminal de selección como su nombre lo indica si se trata de una lectura o de uno a cero. En una lectura, el tercer terminal proporciona l se utiliza como salida del estado de la celda. Los detalles sobre estructura interna, funcionamiento y temporización de la celda de memoria, dependen de la tecnología específica de circuito integrado.

DRAM Y SRAM

Las palabras individuales de la memoria son accedidas directamente mediante lógica de direccionamiento cableada interna.

La tabla 5.1 lista los tipos principales de memorias semiconductoras. Las mas común es la denominada memoria de acceso aleatorio (RAM, Random Access Memory). Este es, por supuesto, un mal uso del término ya que todas las memorias listadas en la tabla son de acceso aleatorio. Una característica distintiva de las RAM es que es posible tanto leer datos como escribir rápidamente nuevos datos en ellas. Tanto la lectura como la escritura se ejecutan mediante señales eléctricas.

La otra característica distintiva de una RAM es que es volátil. Una RAM debe estar siempre alimentada. Si se interrumpe la alimentación se pierden los datos. Así pues, las RAM utilizadas en los computadores son la DRAM y SRAM.

RAM dinámica. Las tecnologías de RAM se dividen en dos variantes dinámicas y estáticas. Una RAM dinámica (DRAM) está hecha con celdas que almacenan datos como cargas eléctricas en condensadores. La presencia o ausencia de una carga en un condensador se interpretan como el uno o el cero binarios. Ya que los condensadores tienen una tendencia natural a descargarse. La RAM dinámicas requieren refrescos periódicos para mantener memorizados los datos. El termino dinámica hace referencia a esta tendencia a que la carga almacenada se pierda, incluso manteniéndola siempre alimentada.

RAM estática. En contraste con la dinámica, un RAM estática (SRAM)es un dispositivo digital, basado en los mismos elementos que se usan en el procesador. En una RAM estática, los valores binarios se almacenan utilizando configuraciones de puertas que forman biestables (flip flops). Una descripción de los biestables. Una RAM estática retendrá sus datos en tanto se mantenga alimentada.

La Figura 5.2b muestra la estructura típica de una celda elemental de memoria SRAM. Cuatro transistores (T1, T2, T3, T4) están conectados en una configuración cruzada que produce estados lógicos estables, en el estado lógico 1, el punto de C1 está en alta y el C2 en baja. En este estado T1 y T4 están en corte y T2, T3 están en conducción. En el estado lógico 0, , el punto de C1 está en baja y el C2 en alta. En este estado T1 y T4 están en conducción y T2, T3 están en corte. Ambos estados son estables y se mantienen mientras se esté alimentando la celda con una tensión continua de corriente directa (dc) a diferencia de DRAM, no necesita refrescar el dato para mantenerlo.

Al igual que una celda DRAM, la línea de direcciones en la SRAM se emplea para abrir o cerrar un conmutador. La línea de direcciones controla este caso dos transitores (T5 yT6). Cuando se aplica una señal a esta línea, los dos transistores entran en conducción, permitiendo la operación de lectura o escritura. En una operación de escritura el valor de bit deseado se aplica a la línea B, y su complemento se aplica a la línea B negada. Esto fuerza a los cuatro transistores al estado apropiado. En una operación de lectura el valor de bit se lee de la línea B.

Tipos de ROM

Como sugiere su nombre, una memoria de solo lectura (ROM, Read Only Memory) contiene un patrón permite de datos que no puede alterarse. Una ROM es no-volátil; es decir, no se requiere fuente de alimentación para mantener memorizados los valores de los bits. Aunque es posible leer de una ROM, no se pueden escribir nuevos datos en ella. Una aplicación importante de las ROM es la microprogramación, otras aplicaciones potenciales son:

• Subrutinas de biblioteca para funciones de uso frecuente.

• Programa del sistema.

• Tablas de funciones.

Cuando se requiere un tamaño modesto la ventaja de una ROM es que el programa o los datos estarían permanentemente en memoria principal y nunca sería necesario cargarlos desde un dispositivo de memoria secundaria.

Una ROM se construye como cualquier otro chip de circuito integrado, con los datos cableados en el chip durante el proceso de fabricación. Esto presenta dos problemas:

• La etapa de inserción de datos implica unos costes fijos relativamente grandes, tanto si se va a fabricar una o miles de copias de una misma ROM.

• No se permite un fallo. Si uno de los bits es erróneo, debe desecharse la irada completa de chips de memoria ROM.

Cuando se necesitan unas pocas ROM con un contenido particular, una alternativa más económica es la ROM programable (PROM). Al igual que las ROM, la PROM son no volátiles y pueden grabarse solo una vez. Para la PROM, el proceso de escritura se lleva a cabo eléctricamente y puede realizarlo el suministrador o el cliente con posterioridad a la fabricación del chip original. Se requiere un equipo especial para el proceso de escritura o programación. Las PROM proporcionan flexibilidad y comodidad. Las ROM siguendo siento atractivas para tiradas de producción de gran volumen.

Otra variante de memoria de solo lectura es la memoria sobre-todo lectura (read-mostly), que es útil para aplicaciones en las que las operciones de lectura son bastante mas frecuentes que las de escritura, pero para las que requiere un almacenamiento no volátil. Hay tres formas comunes de memorias de sobre-todo lectura: EPROM, EEPROM y memorias flash.

La memoria de solo-lectura programable y borrable ópticamente (EPROM, Erasable Programmable Read-Only Memory) se lee y escribe eléctricamente como la PROM. Sin embargo, antes de la operación de escritura, todas las celdas de almacenamiento deben primero borrarse a la vez, mediante la exposición del chip encapsulando a radiación ultravioleta. Este proceso de borrado puede realizarse repetidas veces cada borrado completo debe de durar hasta veinte minutos. Asi pues, las EPROM pueden modificarse multiples veces y al igual que las ROM y las PROM, retienen su contenido en teoría indefinidamente. Para un capacidad similiar, una EPROM es mas costosa que una PROM, pero no tiene como ventaja adicional la posibilidad de actualizar multiples veces su contenido.

Una forma mas interesante de memoria de sobre-todo lectura es la memoria de solo-lectura programable y borrable eléctricamente (EEPROM, Electrically Erasable programable Read-Only Memory). Esta es una memoria de sobre-todo lectura en la que s epuede escribir en cualquier momento sin borrar su contenido anterior; solo se actualiza el bye o los bytes direccionados. La operación de escritura consume un tiempo considerablemente mayor que la de lectura; del orden de cientos de microsegundos por byte. La EEPROM combina la ventaja de ser no volátil, con la flexibilidad de ser actualizable in situ, utilizando las líneas de datos, de direcciones y de control de un bus oridinario. Las EEPROM son mas costosas que las EPROM y también menos densas admitiendo menos bits por chip.

Otr forma de memoria es la memoria flash (denominada asi por la velocidad con la que puede reprogramarse). Introducidad a mediados de los 1980. Las memorias flash se encuentran, en coste y en funcionalidad, entre las EPROM y las EEPROM. Al igual que las EEPROM, las flash utilizan una tecnología de borrado eléctrico. Una memoria flash puede borrarse entera en uno o unos cuantos segundos, mucho mas rápido que las EPROM. Además, es posible borrar solo bloques concretos de meoria en lugar de todo el chip. Las memorias flash deben su nombre a que su microchip esta otanizado de manera que cada una de sus secciones de celdas se borra mediante una única acción, de golpe o flash. Sin embrago, las memorias flash no permiten borrar nivel de byte. Al igual que las EPROM, las flash solo utilizan un trnsistor por bit, consiguiéndose las altas densidades (comparadas con las EEPROM) que alcanzan las EPROM.

Memoria externa

Comenzamos con el dispositivo mas importante, el disco magnético. Los discos magnéticos son la base de las memorias externas en casi todos los computadores .

Discos magnéticos

Un disco magnético es un plato circular construido don un material no magnético, llamado sustrato cubierto por un material magnetizable. Tradicionalmente, el sustrato es aluminio o una aleación de aluminio. Recientemente, se han utilizado sustratos de cristal. Los sustratos de cristal tienen una serie de ventajas, entre las cuales se encuentran:

• Mejora en la uniformidad de la superficie magnética para incrementar la fiabilidad del disco.

• Reducción significativa de los defectos en toda la superficie lo que ayuda a reducir los errores de lectura/escritura.

• Capacidad para soportar grabaciones de proximidad (Fly heights)

• Mejor rapidez para reducir la dinámica del disco.

• Mayor capacidad para resistir golpes y daños.

Mecanismos de lectura y escritura magnética

Los datos se graban y después se recuperan del disco a través de una bobina, llamada cabeza: en muchos sistemas hay dos cabezas, una de lectura y otra de escritura.

Durante una operación de lectura o escritura, la cabeza permanece quieta mientras el plato rota bajo ella.

El mecanismo de escritura se basa en el hecho de que un flujo eléctrico atravesando una bobina crea un campo magnético. Se envían pulsos eléctricos a la cabeza de escritura, y se graban los patrones magnéticos en la superficie bajo ella, con patrones diferentes para corrientes positivas y negativas. La propia cabeza de lectura está hecha de un material fácilmente magnetizable y tiene forma de donut rectangular con un agujero a lo largo de un lado y varias vueltas de cable conductor a lo largo del lado opuesto. Una corriente eléctrica en el cable induce un campo magnético a lo largo del agujero, que magnetiza una pequeña área del medio grabable. Cambiando la dirección de la corriente, cambia el sentido de magnetización del medio de grabación.

El mecanismo tradicional de lectura se basa en el hecho de que un campo magnético en movimiento respecto a una bobina, induce una corriente eléctrica en la bobina. Cuando la superficie del disco pasa bajo la cabeza, en esta se genera una corriente de la misma polaridad que la que produjo la grabación magnética. La estructura de la cabeza de lectura es, este caso, esencialmente la misma que la de escritura y, por tanto, se puede usar la misma cabeza para ambas operaciones. Estas cabezas únicas se usan en disquetes y discos duros antiguos.

Los discos duros de hoy usan un mecanismo diferente para la lectura, siendo necesaria una cabeza de lectura separada posicionada, por conveniencia, cerca de la cabeza de escritura. La cabeza de lectura consiste en un sensor magneto resistivo (MR) parcialmente blindado. El MR tiene una resistencia eléctrica que depende de la dirección de la magnetización del medio que se mueve bajo él. Haciendo pasar un corriente a través del sensor MR, los cambios de la resistencia se detectan como señales de tensión. El diseño del MR permite operar a altas frecuencias, lo que lo que equivale a grandes densidades de almacenamiento y de velocidad de funcionamiento.

Organización y formato de los datos

La cabeza es un dispositivo relativamente pequeño, capaz de leer o escribir en una zona del plato que rota bajo ella. Esto da lugar a que los datos se organicen en un conjunto de anillos concéntricos en el plato, llamados pistas. Cada pista es del mismo ancho que la cabeza. Usualmente hay cientos de pistas por superficie.

Los datos se transfieren al y desde el disco en sectores. Normalmente hay cientos de sectores por pista, y estos pueden tener una longitud variable o fija. En la mayoría de los sistemas de hoy se utilizan sectores de longitud fija, siendo 512 bytes el tamaño casi universal de un sector. Para evitar imposiciones de precisión ilógicas del sistema, los sectores adyacentes se separan con intrapistas (intersectores) vacías.

Un bit cercano al centro de un disco girando, pasa por punto fijo (como la cabeza de lectura- escritura) más despacio que un bit más externo. Por tanto, debe haber alguna forma de compensar la variación de la velocidad de forma que la cabeza pueda leer todos los bits a la misma velocidad. Esto se puede hacer incrementando el espacio entre bits de la información grabada en los segmentos del disco. La información se puede escanear a la misma velocidad rolando el disco a una velocidad fija, conocida como velocidad angular constante (constant angular velocity, CAV). La estructura de un disco que usa CAV. El disco se divide en una serie de sectores en forma de trozo de taila y en una serie de pistas concéntricas. La ventaja de usar CAV es que los bloques individuales de datos se pueden direccional directamente con la pista y sector. Para mover la cabeza desde su actual posición a una dirección específica, solo hay que mover ligeramente la cabeza a la pista específica y esperar a que el sector se sitúe bajo la cabeza. La desventaja de CAV es que la cantidad de datos que se puede almacenar en las pistas más externas es solo la misma que la de las pistas internas.

Debido a que la densidad, en bits por pulgada, aumenta a medida que nos movemos desde la pista más externa a la más interna, la capacidad de almacenamiento de un disco con un sistema CAV sencillo viene limitada por la máxima densidad de grabación que se puede llevar a cabo en la pista más interna. Para aumentar la capacidad, los discos duros modernos utilizan una técnica conocida como grabación en varias zonas (múltiple zortc recording), en la que la superficie se divide en varias zonas concéntricas (usualmente 16). Dentro de una zona, el número de bits por pista es constante. Las zonas más lejanas del centro contienen más bits (más sectores) que las zonas próximas al centro. Esto permite capacidades de almacenamiento mayores a expensas de una circuitería de alguna forma más compleja. Como la cabeza del disco se mueve de una zona a otra, la longitud (a lo largo de la pista) de los bits individuales cambia, provocando un cambio en el tiempo de lectura y escritura.

Algún procedimiento es necesario para situar las posiciones del sector en una pista. Claramente, debe haber algún punto de comienzo de la pista y una manera de identificar el principio y el fin de cada sector. Estos requisitos son gestionados mediante datos de control grabados en el disco. Por tanto, el disco se graba con un formato que contiene algunos datos extra usados solo por el controlador del disco y no accesibles al usuario.

Características físicas

Las cabezas pueden ser fijas o móviles con respecto a la dirección radial del plato. En un disco de cabeza fija hay una cabeza de lectura/escritura por pista. Todas las cabezas se montan en un brazo rígido que se extiende a través de todas las pistas. En un disco de cabeza móvil, hay solo una cabeza de lectura/escritura. Como antes, la cabeza se monta en un brazo. Como la cabeza debe poder posicionarse encima de cualquier pista, el brazo debe extenderse o retraerse para este propósito.

El disco mismo, se monta en una unidad de disco, que consta del brazo, un eje que rota el disco, y la electrónica necesaria para la entrada y salida de datos binarios. Un disco no extraíble está permanentemente montado en la unidad de disco. Un disco extraíble, puede ser quitado y sustituido por otro disco. La ventaja de este último tipo es que es posible una cantidad de datos ilimitada con un número limitado de unidades de disco. Además, un disco puede ser utilizado en diversos computadores. Los disquetes y los cartuchos Z1P son ejemplos de discos extraíbles.

En la mayoría de los discos, la cubierta magnetizable se aplica a ambas caras del plato, denominándose estos discos de doble superficie. Algunos discos, menos caros, son de una sola superficie.

Algunas unidades de disco poseen varios platos apilados verticalmente y separados por una distancia de alrededor de una pulgada. Disponen de varios brazos .Los discos de varios platos utilizan una cabeza que se mueve, con una cabeza de lectura-escritura para cada superficie del plato. El conjunto de todas las pistas que tienen la misma posición relativa en el plato se denomina cilindro.

Finalmente, el mecanismo de la cabeza proporciona una clara clasificación de los discos en tres tipos. Tradicionalmente, la cabeza de lectura/escritura se posiciona a una distancia fija sobre el plato, dejando entre ambos una capa de aire. En el otro extremo está el mecanismo de la cabeza que realmente efectúa un contacto físico con el medio durante la operación de lectura o escritura. Este mecanismo es el que se usa con los disquetes, que son pequeños, de plato flexible y es el tipo de disco más barato.

Para entender el tercer tipo de disco, necesitamos comentar la relación entre la densidad de datos y la anchura de la capa de aire. La cabeza debe generar o detectar un campo magnético de intensidad suficiente para escribir y leer correctamente. Cuanto más estrecha es la cabeza, más cercana debe estar a la superficie del plato para funcionar. Esto es deseable, ya que una cabeza más estrecha implica pistas más estrechas y por tanto, mayor densidad de datos. Sin embargo, cuanta más cerca esté la cabeza del disco, mayor será el riesgo de error debido a impurezas o imperfecciones. Los discos Winchester supusieron un avance tecnológico en este sentido.

Las cabezas de los Winchester están montadas en unidades herméticamente cerradas, que están casi libres de contaminación. Fueron diseñados para operar más cerca de la superficie del disco que las cabezas de los discos rígidos anteriores, por tanto permiten una densidad de datos mayor. La cabeza está en el contorno de una hoja de metal aerodinámica que reposa suavemente sobre la superficie del plato cuando el disco no se mueve. La presión del aire generada por el giro del disco es suficiente para hacer subir la hoja encima de la superficie. El sistema sin contacto resultante puede ser diseñado para usar cabezas más estrechas que las de los discos rígidos convencionales, operando más cerca de la superficie de los platos.

Parámetros para medir las prestaciones de un disco

Los detalles de las operaciones de E/S de un disco dependen del tipo de computador, del sistema operativo, de la naturaleza de los canales de E/S y del hardware controlador del disco.

Cuando la unidad de disco está funcionando, el disco está rotando a una velocidad constante. Para leer o escribir, la cabeza debe posicionarse en la pista deseada y al principio del sector deseado en la pista. La selección de la pista implica un movimiento de la cabeza, en un sistema de cabeza móvil, o una selección electrónica de una cabeza, en un sistema de cabezas fijas. En un sistema de cabeza móvil, el tiempo que tarda la cabeza en posicionarse en la pista se conoce como tiempo de búsqueda. En cualquier caso, una vez seleccionada la pista, el controlador del disco espera hasta que el sector apropiado rote hasta alinearse con la cabeza. El tiempo que tarda el sector en alcanzar la cabeza se llama retardo rotacional o latencia rotacional. La suma del tiempo de búsqueda, si lo hay, y el retardo rotacional se denomina tiempo de acceso, o tiempo que se tarda en llegar a la posición de lectura escritura. Una vez posicionada la cabeza, se lleva a cabo la operación de lectura o escritura, desplazándose el sector bajo la cabeza; esta operación conlleva un tiempo de transferencia de datos.

Además del tiempo de acceso y de transferencia, hay varios retardos en cola usualmente asociados con operaciones de E/S del disco. Cuando un proceso hace una petición de E/S, primero debe esperar en cola hasta que el dispositivo esté disponible. En ese momento, el dispositivo es asignado al proceso. Si el dispositivo comparte un único canal E/S o un conjunto de canales de E/S con otros discos, entonces puede tener que hacer esperas adicionales para que el canal esté disponible. En este punto se hace la búsqueda para empezar el acceso al disco.

En algunos computadores grandes, se usa una técnica conocida como detección de posición rotacional (RPS, rotational positional sensing).Esta funciona de la siguiente forma: cuando se lleva a cabo una orden de búsqueda, el canal es liberado para atender otras operaciones de E/S. Cuando la búsqueda se ha completado, el dispositivo determina cuándo se rotan los datos bajo la cabeza. Mientras el sector se aproxima a la cabeza, el dispositivo intenta restablecer el camino de comunicación hacia el anfitrión. Si la unidad de control o el canal están ocupados con otra E/S, la conexión puede fallar y el dispositivo debe rotar una vuelta completa antes de que pueda intentar conectarse de nuevo, lo que se denomina una pérdida RPS.

Tiempo de búsqueda. El tiempo de búsqueda es el tiempo necesario para desplazar el brazo del disco hasta la pista requerida. Este tiempo resulta difícil de precisar. El tiempo de búsqueda está formado por dos componentes clave: el tiempo inicial de comienzo y el tiempo necesario para atravesar las pistas que tienen que cruzarse una vez que el brazo de acceso esté a la velocidad adecuada. El tiempo transversal no es, desgraciadamente, una función lineal del número de pistas, pero incluye un tiempo de espera (tiempo desde que se posiciona la cabeza sobre la pista objetivo hasta que se confirma la identificación de la pista). Muchas mejoras provienen de componentes más pequeños y ligeros. Hace algunos años, un disco típico tenía 14 pulgadas (36 cm) de diámetro, mientras que hoy el tamaño más normal es de 3,5 pulgadas (8,9 cm), reduciéndose la distancia que tiene que recorrer el brazo. Un tiempo de búsqueda medio típico de un disco actual está entre 100 y 50 ms.

Retardo rotacional. Los discos, que no sean disquetes, rotan a velocidades de 3 600 rpm (para controlar dispositivos como cámaras digitales) en adelante, como 15 000 rpm; esta última velocidad es una revolución cada 4 ms. Por tanto, de media, el retardo rotacional será de unos 2 ms. Las disquete- ras normalmente rotan entren 300 y 600 rpm. Por tanto, el retardo medio estará entre los 100 y 50 ms.

Tiempo de transferencia. El tiempo de transferencia hacia o desde el disco depende de la velocidad de rotación del disco de la siguiente forma:

T=brN

Dónde:

T = tiempo de transferencia

b =número de bytes a transferir

N = número de bytes de una pista

r = velocidad de rotación en revoluciones por segundo

Por tanto, el tiempo de acceso medio total se puede expresar como

Td= Ts+ 12r + brN

Donde T es el tiempo de búsqueda medio. Nótese que en una unidad con zonas, el número de pistas es variable, complicándose el cálculo.

Una comparación de tiempos. Con los parámetros definidos anteriormente, veamos dos operaciones de E/S diferentes que ilustrarán el peligro de fiarse de los valores medios. Considérese un disco con un tiempo de búsqueda medio especificado de 4 ms, una velocidad de rotación de 15 000 rpm, y sectores de 512 bytes con 500 sectores pos pista. Supóngase que queremos leer un fichero que consta de 2 500 sectores con un total de 1,28 Mb. Queremos estimar el tiempo total de transferencia.

Primero, supongamos que el fichero está almacenado de la forma más compacta posible en el disco. Es decir, el fichero ocupa todos los sectores de 5 pistas adyacentes (5 pistas X 500 sectores/pista = 2 500 sectores). Esto se conoce como organización secuencia!. Ahora, el tiempo para leer la primera pista es el siguiente:

Búsqueda media 4 ms

Retardo rotacional 2 ms

Leer 500 sectores 4 ms

______________________

10ms

Supongamos que el resto de las pistas se puede leer ahora sin prácticamente tiempo de búsqueda. Es decir, la operación de E/S puede mantenerse con un flujo continuo desde el disco. Entonces, al menos, se necesita considerar un retardo rotacional para cada pista leída. Entonces, cada pista siguiente se lee en 2 + 4 = 6 ms. Para leer el fichero entero:

Tiempo total = 10 + (4 X 6) = 34 ms = 0,034 segundos

Ahora calculemos el tiempo requerido para leer los mismos datos utilizando acceso aleatorio en vez de secuencial; es decir, los accesos a los sectores se distribuyen aleatoriamente sobre el disco. Para cada sector tenemos:

Búsqueda media 4 ms

Retardo rotacional 2 ms

Leer 1 sector 0,008 ms

______________________________________________

6,008 ms

Tiempo total = 2.500 X 6,008 = 15.020 ms = 15,02 segundos

Está claro que el orden en que se lean los sectores desde el disco tiene una repercusión enorme en las prestaciones de E/S. En el caso de acceso a ficheros en los que se lean o escriban varios sectores, se tiene un cierto control sobre la forma en la que los sectores o datos se organizan, y debemos decir algo sobre este tema en el siguiente capítulo. Sin embargo, aún en el caso de un acceso a un fichero, en un entorno de multiprogramación, habrá peticiones de E/S compitiendo por el mismo disco. Entonces, merece la pena examinar maneras en las que las prestaciones de E/S del disco mejoren respecto a las llevadas a cabo con accesos al disco puramente aleatorios. Esto conduce a considerar algoritmos de planificación del disco, que son jurisdicción de los sistemas operativos y están fuera del alcance de este libro (ver [STAL05] para más detalles).

Sistemas raid

El término RAID fue originalmente ideado en un artículo de un grupo de investigación de la Universidad de California en Berkley .El artículo perfilaba varias configuraciones y aplicaciones RAID e introducía las definiciones de los niveles RAID que todavía se usan. La estrategia RAID reemplaza una unidad de disco de gran capacidad por unidades múltiples de menor capacidad y distribuye los datos de forma que se puedan habilitar accesos simultáneos a los datos de varias unidades mejorando, por tanto, las prestaciones de E/S y permitiendo más fácilmente aumentos en la capacidad

La única contribución de la propuesta RAID es, efectivamente, hacer hincapié en la necesidad de redundancia. El uso de varios dispositivos, además de permitir que varias cabezas y actuadores operen simultáneamente, consiguiendo mayores velocidades de E/S y de transferencia, incrementa la probabilidad de fallo. Para compensar esta disminución de seguridad, RAID utiliza la información de paridad almacenada que permite la recuperación de datos perdidos debido a un fallo de disco.

El término RAID es un acrónimo del inglés "Redundant Array of Independent

Disks". Significa matriz redundante de discos independientes. RAID es una forma de combinación de varios discos duros para formar una única unidad lógica en la que se almacenan los datos de forma redundante. Ofrece mayor tolerancia a fallos y más altos niveles de rendimiento que un sólo disco duro o un grupo de discos duros independientes.

Un RAID consta de dos o más discos duros que ante el sistema principal funcionan como un único dispositivo. Un RAID, para el sistema operativo, aparenta ser un sólo disco duro lógico (LUN). Los datos se desglosan en fragmentos que se escriben en varias unidades de forma simultánea. En este método, la información se reparte entre varios discos, usando técnicas como el entrelazado de bloques (RAID nivel 0) o la duplicación de discos (RAID nivel 1) para proporcionar redundancia, reducir el tiempo de acceso y/o obtener mayor ancho de banda para leer y/o escribir, así como la posibilidad de recuperar un sistema tras la avería de uno de los discos.

La tecnología RAID se utiliza también con mucha frecuencia para mejorar el rendimiento de servidores y estaciones de trabajo. Estos dos objetivos, protección de datos y mejora del rendimiento, no se excluyen entre sí.

Un RAID ofrece varias opciones de configuración, llamadas niveles RAID, cada una de las cuales proporciona un equilibrio distinto entre tolerancia a fallos, rendimiento y coste

Todos los sistemas RAID suponen la pérdida de parte de la capacidad de almacenamiento de los discos, para conseguir la redundancia o almacenar los datos de paridad

Ventajas del raid:

La tecnología RAID proporciona tolerancia a fallos, mejora el rendimiento del sistema y aumenta la productividad.

Tolerancia a fallos: Un RAID protege contra la pérdida de datos y proporciona recuperación de datos en tiempo real con acceso interrumpido en caso de que falle un disco.

Mejora del Rendimiento/ Velocidad: Un RAID consta de dos o más discos duros que ante el sistema principal funcionan como un único dispositivo. Los datos se desglosan en fragmentos que se escriben en varias unidades de forma simultánea. Este proceso, denominado fraccionamiento de datos, incrementa notablemente la capacidad de almacenamiento y ofrece mejoras significativas de rendimiento. RAID permite a varias unidades trabajar en paralelo, lo que aumenta el rendimiento del sistema.

Mayor Fiabilidad: Las soluciones RAID emplean dos técnicas para aumentar la fiabilidad: la redundancia de datos y la información de paridad. La redundancia implica el almacenamiento de los mismos datos en más de una unidad. De esta forma, si falla una unidad, todos los datos quedan disponibles en la otra unidad, de inmediato. Aunque este planteamiento es muy eficaz, también es muy costoso, ya que exige el uso de conjuntos de unidades duplicados. El segundo planteamiento para la protección de los datos consiste en el uso de la paridad de datos. EL RAID utiliza un algoritmo matemático para generar información de paridad. Cuando se produce un fallo en una unidad se leen los datos correctos que quedan y se comparan con los datos de paridad almacenados por la matriz. El uso de la paridad para obtener fiabilidad de los datos es menos costoso que la redundancia, ya que no requiere el uso de un conjunto redundante de unidades de disco.

Alta Disponibilidad: El RAID aumenta el tiempo de funcionamiento y la disponibilidad del sistema. Para evitar los tiempos de inactividad, debe ser posible acceder a los datos en cualquier momento. La disponibilidad de los datos depende de dos aspectos: la integridad de los datos y tolerancia a fallos. La integridad de los datos se refiere a la capacidad para obtener los datos adecuados en cualquier momento. La mayoría de las soluciones RAID ofrecen reparación dinámica de sectores, que repara sobre la marcha los sectores defectuosos debidos a errores de software. La tolerancia a fallos, el segundo aspecto de la disponibilidad, es la capacidad para mantener los datos disponibles en caso de que se produzcan uno o varios fallos en el sistema.

Niveles del raid

La elección de los diferentes niveles de RAID va a depender de las necesidades del usuario en lo que respecta a factores como seguridad, velocidad, capacidad, coste, etc. Cada nivel de RAID ofrece una combinación específica de tolerancia a fallos (redundancia), rendimiento y coste, diseñadas para satisfacer las diferentes necesidades de almacenamiento. La mayoría de los niveles RAID pueden satisfacer de manera efectiva sólo uno o dos de estos criterios. No hay un nivel de RAID mejor que otro; cada uno es apropiado para determinadas aplicaciones y entornos informáticos. De hecho, resulta frecuente el uso de varios niveles RAID para distintas aplicaciones del mismo servidor. Actualmente existen varios niveles diferentes de RAID, que se utilizan con más frecuencia. Los niveles RAID 0, 1, y 5, 6 y combinaciones de estos son los más populares.

RAID 0

El nivel 0 de RAID no es un verdadero miembro de la familia RAID, porque no incluye redundancia para mejorar las prestaciones. Sin embargo, hay algunas aplicaciones, como algunas ejecuciones en supercomputadores, en los que las prestaciones y la capacidad son la preocupación primaria y un costo bajo es más importante que mejorar la seguridad.

Para el RAID 0, los datos del usuario y del sistema están distribuidos a lo largo de todos los discos del conjunto. Esto tiene una notable ventaja frente al uso de un único y gran disco: si hay pendientes dos peticiones diferentes de E/S, para dos bloques de datos diferentes, entonces es muy probable que los bloques pedidos estén en diferentes discos. Entonces, las dos peticiones se pueden emitir en paralelo, reduciendo el tiempo de cola de E/S.

Pero RAID 0, como todos los niveles RAID, va más lejos que una sencilla distribución de datos a través del conjunto de discos: los datos son organizados en forma de tiras de datos a través de los discos disponibles. Esto se entiende mejor considerando la Figura 6.10. Todos los datos del usuario y del sistema se ven como almacenados en un disco lógico. El disco se divide en tiras; estas tiras pueden ser bloques físicos, sectores o alguna otra unidad. Las tiras se proyectan cíclicamente, en miembros consecutivos del conjunto. Un conjunto de tiras lógicamente consecutivas, que se proyectan exactamente sobre una misma tira en cada miembro del conjunto, se denomina franja. En un conjunto de n discos, las primeras n tiras lógicas (una franja) se almacenan físicamente en la primera tira de cada uno de los n discos, las segundas n tiras lógicas, se distribuyen en la segunda tira de cada disco, etc. La ventaja de esta disposición es que si una única petición de E/S implica a varias tiras lógicas contiguas, entonces las N tiras de esta petición se pueden gestionar en paralelo, reduciendo considerablemente el tiempo de transferencia de E/S

RAID 0 para alta capacidad de transferencia de datos. -Las prestaciones de cualquiera de los niveles RAID dependen críticamente de los patrones de petición del sistema anfitrión y de la distribución de los datos. Para lograr una velocidad de transferencia de datos alta se deben cumplir dos requisitos.

Primero, debe existir una capacidad de transferencia alta en todo el camino entre la memoria del anfitrión y las unidades de disco individuales. Esto incluye controladores de buses internos, buses de E/S del anfitrión, adaptadores de E/S, y buses de memoria del anfitrión.

El segundo requisito es que la aplicación debe hacer peticiones de E/S que se distribuyan eficientemente sobre el conjunto de discos. Esta condición se satisface si la petición típica es de una gran cantidad de datos lógicamente contiguos, comparados con el tamaño de una cinta.

En resumen podemos decir

Que la RAID 0reparte los datos en pequeños segmentos que se distribuyen entre varias unidades. Este nivel de RAID no ofrece tolerancia al fallo. Al no existir redundancia, el RAID 0 no ofrece ninguna protección de los datos. El fallo de cualquier disco del RAID tendría como resultado la pérdida de los datos y sería necesario restaurarlos desde una copia de seguridad. Por lo tanto, el RAID 0 no se ajusta realmente al acrónimo RAID, pues consiste en una serie de unidades de disco conectadas en paralelo que permiten una transferencia simultánea de datos a todos ellos, con lo que se obtiene una gran velocidad en las operaciones de lectura y escritura. La velocidad de transferencia de datos aumenta en relación al número de discos que forman el conjunto. Esto representa una gran ventaja en operaciones secuenciales con ficheros de gran tamaño. Por lo tanto, este array es aconsejable en aplicaciones de reproducción de video, postproducción, cine digital, etc; es decir, es una buena solución para cualquier aplicación que necesite un almacenamiento a gran velocidad pero que no requiera tolerancia a fallos.

NIVEL 1 DE RAID

RAID 1 se diferencia de los niveles 2 al 6 en cómo se consigue la redundancia. En estos otros esquemas RAID, se usan algunas formas de cálculo de paridad para introducir redundancia; en RAID 1, la redundancia se logra con el sencillo recurso de duplicar todos los datos. Según muestra la Figura, se hace una distribución de datos, como en el RAID 0. Pero en este caso, cada franja lógica se proyecta en dos discos físicos separados, de forma que cada disco del conjunto tiene un disco espejo que contiene los mismos datos. RAID 1 también se puede implementar sin franja de datos, pero es menos común.

Ventajas:

1. Una petición de lectura puede ser servida por cualquiera de los discos que contienen los datos pedidos, cualquiera de ellos implica un tiempo de búsqueda mínimo más la latencia rotacional.

2. Una petición de escritura requiere que las dos tiras correspondientes se actualicen, y esto se puede hacer en paralelo. Entonces, el resultado de la escritura viene determinado por la menos rápida de las dos escrituras (es decir, la que conlleva el mayor tiempo de búsqueda más la latencia rotacional). Sin embargo, en RAID I no hay «penalización en la escritura». Los niveles RAID del 2 al 6 implican el uso de bits de paridad. Por tanto, cuando se actualiza una única tira, el software de gestión del conjunto debe calcular y actualizar primero los bits de paridad así como actualizar la tira en cuestión.

3. La recuperación tras un fallo es sencilla. Cuando una unidad falla, se puede acceder a los datos desde la segunda unidad.

Desventajas

1. La principal desventaja es el coste; requiere el doble del espacio de disco del disco lógico que puede soportar. Debido a esto, una configuración RAID 1 posiblemente está limitada a unidades que almacenan el software del sistema y los datos, y otros ficheros altamente críticos. En estos casos, RAID proporciona una copia de seguridad en tiempo real de todos los datos, de forma que en caso de fallo de disco, todos los datos críticos están inmediatamente disponibles.

2. Se utiliza el espacio de almacenamiento muy ineficiente, ya que el 50% de su espacio se pierde, siendo a la vez costoso.

En un entorno orientado a transacciones, RAID 1 puede conseguir altas velocidades de petición de E/S si la mayor parte de las peticiones son lecturas. En esta situación, las prestaciones de RAID1 son próximas al doble de las de RAID 0. Sin embargo, si una parte importante de las peticiones de E/S son peticiones de escritura, entonces la ganancia en prestaciones sobre RAID 0 puede no ser significativa. RAID 1 puede también proporcionar una mejora en las prestaciones de RAID 0 en aplicaciones de transferencia intensiva de datos con un alto porcentaje de lecturas. Se produce una mejora si la aplicación puede dividir cada petición de lectura de forma que ambos miembros del disco participen.

Nivel 2 de RAID

Los niveles 2 y 3 de RAID usan una técnica de acceso paralelo. En un conjunto de acceso paralelo, todos los discos miembro participan en la ejecución de cada petición de E/S. Típicamente, el giro de cada unidad individual está sincronizado de forma que cada cabeza de disco está en la misma posición en cada disco en un instante dado.

Como en los otros esquemas RAID, se usa la descomposición de datos en tiras. En el caso de RAID 2 y 3, las tiras son muy pequeñas, a menudo tan pequeñas como un único byte o palabra. Con RAID 2, el código de corrección de errores se calcula a partir de los bits de cada disco, y los bits del código se almacenan en las correspondientes posiciones de bit en varios discos de paridad. Normalmente, se usa el código Hamming, que permite corregir errores en un bit y detectar errores en dos bits.

Aunque RAID 2 requiere menos discos que RAID 1, es todavía bastante caro. El número de discos redundantes es proporcional al logaritmo del número de discos de datos. En una sola lectura, se accede a todos los discos simultáneamente. El controlador del conjunto proporciona los datos pedidos y el código de corrección de errores asociado. Si hay un error en un solo bit, el controlador lo puede reconocer y corregir instantáneamente, con lo que el tiempo de acceso a lectura no se ralentiza. En una escritura sencilla, la operación de escritura debe acceder a todos los discos de datos y de paridad.

RAID 2 debería ser solamente una elección efectiva en un entorno en el que haya muchos errores de disco. Si hay una alta seguridad en los discos individuales y en las unidades de disco, RAID2 es excesivo y no se implementa.

Ventajas:

1. Utiliza menos discos que le RAID 1, sin embargo aún sigue siendo costoso.

2. Teóricamente se pueden tener 14 discos (10 para datos y 4 para corrección de errores) o 39 discos (32 para datos y 7 para CCR)

3. Permite tasas de transferencias extremadamente altas.

Desventajas:

1. Su funcionamiento es complejo, por tanto si se confía en la buena integridad de los discos individuales no es necesario utilizarlo.

2. Tiene además un costo elevado, aunque no tanto como el RAID 1.

3. Es el único sistema que actualmente ha quedado en desuso.

Nivel 3 de RAID

RAID 3 se organiza de manera similar a RAID 2. La diferencia es que RAID 3 requiere solo un disco redundante, sin importar lo grande que sea el conjunto de discos. RAID 3 utiliza un acceso paralelo, con datos distribuidos en pequeñas tiras. En vez de un código de corrección de errores, se calcula un sencillo bit de paridad para el conjunto de bits individuales en la misma posición en todos los discos de datos.

Redundancia: En el caso de un fallo en una unidad, se accede a la unidad de paridad y se reconstruyen los datos desde el resto de los dispositivos. Una vez que se sustituye la unidad que ha fallado, los datos que faltan se restauran en la nueva unidad y se reanuda la operación.

La reconstrucción de los datos es bastante sencilla. Consideremos un conjunto de cinco discos de los que de X0 a X3 contienen datos y X4 es el disco de paridad. La paridad para el i-ésimo bit se calcula de la siguiente forma:

X4(i) = X3(i) ⊕ X2(i) ⊕ X1(i) ⊕ X0(i)

Donde ⊕ es la función exclusive-OR.

Supongamos que la unidad X1 ha fallado. Si sumamos X4(i) ⊕ X1(i) a ambos miembros de la ecuación, tenemos que:

X1(i) = X4(i) ⊕ X3(i) ⊕ X2(i) ⊕ X0(i)

Por lo tanto, se puede regenerar el contenido de cualquier tira de datos en X1 a partir del contenido de las correspondientes tiras del resto de los discos del conjunto. Este principio es válido para los niveles 3 a 6 de RAID.

Caso de que un disco falle, todos los datos estarán todavía disponibles en lo que se denomina modo reducido.

Nivel 4 de RAID

Los niveles 4 al 6 de RAID usan una técnica de acceso independiente. En un conjunto de acceso independiente, cada disco opera independientemente de forma que peticiones de E/S separadas se atienden en paralelo, debido a esto , son mas adecuados los conjuntos de acceso independiente para aplicaciones que requieren velocidades de petición de E/S altas, y son menos adecuadas para aplicaciones que requieren velocidades altas de transferencia de datos. Como en otros esquemas RAID, se usan tiras de datos. En el caso de RAID 4 a 6, las tiras son relativamente grandes. Con RAID 4 se calcula una tira de paridad bit a bit a partir de las correspondientes tiras de cada disco de datos, y los bits de paridad se almacenan en la correspondiente tira de disco de paridad.

Inicialmente para cada bit i, tenemos la siguiente relación :

X4(i) = X3(i) ⊕ X2(i) ⊕ X1(i) ⊕ X0(i)

Después de la actualización indicamos con prima los bits que han sido alterados:

X4´(i) = X3(i) ⊕ X2(i) ⊕ X1´(i) ⊕ X0(i)

= X3(i) ⊕ X2(i) ⊕ X1´(i) ⊕ X0(i) ⊕ X1(i) ⊕ X1(i)

= X3(i) ⊕ X2(i) ⊕ X1(i) ⊕ X0(i) ⊕ X1(i) ⊕ X1´(i)

= X4(i) ⊕ X1(i) ⊕ X1´(i)

Nivel 5 de RAID

RAID 5 (INDEPENDENT DATA ACCESS), difiere del RAID 3 en que la información se divide en bloques en vez de en bytes. Debido a ello las lecturas pueden ser independientes, mejorando por tanto el número de transacciones E/S que puede gestionar el RAID de forma simultánea. La otra gran diferencia con el RAID 3 radica en el hecho de que la información de la paridad se reparte entre todos los discos de forma ROTATORIA, aliviando así el cuello de botella que se forma en operaciones simultáneas de E/S. Esto ocurre, en concreto, gracias a que solo se debe leer la paridad de un único disco, como es el caso del RAID 3. Con lo que resuelve las limitaciones de escritura en RAID-4. Así, todas las operaciones de lectura y escritura pueden superponerse. Este nivel RAID es recomendable para aplicaciones que trabajen con ficheros pequeños pero con un gran número de transacciones E/S, como es el caso de las bases de datos relacionales o las aplicaciones de gestión.

Aplicaciones: Servidores de archivos y aplicaciones, Servidores de Base de Datos, Servidores www, correo, noticias, Servidores de Intranet.

La distribución de las tiras de paridad a lo largo de todas las unidades evita el potencial cuello de botella de E/S encontrado en RAID 4.

RAID 5E

Es la variante del RAID 5 incluyendo discos de reserva.

Estos discos pueden estar conectados y preparados (hotspare) o en espera (stand by spare).

Los discos de reserva están disponibles para cualquiera de las unidades miembro

No suponen mejora alguna del rendimiento, pero sí se minimiza el tiempo de reconstrucción.

Un disco de reserva no es realmente parte del conjunto hasta que un disco falla y el conjunto se reconstruye sobre el de reserva

.

Nivel 6 de RAID

El nivel 6 de RAID se introdujo en un artículo de los investigadores de Berkeley [KATZ89], En el esquema del nivel 6 de RAID, se hacen dos cálculos de paridad distintos, que se almacenan en bloques separados en distintos discos. Por tanto, un conjunto RAID 6 cuyos datos requieran N discos consta de /V + 2 discos.

La figura 6.9d ilustra este esquema. P y Q son dos algoritmos de comprobación de datos distintos. Uno de los dos calcula la exdusive-OR usada en los niveles de 4 y 5 de RAID. Pero el otro es un algoritmo de comprobación de datos independiente. Esto hace posible la regeneración de los datos incluso si dos de los discos que contienen los datos de los usuarios fallan.

La ventaja del RAID 6 es que proporciona una disponibilidad de los datos extremadamente alta pues soporta el fallo simultáneo de dos discos. No obstante, este elevado nivel de seguridad tiene como contrapartida un menor rendimiento en la escritura debido a que debe llevar a cabo dos escrituras de paridad por cada una de datos. A pesar de ello es un nivel de RAID que se utiliza frecuentemente en entornos donde prima la seguridad por delante de la velocidad. Tendrían que fallar tres discos en el intervalo MTTR (tiempo medio de reparación) para no poder disponer de los datos. Por otra parte, RAID 6 incurre en una penalización de escritura ya que cada escritura afecta a dos bloques de paridad.

RAID 6 es un estándar relativamente nuevo, con el apoyo de sólo unos pocos controladores. Es similar a RAID 5, pero utiliza dos veces el número de bits de paridad, asegurando la integridad de los datos incluso si los dos discos fallan simultáneamente. Cuando se utiliza 7 HDs 500 GB en RAID 6, por ejemplo, tendría 2,5 TB de datos, además de 1 TB para códigos de paridad.

RAID 6 es soportado por los modelos TS-409, TS-409U, TS-409 Pro, TS-509 Pro, y TS-639 Pro de QNAP.

Nota: RAID 5 y 6 son los más recomendados para aumentar el rendimiento y la seguridad de los datos. En RAID 5 se necesita un mínimo de 3 discos y en RAID 6un mínimo de 4 discos.

Cuadro comparativo

Para concluir:

RAID no protege los datos. Un conjunto RAID tiene un sistema de archivos, lo que supone un punto único de fallo al ser vulnerable a una amplia variedad de riesgos aparte del fallo físico de disco, por lo que RAID no evita la pérdida de datos por estas causas. RAID no impedirá que un virus destruya los datos, que éstos se corrompan, que sufran la modificación o borrado accidental por parte del usuario ni que un fallo físico en otro componente del sistema afecten a los datos.

RAID no simplifica la recuperación de un desastre. Cuando se trabaja con un solo disco, éste es accesible normalmente mediante un controlador ATA o SCSI incluido en la mayoría de los sistemas operativos. Sin embargo, las controladoras RAID necesitan controladores software específicos. Las herramientas de recuperación que trabajan con discos simples en controladoras genéricas necesitarán controladores especiales para acceder a los datos de los conjuntos RAID. Si estas herramientas no los soportan, los datos serán inaccesibles para ellas.

RAID no mejora el rendimiento de todas las aplicaciones. Esto resulta especialmente cierto en las configuraciones típicas de escritorio. Una mayor tasa de transferencia sostenida supone poco beneficio para los usuarios de estas aplicaciones, al ser la mayoría de los archivos a los que se accede muy pequeños. La división de discos de un RAID 0 mejora el rendimiento de transferencia lineal pero no lo demás, lo que hace que la mayoría de las aplicaciones de escritorio y juegos no muestren mejora alguna, salvo excepciones.

RAID no facilita el traslado a un sistema nuevo. Cuando se usa un solo disco, es relativamente fácil trasladar el disco a un sistema nuevo: basta con conectarlo, si cuenta con la misma interfaz. Con un RAID no es tan sencillo: la BIOS RAID debe ser capaz de leer los metadatos de los miembros del conjunto para reconocerlo adecuadamente y hacerlo disponible al sistema operativo. Dado que los distintos fabricantes de controladoras RAID usan diferentes formatos de metadatos (incluso controladoras de un mismo fabricante son incompatibles si corresponden a series diferentes) es virtualmente imposible mover un conjunto RAID a una controladora diferente, por lo que suele ser necesario mover también la controladora. Esto resulta imposible en aquellos sistemas donde está integrada en la placa base. Esta limitación puede obviarse con el uso de RAID por software, que a su vez añaden otras diferentes (especialmente relacionadas con el rendimiento).

Memoria óptica

En 1983, se introdujo uno de los productos de consumo de más éxito de todos los tiempos: el disco compacto (CD, Compact Disk) digital de audio. El CD es un disco no borrable que puede almacenar más de sesenta minutos de información en una cara. El gran éxito comercial de CD posibilito el desarrollo de la tecnología de discos de memoria óptica de bajo coste, que revoluciono el almacenamiento de datos en un computador. Se han introducido una gran variedad de discos ópticos.

Cinta Magnética

Los sistemas de cinta usan las mismas técnicas de lectura y grabación que los discos. El medio es una cinta de poliéster flexible (parecido al usado en ropa) cubierta por un materia magnetizable. La cubierta puede consistir en partículas de un metal puro en concreto un revestimiento o película de metal plateado vaporizado. La cinta y la unidad de cinta son análogas a las cintas de grabación domésticas. Los anchos de las cintas pueden variar entre 0.38 cm (15 pulgadas) y 1.27 cm (0.5 pulgadas). Una cinta ubicada en un carrete abierto tiene que enrollarse en otro carrete ubicado en un segundo cabezal. Hoy en día prácticamente todas las cintas vienen cerradas en cartuchos.

Los datos en la cinta se estructuran en una serie de pistas paralelas longitudinales. Los primero sistemas de cintas usaban nueve pistas.esto hace posible almacenar datos de un byte en un istante dado, con un bit de paridad adicional, en la novena pista. Los nuevos sistemas de cintas usan 18 o 36 pistas correspondiendo a una palabra o doble palabra digital. La grabación de datos de esta fotma se denomina grabación paralela. Los sistemas mas modernos utilizan en su lugar grabación serie en la que los datos se disponen como una secuencia de bits a lo largo de cada pista, como se hace en los discos magneticos. Como con el disco, los datos se leen y escriben en bloques contiguos, llamados registros físicos de cinta. Los bloques en la cinta estan separados por banda vacias llamadas interregistros. Como en el disco la cinta se formatea para facilitar la localización de los registros físicos.

La técnica típica utlizada en la grabación de cintas en serie se denomina grabación en serpentina. Esta técnica cuando se graban los fatos el primer conjunto de bits se graba a lo largo de toda la cinta. Cuando se alcanza el fin, las cabezas se posicionan para grabar una nueva pista y la cinta se graba de nuevo a todo lo largo, esta vez en dirección contraria. Este proceso continuo hacia atrás y hacia delante, hasta que la cinta se llena. Para aumentar la velocidad de la cabeza de lectura-escritura es capaz de leer y escribir una serie de pistas adyacentes simultáneamente (usualmente entre dos y ocho pistas). Los datos se graban en serie a lo largo de las pistas individuales, pero los bloques se almacenan en pistas adyacentes.

Uno a uno. Si la cabeza está actualmente situada más allá del registro deseado, es necesario rebobinar la cinta una cierta distancia y empezar a leer hacia delante. A diferencia del disco, la cinta está en movimiento solamente durante las operaciones de lectura o escritura.

En contraste con las cintas, a la unidad de disco se le llama dispositivo de acceso directo. Una unidad de disco no necesita leer todos los sectores de un disco secuencialmente para llegar al sector deseado. Solo debe de esperar a los sectores dentro de una pista y puede hacer accesos sucesivos a cualquier pista. Las cintas magnéticas fueron el primer tipo de memorias secundarias. Se usan todavía ampliamente como los miembros de la jerarquía de memoria de menor coste y menor velocidad.

Dispositivos de entrada/salida

Junto con el procesador y el conjunto de módulos de memoria, el tercer elemento clave de un computador es un conjunto de módulos E/S. Cada módulo se conecta al bus del sistema o a un conmutador central y controla uno o más dispositivos periféricos. Un módulo de E/S no es únicamente un conector mecánico que permite enchufar el dispositivo al bus del sistema; sino que además está dotado de cierta inteligencia, es decir, contiene la lógica necesaria para permitir la comunicación entre el periférico y el bus.

...

Descargar como  txt (58.7 Kb)  
Leer 39 páginas más »
txt