Post on 24-Jul-2015
DISCOS DUROSIntroducción
Siempre que se enciende el computador, los discos sobre los que se almacenan los
datos giran a una gran velocidad (a menos que disminuyan su potencia para ahorrar
electricidad).
Los discos duros de hoy, con capacidad de almacenar multigigabytes mantienen el
mínimo principio de una cabeza de Lectura/Escritura suspendida sobre una superficie
magnética que gira velozmente con precisión microscópica.
Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento
secundario. Al disco duro se le conoce con gran cantidad de denominaciones como disco duro,
rígido (frente a los discos flexibles o por su fabricación a base de una capa rígida de aluminio),
fijo (por su situación en el ordenador de manera permanente). Estas denominaciones aunque
son las habituales no son exactas ya que existen discos de iguales prestaciones pero son
flexibles, o bien removibles o transportables, u otras marcas diferentes fabricantes de cabezas.
Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y
grandes ordenadores. Para conectar un disco duro a un ordenador es necesario disponer de
una tarjeta controladora. La velocidad de acceso depende en gran parte de la tecnología del
propio disco duro y de la tarjeta controladora asociada al discos duro.
Estos están compuestos por varios platos, es decir varios discos de material magnético
montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos
platos se usan las cabezas de lectura/escritura que mediante un proceso electromagnético
codifican / decodifican la información que han de leer o escribir. La cabeza de lectura/escritura
en un disco duro está muy cerca de la superficie, de forma que casi vuela sobre ella, sobre el
colchón de aire formado por su propio movimiento. Debido a esto, están cerrados
herméticamente, porque cualquier partícula de polvo puede dañarlos.
El disco duro es el sistema de almacenamiento más importante de su computador y en
el se guardan los archivos de los programas - como los sistemas operativo D.O.S. o Windows
95, las hojas de cálculo (Excel, Qpro, Lotus) los procesadores de texto (Word, WordPerefct,
Word Star, Word Pro), los juegos (Doom, Wolf, Mortal Kombat) - y los archivos de cartas y otros
documentos que usted produce.
Caracateristicas
Los discos duros se presentan recubiertos de una capa magnética delgada,
habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros
(coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco
(primer cilindro) y terminan en la parte interior (último). Asimismo estos cilindros se dividen en
sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de
un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de
números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva
para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos
en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores.
Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo
que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0
para la primera. En general su organización es igual a los disquetes. La capacidad del disco
resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista,
al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un
pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido
de la corriente, así será la polaridad de la celda. para leer, se mide la corriente inducida por el
campo magnético de la celda. Es decir que al pasar sobre una zona detectará un campo
magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa
posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la
cabeza recibe una corriente que provoca un campo magnético, el cual pone la posición sobre la
que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado
por dicha corriente.
La mayoría de los discos duros en los computadores personales son de tecnología IDE
(Integrated Drive Electronics), que viene en las tarjetas controladoras y en todas las tarjetas
madres (motherboard) de los equipos nuevos. Estas últimas reconocen automáticamente
(autodetect) los discos duros que se le coloquen, hasta un tamaño de 2.1 gigabytes.
La tecnología IDE de los discos duros actuales ha sido mejorada y se le conoce como
Enhaced IDE (EIDE), permitiendo mayor transferencia de datos en menor tiempo. Algunos
fabricantes la denominan Fast ATA-2. Estos discos duros son más rápidos y su capacidad de
almacenamiento supera un gigabyte. Un megabyte (MB) corresponde aproximadamente a un
millón de caracteres y un gigabyte (GB) tiene alrededor de mil megabytes. Los nuevos equipos
traen como norma discos duros de 1.2 gigabytes.
Las motherboards anteriores con procesadores 386, y las primeras de los 486,
reconocen solo dos discos duros, con capacidad hasta de 528 megabytes cada uno y no tienen
detección automática de los discos. Para que estas motherboards reconozcan discos duros de
mayor capacidad, debe usarse un programa (disk manager) que las engaña, haciéndoles creer
que son de 528 megabytes.
Si su computador es nuevo, la motherboard le permite colocar hasta cuatro unidades
de disco duro. El primer disco duro se conoce como primario master, el segundo como primario
esclavo, el tercero como secundario master y el cuarto como secundario esclavo. El primario
master será siempre el de arranque del computador
La estructura física de un disco es la siguiente: un disco duro se organiza en platos
(PLATTERS), y en la superficie de cada una de sus dos caras existen pistas (TRACKS)
concéntricas, como surcos de un disco de vinilo, y las pistas se dividen en sectores
(SECTORS). El disco duro tiene una cabeza (HEAD) en cada lado de cada plato, y esta cabeza
es movida por un motor servo cuando busca los datos almacenados en una pista y un sector
concreto.
El concepto "cilindro" (CYLINDER) es un parámetro de organización: el cilindro está
formado por las pistas concéntricas de cada cara de cada plato que están situadas unas justo
encima de las otras, de modo que la cabeza no tiene que moverse para acceder a las
diferentes pistas de un mismo cilindro.
En cuanto a organización lógica, cuando damos formato lógico (el físico, o a bajo nivel,
viene hecho de fábrica y no es recomendable hacerlo de nuevo, excepto en casos
excepcionales, pues podría dejar inutilizado el disco) lo que hacemos es agrupar los sectores
en unidades de asignación (CLUSTERS) que es donde se almacenan los datos de manera
organizada. Cada unidad de asignación sólo puede ser ocupado por un archivo (nunca dos
diferentes), pero un archivo puede ocupar más de una unidad de asignación.
Cuando usted o el software indica al sistema operativo a que deba leer o escribir a un
archivo, el sistema operativo solicita que el controlador del disco duro traslade los cabezales de
lectura/escritura a la tabla de asignación de archivos (FAT). El sistema operativo lee la FAT
para determinar en qué punto comienza un archivo en el disco, o qué partes del disco están
disponibles para guardar un nuevo archivo.
Los cabezales escriben datos en los platos al alinear partículas magnéticas sobre las
superficies de éstos. Los cabezales leen datos al detectar las polaridades de las partículas que
ya se han alineado.
Es posible guardar un solo archivo en racimos diferentes sobre varios platos,
comenzando con el primer racimo disponible que se encuentra. Después de que el sistema
operativo escribe un nuevo archivo en el disco, se graba una lista de todos los racimos del
archivo en la FAT.
Un ordenador funciona al ritmo marcado por su componente más lento, y por eso un
disco duro lento puede hacer que tu MAQUINA sea vencida en prestaciones por otro equipo
menos equipado en cuanto a procesador y cantidad de memoria, pues de la velocidad del disco
duro depende el tiempo necesario para cargar tus programas y para recuperar y almacenar tus
datos.
La capacidad de almacenamiento hace referencia a la cantidad de información que
puede grabarse o almacenar en un disco duro. Hasta hace poco se medía en Megabytes (Mg),
actualmente se mide en Gigabytes (Gb).
Comprar un disco duro con menos de 3,5 GIGAS de capacidad dará lugar a que pronto
te veas corto de espacio, pues entre el sistema operativo y una suite ofimática básica
(procesador de texto, base de datos, hoja de cálculo y programa de presentaciones) se
consumen en torno a 400 MB.
Si instalas los navegadores de MICROSOFT y NETSCAPE suma otros 100MB; una
buena suite de tratamiento gráfico ocupa en torno a 300MB y hoy en día muchos juegos
ocupan más de 200MB en el disco duro.
Ya tenemos en torno a 1,5 GIGAS ocupados y aún no hemos empezado a trabajar con
nuestro ordenador.
Velocidad de Transferencia
Es la velocidad a la que gira el disco duro, más exactamente, la velocidad a la que
giran el/los platos del disco, que es donde se almacenan magnéticamente los datos. La regla
es: a mayor velocidad de rotación, más alta será la transferencia de datos, pero también mayor
será el ruido y mayor será el calor generado por el disco duro. Se mide en número revoluciones
por minuto ( RPM). No debe comprarse un disco duro IDE de menos de 5400RPM (ya hay
discos IDE de 7200RPM), a menos que te lo den a un muy buen precio, ni un disco SCSI de
menos de 7200RPM (los hay de 10.000RPM). Una velocidad de 5400RPM permitirá una
transferencia entre 10MB y 16MB por segundo con los datos que están en la parte exterior del
cilindro o plato, algo menos en el interior.
Es el tiempo medio necesario que tarda la cabeza del disco en acceder a los datos que
necesitamos. Realmente es la suma de varias velocidades:
El tiempo que tarda el disco en cambiar de una cabeza a otra cuando busca datos.
El tiempo que tarda la cabeza lectora en buscar la pista con los datos saltando de una
a otra.
El tiempo que tarda la cabeza en buscar el sector correcto dentro de la pista.
Es uno de los factores más importantes a la hora de escoger un disco duro. Cuando se
oye hacer ligeros clicks al disco duro, es que está buscando los datos que le hemos pedido.
Hoy en día en un disco moderno, lo normal son 10 milisegundos.
El BUFFER o CACHE es una memoria que va incluida en la controladora interna del
disco duro, de modo que todos los datos que se leen y escriben a disco duro se almacenan
primeramente en el buffer. La regla de mano aquí es 128kb-Menos de 1 Gb, 256kb-1Gb,
512kb-2Gb o mayores. Generalmente los discos traen 128Kb o 256Kb de cache.
Si un disco duro está bien organizado (si no, utilizar una utilidad desfragmentadora:
DEFRAG, NORTON SPEEDISK, etc.), la serie de datos que se va a necesitar a continuación
de una lectura estará situada en una posición físicamente contigua a la última lectura, por eso
los discos duros almacenas en la caché los datos contiguos, para proporcionar un acceso más
rápido sin tener que buscarlos. De ahí la conveniencia de desfragmentar el disco duro con
cierta frecuencia.
El buffer es muy útil cuando se está grabando de un disco duro a un CD-ROM, pero en
general, cuanto más grande mejor, pues contribuye de modo importante a la velocidad de
búsqueda de datos.
Este número indica la cantidad de datos un disco puede leer o escribir en la parte más
exterrior del disco o plato en un periodo de un segundo. Normalmente se mide en
Mbits/segundo, y hoy en día, en un disco de 5400RPM, un valor habitual es 100Mbits/s, que
equivale a 10MB/s.
Es el método utilizado por el disco duro para conectarse al equipo, y puede ser de dos
tipos: IDE o SCSI.
Todas las placas bases relativamente recientes, incluso desde las placas 486, integran
una controladora de disco duro para interfaz IDE (normalmente con bus PCI) que soporta dos
canales IDE, con capacidad para dos discos cada una, lo que hace un total de hasta cuatro
unidades IDE (disco duro, CD-ROM, unidad de backup, etc.)
Debemos recordar, sin embargo, que si colocamos en un mismo canal dos dispositivos
IDE (e.g. disco duro+CD-Rom), para transferir datos uno tiene que esperar a que el otro haya
terminado de enviar o recibir datos, y debido a la comparativa lentitud del CD-ROM con
respecto a un disco duro, esto ralentiza mucho los procesos, por lo que es muy aconsejable
colocar el CD-ROM en un canal diferente al de el/los discos duros.
La velocidad de un disco duro con interfaz IDE tambien se mide por el PIO (modo
programado de entrada y salidad de datos), de modo que un disco duro con PIO-0 transfiere
hasta 3,3MB/s, PIO-1 hasta 5,2MB/s, PIO-2 hasta 8,3MB/s. Estos modos anteriores pertenecen
a la especificación ATA, pero en la especificación ATA-2 o EIDE, los discos duros pueden
alcanzar PIO-3, hasta 11,1MB/s, o PIO-4, hasta 16,6MB/s. Los discos duros modernos
soportan en su mayoría PIO-4.
Recientemente se ha implementado la especificación ULTRA-ATA o ULTRA DMA/33,
que puede llegar a picos de transferencia de hasta 33,3MB/s. Este es el tipo de disco duro que
hay que comprar, aunque nuestra controladora IDE no soporte este modo (sólo las placas base
Pentium con chipset 430TX y las nuevas placas con chipsets de VIA y ALI, y la placas Pentium
II con chipset 440LX y 440BX lo soportan), pues estos discos duros son totalmente compatibles
con los modos anteriores, aunque no les sacaremos todo el provecho hasta que actualicemos
nuestro equipo.
En cuanto al interfaz SCSI, una controladora de este tipo suele tener que comprarse
aparte (aunque algunas placas de altas prestaciones integran este interfaz) y a pesar de su
precio presenta muchas ventajas.
Se pueden conectar a una controladora SCSI hasta 7 dispositivos (o 15 si es WIDE
SCSI)de tipo SCSI (ninguno IDE), pero no solo discos duros, CD-ROMS y unidades de
BACKUP, sino también grabadoras de CD-ROM (las hay también con interfaz IDE), escáneres,
muchas de las unidades de BACKUP, etc.
Otra ventaja muy importante es que la controladora SCSI puede acceder a varios
dispositivos simultáneamente, sin esperar a que cada uno acabe su transferencia, como en el
caso del interfaz IDE, aumentando en general la velocidad de todos los procesos.
Las tasas de transferencia del interfaz SCSI vienen determinados por su tipo (SCSI-1,
Fast SCSI o SCSI-2, ULTRA SCSI, ULTRA WIDE SCSI), oscilando entre 5MB/s hasta 80MB/s.
Si el equipo va a funcionar como servidor, como servidor de base de datos o como estación
gráfica, por cuestiones de velocidad, el interfaz SCSI es el más recomendable.
RAID
(Redundant Array of Inexpensive Disks, ‘conjunto redundante de discos baratos’, en la
actualidad también de Redundant Array of Independent Disks, ‘conjunto redundante de discos
independientes’)
Es un sistema de almacenamiento informático que usa múltiples discos duros entre los
cuales distribuir o replicar los datos. Dependiendo de su configuración (llamados niveles), los
beneficios de un RAID respecto a un único disco son uno o varios de los siguientes:
Mayor integridad. Mejor tolerancia a fallos
Mayor rendimiento
Más capacidad.
En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios
dispositivos de bajo coste y tecnología más antigua en un conjunto que ofrecía mayor
capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última
generación y coste más alto.
En el nivel más simple, de las placas base, los RAIDs se encuentran también como opción
en los ordenadores personales más avanzados. Esto es especialmente frecuente en los
computadores dedicados a tareas intensivas de almacenamiento, como edición de audio y
vídeo.
La especificación RAID original sugería cierto número de «niveles RAID» o combinaciones
diferentes de discos. Cada una tenía ventajas y desventajas teóricas. Con el paso de los años,
han aparecido diferentes implementaciones del concepto RAID. La mayoría difieren
sustancialmente de los niveles RAID idealizados originales, pero se ha conservado la
costumbre de llamarlas con números. Esto puede resultar confuso, dado que una
implementación RAID 5, por ejemplo, puede diferir sustancialmente de otra. Los niveles RAID 3
y RAID 4 son confundidos con frecuencia e incluso usados indistintamente.
La misma definición de RAID ha estado en disputa durante años. El uso de término
«redundante» hace que muchos objeten sobre que el RAID 0 sea realmente un RAID. De igual
forma, el cambio de «barato» a «independiente» confunde a muchos sobre el pretendido
propósito del RAID. Incluso hay algunas implementaciones del concepto RAID que usan un
solo disco.
Historia
A Norman Ken Ouchi de IBM en 1978 le fue concedida una idea, la llamo y patento
«Sistema para recuperar datos almacenados en una unidad de memoria averiada» (System for
recovering data stored in failed memory unit), cuyas demandas describen los que más tarde
sería denominado escritura totalmente dividida (full striping). Esta patente de 1978 también
menciona la copia espejo (mirroring o duplexing), que más tarde sería denominada RAID 1, y la
protección con cálculo de paridad dedicado, que más tarde sería denominada RAID 3, que eran
ya arte previo en aquella época.
La tecnología RAID fue definida por primera vez en 1987 por un grupo de informáticos
de la Universidad de California, Berkeley. Este grupo estudió la posibilidad de usar dos o más
discos que aparecieran como un único dispositivo para el sistema.
En 1988, los niveles RAID 1 a 5 fueron definidos formalmente por David A. Patterson, Garth A.
Gibson y Randy H. Katz en el ensayo «Un Caso para Conjuntos de Discos Redundantes
Económicos (RAID)» —A Case for Redundant Arrays of Inexpensive Disks (RAID)—, publicado
en la Conferencia SIGMOD de 1988.
Implementaciones
Las operaciones de I/O a disco son relativamente lentas, primordialmente debido a su
carácter mecánico. Una lectura o una escritura involucra, normalmente, dos operaciones. La
primera es el posicionamiento de la cabeza lecto/grabadora y la segunda es la transferencia
desde o hacia el propio disco.
El posicionamiento de la cabeza está limitado por dos factores: el tiempo de búsqueda
(seek time) y el retardo por el giro del disco hasta la posición de inicio de los datos (latencia
rotacional). La transferencia de datos, por su parte, ocurre de a un bit por vez y se ve limitada
por la velocidad de rotación y por la densidad de grabación del medio
Una forma de mejorar el rendimiento de la transferencia es el uso de varios discos en
paralelo; esto se basa en el hecho de que si un disco solitario es capaz de entregar una tasa de
transferencia dada, entonces dos discos serían capaces, teóricamente, de ofrecer el doble de
la tasa anterior; lo mismo sucedería con cualquier operación.
La adición de varios discos debería extender el fenómeno hasta un punto a partir del
cual algún otro componente empezará a ser el factor limitante.
La distribución de datos en varios discos puede ser gestionada por hardware dedicado
o por software. Además, existen sistemas RAID híbridos basados en software y hardware
específico.
Con la implementación por software, el sistema operativo gestiona los discos del
conjunto a través de una controladora de disco normal. Considerada tradicionalmente una
solución más lenta, con el rendimiento de las CPUs modernas puede llegar a ser más rápida
que algunas implementaciones hardware, a expensas de dejar menos tiempo de proceso al
resto de tareas del sistema.
Una implementación de RAID basada en hardware requiere al menos una controladora
RAID específica, ya sea como una tarjeta de expansión independiente o integrada en la placa
base, que gestione la administración de los discos y efectúe los cálculos de paridad (necesarios
para algunos niveles RAID). Esta opción suele ofrecer un mejor rendimiento y hace que el
soporte por parte del sistema operativo sea más sencillo (de hecho, puede ser totalmente
transparente para éste). Las implementaciones basadas en hardware suelen soportar
sustitución en caliente, permitiendo que los discos que fallen puedan reemplazarse sin
necesidad de detener el sistema.
En los RAIDs mayores, la controladora y los discos suelen montarse en una caja
externa específica, que a su vez se conecta al sistema principal mediante una o varias
conexiones SCSI, Fibre Channel o iSCSI. A veces el sistema RAID es totalmente autónomo,
conectándose al resto del sistema como un NAS.
Los RAIDs híbridos se han hecho muy populares con la introducción de controladoras
RAID hardware baratas. En realidad, el hardware es una controladora de disco normal sin
características RAID, pero el sistema incorpora una aplicación de bajo nivel que permite a los
usuarios construir RAIDs controlados por la BIOS. Será necesario usar un controlador de
dispositivo específico para que el sistema operativo reconozca la controladora como un único
dispositivo RAID. Estos sistemas efectúan en realidad todos los cálculos por software (es decir,
los realiza la CPU), con la consiguiente pérdida de rendimiento, y típicamente están
restringidos a una única controladora de disco.
Una importante característica de los sistemas RAID por hardware es que pueden
incorporar un caché de escritura no volátil (con alimentación respaldo por batería) que permite
aumentar el rendimiento del conjunto de discos sin comprometer la integridad de los datos en
caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas
RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de
discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por
contra, los sistemas basados en software son mucho más flexibles (permitiendo, por ejemplo,
construir RAIDs de particiones en lugar de discos completos y agrupar en un mismo RAID
discos conectados en varias controladoras) y los basados en hardware añaden un punto de
fallo más al sistema (la controladora RAID).
Todas las implementaciones pueden soportar el uso de uno o más discos de reserva,
unidades preinstaladas que pueden usarse inmediatamente (y casi siempre automáticamente)
tras el fallo de un disco del RAID. Esto reduce el tiempo del periodo de reparación al acortar el
tiempo de reconstrucción del RAID.
Dependiendo del nivel de RAID que escojamos, si uno de los discos del conjunto falla,
la unidad continúa funcionando, sin pérdida de tiempo ni de datos. La reconstrucción de los
datos del disco que ha fallado se hace de forma automática sin intervención humana. La
capacidad global del disco aumentará, ya que se suman las capacidades de los diferentes
discos que componen el conjunto.
Arreglos paralelos vs. independientes
Arreglos paralelos:
Estos son aquellos en que cada disco participa en todas las operaciones de
entrada/salida. Este tipo de arreglo ofrece tasas altísimas de transferencia debido a que las
operaciones son distribuidas a través de todos los discos del arreglo y ocurren en forma
prácticamente simultánea. La tasa de transferencia será muy cercana, 95%, a la suma de las
tasas de los discos miembros, mientras que los índices de operaciones de entrada/salida serán
similares a las alcanzadas por un disco individual. En español: un arreglo paralelo accesará
sólo un archivo a la vez pero lo hará a muy alta velocidad. Algunas implementaciones requieren
de actividades adicionales como la sincronización de discos.
Los RAID de niveles 2 y 3 se implementan con arreglos paralelos.
Arreglos independientes:
Son denominados así aquellos arreglos en los cuales cada disco integrante opera en
forma independiente, aún en el caso de que le sea solicitado atender varios requerimientos en
forma concurrente. Este modelo ofrece operaciones de entrada/salida sumamente rápidas
debido a que cada disco está en posición de atender un requerimiento por separado. De esta
forma las operaciones de entrada/salida serán atendidas a una velocidad cercana, 95%, a la
suma de las capacidades de los discos presentes, mientras que la tasa de transferencia será
similar a la de un disco individual debido a que cada archivo está almacenado en sólo un disco.
Los niveles 4 y 5 de RAID se implementan con arreglos independientes, mientras que los
niveles 0 y 1 pueden ser implementados por cualquiera de las categorías, sin perjuicio de
suelan ser implementados en forma de arreglos independientes.
Tipos de RAID
Hay al menos nueve tipos de RAID además de un grupo no redundante (RAID-0)
RAID-0. Esta técnica tiene bandeado pero no tiene redundancia de datos. Ofrece el mejor
rendimiento pero no tolerancia a los fallos.
RAID 0: Este tipo de
arreglo utiliza una técnica llamada "striping", la cual distribuye la información en bloques entre
los diferentes discos. Es el único nivel de RAID que no duplica la información, por lo tanto no se
desperdicia capacidad de almacenamiento. Se requieren mínimo dos discos.
Ventajas: RAID-0 permite acccesar más de un disco a la vez, logrando una tasa de
transferencia más elevada y un rápido tiempo de acceso. Por no utilizar espacio en información
redundante, el costo por Megabyte es menor.
Desventaja: No existe protección de datos. No existe información en cuanto a Paridad.
Ambientes donde implementarlo: Es una buena alternativa en sistemas donde sea más
importante el rendimiento que la seguridad de los datos. Es decir ambientes que puedan
soportar una pérdida de tiempo de operación para poder reemplazar el disco que falle y
reponer toda la información.
RAID 1: Este nivel de RAID usa un tipo de configuración conocido como "mirroring", ya que la
información de un disco es completamente duplicada en otro disco. Así mismo, también se
puede duplicar el controlador de disco (duplexing). Se desperdicia el 50% de la capacidad y
sólo maneja dos discos
Ventajas: Se protege la información en caso de falla tanto del disco como del
controlador (en caso de duplex), ya que si un disco suspende su operación el otro continua
disponible. De este modo se evita la pérdida de información y las interrupciones del sistema
debido a fallas de discos.
Desventajas: Gran consumo de necesidades hardware, 100% paridad y coste alto
pues es necesario el doble de discos.
Ambientes donde implementarlo: RAID-1 está diseñado para sistemas donde la disponibilidad
de la información es esencial y su reemplazo resultaría difícil y costoso (más costoso que
reponer el disco en sí). Típico en escrituras aleatorias pequeñas con tolerancia a fallas. El
problema de este tipo de arreglos es el costo que implica duplicar los discos.
RAID 3: Conocido también como "striping con paridad dedicada", utiliza un disco de protección
de información separado para almacenar información de control codificada. Esta información de
control codificada o paridad proviene de los datos almacenados en los discos y permite la
reconstrucción de la información en caso de falla. Se requieren mínimo tres discos y se utiliza
la capacidad de un disco para la información de control.
Ventajas: RAID-3 proporciona una alta disponibilidad del arreglo, así como una tasa de
transferencia elevada, mejorando de ese modo el rendimiento del sistema.
Desventajas: Un disco de paridad dedicado puede convertirse en un cuello de botella
porque cada cambio en el grupo RAID requiere un cambio en la información de paridad. No
plantea una solución al fallo simultáneo en dos discos. Está especialmente recomendado para
aplicaciones que requieran archivos de datos de un gran tamaño.
Ambientes donde implementarlo: Es típico para transferencia larga de datos en forma serial, tal
como aplicaciones de imágenes o video.
RAID
5: Este nivel de RAID es conocido como "striping con paridad distribuida", ya que la información
se reparte en bloques como RAID-0, pero un bloque de cada disco se dedica a la paridad. Es
decir la data codificada se añade como otro sector que rota por los discos igual que los datos
ordinarios. Se requieren mínimo tres discos.
Ventajas: Es el esquema de protección de información más usado comúnmente, ya que
proporciona un buen rendimiento general con una mínima pérdida de capacidad. Además el
sistema tiene suficiente redundancia para ser tolerante a fallos.
Desventajas: Menores prestaciones que en RAID 1. No plantea una solución al fallo
simultáneo en dos discos.
Ambientes donde implementarlo: Es recomendable para aplicaciones intensas de
entrada/salida y de lectura/escritura, tal como procesamiento de transacciones.
RAID 10:
Es un nivel de arreglo de discos, donde la información se distribuye en bloques como en RAID-
0 adicionalmente, cada disco se duplica como RAID-1 , creando un segundo nivel de arreglo.
Se conoce como "striping de arreglos duplicados". Se requieren, dos canales, dos discos para
cada canal y se utiliza el 50% de la capacidad para información de control. También se le
conoce como RAID 0&1
Ventajas: Este nivel ofrece un 100% de redundancia de la información y un soporte
para grandes volúmenes de datos, donde el precio no es un factor importante.
Desventajas: Coste elevado, gran overhead y 100% de redundancia.
Ambientes donde implementarlo: Ideal para sistemas de misión crítica donde se requiera mayor
confiabilidad de la información, ya que pueden fallar dos discos inclusive (uno por cada canal) y
los datos todavía se mantienen en línea. Es apropiado también en escrituras aleatorias
pequeñas.
RAID-6. Este tipo es similar al RAID-5, pero incluye un segundo esquema de paridad
distribuido por los distintos discos y por tanto ofrece tolerancia extremadamente alta a los fallos
y las caídas de disco. Hay pocos ejemplos comerciales en la actualidad.
RAID-7. Este tipo incluye un sistema operativo incrustado de tiempo real como controlador,
haciendo las operaciones de caché a través de un bus de alta velocidad y otras características
de un ordenador sencillo. Un vendedor ofrece este sistema.
RAID-53. Este tipo ofrece un conjunto de bandas en el cual cada banda es un conjunto de
discos RAID-3. Esto proporciona mejor rendimiento que el RAID-3, pero a un costo mucho
mayor.
Pero de todos estos los que más destacan son los niveles 0,1,3,5, y 10 o RAID 0&1.
Todos los demás vienen siendo variaciones de estos últimos.
BIBLIOGRAFIA
http://www.siglo21.net
http://www.llanos.net
http://www.pcwla.com
es.wikipedia.org
www.multingles.net
www.configurarequipos.com
www.intel.com
foros.emagister.com
www.agalisa.es
www.davidsite.com
www.altera.com