OVH Community, your new community space.

Fallo disco duro del RAID


Lordchip
10/02/2015, 00:05
Buena guia Vicent.. sirve de mucho saber lo que los demas hacen para solucionar los problemillas.. ¿te pregunto.. ? que indicios veias en tu servidor para darte cuenta que el disco duro estaba roto? aparte de la degradacion del array claro..

Vicent
17/10/2014, 11:47
He visto que el error era normal, por no tener las particiones montadas.
He montado md5 así:
mount /dev/md1 /mnt

y he visto que el sistema de archivos estaba aparentemente intacto, así que he reiniciado el servidor en modo HD, y parece que el problema ya está solucionado.

Vicent
17/10/2014, 10:10
Compruebo el estado del RAID en md1:
root@rescue:/# mdadm --misc --detail /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Wed Nov 23 08:12:30 2011
Raid Level : raid1
Array Size : 21502912 (20.51 GiB 22.02 GB)
Used Dev Size : 21502912 (20.51 GiB 22.02 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Fri Oct 17 09:50:36 2014
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

UUID : cfa16b4eacf5b43:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.688

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
root@rescue:/#

por lo que dice el RAID no está degradado, sino CLEAN

lo mismo ocurre si ejecuto "mdadm --misc --detail /dev/md5", también me pone el estado "CLEAN"

he ejecutado "fdisk -l" para ver el estado de las particiones, y aparentemente están creadas para el disco "b" sustituido:

root@rescue:/# fdisk -l

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000894a2

Device Boot Start End Blocks Id System
/dev/sda1 * 4096 43010048 21502976+ fd Linux raid autodetect
/dev/sda2 43010049 1953520064 955255008 f W95 Ext'd (LBA)
/dev/sda5 43010050 1935087616 946038783+ fd Linux raid autodetect
/dev/sda6 1935087618 1953517568 9214975+ 83 Linux

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000acc03

Device Boot Start End Blocks Id System
/dev/sdb1 4096 43010048 21502976+ fd Linux raid autodetect
/dev/sdb2 43010049 1953520064 955255008 f W95 Ext'd (LBA)
/dev/sdb5 43010050 1935087616 946038783+ fd Linux raid autodetect
/dev/sdb6 1935087618 1953517568 9214975+ 83 Linux

Disk /dev/md5: 968.7 GB, 968743583744 bytes
2 heads, 4 sectors/track, 236509664 cylinders, total 1892077312 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md5 doesn't contain a valid partition table

Disk /dev/md1: 22.0 GB, 22018981888 bytes
2 heads, 4 sectors/track, 5375728 cylinders, total 43005824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table

APARENTEMENTE EL DISCO "B" SUSTITUIDO SÍ TIENE CREADAS LAS MISMAS PARTICIONES QUE EL DISCO "A" QUE ESTABA INTACTO.

Lo que me mosquea son los mensajes finales de "Disk /dev/md1 doesn't contain a valid partition table" y lo mismo con el disco md5

¿Trato de arrancarlo en modo HD o tengo que hacer algo más en modo RESCUE?

Vicent
17/10/2014, 09:33
he probado directamente mdadm --help y me muestra la ayuda, al parecer mdadm está instalado de serie en la distribución de recuperación.
Sigo adelante con el proceso

Vicent
17/10/2014, 09:20
He buscado causas posibles y aparentemente es que el modo rescue arranca en solo lectura,
He probado:
mount -o rw,remount /

y después de eso he vuelto a ejecutar "apt get-install mdadm", obteniendo el mismo error

Vicent
17/10/2014, 08:55
Muchas gracias, Armando.
Estoy intentando seguir la guía al pie de la letra pero me falla el principio.

Tengo arrancado el servidor en modo rescue, tal y como aconsejan para evitar modificar datos durante la sincronización.

Me he conectado por ssh y me indica que es una distribución Debian, pero no me deja instalar mdadm:

login as: root
root@ks313251.kimsufi.com's password:
Linux rescue.ovh.net 3.10.23-xxxx-std-ipv6-64-rescue #1 SMP Tue Mar 18 15:06:38
CET 2014 x86_64

The programs included with the Debian GNU/Linux system are free software;
the exact distribution terms for each program are described in the
individual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
root@rescue:~# apt-get install mdadm
W: Not using locking for read only lock file /var/lib/dpkg/lock
E: Unable to write to /var/cache/apt/
E: The package lists or status file could not be parsed or opened.

agarciaOVH
17/10/2014, 08:24
Estimado Vicent,

Indicarle que si uno de sus discos ha sido suistituido y su configuracion es RAID 1, le recomendamos realizar la sincronizacion.

http://guias.ovh.es/ReconstruirRaidSoft


Un saludo

Vicent
16/10/2014, 21:04
Apreciados proveedores,

a mi servidor le falla el disco "b" del RAID

https://www.dropbox.com/s/xw1uz1fesm..._RAID.JPG?dl=0

https://www.dropbox.com/s/xw1uz1fesm..._RAID.JPG?dl=0

Les ruego lo comprueben y restauren.

Por lo que entiendo, una vez finalizada su intervención y sustituido el disco, al ser un RAID 1, no necesitaré hacer nada más y funcionará correctamente ¿no?