Pré-Requisitos
- Um usuário não-root com privilégios de sudo, não sabe como se logar como root Clique Aqui!
As etapas deste guia serão concluídas com um usuário SUDO.
Primeiro, instale fisicamente seu novo disco com o tamanho igual ou superior ao disco que será substituído, depois verifique como estão montado os arrays do RAID com o comando:
cat /proc/mdstat
Será exibido um retorno similar a esse no shell.
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdb2[1](S) sdc2[2](S)
3858200832 blocks
Esse retorno é porque foi criado um dispositivo RAID (/ dev / md0) que consiste em /dev/sdb2 e /dev/sdc2. Precisamos de pelo menos 3 discos para o nosso RAID 5 e 4 discos para um RAID 6, então vamos adicionar o disco /dev/sda3 com o comando:
sudo mdadm --manage /dev/md0 --add /dev/sda3
Caso apareça essa saída:
mdadm: cannot get array info for /dev/md0
Isso quer dizer que o array em /dev/md0 não está ativo, logo será necessário corrigirmos a falta do disco para solucioná-lo. Vamos tentar forçar a sua correção:
sudo mdadm --assemble /dev/md0
Caso apareça essa mensagem, como a mesma já explica não foi encontrado o device md0
mdadm: no devices found for /dev/md0
Isso quer dizer que o mdadm não sabe quais discos ele pode utilizar no RAID.
Vamos então fazer o mdadm procurar os discos disponíveis para ele:
sudo mdadm --assemble /dev/md0 --scan
Esse retorno nos da o exemplo para utilizarmos a opção force, no meu caso não funcionou mais vamos tentar:
mdadm: /dev/md0 assembled from 2 drives - not enough to start the array while not clean - consider --force.
Então vamos tentar agora com o force:
sudo mdadm --assemble /dev/md0 --scan --force
Com o retorno apresentado:
mdadm: SET_ARRAY_INFO failed for /dev/md0: Device or resource busy
Vamos parar o serviço para continuarmos:
sudo mdadm --stop /dev/md0
Saída:
mdadm: stopped /dev/md0
Vamos tentar novamente
sudo mdadm --assemble /dev/md0 --scan --force
Saída positiva:
mdadm: /dev/md0 has been started with 2 drives (out of 3).
Pronto foi adicionado o terceiro disco.
Vamos ver se ele está sincronizando com o comando:
cat /proc/mdstat
Saída:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdb2[1] sdc2[2]
3858200832 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
Para detalhar to o array do RAID digite:
sudo mdadm --detail /dev/md0
Saída:
/dev/md0:
Version : 00.90
Creation Time : Mon Feb 7 18:27:14 2011
Raid Level : raid5
Array Size : 3858200832 (3679.47 GiB 3950.80 GB)
Used Dev Size : 1929100416 (1839.73 GiB 1975.40 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon Apr 25 13:04:09 2011
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : 90b591c9:2fd9536f:86e10ba8:fe4e4a37
Events : 0.172
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
Foi identificado que o disco faltoso ó 0, então vamos substituir ele pelo sda3
sudo mdadm --manage /dev/md0 --add /dev/sda3
mdadm: added /dev/sda3
Execute novamente o comando:
sudo mdadm --detail /dev/md0
Saída:
/dev/md0:
Version : 00.90
Creation Time : Mon Feb 7 18:27:14 2011
Raid Level : raid5
Array Size : 3858200832 (3679.47 GiB 3950.80 GB)
Used Dev Size : 1929100416 (1839.73 GiB 1975.40 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Jun 29 23:39:54 2011
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Rebuild Status : 0% complete
UUID : 90b591c9:2fd9536f:86e10ba8:fe4e4a37
Events : 0.176
Number Major Minor RaidDevice State
3 8 3 0 spare rebuilding /dev/sda3
1 8 18 1 active sync /dev/sdb2
2 8 34 2 active sync /dev/sdc2
Pronto o RAID foi iniciado e ativado novamente, para visualizar o REBUILDING basta digitar o comando
cat /proc/mdstat
Saída:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sda3[3] sdb2[1] sdc2[2]
3858200832 blocks level 5, 64k chunk, algorithm 2 [3/2] [_UU]
[>....................] recovery = 0.0% (673180/1929100416) finish=429.6min speed=74797K/sec
Caso deseje mais informações sobre Criação de RAID mdadm Clique Aqui!
Caso deseje mais informações sobre Desativação de RAID mdadm Clique Aqui!
Para Saber mais sobre Linux Clique Aqui!