RAID-System mit zwei Festplatten - Test des Setups

 

Test des Setups

Falls man der ganzen Sache mißtraut und vielleicht auch ein bißchen Zeit hat, sich damit näher zu befassen, kann man das Setup recht einfach ‘auf die Probe stellen’.

Man sollte sich natürlich sicher sein, daß man o.g. Schritte ausgeführt hat und das System die RAID-Partitionen aufgebaut/erkannt hat (mit cat /proc/mdstat prüfbar, siehe oben).

Ein klein wenig Mut zusammennehmen und ein

dd if=/dev/zero of=/dev/sda bs=1024k count=10

zerschießt galant die ersten 10MiByte der ersten Festplatte — ‘Totalschaden im Dateisystem’. Daraufhin gibt man dem System ein

reboot

und versucht ein paar Minuten später, sich erneut einzuloggen — hat man beim Setup alles richtig gemacht, funktioniert das auch problemlos.

# cat /proc/mdstat

wird dann ein nicht-redundantes RAID1 zeigen und ein zerlegtes RAID0 (swap):

Personalities : [raid1] [raid0]
md0 : inactive sdb2[1]
4192768 blocks

md1 : active raid1 sdb1[1]
152087232 blocks [2/1] [_U]

unused devices: <none>

Damit ist bewiesen: Das RAID ist eingesprungen, das System ist von der zweiten Festplatte gebootet. Nun sollte man sich an die Wiederherstellung der Redundanz machen, dafür hat man schließlich zwei Festplatten. (Im Falle eines wirklichen Festplattenschadens wende man sich vertrauensvoll an den Inter.Net-Support, das defekte Teil wird zügig ausgetauscht werden.)

Mit

# fdisk -l /dev/sdb

kann man sich die Geometrie der verbliebenen, funktionierenden Festplatte darstellen lassen:

Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1       18934   152087323+  fd  Linux raid autodetect
/dev/sdb2           18935       19456     4192965   fd  Linux raid autodetect

und anhand dieser Daten mit fdisk /dev/sda die erste Festplatte dementsprechend partitionieren. Ist man damit fertig, stößt

mdadm -a /dev/md1 /dev/sda1

den Wiederaufbau des RAID-Systems an, den man ebenfalls beobachten kann (cat /proc/mdstat):

Personalities : [raid1] [raid0]
md0 : inactive sdb2[1]
4192768 blocks

md1 : active raid1 sda1[2] sdb1[1]
152087232 blocks [2/1] [_U]
[====>................]  recovery = 24.2% (36808896/152087232) finish=99.6min speed=19286K/sec

cpr certification online
cpr certification onlineCPR certificationcpr certification online