RAID, XFS, mdadm, mon cauchemard... Testdisk mon sauveur ?

Comment utiliser TestDisk pour récupérer une partition perdue
Locked
Message
Author
klmmlk
Posts: 2
Joined: 26 Aug 2013, 17:17

RAID, XFS, mdadm, mon cauchemard... Testdisk mon sauveur ?

#1 Post by klmmlk »

Bonjour forum.
J'espère que tu (toi, ô forum) récupère pleins d'octets viables, et de secteurs deffectueux avec succes, toussa, et que tu peut m'aider.
Malgré de nombreuses recherches et de longues lectures de sujets s'apporchant du mien, je ne saisit as vraiment la bonne procedure a suivre pour mon cas particulier (et vous allez bien rigoler...)

Il s'agit d'un NAS Buffalo, qui a cramé (carte mere HS)... deux disques identiques a l'interieur, de 500GO.
Le responsable informatique ayant changé plusieurs fois, personne ne saurais dire avec exactitude s'il s'agissait d'un RAID0 ou d'un RAID1.
La piste la plus probable serait le RAID1.
Le materiel ne m'apartient pas, je n'y ais donc pas acces, je dispose d'images disques faites avec dd.
Les disques sont sains.
L'admin actuellement en poste etait en vaccances, un remplaçant a effectué de malencontreuses tentatives de restauration de la grappe raid, en ecrasant le RAID existant.
avec "mdadm -create", il a successivement re-créé un RAID1, sur un seul des disques, puis encore un, toujours sur le meme seul disque, puis finalement un RAID0 en utilisant les deux disques, en tentant a chaque fois de monter md0, en ext3, puis en XFS.
A chaque fois, cela lui a parlé de bad superblock toussa.

Desormais, donc, un simple "mdadm -A /dev/md0 /dev/sdb6 /dev/sdc6" ne suffit plus a restaurer la grappe d'origine, avec son systeme de fichiers, puisque le raid est reconnu come celui recement créé.

Voici actuellement la table de partition reonnue par fdisk -l:
------------------------------------Premier disque---------------------------------------
Disk /dev/sdb: 500.1 GB, 500107862016 bytes
255 têtes, 63 secteurs/piste, 60801 cylindres, total 976773168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x43876da0

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdb1 63 2008124 1004031 83 Linux
/dev/sdb2 2008125 12016619 5004247+ 83 Linux
/dev/sdb4 12016620 976768064 482375722+ 5 Étendue
/dev/sdb5 12016683 14024744 1004031 82 partition d'échange Linux / Solaris
/dev/sdb6 14024808 974984849 480480021 83 Linux
-----------------------------------------Fin Premier disque------------------------------------------

-----------------------------------------Debut second disque----------------------------------------
Disk /dev/sdf: 500.1 GB, 500107862016 bytes
255 têtes, 63 secteurs/piste, 60801 cylindres, total 976773168 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0xb87f105a

Périphérique Amorce Début Fin Blocs Id Système
/dev/sdf1 63 2008124 1004031 83 Linux
/dev/sdf2 2008125 12016619 5004247+ 83 Linux
/dev/sdf4 12016620 976768064 482375722+ 5 Étendue
/dev/sdf5 12016683 14024744 1004031 82 partition d'échange Linux / Solaris
/dev/sdf6 14024808 974984849 480480021 83 Linux
----------------------------------------Fin second disque-----------------------------------------------

Les partitions /dev/sdX6 sont celles contenant les données précieuses, les autres etant des partitions systeme du NAS, elles aussi RAID.

Je précise qu'il s'agit de partitions XFS que l'on souhaite restaurer.

Bien sur, un mdadm -A /dev/md0 /dev/sdb6 /dev/sdf6 monte bien un raid, actif, sain, mais en RAID0 (le dernier re-créé par l'admin), et vierge, sans systeme de fichiers dessus.

Quelle serait la procedure pour savoir exactement si il s'agissait d'un raid0 ou 1 auparavant (est-ce possible au moins ?), et surtout, comment restaurer la structure raid+filesystem pour pouvoir monter les partions, ou, au pire, au moins recupérer une partition XFS sur l'un des deux disques (dans l'hypothèse ou il s'agirait d'un RAID1), si on peut faire en se passant du RAID qui était utilisé auparavant.

Sachant que les données sont présentes, (vues avec UFS professional recovery en mode shareware) et le disque est sain.
Je dispose uniquement d'images des disques complets (dd if=/dev/sdX of=sdX.dd).
J'ai egalement extrait avec testdisk uniquement la partion n°6 de chacune des images disques, ce sont sur ces partions que mdadm --create a opéré...
Avant de détruire definitivement des informations de partitionnement avec testdisk, en croyant restaurer des trucs, j'aimerais bien comprendre ce que je fais.

J'ai cru comprendre qu'un log de testdisk pouvait etre utile, mais je ne sais pas trop comment le générer, ni ce qu'il faut comme informations.

Merci forum !

User avatar
cgrenier
Site Admin
Posts: 5432
Joined: 18 Feb 2012, 15:08
Location: Le Perreux Sur Marne, France
Contact:

Re: RAID, XFS, mdadm, mon cauchemard... Testdisk mon sauveur

#2 Post by cgrenier »

Sous Linux, utiliser vbindiff pour comparer les images disques.
Si elles sont quasiement identiques (aux massacres prets), il s'agit d'un RAID 1.

Vous pouvez aussi d'utiliser un "hexdump -C image.dd|less" dans 2 terminaux et comparer la résultat pour les 2 images, mais c'est moins simple

klmmlk
Posts: 2
Joined: 26 Aug 2013, 17:17

Re: RAID, XFS, mdadm, mon cauchemard... Testdisk mon sauveur

#3 Post by klmmlk »

Bien bien bien...
Je vais regarder ça.

J'ai logué testdisk en lui demandant tout les scans possibles et imaginables (deux en fait... le premier et le deep), il me trouve beaucoup de partitions, mais en m'explicant bien qu'aucune n'est restaurable...

Est-il utile que je poste le log ? (dans un pastebin hein, passkilèlong !)

Je posterais les resultats de mes recherches avec les outils ci-dessus conseillés, pour determiner la nature du RAID.

A bientot, ô forum (et merci, ô monsieur Christophe Grenier).

Locked