Problème partition JBOD sur NAS Synology

Comment utiliser TestDisk pour récupérer une partition perdue
Locked
Message
Author
thoniodu10
Posts: 3
Joined: 11 Jan 2021, 23:12

Problème partition JBOD sur NAS Synology

#1 Post by thoniodu10 »

Bonjour à tous,

J'écris sur ce forum car je suis totalement désespéré.
Je possède un NAS Synology DS416j avec 3 disques en JBOD (dans l'ordre : 2TB / 4TB /6TB).

J'ai effectivement commis l'erreur de faire du JBOD, surtout pour des photos :-(.
J'ai voulu installer un paquet pas trop officiel sur le syno (visiblement fait pour de l'intel alors que mon syno est en ARM :-/)
Resultat, ca m'a été fatal. Ca a corrompu mon disque 1. Les disques 2 & 3 sont correctement détectés sur le syno.
La bonne nouvelle, c'est que le disque 1 ne présente pas de panne matériel.

Le NAS ne bootait plus si le disque 1 était inséré, j'ai donc reinstaller DSM sans le disque 1.
La réparation de la partition sur le disque 1 (que j'insère à chaud lorsque le DSM est démarré) n'est pas possible.

J'ai regardé avec Testdisk pour voir à quoi ressemblent les partitions.
Au tout début, en insérant le disque 1, une partition Intel était détectée, alors que c'est EFI sur les 2 autres.
J'ai récris la partition sur le disque 1, mais ce n'est toujours pas bon, ce n'est pas la bonne je pense...
Aujourd'hui, voici ce que j'obtiens.

Disque 1 :
Avant Analyse :

Code: Select all

Disk /dev/sdc - 2000 GB / 1863 GiB - CHS 243201 255 63
Current partition structure:
     Partition                  Start        End    Size in sectors
 1 P Linux Raid                  2048    4982527    4980480 [md0]
 2 P Linux Raid               4982528    9176831    4194304 [md1]
 3 P Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
Après Analyse : (si je poursuis l'analyse, il me trouve plein d'autres [1.42.6-5644]

Code: Select all

Disk /dev/sdc - 2000 GB / 1863 GiB - CHS 243201 255 63
Analyse cylinder   628/243200: 00%
                                                                                                                                                                                                                                                  Linux filesys. data         2048    4982399    4980352 [1.42.6-5615]
  Linux Raid                  2048    4982527    4980480 [md0]
  Linux Swap               4982528    9176687    4194160
  Linux Raid               4982528    9176831    4194304 [md1]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux filesys. data      9439232 23422818175 23413378944 [1.42.6-5644]
  Linux filesys. data      9701374 23423080317 23413378944 [1.42.6-5644]

Disque 2
Avant Analyse :

Code: Select all

Disk /dev/sdd - 4000 GB / 3726 GiB - CHS 486401 255 63
Current partition structure:
     Partition                  Start        End    Size in sectors
 1 P Linux Raid                  2048    4982527    4980480 [md0]
 2 P Linux Raid               4982528    9176831    4194304 [md1]
 3 P Linux Raid               9437184 7813832351 7804395168 [DS416j-Thonio:2]
Après Analyse :

Code: Select all

Disk /dev/sdd - 4000 GB / 3726 GiB - CHS 486401 255 63
Analyse cylinder   612/486400: 00%
                                                                                                                                                                                                                                                  Linux filesys. data         2048    4982399    4980352 [1.42.6-25415]
  Linux Raid                  2048    4982527    4980480 [md0]
  Linux Swap               4982528    9176687    4194160
  Linux Raid               4982528    9176831    4194304 [md1]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
Disque 3 :
Avant Analyse :

Code: Select all

Disk /dev/sdb - 6001 GB / 5589 GiB - CHS 729601 255 63
Current partition structure:
     Partition                  Start        End    Size in sectors
1 P Linux Raid                  2048    4982527    4980480 [md0]
 2 P Linux Raid               4982528    9176831    4194304 [md1]
 3 P Linux Raid               9437184 11721040064 11711602881 [DS416j-Thonio:2]
Après Analyse :

Code: Select all

Disk /dev/sdb - 6001 GB / 5589 GiB - CHS 729601 255 63
Analyse cylinder   591/729600: 00%
                                                                                                                                                                                                                                                  Linux filesys. data         2048    4982399    4980352 [1.42.6-25415]
  Linux Raid                  2048    4982527    4980480 [md0]
  Linux Swap               4982528    9176687    4194160
  Linux Raid               4982528    9176831    4194304 [md1]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]

Après analyse sur le disque 1, si je fais P sur
Linux filesys. data 2048 4982399 4980352 [1.42.6-5615]

Je vois bien l'arborescence de dossier. Bien sur, si je vais dans le dossier Volume1, je ne vois rien, comme sur les autres disques d'ailleurs.

J'ai réussi à récupérer des photos sur les 3 disques mais voilà je ne pense pas que mon cas soit désespéré et je voudrais donc l'avis d'expert avant de formater et reconstruire mes disques.

Merci pour le temps que vous pourrez m'accorder.

recuperation
Posts: 2719
Joined: 04 Jan 2019, 09:48
Location: Hannover, Deutschland (Germany, Allemagne)

Re: Problème partition JBOD sur NAS Synology

#2 Post by recuperation »

thoniodu10 wrote: 11 Jan 2021, 23:38 Bonjour à tous,

J'écris sur ce forum car je suis totalement désespéré.
Tout d'abord, désolé que je ne vais pas pouvoir vous aider!
Votre cas et comparable avec celui-ci:
viewtopic.php?f=5&t=10665

Je possède un NAS Synology DS416j avec 3 disques en JBOD (dans l'ordre : 2TB / 4TB /6TB).

J'ai effectivement commis l'erreur de faire du JBOD, surtout pour des photos :-(.
J'ai voulu installer un paquet pas trop officiel sur le syno (visiblement fait pour de l'intel alors que mon syno est en ARM :-/)
Resultat, ca m'a été fatal. Ca a corrompu mon disque 1. Les disques 2 & 3 sont correctement détectés sur le syno.
La bonne nouvelle, c'est que le disque 1 ne présente pas de panne matériel.
Je ne sais pas comment vous le savez.

Le NAS ne bootait plus si le disque 1 était inséré, j'ai donc reinstaller DSM
Je ne sais pas ce que DSM veut dire!
sans le disque 1.
La réparation de la partition sur le disque 1 (que j'insère à chaud lorsque le DSM est démarré) n'est pas possible.

J'ai regardé avec Testdisk pour voir à quoi ressemblent les partitions.
Au tout début, en insérant le disque 1, une partition Intel était détectée, alors que c'est EFI sur les 2 autres.
J'ai récris la partition sur le disque 1, mais ce n'est toujours pas bon, ce n'est pas la bonne je pense...
Aujourd'hui, voici ce que j'obtiens.

Disque 1 :
Avant Analyse :

Code: Select all

Disk /dev/sdc - 2000 GB / 1863 GiB - CHS 243201 255 63
Current partition structure:
     Partition                  Start        End    Size in sectors
 1 P Linux Raid                  2048    4982527    4980480 [md0]
 2 P Linux Raid               4982528    9176831    4194304 [md1]
 3 P Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
Après Analyse : (si je poursuis l'analyse, il me trouve plein d'autres [1.42.6-5644]

Code: Select all

Disk /dev/sdc - 2000 GB / 1863 GiB - CHS 243201 255 63
Analyse cylinder   628/243200: 00%
                                                                                                                                                                                                                                                  Linux filesys. data         2048    4982399    4980352 [1.42.6-5615]
  Linux Raid                  2048    4982527    4980480 [md0]
  Linux Swap               4982528    9176687    4194160
  Linux Raid               4982528    9176831    4194304 [md1]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux filesys. data      9439232 23422818175 23413378944 [1.42.6-5644]
  Linux filesys. data      9701374 23423080317 23413378944 [1.42.6-5644]

Disque 2
Avant Analyse :

Code: Select all

Disk /dev/sdd - 4000 GB / 3726 GiB - CHS 486401 255 63
Current partition structure:
     Partition                  Start        End    Size in sectors
 1 P Linux Raid                  2048    4982527    4980480 [md0]
 2 P Linux Raid               4982528    9176831    4194304 [md1]
 3 P Linux Raid               9437184 7813832351 7804395168 [DS416j-Thonio:2]
Après Analyse :

Code: Select all

Disk /dev/sdd - 4000 GB / 3726 GiB - CHS 486401 255 63
Analyse cylinder   612/486400: 00%
                                                                                                                                                                                                                                                  Linux filesys. data         2048    4982399    4980352 [1.42.6-25415]
  Linux Raid                  2048    4982527    4980480 [md0]
  Linux Swap               4982528    9176687    4194160
  Linux Raid               4982528    9176831    4194304 [md1]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
Disque 3 :
Avant Analyse :

Code: Select all

Disk /dev/sdb - 6001 GB / 5589 GiB - CHS 729601 255 63
Current partition structure:
     Partition                  Start        End    Size in sectors
1 P Linux Raid                  2048    4982527    4980480 [md0]
 2 P Linux Raid               4982528    9176831    4194304 [md1]
 3 P Linux Raid               9437184 11721040064 11711602881 [DS416j-Thonio:2]
Après Analyse :

Code: Select all

Disk /dev/sdb - 6001 GB / 5589 GiB - CHS 729601 255 63
Analyse cylinder   591/729600: 00%
                                                                                                                                                                                                                                                  Linux filesys. data         2048    4982399    4980352 [1.42.6-25415]
  Linux Raid                  2048    4982527    4980480 [md0]
  Linux Swap               4982528    9176687    4194160
  Linux Raid               4982528    9176831    4194304 [md1]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]
  Linux Raid               9437184    9437191          8 [DS416j-Thonio:2]

Après analyse sur le disque 1, si je fais P sur
Linux filesys. data 2048 4982399 4980352 [1.42.6-5615]

Je vois bien l'arborescence de dossier. Bien sur, si je vais dans le dossier Volume1, je ne vois rien, comme sur les autres disques d'ailleurs.

J'ai réussi à récupérer des photos sur les 3 disques mais voilà je ne pense pas que mon cas soit désespéré et je voudrais donc l'avis d'expert avant de formater et reconstruire mes disques.

Merci pour le temps que vous pourrez m'accorder.
Je ne suis pas expért.

Testdisk est capable de faire certaines choses sur un disque physique ou logique.
Vous, par contre, avez trois disques physiques. Vous les utilizez en mode JBOD. Votre système présente les 2TB, 4TB et 6TB comme un disque (logique, virtuel) de 12TB. Vous pouvez appliquer Testdisk sur votre disque logique de 12TB pour chercher des partitions, pour faire quelques réparations etc.
Vous avez appliqué Testdisk sur chaque disque, l'un après l'autre.

Le but c'est des manipuler des fichiers de configuration sur votre disque de système d'opérations et peut-être votre disque no.1 aussi de manière que les trois disques seront visiblent comme un grand disque de 12TB.
Et mois, n'ayant pas d'expérience avec les JBOD, je ne peux pas vous expliquer comment faire et Testdisk ne va pas vous coller les disques non plus.

thoniodu10
Posts: 3
Joined: 11 Jan 2021, 23:12

Re: Problème partition JBOD sur NAS Synology

#3 Post by thoniodu10 »

Bonjour,

Merci pour le retour rapide.

"Je ne sais pas comment vous le savez."
--> j'ai effectué des tests Smart qui n'indique pas de failure HW et mon problème est apparu dès que j'ai installé le paquet SW.
Il y a donc très peu de chance que ce problème soit lié au HW.

"Je ne sais pas ce que DSM veut dire!"
--> il s'agit de l'os synology.

Comment puis je utiliser testdisk sur le volume de 12 TB ?
Mes 3 HDD sont connectés via un hub et des boitiers, je peux les lancer en parallèle sur 3 testdisk différents actuellement.

User avatar
cgrenier
Site Admin
Posts: 5432
Joined: 18 Feb 2012, 15:08
Location: Le Perreux Sur Marne, France
Contact:

Re: Problème partition JBOD sur NAS Synology

#4 Post by cgrenier »

Est-ce que vous avez récupérer tous vos fichiers ou uniquement une partie ?
Quel est le résultat d'un "cat /proc/mdstat" ?

thoniodu10
Posts: 3
Joined: 11 Jan 2021, 23:12

Re: Problème partition JBOD sur NAS Synology

#5 Post by thoniodu10 »

La priorité était mes photos, je pense en avoir récupéré une bonne partie.

J'ai monté un linux sur lequel j'ai connecté mon hub et lorsque je fais cat /proc/mdstat, j'ai :

Code: Select all

Personnalities :
unused devices : <none>
Mon fdisk =l donne ceci :

Code: Select all

Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Disk model: SuperSpeed      
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 87EF0238-29B0-401E-AB7A-BA0EB751B78E

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdc1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdc2    4982528     9176831     4194304     2G RAID Linux
/dev/sdc3    9437184 11721040064 11711602881   5,5T RAID Linux


Disque /dev/sdd : 1,84 TiB, 2000398934016 octets, 3907029168 secteurs
Disk model: ASM105x         
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 33553920 octets
Type d'étiquette de disque : gpt
Identifiant de disque : AAF48A0A-1E15-11EB-9F54-0068EB905146

Périphérique   Début     Fin Secteurs Taille Type
/dev/sdd1       2048 4982527  4980480   2,4G RAID Linux
/dev/sdd2    4982528 9176831  4194304     2G RAID Linux
/dev/sdd3    9437184 9437191        8     4K RAID Linux


Disque /dev/sde : 3,65 TiB, 4000787030016 octets, 7814037168 secteurs
Disk model: ASM105x         
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 27B9287C-E7BA-445A-A834-DE2D3DC4EE3D

Périphérique   Début        Fin   Secteurs Taille Type
/dev/sde1       2048    4982527    4980480   2,4G RAID Linux
/dev/sde2    4982528    9176831    4194304     2G RAID Linux
/dev/sde3    9437184 7813832351 7804395168   3,6T RAID Linux
Sans surprise, sdd3 n'est pas la bonne partition (vu la taille), ma faute je pense car j'ai réécris avec testdisk pensant que c'était la bonne.
Par contre est ce normal que les tailles de secteur diffèrent entre les disques ?

Locked