Serveur dans les choux

J’ai un probleme avec mon serveur (laptop i3/3G/500G) qui refuse de fonctionner. lorsque je le redémarre, il me demande de faire un fsck manuel de sda6. ce que j’ai fait et j’ai pu le démarrer. après quelques heures il est devenu inaccessible.

j’ai reçu un tas de mail de smart statuant qu’il y a 2 secteurs instables.
j’ai effectué cette commande que j’ai vu sur le forum il y a 3 jours :

admin@home:~$ sudo smartctl -a /dev/sda
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-16-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family: Seagate Momentus 5400.6
Device Model: ST9500325AS
Serial Number: 6VESTVXS
LU WWN Device Id: 5 000c50 0372d2ad7
Firmware Version: 0001SDM1
User Capacity: 500 107 862 016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Thu Jun 24 20:30:24 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
See vendor-specific Attribute list for marginal Attributes.

General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported. Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 142) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x103b) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 102 089 006 Pre-fail Always - 18108584
3 Spin_Up_Time 0x0003 098 098 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 099 099 020 Old_age Always - 1698
5 Reallocated_Sector_Ct 0x0033 096 096 036 Pre-fail Always - 95
7 Seek_Error_Rate 0x000f 089 060 030 Pre-fail Always - 861843224
9 Power_On_Hours 0x0032 057 057 000 Old_age Always - 38076
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 099 099 020 Old_age Always - 1423
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 001 001 000 Old_age Always - 577
188 Command_Timeout 0x0032 100 096 000 Old_age Always - 8590065687
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 060 032 045 Old_age Always In_the_past 40 (225 206 42 28 0)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 329
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 103
193 Load_Cycle_Count 0x0032 037 037 000 Old_age Always - 126218
194 Temperature_Celsius 0x0022 040 068 000 Old_age Always - 40 (0 12 0 0 0)
195 Hardware_ECC_Recovered 0x001a 053 046 000 Old_age Always - 18108584
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 2
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 2
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
254 Free_Fall_Sensor 0x0032 100 100 000 Old_age Always - 0

SMART Error Log Version: 1
ATA Error Count: 417 (device log contains only the most recent five errors)
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It “wraps” after 49.710 days.

Error 417 occurred at disk power-on lifetime: 38075 hours (1586 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.

After command completion occurred, registers were:
ER ST SC SN CL CH DH


40 51 00 ff ff ff 0f Error: WP at LBA = 0x0fffffff = 268435455

Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name


61 00 68 ff ff ff 4f 00 3d+10:04:16.688 WRITE FPDMA QUEUED
60 00 08 ff ff ff 4f 00 3d+10:04:16.686 READ FPDMA QUEUED
ef 10 03 00 00 00 a0 00 3d+10:04:16.683 SET FEATURES [Enable SATA feature]
27 00 00 00 00 00 e0 00 3d+10:04:16.672 READ NATIVE MAX ADDRESS EXT [OBS-ACS-3]
ec 00 00 00 00 00 a0 00 3d+10:04:16.670 IDENTIFY DEVICE
Error 416 occurred at disk power-on lifetime: 38075 hours (1586 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.

After command completion occurred, registers were:
ER ST SC SN CL CH DH


40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455

Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name


60 00 10 ff ff ff 4f 00 3d+10:04:13.910 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 3d+10:04:11.434 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 3d+10:04:11.433 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 3d+10:04:11.420 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 3d+10:04:11.413 READ FPDMA QUEUED

Error 415 occurred at disk power-on lifetime: 38075 hours (1586 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.

After command completion occurred, registers were:
ER ST SC SN CL CH DH


40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455

Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name


60 00 08 ff ff ff 4f 00 3d+09:56:30.189 READ FPDMA QUEUED
60 00 18 ff ff ff 4f 00 3d+09:56:30.188 READ FPDMA QUEUED
60 00 10 ff ff ff 4f 00 3d+09:56:30.188 READ FPDMA QUEUED
60 00 08 ff ff ff 4f 00 3d+09:56:30.186 READ FPDMA QUEUED
61 00 08 ff ff ff 4f 00 3d+09:56:30.185 WRITE FPDMA QUEUED

Error 414 occurred at disk power-on lifetime: 38075 hours (1586 days + 11 hours)
When the command that caused the error occurred, the device was active or idle.

After command completion occurred, registers were:
ER ST SC SN CL CH DH


40 51 00 ff ff ff 0f Error: WP at LBA = 0x0fffffff = 268435455

Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name


61 00 a8 ff ff ff 4f 00 3d+09:56:27.427 WRITE FPDMA QUEUED
61 00 10 ff ff ff 4f 00 3d+09:56:27.427 WRITE FPDMA QUEUED
60 00 18 ff ff ff 4f 00 3d+09:56:27.426 READ FPDMA QUEUED
60 00 10 ff ff ff 4f 00 3d+09:56:27.424 READ FPDMA QUEUED
60 00 18 ff ff ff 4f 00 3d+09:56:27.417 READ FPDMA QUEUED

Error 413 occurred at disk power-on lifetime: 38006 hours (1583 days + 14 hours)
When the command that caused the error occurred, the device was active or idle.

After command completion occurred, registers were:
ER ST SC SN CL CH DH


40 51 00 ff ff ff 0f Error: UNC at LBA = 0x0fffffff = 268435455

Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name


60 00 08 ff ff ff 4f 00 13:17:00.200 READ FPDMA QUEUED
61 00 08 ff ff ff 4f 00 13:17:00.200 WRITE FPDMA QUEUED
61 00 08 00 08 6b 40 00 13:17:00.199 WRITE FPDMA QUEUED
60 00 08 ff ff ff 4f 00 13:17:00.199 READ FPDMA QUEUED
60 00 00 ff ff ff 4f 00 13:17:00.197 READ FPDMA QUEUED

SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error

1 Short offline Completed: read failure 80% 37367 813889353

2 Short offline Completed: read failure 90% 37026 813890509

SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

admin@home:~$

je suis plutôt un utilisateur windows, j’ai commencé à me familiariser avec linux il y a 3 mois (depuis que j’ai découvert yunohost).

Donc, que dois-je faire dans l’immédiat ? (j’ai éteint le pc parce que je n’ai pas le temps de m’en occuper ces jours ci en plus j’ai eu peur de perdre mes données).
la méthode la plus sûre pour récupérer les données ? est ce que le fait de cloner le disque sur un nouveau est envisageable? est ce que le disque est mort ?

Je ne sais pas lire les résultats de SMART, mais j’ai récemment eu quelques mésaventures avec des disques qui ont commencé à lâcher.

Du coup, mon conseil : dès le 1er mail de soucis, commander un nouveau disque dur, c’est pas dit que ça va crasher tout de suite, mais ça va crasher.

Est ce que le disque est mort ? Pas forcément, avec un peu de chance tu pourra juste en le branchant sur un autre ordinateur (par contre, Windows aura du mal à le lire).

Perso ce n’est pas le disque principal qui a laché, j’ai juste fait un copier/coller de TOUT et c’est reparti proprement.

La règle générale, c’est de faire régulièrement des sauvegardes, sur DES disques différents. (perso c’est sur un disque interne à côté, et de temps en temps sur un disque USB externe, au cas où mon serveur brûle).

Avec un bon système de sauvegarde, si ton ordi explose (ou juste le disque), tu peux en prendre un neuf, ré-installer YunoHost, et restaurer les sauvegardes.

Je ne sais pas exactement comment marche les sauvegardes dans YunoHost, perso j’ai utilisé l’appli borg qui est configurée pour sauvegarder à peu près tout tous les jours (certains trucs toutes les semaines juste).

Si dans ton cas il n’y a pas de bonnes sauvegardes, et/ou qu’elles sont sur le disque qui pose problème, tu peux essayer de le cloner, ça peut marcher, mais pour la prochaine fois (parce qu’il y aura une prochaine fois, et ça peut aller vite si pas de bol avec ton disque dur), il faudra avant se pencher sur les sauvegardes.

(Si j’ai bien suivi, un système amélioré serait dans les tuyaux pour les prochaines versions de YunoHost)

La situation n’était pas alarmante, le nombre de secteurs instables était toujours de 2 depuis plusieurs mois. La dernière semaine le serveur perdait les pédales. J’ai choisi le mauvais disque pour un serveur, j’avais 3 disques qui traînaient et j’ai choisi celui qui avait le plus d’heures de travail sur le compteur (plus de 4 ans online).
J’ai créé un flash bootable de partition wizard, je l’ai lancé et connecté un autre disque en USB puis j’ai lancé un clonage de disque. C’est encore en cours. Je vous tiens au courant de la suite. (je croise les doigts parce que j’ai essayé d’autres trucs et j’ai l’impression que ça a détérioré encore plus le disque :cry:)

Salut,

5 Reallocated_Sector_Ct 0x0033 096 096 036 Pre-fail Always - 95

Le disque a déjà réalloué 95 secteurs.
Perso j’aurais une confiance toute relative* en ce disque, et vu le modèle (500 GB), je ne me poserais pas plus de questions.

* De toute façon il ne peut même pas faire un test rapide dessus on dirait.

Si tu ne veux pas t’embêter à enchainer les commandes, t’as des scripts tous bêtes sur les internets. Perso j’ai pondu ce truc (crado) qui enchaine test de tous les disques de mes serveurs distants puis sortie d’une log : kit/SMART_local: .sh pour tester les disques en local avec output dans un fichier. - SMART_local - Gitea

/!\ ça lance des tests longs, donc prévois quelques heures. Je ne sais plus si j’avais mis un truc pour éviter les SSD, vu que je n’en ai pas sur mes serveurs.

Ma tentative de clonage du disque a échoué. J’ai branché un autre disque en USB. Qu’est ce que vous me conseillez de faire ?

Copier l’arborescence si tu le peux encore

Et si j’étais toi je viserai la copie en premier lieu des éventuels sauvegarde dans /home/yunohost.backup, puis des données dans /home/yunohost.app et /var/mail, puis potentiellement du répertoire postgres et enfin de mysql.

Et le faire à froid avec un autre ordinateur, c’est à dire que là tu arrêtes ton serveur, tu branches le disque défaillant sur un autre ordi et tu copies.

Faudra réinstaller, tu risque de galérer à tout bien restaurer à ce stade si tu n’a pas de backup.

J’ai booté avec Linux mint, lancé gparted (je ne maîtrise pas beaucoup). J’ai pu copier les partitions boot (240M) et la partition principale (450 G avec 150 G de données) dans le nouveau disque. Puis j’ai créé une partition swap.
J’ai branché le nouveau disque dans la machine mais ça ne marche pas. J’ai vu qu’il y a un flag “boot” que j’ai activé sur la première.

Édit :
Boot a partir d’un flash Linux mint
Gparted
Il y a 3 partitions dans le disque source : la première 240Mo, la seconde 980Mo (swap) et la dernière 450Go.
J’ai fait copier la première puis je l’ai collé sur le disque destination
J’ai ignoré la partition swap
J’ai copié la dernière puis collé sur le disque destination.
Sda1 > sdc1 / sda6 > sdc2

Apparemment je n’ai pas bien spécifié le type de partition ou j’ai oublié un truc pour que le système trouve la partition de démarrage.

Je suis un peu bloqué, en plus je suis un peu débordé par le boulot. Je suis pas super calé en Linux.

Finalement j’ai réussi à faire remarcher mon serveur.
J’ai suivi les instructions de ce tutoriel :
https://doc.ubuntu-fr.org/boot-repair
Il reste à vérifier que tout fonctionne correctement.
J’ai lu qu’il était possible d’installer debian en mode raid logiciel. Je vais investiguer plus pour comprendre comment ça marche. Cet incident ne devrait pas se répéter.

2 Likes

Oh que si, on aura tous des incidents, du coup il faut bien se préparer à y faire face.

Mais maintenant que tu en a vécu un, je pense que ça va te vacciner pour quelques années (en tous cas de mon côté, quand mes disques ont flanchés, ça m’a bien servi de leçon)

1 Like

Tout à fait. Ce qui m’a trahi c’est que j’ai mal compris le rapport smart.

Honnêtement, le vrai trucs c’est d’avoir une bonne méthode de sauvegarde.

3 Likes

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.