Quelle stratégie pour des sauvegardes volumineuses?

Bonjour,

Je dispose d’un serveur Kimsufi qui fait tourner notamment Nextcloud, Seafile et Piwigo, tout cela représentant plusieurs centaines de Go de données.

Je m’interrogeais sur la meilleure stratégie à développer pour effectuer des sauvegardes aussi volumineuses et les exporter hors de mon serveur Kimsufi. Sauf erreur de ma part, l’outil de backup interne à Yunohost, ou une app comme Archivist qui s’appuie sur cet outil, va produire des archives toujours très volumineuses, qui vont donc prendre du temps à être “rapatriées” sur une machine domestique.

Une piste pourrait-elle de lancer un rsync quotidien directement sur les données à sauvegarder (en particulier celles qui se trouvent dans /home/yunohost.app), donc sans passer par l’outil de backup, et réserver ce dernier au “core” de ces apps, ainsi qu’aux autres apps installées mais dont les données ne sont pas volumineuses ?

Cette piste est-elle pertinente ? Y en a-t-il d’autres qui seraient plus intéressantes ?

Merci !

Il me semble que archivist utilise un mecanisme de rsync comme tu décrit …

Il y aussi borg dans la meme veine : Borg & Borg Server - deduplicated, encrypted and remote backups

Merci pour la réponse. Il faut que je re-creuse du côté d’Archivist alors, car j’ai dû être trompé par un message qui indiquait que, comme les données avaient changé depuis le dernier backup, il lui fallait reconstituer entièrement l’archive.

Y a-t-il une comparaison Archivist/Borg quelque part ? Un retour d’expérience ?

Je sais pas trop, mais à mon avis tu peux chercher “borg vs rsync” sur les internettes et tu trouveras de quoi lire

Ok je vais voir cela.

Y’a définitivement un truc que je ne pige pas avec Archivist. J’ai fait deux backups espacés de quelques minutes d’intervalle. Chacun de ces backups porte sur le core, et sur l’app zerobin.

Lors du second backup, le backup précédent est supprimé. Ce second backup est aussi volumineux que le premier (1,8 Go pour le tar.gz du core). Donc si j’avais dû rapatrier ces backups, j’aurais “déplacé” deux fois 1,8Go. Je ne vois pas où rsync apporte sa plus-value dans ce scénario :thinking:

Archivist does use rsync, but the backup from Apps or core are solid tar.gz archives.
Once the backup is made by YunoHost, if the tarball is different than the previous one, Archivist will indeed update the file.
Unfortunately, unless to uncompress the tarball, rsync won’t make any difference about which file has been changed into the archive.

Thank you for this explanation.
So using Archivist doesn’t solve the “massive backup download” problem.

Must I conclude that using rsync directly between 2 computers is the best way to handle this?

As long as you use the backup from YunoHost, with a final tarball, using rsync won’t change anything.

However, you may use the backup from YunoHost for the core and the apps without their data, and use the FILES BACKUPS section of Archivist to backup your data with rsync.

Ok thanks! That’s what I proposed in my first post. :slight_smile: