Connexion Premium

Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

Pour protéger vos données, ne mettez pas tous vos œufs (vos clés) dans le même panier

Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

Il faut prendre soin de ses données, en tant que lecteurs de Next vous en êtes convaincus depuis longtemps. Que ce soit pour faire des sauvegardes dans le cloud, c’est-à-dire sur l’ordinateur de quelqu’un d’autre, ou pour les protéger des regards indiscrets, on doit souvent faire confiance à un tiers pour le chiffrement. Next vous aide à trouver un successeur à feu Boxcryptor.

Le 10 février à 17h46

Depuis le 24 décembre, Next propose à ses abonnés Premium du stockage S3 : 1 To par défaut, avec 100 Go de plus par ancienneté du compte. Nous avons publié dans la foulée un tuto pour vous expliquer comment en profiter. Disponible sous forme de bêta, l’offre s’est ouverte à tous début février.

Il est maintenant temps de passer au second gros morceau de notre dossier : comment chiffrer vos données avant de les envoyer dans le cloud.

Deux méthodes de protection

Pour cela, nous avons grosso modo deux méthodes : la gestion des droits d’accès et le chiffrement. Pour la gestion des droits, c’est-à-dire la mise en place d’un mécanisme empêchant les consultations non souhaitées, il faut s’en remettre entièrement à un fournisseur : il doit mettre en place les outils nécessaires, mais il est impossible de les vérifier nous-mêmes, sauf par un audit hors de portée des utilisateurs lambda.

Le chiffrement, en revanche, offre lui la possibilité d’être maîtrisé (sous certaines conditions) par l’utilisateur, notamment quand il reste le seul maître des clés de chiffrement. Encore faut-il choisir le bon outil, si tant est qu’il existe, et les bonnes options.

Il est impossible de lister tous les produits du marché, on va en regarder quelques-uns pour vous montrer leurs principales caractéristiques, afin que vous compreniez bien leurs usages et que vous trouviez ce qui vous convient le mieux. Mais on vous le réexpliquera très prochainement dans un dossier, il vaut vraiment mieux rester maître de ses clés, donc l’exigence pour notre recherche d’outil se résumera ainsi :

Chiffrer un dossier (pouvant être local ou distant), tout en restant bien sûr maître de la clé de chiffrement, et en y accédant localement de façon transparente.

La référence disparue : Boxcryptor

Cet outil non open source et payant cochait néanmoins de très nombreuses cases : chiffrement de bout en bout (E2EE comme on dit dans les milieux autorisés) fichier par fichier, maîtrise des clés de chiffrement grâce au zero knowledge (les informations principales pour le processus de chiffrement étant déduites d’un secret qui n’est stocké nulle part et n’est utilisé que localement), gestion multi-utilisateurs et intégration possible dans des Active Directories ou LDAP pour une utilisation professionnelle.

Le chiffrement E2EE fichier par fichier avec maîtrise des secrets convenait parfaitement à ceux qui veulent protéger leurs fichiers où qu’ils soient, localement ou dans le cloud, la contrepartie étant que dans un cas d’usage avec Office (Microsoft 365), les fichiers devraient forcément être déchiffrés localement avant d’être utilisés : on perd l’usage des Word et Excel en ligne, mais en gagnant sur la sécurité, chacun mettant le curseur d’usage là où il le souhaite.

Disparu suite à son rachat par Dropbox, il n’a guère laissé que Cryptomator comme alternative pour les mêmes cas d’usage. Nous y reviendrons un peu plus tard.

Quelques exemples pour voir de quoi on parle

Nous allons regarder quelques outils, et voir à quels cas d’usage ils correspondent vraiment. On en profitera pour faire un petit test de qualité, en les comparant chaque fois avec notre référence disparue (promis, on ne versera aucune larme même si l’émotion nous gagne).

Vous trouverez en fin d’article un tableau récapitulatif des fonctionnalités, forces et faiblesses, ainsi que des tarifs.

TrueCrypt et ses forks tels que VeraCrypt

Il reste 89% de l'article à découvrir.

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (66)

votre avatar
:love:

Certains avaient suggéré Kopia et Plakar, un test est également envisagé ?
votre avatar
Toutes ces solutions sont des usines à gaz et qui imposent une dépendance envers un éditeur de logiciel, avec tous les aléas que ça impose.

Moi j'ai une solution simple et rustique pour mes sauvegardes en ligne. J'ai un petit script shell qui :

  1. crée une archive multi-volume avec dar

  2. chiffre chaque tronçon avec gpg

  3. envoie le tout chez OVH avec un coup de swift en ligne de commande.


Et c'est tout.

Revers de la médaille : il faut que je l'adapte pour faire du S3 pour passer chez AWS NXI.
votre avatar
Partage ? 😁
votre avatar
C'est un script ad-hoc avec mes répertoires et mes clefs codés en dur dedans, donc non, pas partage...
votre avatar
Boutade 😁
votre avatar
Bah je trouve cryptomator bien moins usine a gaz qu'un script opaque dont seul toi à le secret 😄
Surtout que ce dernier est vraiment très simple d'usage.
votre avatar
Je suis peut-être un peu neuneu, mais en regardant vite fait le site de cryptomator, je n'ai pas réussi à trouver quels étaient les backends disponibles pour le stockage... Il fait du swift ? Il fait du S3 ?
votre avatar
Je ne crois pas, il ne convient peut être pas a ton besoin dans ce cas !

Mais il reste simple et open source, dur de le mettre dans la case machine a gaz d'un éditeur.
votre avatar
Très chers lecteurs, une bonne nouvelle pour les barbus : un github avec des scripts robustes avec gestion des secrets est en préparation, à base de rclone.

Ainsi : exit les grosses dépendances (sauf quelques packages de base genre rclone et fuse-t) !!
votre avatar
Pour ma part, lorsque j'ai vu la complexité de gestion que GPG imposait, en particulier avec les trousseaux, je me suis rabattu sur "age". Je chiffre un fichier simplement en donnant la clé publique sur la ligne de commande et la clé privé est un petit fichier (avec une pass-phrase) facile à gérer et protéger.

Ça tourne un peu partout et depuis que je l'utilise, j'en suis enchanté.

github.com GitHub
votre avatar
Ça marche aussi avec les clefs ssh, ce qui est très intéressant puisque ça évite de devoir gérer N systèmes de clefs différents.
votre avatar
Il y a MountainDuck (https://mountainduck.io/) qui intègre Cryptomator et qui permet le montage des disques réseaux de façon assez complète apparemment.

Et CyberDuck (https://cyberduck.io/cryptomator/) avec un intégration un peu différente. Il y a un tableau comparatif sur la page de l'éditeur.
votre avatar
Pour chiffrer un dossier synchronisé, style Dropbox, j'aime bien gocryptfs sous Linux, disponible aussi sous Windows sous le nom de cppcryprfs.

Il ya aussi Rclone qui propose du chiffrement.
votre avatar
Il existe aussi CryFS
votre avatar
Merci pour le dossier, je le mets en favoris et j'y reviendrais quand je serais prêt :)
votre avatar
Merci pour les tests !

J'ai éliminé mes tests avec plakar : dépendance via un compte en ligne pour tout se qui est gestion S3 ou rclone.

J'ai pas besoin d'avoir mes backups connectés à je ne sais quoi.

Du coup, je teste zerobyte, une GUI qui utilise Restic en backend avec du montage externe

Par exemple, j'ai mon serveur "backup" ou ça tourne cron, lieu backup and co,etc.

Et les serveurs que je veux backup, j'expose leurs données via webdav depuis rclone server.

Mon serveur de mail se fait backup dans un dossier, le dit dossier est exposé localement à zerobyte via webdav et de là, ça push sur le S3 de Next via cron + motif...
votre avatar
duplicati est pas mal non plus, par contre les releases linux sont pas très visibles sur la page de téléchargements (ils ont foutu un gros bloc vide entre les DL [win/mac/autres canaux de version] et linux/docker/win x86/code source)
votre avatar
Encore un super article merci
votre avatar
Bonjour, je suis entrain de créer mon homelab et je me pause des questions. J'aurais un serveur sync-in auto héberger. Je voudrais mettre en place une synchronisation chiffré avec un espace de stockage Pcloud lifetime, une sauvegarde chiffré (incremental quotidienne, complète par semaine, conservation s1, s2, s3,s4) sur un nas kobol helios 64 dédié à ça et utiliser l'espace S3 mis à disposition par Next pour deux sauvegardes chiffrés a froid (mois pair, mois impair).
Que pensez-vous de se plan de sauvegarde.
Quel logiciel conseiller vous pour cette architecture de sauvegarde?
votre avatar
une sauvegarde chiffré (incremental quotidienne, complète par semaine, conservation s1, s2, s3,s4)
J'ai du mal à comprendre.
Si c'est incrémental quotidien, quel intérêt d'une complète par semaine en plus ?
votre avatar
Ça permet d'avoir un point de départ complet pas trop lointain pour restaurer en cas de besoin, sinon il faut appliquer tous les incréments depuis la dernière sauvegarde totale.
votre avatar
Non, une bonne sauvegarde incrémentale garde l'ensemble des données par point de sauvegarde, mais ne modifie/rajoute/supprime que ce qui a changé.
votre avatar
Tu sembles confondre une sauvegarde incrémentale d'un transfert incrémental :cap: :

  • tu peux avoir une sauvegarde complète avec un transfert complet

  • tu peux avoir une sauvegarde complète avec un transfert incrémental

  • tu peux avoir une sauvegarde incrémentale avec un transfert complet

  • mais tu ne peux pas avoir une sauvegarde incrémentale avec un transfert partiel, puisque la base de la sauvegarde c'est justement ce qui a été modifiée ^^



[edit] Et histoire de compliquer encore plus les choses : il faut également faire la distinction entre incrémentale et différentielle :

  • incrémentale : la différence depuis la dernière sauvegarde (quelle soit complète, différentielle ou incrémentale)

  • différentielle : la différence depuis la dernière sauvegarde complète (qu'importe le nombre d'incrémentales et de différentielles entre les deux).



La différence, c'est qu'en cas de restauration :

  • différentielle : il faut juste 2 fichiers : le backup complet + le backup différentiel

  • incrémentale : il faut le backup complet + éventuellement un backup différentiel + TOUS les backups incrémentaux depuis le dernier backup complet ou différentiel.

votre avatar
Non, je ne sauvegarde que ce qui a été modifié, donc sauvegarde incrémentale.
Je garde juste ce qui n'a pas été modifié par rapport à la sauvegarde précédente au même endroit…
votre avatar
Donc en faisant ton incrémental tu perds ta sauvegarde précédente ?

Si tu décrivais ton processus, ce serait plus simple ;)
votre avatar
On ne doit pas se comprendre.

Si tu as ton disque qui est mort et que tu veux restaurer sur un nouveau disque, il faudra bien que tu partes de la dernière sauvegarde complète puis que tu appliques les différentes sauvegardes incrémentales y compris les suppressions. Et plus la sauvegarde complète est lointaine, plus c'est long.

Par contre, si tu veux juste récupérer un fichier effacé par erreur dans sa dernière version, tu peux parcourir les sauvegardes incrémentales en partant de la plus récente et en remontant jusqu'à la dernière complète si besoin.
votre avatar
Non, toutes mes données sont dans le même dossier à chaque sauvegarde incrémentale.
Seules celles qui sont modifiées ou créées sont transférées, les autres (sauf celles qui sont supprimées) sont en lien dur avec celles de la sauvegarde précédente.
votre avatar
Ce n'est pas ce qui s'appelle de la sauvegarde incrémentale ou incrémentielle (les 2 se disent). Je comprends mieux pourquoi ton propos m'était incompréhensible.

Sinon, le terme recommandé pour dossier est répertoire.
votre avatar
Ça s'appelle comment alors ?
votre avatar
Ca va dépendre du type de backup. Si ton backup consiste à générer simplement une "archive" que tu peux manipuler, stocker et restaurer en tant que fichier, alors :

1) moins de risque à la restauration : il y a peu de risque d'avoir un fichier de backup corrompu sur 7 (pour 7j) que si tu as 3 ans (plus de 1000 fichiers) à restaurer d'un coup
2) beaucoup plus facile de mettre en place un roulement des backups (comment fais-tu, si tu n'as que des incrémentales, pour bazarder tout ce qui a plus de 1 mois par exemple ? Il faut tout "recalculer" à chaque fois (avec le risque d'erreur que cela implique)
3) cela limite les erreurs dans le cas où la sauvegarde incrémentale aurait zappé un fichier (par ex. à cause d'une date de modification invalide)
4) c'est également plus facile pour tester régulièrement ses backups, tout en diminuant le temps de restauration.

C'est comme pour les bases de données : un backup complet est long (et autosuffisant). Un backup différentiel est rapide (mais il faut un backup complet avant).

Sinon, après, il faut partir sur des solutions plus poussées de backup, comme Borg, qui font de la déduplication côté serveur par exemple, mais toujours un backup complet du point de vue client (ce qui peut prendre énormément de temps côté client, car il faut alors passer en revue l'intégralité des fichiers sauvegardés et de leurs métadonnées à chaque sauvegarde, ce qui peut prendre du temps dès qu'on commence à avoir quelques dizaines de Go).
votre avatar
Sinon, après, il faut partir sur des solutions plus poussées de backup, comme Borg, qui font de la déduplication côté serveur par exemple, mais toujours un backup complet du point de vue client (ce qui peut prendre énormément de temps côté client, car il faut alors passer en revue l'intégralité des fichiers sauvegardés et de leurs métadonnées à chaque sauvegarde, ce qui peut prendre du temps dès qu'on commence à avoir quelques dizaines de Go).
Pas besoin de duplication de données, et c'est très simple avec rsync par exemple :
rsync -a
votre avatar
rsync est un outil de synchronisation, pas de backup (ce qui ne veut pas qu'il ne peut pas être utilisé dans une stratégie de backuping, mais c'est plus complexe qu'un simple rsync -a).

J'ai l'impression que tu confonds tout : transfert, backup, synchronisation... pas évident d'avoir une discussion avec tant d'amalgame...
votre avatar
Il fait de la synchro, mais aussi de la sauvegarde justement avec cette option.
votre avatar
Non. Il fait de la synchro, pas de la sauvegarde (sauf à considérer la synchro comme de la sauvegarde).

Une stratégie de backup, ce n'est pas juste avoir une copie de ses données (ce que fait rsync) mais avoir aussi la possibilité de revenir en arrière dans un temps compatible avec la stratégie de backup (ce que ne fait pas rsync).

rsync ne fait pas autant que ce que tu crois. Il faut utiliser d'autres outils comme rdiff-backup pour avoir de l'historisation.
votre avatar
la possibilité de revenir en arrière dans un temps compatible avec la stratégie de backup (ce que ne fait pas rsync).
Je ne vois pas pourquoi rsync n'y arriverai pas.
Je peux très facilement récupérer mes sauvegardes faites avec rsync, partiellement ou totalement depuis n'importe quel point de sauvegarde.
votre avatar
Je ne vois pas pourquoi rsync n'y arriverai pas.
Parce que ce n'est pas son objectif. rsync n'historise rien. Il synchronise.
votre avatar
Pas besoin d'historiser si tu fais une sauvegarde complète (de manière incrémentale ou pas).
votre avatar
je crois que tu as quelques lacunes dans le backuping des données si tu ne comprends pas l'intérêt de l'historisation...
votre avatar
Bah éclaire-moi.
Mes sauvegardes incrémentales journalières avec rsync me permettent de récupérer n'importe quel fichier/dossier ou l'ensemble de fichiers de n'importe quel point de sauvegarde, et tu dis que ce ne sont pas des sauvegardes ?
votre avatar
Je n'arrête pas depuis le début mais tu sembles ne pas comprendre. Tu ne fais pas des sauvegardes incrementales mais des backup complets. La tambouille interne de stockage que tu utilises n'a rien à voir.

Ce que tu ne sembles pas comprendre c'est comment fonctionne un backup complet d'un backup différentiel.

Un.backup complet, tu prends chaque fichiers sources un à un et tu l'envoies. Un système intelligent va pouvoir vérifier si le fichier a déjà été sauvegarder précédemment ou pas pour limiter les transferts mais cela ne concerne QUE le transfert et reste un backup complet.

Avec un backup différentiel, pour simplifier tu regardes les méta-données des fichiers, tu prends uniquement ceux créés/modifiés depuis la dernière sauvegarde, et tu transferts ces fichiers.

Un backup complet est lent car si tu as 300Go à sauvegarder tu as 300Go à lire.

Un backup différentiel sera beaucoup plus rapide en général car beaucoup moins de fichiers à lire. Mais il pourra passer à côté de fichiers si les méta-données sont incorrectes (par exemple, en entrayant les fichiers en conservant les dates présentes dans une archive)


Tu peux faire tout ce que tu veux au niveau de ta sauvegarde, faire de la déduplication et/ou ne stocker que les fichiers modifiés, ta sauvegarde telle que tu l'as implémentée reste une sauvegarde complète.

Et en ne faisant que des sauvegardes complètes, la gestion de la rotation des sauvegardes et de la restauration s'en trouve simplifié, mais c'est au prix d'un temps de backup qui est, grosse modo, proportionnelle à la taille de tes données à sauvegarder (hors temps de transfert). Et tu ne gères pas de la même manière 10Go à sauvegarder que 2To.
votre avatar
Je n'arrête pas depuis le début mais tu sembles ne pas comprendre. Tu ne fais pas des sauvegardes incrementales mais des backup complets. La tambouille interne de stockage que tu utilises n'a rien à voir.
Ce que tu ne sembles pas comprendre c'est comment fonctionne un backup complet d'un backup différentiel.
Dans toutes les définitions de sauvegardes complètes que j'ai trouvé, ça implique un transfert de toutes les données même celles déjà sauvegardées précédemment, ce qui n'est pas mon cas.

Toutes les docs que je trouve sur la méthode indiquent bien "sauvegarde incrémentale/incrémentielle" :
Sauvegardes incrémentielles
incremental backups with rsync -link-dest
How to Create Incremental Backups Using rsync on Linux
rsync script for incremental backup which continues unfinished jobs
How to create incremental backups using rsync on Linux

Mais bon, si c'est moi qui ai tort…


Un backup complet est lent car si tu as 300Go à sauvegarder tu as 300Go à lire.
Mon backup de mes 280 Go de données prend un peu plus de 2 minutes, dont plus de la moitié sont dues au transfert des données modifiées. Et le temps d’exécution prend aussi en compte le temps du reste de mon script (gestion des logs et création/suppressions de dossiers). C'est 1,231 secondes pour avoir la liste des données à envoyer :
Number of files: 239.483 (reg: 228.919, dir: 10.506, link: 58)
Total file size: 283,28G bytes
File list generation time: 1,231 seconds
sent 7,51M bytes received 91,01K bytes 95,65K bytes/sec
Temps d’exécution : 00:02:20
votre avatar
Mais bon, si c'est moi qui ai tort…
Tu utilises une seule et unique source : rsync. Rsync met en avant les TRANSFERTS, car c'est là-dessus qu'il est pertinent et efficace. Mais un transfert ne reflète en rien la nature du backup.

La définition de backup complet/différentiel/incrémentiel n'a pas été définie par moi, et on la retrouve partout. On la retrouve tellement partout qu'elle en est même dans les liens que tu as donné ! Cf. le 3e

Tu peux dire ce que tu veux, mais le fait que rsync fasse les choses de manière intelligente (il faut le reconnaitre), cela n'en change pas pour autant la nature des backups : de base, il fait des synchronisation complète, et il est possible de faire des synchronisation incrémentale avec la bonne option, mais avec des contraintes (cf. fin du commentaire) et qui apparaitront comme des backups complets (car il va combiner le précédent backup avec le backup incrémental).
Mon backup de mes 280 Go de données prend un peu plus de 2 minutes
280Go en 2 min 20s, soit environ 2 Go/s. Ca va dépendre de ce que tu as comme disque. C'est possible avec des SSD nvme par exemple (et dans ce cas, TOUTES tes données sont lues, et c'est bien un backup COMPLET), soit c'est un SSD "classique" ou un disque dur à plateau, et là, clairement, c'est de l'incrémental car utilise les métadonnées des fichiers pour détecter les modifications (et donc, n'est pas fiable à 100%).

Mais c'est difficile à savoir, car tu ne donnes toujours pas la commande que tu utilises. J'espère juste pour toi que tu utilises l'option --checksum de rsync. Sinon, ton backup n'est pas fiable.

Qui plus est, tu parles de ton script. Donc je parie que c'est ton script qui gère le backup, pas rsync qui n'est qu'un outil utilisé pour mettre en place un backup. Relis mes commentaires, tu verras que j'ai bien précisé que Rsync pouvait être utilisé pour mettre en place des stratégies de backup, mais qu'il n'est pas en lui-même un logiciel de backup, mais uniquement de synchronisation.

Qui plus est, je trouve dommage qu'il faille attendre tant de commentaire de ta part pour qu'on sache un peu comment tu utilises rsync. C'est si efficace que :

  • cela ne fonctionne que sur le même système de fichiers pour les backups

  • ne t'amuse pas à déplacer de gros fichiers : ils vont être retransférer.

votre avatar
La définition de backup complet/différentiel/incrémentiel n'a pas été définie par moi, et on la retrouve partout.
Oui, et pour la complète, elle implique toujours le transfert complet de toutes les données, ce que je ne fais pas !

Et mon 3e lien dit bien : « rsync excels at incremental backups »
280Go en 2 min 20s, soit environ 2 Go/s.
La quantité et la vitesse de données envoyées sont indiquées. J'ai envoyé seulement "7,51M byte" de données (créées ou modifiées depuis la dernière sauvegarde) à "95,65K bytes/sec".
Le reste n'a pas été modifié et n'a donc pas été envoyé…

J'ai fait une « sauvegarde complète qui prend du temps » (d'après toi) ou bien une sauvegarde incrémentale (sachant que toutes mes données, les 280 Go, sont dans mon dernier répertoire de sauvegarde), selon toi ?
Qui plus est, tu parles de ton script. Donc je parie que c'est ton script qui gère le backup, pas rsync qui n'est qu'un outil utilisé pour mettre en place un backup
rsync -a --link-dest="/backup/$(date -d "yesterday" +%Y-%m-%d)/" "/home/user/data/" "/backup/$(date +%Y-%m-%d)/"

C'est ça mon "script", pour une sauvegarde en local (mon vrai script est plus complexe, car j'ai rajouté d'autres choses).

C'est si efficace que :
- cela ne fonctionne que sur le même système de fichiers pour les backups
- ne t'amuse pas à déplacer de gros fichiers : ils vont être retransférer.
Je fais mes sauvegardes via SSH sur un serveur distant, et j'ai des fichiers de plusieurs Go.
Aucun souci depuis environ 10 ans de sauvegardes journalières, mes fichiers de sauvegarde sont sains (je vérifie parfois, et rsync vérifie toujours le checksum des données qu'il transfère).
votre avatar
Oui, et pour la complète, elle implique toujours le transfert complet de toutes les données, ce que je ne fais pas !
Encore une fois... non ! C'est dingue de confondre à ce point le backup et son transfert...

Mais je vais m'arrêter là, la discussion tourne en rond, et on s'est beaucoup éloigné de la question initiale. Le principe, c'est que tu sois content de ta solution à base de rsync et qu'elle te convienne, même si elle présente des lacunes et que je ne la conseillerais pas à un utilisateur non averti..
votre avatar
votre avatar
Merci. Une fois encore, tu viens de me prouver que tu confonds le processus de backup de son transfert, et que tu ne comprends le double sens du mot "copie".

Une dernière fois : un backup complet, c'est quand toutes les données de A se retrouvent à un emplacement B. Qu'importe si tu ne transferts que les données utiles, tant que les données de B sont complètes et autosuffisantes.

Ton rsync ne fait pas un backup complet. Non pas parce qu'il ne transfert que les fichiers modifiés, mais parce qu'il se base sur une heuristique pour déterminer si un fichier a été modifié ou non. En cela, il ne fait pas un backup complet.

Ma manière de travailler fait d'ailleurs que ton système sera incomplet pour moi. Il m'arrive fréquemment de travailler avec des archives dont les fichiers où les dates de modifications sont toutes à la même date (1 janviers 1970, pour des raisons de reproductibilité de build). Et ça, ça fausse complètement l'heuristique utilisée par rsync.

Il est donc TRES important de connaitre les outils que l'on utilise, et c'est d'ailleurs bien pour ça que je t'ai conseillé l'option --checksum, pour se baser sur le contenu des fichiers plutôt que leur taille et date de modification (mais attends-toi à avoir un processus de sauvegarde beaucoup plus long et une forte activité disque).

Considères ma position comme une méconnaissance de l'outil et basé sur des préjugés si cela te chante, c'est tout à fait ton droit et cela m'est égal. Je ne dis pas ça pour te convaincre, mais pour donner des éléments qui me semblent pertinent à celles et ceux qui nous lisent.
votre avatar
Merci. Une fois encore, tu viens de me prouver que tu confonds le processus de backup de son transfert, et que tu ne comprends le double sens du mot "copie".
Je ne confonds pas, c'est la définition même d'une sauvegarde :
sauvegarde (backup en anglais) est l'opération qui consiste à dupliquer et à mettre en sécurité les données
Vu le nombre de liens que je donne qui montrent que tu as tort et que tu n'en donnes aucun pour justifier ton point de vue, il faudrait se remettre en cause à un moment…

Ton rsync ne fait pas un backup complet. Non pas parce qu'il ne transfert que les fichiers modifiés, mais parce qu'il se base sur une heuristique pour déterminer si un fichier a été modifié ou non. En cela, il ne fait pas un backup complet.
Et c'est ce que je dis depuis le début, enfin, merci !
votre avatar
J'ai vraiment l'impression qu'on ne parle pas la même langue... Tu balances liens et définitions qui sont censés montrer que tu as raison, sans te rendre compte qu'ils vont dans le même sens de ce que je dis depuis le début...
Et c'est ce que je dis depuis le début, enfin, merci !
Autant de mauvaise foi, c'est dingue... Tu dis que rsync fait de l'incrémental car il ne transfert que les données modifiées, mais que tu as quand même des backups complet. Je te dis que rsync fait de l'incrémental car il utilise une heuristique (qui n'est pas fiable à 100%) pour déterminer les fichiers à sauvegarder, et que du fait du risque d'erreur, tu n'as pas un backup complet.

Mais comme je n'arrête pas de le dire, tu confonds depuis le début le processus de transfert des données du processus qui visent à déterminer les données qui doivent être sauvegarder... Et c'est justement à cause de cet amalgame que tu es persuadé que les liens que tu donnes me donne tort...
il faudrait se remettre en cause à un moment…
Nous sommes donc deux :smack:
votre avatar
« Mes » définitions (celles que tout le monde utilise), c'est qu'une sauvegarde, c'est la copie des données (« opération qui consiste à dupliquer ») et que rsync fait de la sauvegarde incrémentale (avec les options indiquées plus haut).

Si tu en as d'autres, donne-les avec des liens pour appuyer tes dires, stp !
votre avatar
rsync écrase ton ancienne version donc tu ne l'auras plus. L'incrementale c'est pour le transfert, il envoie que les données qui ont été modifié. Ta destination contient toujours la dernière version de ton fichier.

S tu veux faire du versionning, il faut jouer avec les dates et les snapshot dans rsync
votre avatar
Bah si tu lui dis d'écraser les données de l'ancienne version évidemment ! Mais il suffit d'indiquer un nouveau dossier de sauvegarde et celle précédente, ça donne direct une sauvegarde incrémentale, mais avec l'ensemble des fichiers accessibles dans le dossier de chaque sauvegarde.
votre avatar
Pourtant tu as bien écris :
"Non, toutes mes données sont dans le même dossier à chaque sauvegarde incrémentale."
votre avatar
Oui, je retrouve toutes mes données (du moment de la sauvegarde) dans chacun de mes dossiers de sauvegarde journalière.
Mais seules les données modifiées ou créées depuis la dernière sauvegarde sont transférées (dans le nouveau dossier de la sauvegarde en cours).

Edit :
Un exemple pour plus de clarté :
- Hier, sauvegarde dans le dossier "2026-02-10/" des fichiers "a.txt", "b.txt" et "c.txt".
- Aujourd'hui, sauvegarde dans le dossier "2026-02-11/" des fichiers "b.txt" (modifié) et "d.txt" (nouveau).

Le dossier "2026-02-11/" va alors contenir "a.txt", "b.txt" (le nouveau) et "d.txt", mais pas "c.txt" parce que je l'avais effacé. Donc toutes mes données d'aujourd'hui dans le même dossier.
J'espère que c'est plus clair.
votre avatar
Pour inspiration, voici ce que j'ai mis en place a plusieurs endroits :

  • backup avec un logiciel type borg/restic/kopia vers un NAS. Ca fait la seconde copie. Dedup et chiffrement côté client.

  • copie des données du NAS vers S3/SFTP depuis le NAS. Ca fait la troisième copie en externe.



Ca me permet d'avoir un NAS avec un CPU avec peu de puissance de calcul.
Mes données sont chiffrées côté client.
J'ai un historique, la deduplication et un temps de sauvegarde contenu.

Pour la politique de rétention, elle dépend des données et des besoins.
votre avatar
Le container Veracrypt (ce que j'utilise pour les documents sensibles), c'est un peu overkill sur un Claude et chiant à synchroniser en raison de sa taille sauf à faire des petits containers. Et j'ai des doutes sur l'ouverture multi support aisée.
Perso je met le container sur mon kDrive et le reupload régulièrement, mais c'est juste pour l'avoir "ailleurs".

Pour chiffrer des données sur un compatible S3 ou un Claude, j'aurais plus tendance à utiliser rclone qui permet de monter le filesystem distant et chiffre à la volée, ce que je faisais à un moment avec des object storage OVH. Par contre, je doute que ça marche sur smartphone.

Dans tous les cas, la conclusion est bien l'info principale à avoir en tête : l'utilisateur doit être maître de la clé de chiffrement. Le CSP ne doit pas la posséder.
votre avatar
Moi j'utilise rclone cela fonctionne sur toutes les platforms (Windows, Linux, Mac, *BSD) et cela supporte presque tous les fournisseurs de cloud.
votre avatar
Vu le titre de l’article, je suis un peu surpris du contenu. Je m’attendais à avoir un comparatif de solutions type borg, duplicati, restic, rclone, etc, qui font le chiffrement au moment de la sauvegarde. Là, j’ai plutôt l’impression que les solutions sont des solutions de chiffrement sur le poste, pour des documents de travail.

Ça n’enlève rien à la qualité de l’article, qui est un super comparatif détaillé (même si un peu trop centré sur windows à mon goût). Mais c’est moi qui suis passé à côté d’un truc ?
votre avatar
J'ai eu à peu près le même ressenti même si le titre ne parle pas de sauvegarde mais de Cloud. L'introduction qui parle du S3 de Next m'a fait penser que le sujet est celui que tu décris.
Il n'y a pas que des solutions locales mais aussi pour le Cloud, mais comme tu le dis pour des documents de travail.

Le fait que tout soit "à plat" en terme de titre de paragraphe alors qu'il y a des sous paragraphes pour chacun des sujets n'aide pas à comprendre l'articulation de ce long article et donc sa logique de progression.

Pour finir, moi aussi, Windows et des "lecteurs" (B:, Z:) d'un autre siècle, ça ne m'intéresse pas.
votre avatar
Désolé pour le sentiment de platitude, mon article a été aplati pour se fondre dans la structure du site (que je ne maîtrise pas, je ne suis qu'une petite main). Pour B: et Z:, faut avoir de l'humour, mon cher fred42 : en 2026 les lecteurs mappés sur une lettre sont encore la base de Windows. Et j'espère vraiment qu'il n'y a plus personne qui utilise encore un lecteur de disquettes sur le lecteur B: !!

Pour vous consoler : il y aura une suite, à base de rclone, et des scripts qui tourneront sur Windows 11, Linux et MacOS !!
votre avatar
Je ne pensais pas que tu sois un platiste ! :langue:

Je me doutais bien que tu ne pouvais pas mieux faire avec l'outil, mais ça n'aide vraiment pas.

J'ai aussi pensé aux lecteurs de disquettes sur B: :D
votre avatar
La terre n'est pas plate : elle a la forme d'une assiette à soupe, sinon les océans couleraient dans l'espace. [Attention chérie, ça va troller]
votre avatar
votre avatar
Je m'attendais aussi à un comparatif de solutions de sauvegarde.

Je n'avais pas envisagé les cas d'usages proposés dans cet article. Ca m'a permis de re-découvrir certains solutions et d'en découvrir d'autres.
votre avatar
La meilleure sauvegarde : un petit script qui te fait un tar des dossiers voulus, un chiffrement du fichier et l’envoie sur du S3 avec une rotation. Et de temps en temps, il vérifie si la sauvegarde est lisible, on ne sait jamais.
votre avatar
Perso j’utilise openssl pour chiffrer mon targz avant de l’envoyer. C’est old-school mais ça reste efficace pour du backup.
votre avatar
Oh, de la lecture qu'il va falloir approfondir !

Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

  • Deux méthodes de protection

  • La référence disparue : Boxcryptor

  • Quelques exemples pour voir de quoi on parle

  • TrueCrypt et ses forks tels que VeraCrypt

  • Premier usage : un conteneur à fichiers

  • Second usage : la partition (ou le volume complet)

  • Bus factor ≈ 1

  • Des points positifs

  • Des points négatifs

  • AxCrypt

  • Des points positifs

  • Des points négatifs

  • AES Drive

  • Des points positifs

  • Des points négatifs

  • Note sur Callback

  • Parsec (cloud)

  • Mode SaaS

  • Mode auto-hébergé

  • Des points positifs

  • Des points négatifs

  • Cryptomator

  • Des points positifs

  • Des points négatifs

  • Résumé