Connexion Abonnez-vous

[Tuto Next] 1 To de stockage offert : comment sauvegarder ses données sur le S3 Next

Plus d’excuse pour ne pas sauvegarder ses données !

[Tuto Next] 1 To de stockage offert : comment sauvegarder ses données sur le S3 Next

Avec votre abonnement Next vous avez désormais droit à 1 To de stockage offert (et même davantage selon votre ancienneté), mais vous ne savez pas comment en profiter ? Voici un tuto pour configurer un ordinateur (Windows, macOS, Linux) ou un NAS.

Le 24 décembre 2025 à 14h01

moji (qui a racheté Next il y a un peu plus de deux ans) nous permet de proposer à nos abonnés Premium de profiter de 1 To de stockage S3, avec 100 Go supplémentaires par année d’ancienneté de votre compte.

C’est du stockage « compatible S3 », utilisable par de très nombreux services pour sauvegarder des données. Pour ce lancement en pleine période de fêtes, l'accès est limité aux cent premiers lecteurs, mais les vannes seront ouvertes plus largement dès le mois de janvier.

1 To de S3 offert et les explications pour l’exploiter au mieux !

Pour profiter du To offert, il faut commencer par demander vos codes d'accès. Cela se passe dans votre compte Next. Si vous disposez d'un abonnement actif, un nouvel onglet « Stockage S3 » est désormais disponible entre les paramètres et la liste des utilisateurs bloqués.

Sur cet onglet, il vous suffit de demander l'activation de votre espace de stockage, puis de valider les conditions d’utilisation. Veillez à bien les lire et les comprendre (promis, elles ne sont pas longues).

Point important et répété par la suite, votre clé privée n’est proposée qu’une seule fois lors du parcours, et uniquement à la création de votre espace (via le téléchargement d’un fichier texte) ! Il ne faut pas la perdre, sous peine de ne plus pouvoir accéder à vos données. Ni Next, ni moji, n'ont la moindre trace de cette clé.

En cas de perte, vous disposerez (notez l’emploi du futur, la fonctionnalité arrivera rapidement, promis !) d'une option permettant de réinitialiser votre espace de stockage. Elle permettra de disposer d'une nouvelle clé privée, et de mettre en place une nouvelle sauvegarde, mais toutes les données hébergées sur votre sauvegarde précédente seront supprimées.

Par défaut, la capacité de stockage est de 1 To (1024 Go) pour les abonnés Premium, avec 100 Go supplémentaires par année d’ancienneté du compte (on parle bien du compte, pas du statut Premium), au travers d'un bucket unique (puisque le service est à usage individuel).

Une fois votre espace de stockage créé, vous retrouvez sur l'onglet dédié de votre compte les informations nécessaires à son utilisation, à l'exception donc de la fameuse clé privée. Un tableau récapitule les infos dont vous aurez besoin pour paramétrer votre sauvegarde : l'adresse du service de stockage, une clé d'accès publique, un paramètre de région, et le nom du bucket (s3-next-ink), qui n'est pas modifiable.

Dans cet article, nous vous détaillons comment mettre à profit ces informations pour créer une sauvegarde automatisée, sur votre espace de stockage Next, à partir d'un ordinateur sous Windows, macOS ou Linux, mais aussi depuis un NAS QNAP ou Synology. Ce ne sont que quelques exemples, il n’y a évidemment aucune limitation sur la manière d’utiliser votre espace S3.

Nous expliquons la procédure pour le cas des utilisateurs de Next sur cet espace offert dans le cadre de l'abonnement, mais notre tuto fonctionne pour n'importe quel service de stockage exploitant S3. Dans ce cas, il faut simplement adapter l’adresse du serveur S3, les clés et éventuellement le nom bucket, mais le reste de la procédure est identique. Il est d’ailleurs possible d’ajouter le stockage Next comme une sauvegarde distante supplémentaire, en plus de celles que vous avez déjà.

Dans tous les cas, pensez à chiffrer vos données avant de les envoyer dans le cloud, que ce soit chez Next ou n’importe où ailleurs. Toutes les solutions présentées ici permettent d’activer le chiffrement côté client.

Pour sauvegarder ses données depuis un ordinateur, nous allons utiliser une seule « application » dans le cadre de ce tuto : Duplicati. Elle est disponible aussi bien sur Windows, macOS et Linux. Une image Docker est aussi proposée. L’interface est donc la même pour tout le monde. Pour ne rien gâcher, le code source est disponible sur GitHub.

Windows, macOS, Linux : sauvegarder et chiffrer ses données

La version gratuite est suffisante pour un usage grand public, avec jusqu’à cinq machines prises en charge, 200 sauvegardes et un an d’historique des logs. Une version à 5 dollars par mois et par machine permet d’avoir des messages d’alerte, des webhooks, une analyse par IA des sauvegardes, un accès prioritaire au support, etc.

Une fois installée, la particularité de Duplicati est de fonctionner en ligne de commande ou sous la forme d’un site web accessible à une adresse locale (c’est-à-dire depuis votre ordinateur) via votre navigateur Internet (Brave, Chrome, Edge, Firefox, Opera, Safari…) : http://127.0.0.1:8200/.

Pour créer une sauvegarde, cliquez sur « Add + » dans la partie Backups et laissez-vous guider. Pensez à activer le chiffrement dans le second menu. C’est le cas par défaut avec AES sur 256 bits, mais vous pouvez aussi passer sur GNU Privacy Guard (GnuPG). Pensez à sauvegarder votre mot de passe, faute de quoi vous ne pourrez plus accéder à vos données.

Dans la page Destination, choisissez Compatible S3. L’adresse du serveur (on parle aussi d’endpoint) est s3.fr1.next.ink. Saisissez ensuite votre access et secret key récupérés depuis votre compte Next. Pensez à ajouter un dossier pour éviter que les sauvegardes se retrouvent à la racine de votre bucket, puis cliquez sur « Test destination » pour vérifier que tout est bon avant d’aller plus loin.

L’écran suivant vous permet de sélectionner les dossiers et fichiers de votre ordinateur à sauvegarder. Chacun sélectionnera en fonction de ses besoins. Vous pouvez ajouter des filtres et/ou exclure certains fichiers, comme ceux dépassant une certaine taille.

La page suivante permet de régler la récurrence des sauvegardes, aussi bien au niveau des jours que des heures. Dans les options, deux paramètres. Le premier concerne la taille des volumes, à 50 Mo par défaut. Duplicati découpera les sauvegardes par morceaux de 50 Mo avant de les uploader sur S3. Laissez la valeur par défaut sauf si vous avez des besoins particuliers et que vous savez ce que vous faites. Le deuxième paramètre permet de mettre en place une rotation des sauvegardes.

Si vous lancez une sauvegarde à la fin du processus, vous pouvez voir l’état de l’avancement dans le haut de la page.

Synology : sauvegarder et chiffrer ses données avec Hyper Backup

Chez Synology, la sauvegarde des données de son NAS sur un espace de stockage S3 passe par l’application Hyper Backup. Nous l’avons installé sur un NAS DiskStation 1520 + dont nous disposons. Pour mettre en place une tâche de sauvegarde, cliquez sur le bouton « + » dans le menu de gauche de Hyper Backup.

Il faut ensuite cocher « Dossiers et paquets » puis S3 Storage dans le menu Cloud Service. L’adresse du serveur S3 doit être personnalisée avec s3.fr1.next.ink. Ajoutez vos clés d’accès et secrète, puis sélectionnez votre bucket (l’interface vous le propose automatiquement) et modifiez le répertoire si besoin. Par défaut c’est le nom de votre NAS avec « _1 » en plus à la fin pour la première tâche de sauvegarde, « _2 » pour la seconde, etc.

La page suivante vous permet de sélectionner les répertoires à sauvegarder, et par ailleurs d’ajouter des filtres pour exclure ou inclure certains fichiers par exemple. Vous pouvez aussi sauvegarder des applications (avec leurs paramètres).

La page suivante est celle des paramètres où l’on peut activer le chiffrement côté client, c’est-à-dire avant d’envoyer les données sur un stockage S3. Saisissez un mot de passe (Hyper Backup impose une longueur minimum de 8 caractères) et cliquez sur suivant. Activez et ajustez une rotation des sauvegardes si besoin, puis validez le résumé avec le bouton « Effectué ».

La configuration est terminée, vous pouvez lancer la sauvegarde immédiatement si vous le désirez.

QNAP : sauvegarder et chiffrer ses données avec Hybrid Backup Sync

Sur les NAS QNAP, la sauvegarde des données dans un bucket S3 passe par l’application du fabricant Hybrid Backup Sync 3 (ou HBS 3). Comme celle de Synology, elle permet aussi de mettre en place des sauvegardes locales et distantes, mais nous allons nous concentrer sur celle dans le cloud. N’ayant pas de NAS physique QNAP récents sous la main, nous avons installé QuTScloud sur une machine virtuelle, nous permettant ainsi de la transformer en NAS QNAP.

Dans HBS 3, rendez-vous dans la partie « Sauvegarder et Restaurer », puis cliquez sur créer une tâche de sauvegarde. Sélectionnez le ou les dossiers à sauvegarder, puis cliquez sur suivant. Dans le stockage de destination, descendez dans la partie Serveur Cloud puis choisissez « Compatible Amazon S3 et S3 ».

Le fournisseur de services n’est pas Amazon Web Services (AWS) comme indiqué par défaut, mais moji. Il faut donc le changer et choisir Compatible S3. Entrez l’adresse suivante : s3.fr1.next.ink et vos clés. Sur la page suivante, choisissez votre bucket (vous n’en avez qu’un seul et il n’est pas possible d’en créer de nouveau) et laissez le reste par défaut, sauf à savoir exactement ce que vous faites et pourquoi. Cliquez sur Sélectionner.

Le menu suivant vous permet de choisir ou créer le répertoire pour sauvegarder les données de votre NAS QNAP. Nous avons créé le répertoire Sav-QNAP dans notre bucket grâce à la petite icône en forme de dossier avec un « + » dedans.

Un menu récapitule enfin les informations de la tâche de sauvegarde. Si tout est bon, cliquez sur suivant et choisissez si vous le désirez une planification des tâches (périodique, quotidienne, hebdomadaire, mensuelle).

Pensez à faire un tour sur le menu à gauche, vous pouvez définir la gestion des versions et la vérification de l’intégrité des données. Il y a la possibilité de filtrer les fichiers, d’inclure ou d'exclure certains fichiers, de compresser les données et enfin d’utiliser ou non la déduplication.

De nouveau sur la gauche, allez faire un tour dans Politiques pour activer le chiffrement côté client afin de chiffrer vos données avant de les envoyer. Entrez votre mot de passe et pensez à le sauvegarder. Si vous le perdez, l'accès à vos données ne sera plus possible ; notez-le précieusement dans un endroit sûr.

C’est la dernière ligne droite. Vérifiez les informations et créez la tâche de sauvegarde si tout est bon. Lancez-la immédiatement si vous le souhaitez.

C’est à vous ! Pensez à chiffrer !!

Une fois les différentes sauvegardes en place, elles s'exécuteront automatiquement en fonction de la récurrence que vous avez demandée. Vous pouvez multiplier les ordinateurs et les NAS, il n’y a pas de limite. La seule limite étant la capacité de stockage S3 : 1 To pour tous les abonnés Next, avec 100 Go de plus par année d’ancienneté.

On ne le répétera jamais assez, mais chiffrez vos données AVANT de les envoyer dans le cloud, que ce soit chez moji ou n’importe qui d’autre. Duplicati est un exemple, mais bien d’autres solutions sont possibles. Le S3 de moji est évidemment agnostique de l’application. Vous avez l’adresse du serveur (endpoint) et les clés, et êtes donc totalement libre de vos choix.

Commentaires (157)

votre avatar
Ho ! Ho ! Ho ! Merci @SébastienGavois pour ce tuto!
votre avatar
Merci pour le tuto! Et joyeux Noël à la rédac´! :love:
votre avatar
Merci à moji pour cette opportunité, et à next pour ce beau tuto !

Enfin un réceptacle pour la diffamation de président orangé, sans se faire refouler à la frontière ? Me cherchez pas, je suis déjà dehors :santa_flock:

Joyeux noël à toute l'équipe !
votre avatar
Super ! merci :-)
votre avatar
Pour ce genre de cas d'usage, perso je recommande toujours rclone qui est une super boîte à outils. Chiffrement à la volée, montagne du FS distant, très pratique.
votre avatar
Yes !
Le tuto devrait suivre un peu plus tard :)
votre avatar
montagne du FS distant
Oh toi, on sait où tu es actuellement :francais:
votre avatar
Nan, même pas, sauf si tu comptes les terrils du nord de la France comme tel :p

C'est juste mes 150 fautes de frappe par mot réglementaires adjointes à un cluster bineuronal défaillant.
votre avatar
Rclone c'est vraiment top, je m'en sers avec mon NAS UnRAID pour les backups :D
Je penserai par qu'un jour Next me servirait a avoir une enième sauvegarde quelque part :D
votre avatar
Borg / vorta devrait probablement faire l’affaire également ! Il faut que je teste ça !
votre avatar
Attention à vorta. Je ne sais pas si depuis il ont corrigé l'ergonomie et/ou le texte des libellés mais, c'est le seul outil avec lequel j'avais réussi à lancer un erase complet du disque que je voulais sauvegarder :non:, à la place du disque de destination. Ce n'est qu'en voyant les logs défiler :eeek2: que je m'en suis aperçu. Seul un kill m'a finalement permis d'arrêter le processus. Après, j'ai du fouiller les décombres puis recoller les moceaux qui restaient récupérables. :pleure: :censored:

Ça m'a tellement refroidi que je ne lui ai jamais laissé une seconde chance.
votre avatar
Pas de soucis de ce genre de mon coté alors que je l’utilise depuis quelques années !

Par contre, j’ai déjà eu ce genre de mésaventure sur mac avec l’outil de restauration, me suis planté de disque, ça fait bobo…
votre avatar
borg à la maison, c'est le quotidien de toutes les machines à backuper, et du nas également, on est jamais trop prudent, repo sur un dedi distant, alors un S3 avec de la place... miam !
et le fait de pouvoir monter un backup donné, c'est juste le pied !
votre avatar
Borg peut sauvegarder sur de S3 ? Je ne trouve rien dans la doc et toutes les fois au je l'ai configuré, c'est en ssh et il faut borg sur le serveur distant également. Mais preneur si on peut le faire avec du S3 !
votre avatar
J'ai pas creusé encore, mais si c'est jouable... ça me permettra d'avoir un backup à un emplacement supplémentaire ;)
votre avatar
Jamais tenté mais si tu arrive à monter le S3 sur le système ou se trouve borg, c'est jouable.
votre avatar
Ou en faisant une synchronisation du repo borg vers le S3, devrait être possible aussi. Avoir les perfs avec un rclone mount ou s3fuse sinon !
votre avatar
on peut le faire avec s3fs.
Exemple:
sudo s3fs -f s3-next-ink /mnt/pointMontageS3 -o passwd_file=/root/.passwd-s3fs -o host=https://s3.fr1.next.ink
dans /root/.passwd-s3fs, on met la clé secrête.

(le -f, c'est pour lui dire de rester en avant plan, pratique pour le débug mais inutile sinon)
votre avatar
Borg 2 (actuellement en beta) le peut.

J'ai dû l'installer à la main (avec pip, forcer la version, et ne pas oublier le [s3] pour indiquer qu'on veut les dépendances optionnelles spéciales s3).

Ça met un vache de temps sur mon rpi4 qui me sert de NAS, mais je vais finir par tout sauvegarder !

NB : j'utilise toujours borg avec borgmatic qui simplifie bien le pilotage de borg. Là aussi, installé à la main pour avoir la dernière version.
votre avatar
Super ! Merci du retour ! Je vais tester alors !
votre avatar
Fais attention : les gens de Borg disent que la v2, en beta, pour rappel, n'est pas prête pour la production.

Pour l'instant, je teste parce que… bah parce que j'ai un S3 à dispo, mais je conserve mon système de sauvegarde d'avant pour l'instant.
Je doublonne, quoi (pis le S3 est assez grand pour me permettre de sauvegarder des trucs que je ne sauvegardais pas avant, faute de place).
votre avatar
Effectivement Borg1 ne le peut pas. Du coup, je me suis essayé à restic, qui lui peut, pour cette sauvegarde. Et ça a l’air de se passer plutôt bien. Je devrais pouvoir me passer de ma storage box hetzner à terme, ce qui fera une belle économie (l’abo next complet coûte moins cher qu’une storage box, qui certes fait 5 To, mais les 2,5To de moji sont ce dont j’ai besoin).
votre avatar
Je pensais faire la même du coup :p
votre avatar
Ah, toi aussi tu veux remplacer ta SB Hetzner par le S3 de Moji 😅

2026 : Hetzner perd des milliers de clients sur ses storage box pendant que Next voit son nombre d'abonnés premium exploser 😁
votre avatar
J'utilise aussi rclone pour les serveurs et Duplicati pour les sauvegardes desktop. Je trouve que ce sont des solutions adaptées pour chacun des environnements (et leur public). Sur le desktop, quand la liaison est lente ou instable, je mets un mix des deux : des sauvegardes Duplicati, à la demande, vers un disque local dédié, puis une réplication en différé vers un serveur qui utilise rclone.
votre avatar
bonjour,
je dois être une quiche car à la connexion sur l'interface WeB, duplicati me demande un mot de passe alors que je n'en ai défini aucun. :-(
Comment faire ?
cordialement
Pascal
votre avatar
Normalement il a été téléchargé automatiquement lors de la procédure d’activation, checkez vos téléchargements vous devez avoir un fichier txt avec la passphrase :)
votre avatar
Mon soucis n'était pas la passphrase d'accès au S3 mais le mot de passe d'accès à l'interface WeB. Edrae a fourni la réponse: ajouter le paramètre --webservice-password. Son exemple:
duplicati --webservice-password='motdepassededingo'
votre avatar
J'ai eu le souci, et j'ai pu forcer le mot de passe en lançant le serveur en ligne de commande avec :
duplicati --webservice-password='motdepassededingo'
votre avatar
Nickel. Merci.
votre avatar
La méthode prévue par duplicati est probablement de mettre ça dans /etc/default/duplicati via la ligne :
DAEMON_OPTS="--webservice-password=motdepassededingo"

ça marche alors quelque soit la façon dont on lance duplicati.
votre avatar
Wow, merci beaucoup Moji et Next pour ce beau cadeau !
Compte activé, yapuka ! (mais ça attendra qq jours cause fêtes).

Total 2.27 TB <3
votre avatar
Salut,
J'ai une erreur avec Duplicati :
Error creating folder
The remote destination folder could not be created. The service returned an error with Error Code TooManyBuckets and HTTP Body: TooManyBucketsChretx0000005e9d9065fa71572-006966affd-35187816-southwest135187816-southwest1-fr1
J'ai du faire une erreur. Qu'est-ce que j'ai raté ? Une aide fiable sur l’utilisation de Duplicati qq part ? Merci <3

EDIT :
ah, ça semble ok avec
Essaye d’utiliser le bucket name
s3-next-ink
Synchro en cours. Je vous redis.
votre avatar
Merci beaucoup !
Quel beau cadeau de Noël ! Le stockage + le tuto !!
votre avatar
J'ai une erreur quand je clique sur J'accepte les CGV et télécharge mes accès : "Échec de la réclamation du stockage. Veuillez réessayer plus tard" :reflechis:
votre avatar
Réessaye, parfois ça fait ça et on n'a pas eu le temps de fix pour la date fatidique du 24, il faut juste refresh.
votre avatar
J'ai complété mes informations de facturation qui étaient vides, en réessayant ensuite ça a fonctionné. Merci pour ces 3,05 To :yes:
votre avatar
On appelle ça un CAPTCHA, non ?

Casse Aléatoirement Pour Tester Comment un Humain Accepte.
votre avatar
ça doit être ça
votre avatar
Ça m’a fait ça systématiquement, et maintenant la beta est complète :pleure: . Tant pis, ça attendra la prochaine ouverture, ça m’évitera de regarder comment envoyer sur s3 des sauvegardes borg.
votre avatar
Désolé !!
On va t'activer le compte à la main.
votre avatar
Ah ben ça, j’en demandais pas tant… :inpactitude: . Merci !
votre avatar
Le mail vient de partir, tu as tout dedans :)
votre avatar
J'ai eu ça aussi, il faut juste réessayer et être patient :ouioui:

Une mise en prod sans bug c'est juste un staging :transpi:
votre avatar
On peut aussi utiliser des logiciels comme WinSCP ou FileZilla (mais je crois que ce n'est qu'en version Pro pour le S3)
votre avatar
Merci pour ce cadeau, et ces informations, et en plus la bande passante assure bien pour l'envoi de données ! <3
votre avatar
Bravo c'est génial
votre avatar
3.15 TB comment ça je suis vieux ?? Merci c'est une super initiative 💙💙💙
votre avatar
2.46 TB ici sympa, merci <3
votre avatar
Eh bien, si je m'attendais... Au début, j'ai cru à un test de notre sagacité par rapport aux offres "pot de miel", trop alléchantes pour être vraies et pourtant, quand elles sont bien placées et ciblées, permettent d'affranchir les bonnes résolutions sur la sécu et l'hygiène numérique. Un peu comme le test avec une URL raccourcie envoyée par SMS à tous les participant/es d'une conf de cybersécu ; de mémoire, bcp s'étaient laissé/es tenté/s !
Après coup, je me dis que je suis trop parano et qu'à part stocker des fichiers chiffrés en attendant d'avoir un ordi quantique pour faire sauter les verrous... mais c'est trop gros, c'est pas next spirit !

Alors, zou je tente et je vous dis un grand merci pour cette jolie surprise :)

Question : sur Synology, on peut choisir la "Signature version". J'ai testé avec v2 et v4, les deux fonctionnent. Est-il recommandé d'en choisir une ?

Joyeux Noël à toute l'équipe de Next et aussi à celle de moji.
votre avatar
On n´est plus jamais 'trop parano' :stress:
votre avatar
RIP le réveillon !
votre avatar
Merci Papa Noel ! Ca sera très bien pour ma stratégie 3-2-1 sur mon NAS !
votre avatar
Arf, c'est ça de travailler de nuit, je suis arrivé trop tard :craint: tant pi, ça sera pour la prochaine fois ^^
Merci et Joyeux Noël :inpactitude:
votre avatar
Ah mais, vous vous êtes rués comme des vulgum pecus sur les pots de nutella !!
Bon, j'attends janvier.
Merci Next pour ce joli cadeau ! :love:
votre avatar
Wow 2.4To.
Merci à tout l'équipe pour ce cadeau.
Passez de joyeuses fêtes
votre avatar
Pour Linux, en plus de RClone déjà cité, je pense qu'il y a aussi un truc genre S3FS (montage FUSE) qui permet de se servir du cloud distant comme si c'était une clé USB (un montage donc pour les pingouinautes).
votre avatar
Bande de rapace, y a plus rien !!!
Je suis comme un gland ... (Celui de l'onglet S3 ...)
votre avatar
Je découvre par le biais de ce tuto qu’on avait le droit à du stockage S3 ;) . Les données sont hébergées par moji sur des DCs français j’imagine, mais lesquels ?
votre avatar
L’annonce a été faite 2h avant le tuto, tu n’étais pas vraiment passé à côté ^^
https://next.ink/216048/un-petit-to-pour-les-fetes
Oui, c’est hébergé en France chez moji tout en interne. Puisque les devs et ingés sont pas loins et qu’on peut facilement parler avec eux je ferais un petit papier plus tard pour parler de la partie tech du stockage S3 ;)
votre avatar
Ce sont des DC internes en France, aucune chance que vos données de production soient au même endroit.
votre avatar
Au fin fond de la Corrèze ?
votre avatar
Presque :P
votre avatar
J'utilise restic, mais je lorgne maintenant du côté de plakar qui est aussi open source et développé par des français. Projet très prometteur, mais si encore jeune.
votre avatar
J’ai pas été assez rapide :pleure:
On verra si les rois mage seront plus généreux :santa_flock:
votre avatar
C'est incroyable ! Mais c'est dommage pour moi que ça fonctionne pas avec un abonnement La Presse Libre 🙁
votre avatar
Ca dépend du type d’abonnement LPL.
Si vous avez pris l’abonnement en upgrade du compte de Next ça fonctionne très bien - enfin quand on sera sortis de la bêta fermée sur le S3 😊
votre avatar
Salut, je trouve cette initiative géniale, mais j'ai l'impression de ne pas y avoir droit... 😔J'étais prenium, j'ai pris l'abo LPL depuis Next, l'abo prenium est arrivé à échéance depuis, et à priori il faut un abonnement prenium actif. Comment cela est prévu pour la release ?
votre avatar
Hello !
On va regarder d’ici mi Janvier à la fin de la bêta mais si tu as pris LPL depuis Next tu seras bien eligible.
votre avatar
Merci pour le cadeau, pour une fois que l'ancienneté offre un avantage, c'est à noter :merci:

Compte existant depuis 2009, ça va en faire du stockage gratuit ! :jesquate:

Et joyeux Noël à tous !
:pciwin:
votre avatar
154 petits filous sont passés avant moi !! Bravo pour ce beau cadeau ;) Les 100Go supplémentaires par année d'ancienneté c'est de la balle.... ;)
Merci beaucoup !!
votre avatar
Snif pas assez rapide...
Par contre : Vous êtes avec nous depuis le 12 février 2005 à 16h26 et 05 secondes précises ❤️

:santa_flock:
votre avatar
Merci pour ce super cadeau de noël !
Je vais l'utiliser dés que je ne serais plus sur la liste d'attente !
votre avatar
Oh mon dieu, la nouvelle page consacrée au « Stockage S3 » utilise une écriture noire sur fond gris. Dis autrement, elle ne dispose pas d'un thème sombre :sm:

Au passage, merci pour ce tuto et pour le stockage offert :pciwin:
votre avatar
Ça va viendre, mais un peu de patience (les joies d’une mise en prod le 24 ^^) :prof:
votre avatar
Whaaaa ça c’est de l’iNpactitude !
Et comme je suis avec vous depuis le 26 juillet 2006, ça va en faire des gigas !

Merci à toute l’équipe pour ce 🎁 hors de sentiers battus ! (Même si cela me semble un poil compliqué pour moi… mais je vais m’y atteler. Je suis sur Mac, si vous avez la bonne méthode pour chiffrer et envoyer, je suis partant) ❤️
votre avatar
Duplicati dans ce tuto est dispo sur Mac, avec chiffrement des données :)
Facile à mettre en place, tourne en tache de fond
votre avatar
Formidable ! 1000 mercis !
votre avatar
Trop tard.
C'est vraiment trop injuste :ouioui:
votre avatar
Mince. pas assez rapide.
vivement janvier, je vais bien apprécié mes 23 ans d'ancienneté
ça tombe bien, je devais remettre en place mon backup duplicati vers un petit s3 gratuit.
là je vais pouvoir vraiment faire du backup hors de la maison pour avoir un vrai 1.2.3
Merci beaucoup !!!
votre avatar
C'est fourbe car une fois en place on aura la flemme de backuper ailleurs, donc obligé de rester abonné. bien joué :yes:

En revanche je n'ai pas été assez rapide, vivement dans 154 places :o
votre avatar
Oh génial !!! Merci tout plein !
Bon j'ai raté la première salve, mais c'est pas grave, je suis patient (et non, pas la peine d'activer à la mano pour moi :) )

Cependant, j'ai quelques questions, qui pourraient être dans un article FAQ, donc je les donne :
* Est-ce que le quota est dur ou mou ? (→ Est-ce qu'on peut dépasser le quota de quelques Mo, ou ça s'arrête à l'octet près ?)
* Est-ce que le quota va continuer à augmenter ou il est fixé basé sur l'ancienneté _aujourd'hui_ ? (→ Si on a 2 To, est-ce qu'on aura 2.1 To dans un an, ou toujours 2 To ?)
* Est-ce que des services associés seront proposés ?
* Est-ce qu'il y a/aura une limite sur le débit utilisé par moi ?
* Est-ce que côté moji, le stockage est redondé, et/ou sur plusieurs sites ? (Edit, je viens de voir l'autre article qui dit Best Effort, ça me va comme réponse :) )
* Est-ce que c'est sur des disques mécaniques ou SSD ?
* Sachant que Amazon facture ~22 €/To, comment va faire moji pour que ça reste rentable ? (je me doute que y'aura qu'un pourcentage des abonnés qui vont utilisé leurs buckets, et qu'un plus petit pourcentage va utiliser tout le stockage, mais quand même)
* Que ce passe-t-il lorsque l'abonnement Premium s’arrête ? Est-ce que tout est supprimé à la minute de fin de l'abonnement ? Mon abonnement se renouvelant autours des fêtes de Noël, je loupe souvent d'un ou deux jours le renouvellement. Est-ce que ça voudra dire que toutes les données auront disparues ?

Et des questions plus générales, qui peuvent faire parties d'une FAQ, mais dont j'irai chercher les réponses moi même en attendant :
* En fait, c'est quoi un bucket S3 ?
* Et comment ça fonctionne côté serveur ?
* Est-ce que c'est seulement du stockage, ou c'est accessible au web ? Moi qui vient des pages perso de Free, j'utilisais ce stockage en mixte, un peu du web, et un peu du stockage pur. Est-ce que c'est le cas, on peut se servir du S3 pour alimenter un site web ?
* Est-ce que ça a une utilité autre que le backup ? (ce n'est pas une critique, hein, c'est une question pour savoir comment c'est utilisé par les gens en général)

Toutes ces questions pour mon cerveau personnel, évidemment, pas pour critiquer sous quelque forme que ce soit. Je trouve ça vachement cool que vous proposiez ce service, tout court !

Bref, encore merci !

PS : Oh et une filouterie fiscale ne m'aurais pas dérangé : si ça peut aider les finances de Next au passage, pourquoi pas :) Ou pour le dire autrement, ce serait dommage de ne pas profiter ce qu'il est possible de faire _légalement_. Just my 2 €cents.
votre avatar
pfiou, que de questions :D

on aura l'occasion de détailler, mais en rapide :

- il y a un quota quand même sacrément généreux, on va l'appliquer, 1 To, c'est 1024 Go, et l'ancienneté ouvre déjà droit à des capacités significatives
- l'ancienneté est glissante : on profitera bien de 100 Go supplémentaires à chaque année supplémentaire d'ancienneté
- c'est un service de sauvegarde à usage individuel, pas un IaaS destiné à héberger des applications métier ou des sites Web
- c'est effectivement du best effort, et on fera notre max pour que ce soit le plus performant possible, mais si on compare à du AWS, faut plus le voir comme du Glacier que comme de la haute dispo
- il y a évidemment un délai de carence prévu, les données restent accessibles pendant 30 jours après la fin de l'abo, donc si on ne renouvelle pas tout de suite, la sauvegarde n'est pas perdue
- on a prévu plusieurs articles pour expliquer ce qu'est un S3, les bonnes pratiques associées, etc. On aura par exemple un tuto / focus sur rclone, entre autres douceurs
- on lèvera sans doute un peu le voile sur les coulisses techniques de la chose, mais il faut aussi garder un peu de mystère, comme dans le mystère au chocolat #stupeflipcrew
- on raisonne pas en termes d'optimisation fiscale, y'a peut-être des pistes à étudier, et pourquoi pas, mais notre doctrine, depuis la reprise de Next, c'est qu'on sortira de nos difficultés financières par le haut.

C'est peut-être le point le plus important : la meilleure info possible, sur le meilleur site possible, enrichis des meilleurs services qu'on est en mesure d'offrir, c'est ça qui doit permettre à Next de s'en sortir, sans jouer sur la corde sensible (les appels au don) ou les optimisations de bout de chandelle. On veut que les gens s'abonnent pas juste pour nous faire plaisir ou en souvenir de l'ancien temps (spoiler, ça marche pas), mais parce que notre fucking abonnement déchire, donc on fait et on va continuer à faire le max pour que ce soit le cas !
votre avatar
What he said.
Bon c’est quand même beaucoup plus réactif que du glacier ça reste du chaud, et le cluster derrière a plusieurs centaines de HDD donc vous pouvez quand même envoyer.
votre avatar
Je viens de faire un calcul grossier du nombre de HDD nécessaire pour prévoir pour l'ensemble des abonnés Next, et… ouah. 16 Po, c'est pas un petit investissement ça…

Du coup, encore merci !
votre avatar
Merci pour toutes ces réponses ! C'est (l'truc) stupéfiant !
Je resterais donc patient pour les détails :)

Pour le quota dur ou mou, évidemment je ne critiquais pas, mais c'était pour savoir comment je devrai gérer, soit avec un œil aiguisé sur le quota, ou alors dès que ça dépasse je recevrais un mail disant qu'il faut que je vire des trucs sous quelques jours. Je comprend qu'on est dans le premier cas, et c'est normal ! :)

Sinon, 100 % d'accord avec la doctrine, et c'est pour ça qu'on aime l'INpactitude :)

Bref encore merci pour tout ça !!!!
votre avatar
Beaucoup d'travail, comme pour un album d'Astérix
votre avatar
On vient d'ajouter 150 places, go !
votre avatar
un 25/12 ? Est-ce bien raisonnable ? :sm:
votre avatar
C’est la magie de Noël !

Et le truc roupille en plus 🤓
votre avatar
resservez une part de bûche à cet homme avant qu'il ne mette le feu aux grands internets svp !!
votre avatar
Je viens de me lever, sacré cadeau de Noël :D
Et bien merci pour ça ! :yes:
Je n'utiliserai jamais l'intégralité de mes 2.56 TB, mais c'est très appréciable :smack:
Joyeux Noël à toute l'équipe !
:inpactitude:
votre avatar
Merci pour ce cadeau de Noël :)
votre avatar
Merciiiiiiiiiiiiiii :love:
votre avatar
Chuis là trankil à lire les com, et je vois ça 😱🤯

Il est 20h, je me dit y a plus rien eh ben si 🥳 tout le monde doit dormir encore...

Merci pour l'attention, vous êtes notre santa-clauz a nous
votre avatar
Caramba, encore raté !
votre avatar
Merci à toute l'équipe pour ce magnifique cadeau de Noël (et de lendemain d'anniversaire) !
Et le tuto est parfait (je ne connaissais pas Duplicati, bel outil).
:smack:
:pciwin:
votre avatar
Bigre, le premier tuto est vite arrivé !

Etape 1 : le lire attentivement
Etape 2 : le relire attentivement
Etape 3 : on teste. A voir s'il y a moyen de faire marcher ca avec OMV 7 ou 8 (qui vient de sortir)... et chiffrement !

Merci @SébastienGavois !
votre avatar
Ex-abonné Next ayant résilié pour se réabonner avec LPL ici, et je n'ai pas l'onglet dans le menu. 😟
votre avatar
Précision: quand je sélectionne une autre entrée dans le menu, la page sur laquelle j'arrive a bien un onglet "Stockage S3", mais quand je vais dessus, ça me dit "Adhésion Premium Requise". Je croyais qu'un abo premium ou un abo via LPL, c'était la même chose? Non? 😕
votre avatar
J’ai répondu sur ce thread : next.ink Next
votre avatar
Ah OK, merci. C'est un peu bête, j'ai été abonné Premium à Next pendant des années, j'ai dû choisir entre résilier Next et résilier ASI quand LPL est arrivé, je ne pensais pas que ça ferait une différence. Mais je comprends. 🙂
votre avatar
Un grand merci pour ce cadeau!
Joyeux noël à toute l'équipe.
votre avatar
Très beau cadeau de Noël : Merci !
votre avatar
« 1 To (1024 Go) »
Aïe aïe ! Il y a des gens qui aiment se compliquer la vie !
« Ça fait combien, 120 042 303 561 233 303 octets ?
— Oh ben c'est tout simple, ça fait 106,62 Po ! »
(astuce : en réalité, ça fait grosso modo 120 Po)
votre avatar
J'ai pu activer hier soir le s3 sur Next, suite aux 150 places supplémentaire (2,56TB, je suis vieux)

Suivi le tuto ce matin avec Duplicati, eu une erreur à la création du bucket ("trop de bucket, impossible de créer blabla").
En réessayant 5mins plus tard c'est passé.
Première sauvegarde prévu ce midi.

Merci Next / Moji.
votre avatar
merci pour duplicati :)

quelqu'un pour m'aider sur proxmox backup server svp ? je voudrais tester (mais je pige rien).

j'ai bien évidement mis mon acess key et secret key, région à FR1

endpoint : {{bucket}}.{{region}}.s3.fr1.next.ink

j'ai laisser le port par défaut mais je prends un bad request quand il essaye de récupérer le bucket.

des idées ?

edit,

si je met juste "s3.fr1.next.ink" en endpoint

il récupère le bucket mais plante à la création du datastore :

2025-12-26T10:45:22+01:00: NoSuchBuckettesttx0000087a42180b298c751-00694e5932-35227861-southwest135227861-southwest1-fr1
2025-12-26T10:45:22+01:00: TASK ERROR: failed to upload in-use marker for datastore: unexpected status code 404 Not Found
votre avatar
Essaye d’utiliser le bucket name

s3-next-ink
votre avatar
le bucket name remonte tout seul à la création du datastore (en gui)
votre avatar
C’est passé ici en cochant Path Style lors de la création du S3 Endpoints.
J’ai précisé une région fr1, le endpoint s3.fr1.next.ink les clés et donc coché Path Style. Peut etre ça ?
votre avatar
votre avatar
Merci beaucoup.
Merci pour le tuto ; indispensable pour moi.
J'ai eu des erreurs sur le nom du dossier. J'ai du laissé refroidir, puis ça a fonctionné.
votre avatar
Petite question, je viens d'envoyer ~1To de sauvegarde chiffrée via Borg et s3fs-fuse, le débit semble limité à 200 Mbps ... Est-ce que la limite vient de mes choix logiciels ou de l'infra ?
Merci à nouveau pour ce cadeau en tout cas !!
votre avatar
je constate la même chose depuis mon PBS (20.372 MiB/s) sur mon serveur dédié qui est en 1G symétrique.
votre avatar
L’infra a pris 12g en pointe cette aprem, si votre up est cappé à 200Mbps constants je penche pour une limitation de votre matériel.
Pour info d’un serveur chez nous j’envoie 1Gbps en s3 sans pb en temps normal.

Edit : attention PBS est notoirement mauvais en perfs en S3 à cause de la structure des fichiers, on l’a bien constaté de notre côté. Et le montage s3fs j’ai jamais fait mais c’est très probable que ça bride nettement les perfs.
votre avatar
@Ferd j'avais pas trop de doute sur les perfs S3 de PBS ^^ mais perso 20Mo/s c'est largement suffisant :)

j'ai déjà 1To de backup lxc/vm chez vous et ça continue d'upload xD

reste à migrer mon duplicati qui aujourd'hui backup sur blackblaze :)
votre avatar
ah je vais essayer d'autres solutions alors, pour la science. En théorie, mon serveur et ma Freebox Pop me permettent d'envoyer plus vite que ça. Merci !
votre avatar
Quelqu'un connait un client sur Android ? J'ai tenté Round-Sync sans succès (connexion OK au bucket mais impossible de déposer quoi que ce soit) ; d'autres applications semblent payantes et/ou à fonctionnalités limitées.
Je teste s3drive en parallèle
votre avatar
On peut faire du Time Machine directement sur un serveur S3 ? (Au lieu d’utiliser un logiciel tiers sur mac)
votre avatar
Non ce n'est pas supporté nativement. Peut-être avec un logiciel tiers qui permettrait de monter un volume ?
votre avatar
Merci à Next et moji :iloveyou:
J'ai commencé avec Plakar. Ce fut laborieux car pour utiliser S3 je n'avais pas compris qu'il fallait s'inscrire
Je devrais remplir mon espace mais Plakar compresse et peut-être que je n'aurai pas besoin de tout ce qui m'a été attribué :D
votre avatar
Ça c'est vraiment génial !!!!!
Je vous aime fort fort fort :iloveyou:
votre avatar
Un incroyable cadeau avec un incroyable tuto ! Milles mercis à vous !! :fete:
votre avatar
Bon, j'ai testé Duplicati. Il s'est bloqué à 5 % et n'a plus bougé. J'ai tenté de le redémarrer, et maintenant, j'ai des fichiers que je ne peux pas/sais pas supprimer sur le bucket, et Duplicati qui veut plus rien faire.

Je pense que je vais attendre les articles tutos qui vont arriver pour essayer avec d'autres outils.

Ou alors, je vais faire des bidouilles avec Rclone et voir ce que j'arrive à faire…

EDIT : Bon, Rclone-browser permet de supprimer les fichiers remote facilement, et pleins d'autres trucs. J'suis plus bloqué. Du coup j'ai relancé Duplicati, pour voir…
votre avatar
c'est LE problème de duplicati quand le backup plante c'est la grosse zone pour le remettre en état.

hésite pas à changer la taille du volume distant pour un plus petit, il faut un compromis entre petits fichiers facile à upload (mais ça prends du temps) et gros fichiers qui peuvent crash.

perso suis à 50Mo aujourd'hui et ça marche bien. (mais pas encore vers le s3 next je vais faire ça dans la semaine)
votre avatar
Yep.
12h plus tard, même problème. Bloqué au milieu de l'upload. Je relance Duplicati, et problème de différence de nombre de fichiers.

J'abandonne définitivement Duplicati.
Au moins, ça fait un bon retex ;)

EDIT : Oh et au moment de supprimer le backup de Duplicati, je décide de cocher "delete remote files", même s'il m'indique que 0 B vont être supprimés. Quelle est ma surprise de voir que finalement, il supprime tout ce qu'il avait créé sur le S3.
C'est définitivement une excellente idée de ne pas utiliser Duplicati : un logiciel de backup qui n'est pas clair sur quels fichiers vont être supprimés, c'est vraiment pas bon signe pour sa qualité…
votre avatar
franchement une fois que ça tourne c'est vraiment pas mal (et pourtant j'utilise la version Mono sous linux et c'est pas forcément le plus stable ^^) mais j'avoue que parfois il est un peu pénible !
votre avatar
Hmm.
Pour moi, un logiciel de sauvegarde doit être plus que solide. Chaque changement doit être atomique pour que au moindre crash, à la moindre coupure de courant, il puisse toujours s'en sortir. Là, c'est clairement pas le cas. Jamais je pourrais lui faire confiance, et j'ai pas envie d'avoir à vérifier tous les logs sans arrêt, si un jour j'arrive à le faire marcher.

Je pense que je vais me diriger vers du Rclone avec crontab. C'est un poil plus chiant à mettre en place, mais au moins je pourrais le mettre en place et l'oublier. Du moins j'espère :D
votre avatar
votre avatar
Saisissez ensuite votre access et secret key récupérés depuis votre compte Next.
Je suis bloqué à cette partie.
Duplicati demande "Access Key ID" et "Secret Access Key".
Or dans le compte Next j'ai juste "Clé d'accès", qui doit correspondre à la 2e valeur. Mais que mettre dans la première ? L'infobulle parle de se connecter sur son compte AWS, qui semble peu utile dans mon cas :transpi:
J'ai tenté la même valeur dans les 2 champs, j'ai l'erreur "The AWS Access Key Id you provided does not exist in our records". Duplicati me semble être fait pour AWS, c'est assez confusant d'avoir toutes ces références alors qu'on ne l'utilise pas. De plus le fait d'être sur localhost port 8200 oblige à laisser un terminal ouvert, dans le cas contraire on n'y accède plus. Je ne vois pas comment en faire un montage auto dans mon arborescence locale.

Peut-être que je vais attendre le tuto avec rclone...
votre avatar
La secret key est dans un fichier txt téléchargé lors de la validation de la demande du S3
votre avatar
Merci j'aurais pu y penser :craint:

Maintenant j'ai " Error writing file: duplicati-access-privileges-test.tmp, error: " mais ça semble lié à duplicati. Faut-il le lancer en sudo ? Vu que c'est pour gérer des données perso, c'est assez embêtant non ?
votre avatar
par contre c'est normal que dans mon profil l'affichage du stockage consommé déconne ? là il est à zero
votre avatar
Normal oui et non. Oui le bug est connu, non c’est un bug :D
votre avatar
si le bug est connu c'est déjà pas mal ^^ de toute façon spa le moment de pousse une mise en prod
votre avatar
Bouarf apres une mise en prod le 24 au matin on est parés !
votre avatar
Du beau travail pédagogique.
Merci !
Et joyeuses fêtes à toute l'équipe.
votre avatar
Ca fait plaisir!! Merci l'équipe et Moji!
votre avatar
Bonjour,

Est-ce qu'il y a encore des places de disponibles :)

Merci
votre avatar
1) Il faut être abonné premium.
2) attendre mi-janvier pour ceux qui n'ont pas pris une des 300 places de la beta.

Tout ceci est expliqué ici : next.ink Next (lisible par tous)
votre avatar
Merci pour la réponse, je voulais justement voir si je prenais l'abonnement premium maintenant ou si j'attendais mi-janvier :)
votre avatar
Maintenant c’est mieux 🤑
votre avatar
J'ai pris maintenant :)
Effectivement c'est mieux pour le soutien ;)
votre avatar
Et c’est très apprécié 😊
Merci beaucoup !
votre avatar
ET ça permet de lire plein de super contenus supplémentaires :)
:prof:
votre avatar
Testé avec Arq backup et ça fonctionne du tonnerre. Merci Next et la team Moji !
votre avatar
Idem, aucun souci avec rclone via un remote encrypted, merci.
votre avatar
Yo, par hasard, t'aurais pas un tuto bien pour faire ça correctement sous rclone ?
(si t'en a pas, n'en cherches pas pour moi, hein, j'suis un grand, c'est juste au cas où t'aurais utilisé un tuto de qualité :) )
votre avatar
Celui de Scaleway était bien: https://www.scaleway.com/en/docs/tutorials/encrypt-s3-data-rclone/

Mais sinon c'est pas compliqué il suffit de faire rclone config et créer 2 remotes, l'un pour le S3, et l'autre qui chiffre par dessus le S3, c'est plutôt assez simple à suivre :)
votre avatar
Cool, merci beaucoup !!!

Oui, j'avais cru comprendre que c'était plutôt simple, mais c'est un sujet 1. Délicat et 2. Que je ne maîtrise absolument pas Du coup, je préfère suivre des écrits de gens sachant :)
votre avatar
Merci pour le lien, j'avais réussi la mise en place des deux remotes mais dès que je fais des opérations de fichier, j'ai des erreurs dans tous les sens. Je vais tout recommencer.
votre avatar
Perso, je me suis servi, en plus du lien de Scaleway, de https://szymonkrajewski.pl/encrypted-cloud-drive-rclone/, notamment sur le script bash.

Y'a surtout une subtilité, c'est que lorsque tu sélectionnes ton "remote" pendant la configuration du deuxième, celui qui gère l'encryption, il faut utiliser le nom du bucket "Next:s3-next-ink"

Sinon, si ça peut aider, voici ma configuration de rclone ($HOME/.config/rclone/rclone.conf) :

[Next]
type = s3
provider = Other
env_auth = false
access_key_id = XXXXXXXXXXXXXXXXXXXXXX ("Clé d'accès" sur next.ink Next
secret_access_key = XXXXXXXXXXXXXXXXXXXXXX (Clé qui est montrée qu'une fois)
region = fr1
endpoint = s3.fr1.next.ink
acl = private
bucket_acl = private
upload_cutoff = 50M
chunk_size = 50M

[Next-Crypt]
type = crypt
remote = Next:s3-next-ink
filename_encryption = standard
directory_name_encryption = true
password = XXXXXXXXXXXXXXXXXXXXXX (Password généré par la config, pour gérer l'encryption. A garder quelque part précieusement, sinon les données seront illisibles)
password2 = XXXXXXXXXXXXXXXXXXXXXX (Pareil qu'au dessus, mais c'est le salt)
votre avatar
Merci beaucoup :yes: j'essaye ce soir et ferai un retour.
votre avatar
Bon je n'ai pas réussi à améliorer la situation, je vais attendre que la fonction de réinitialisation du bucket soit active avant de me pencher à nouveau dessus.
votre avatar
C'est étrange, une fois que je suis passé à RClone, j'ai pas eu de soucis du tout.
Hésite pas à tester par RClone Browser qui permet d'avoir une interface sur ce que l'on fait.

[Tuto Next] 1 To de stockage offert : comment sauvegarder ses données sur le S3 Next

  • 1 To de S3 offert et les explications pour l’exploiter au mieux !

  • Windows, macOS, Linux : sauvegarder et chiffrer ses données

  • Synology : sauvegarder et chiffrer ses données avec Hyper Backup

  • QNAP : sauvegarder et chiffrer ses données avec Hybrid Backup Sync

  • C’est à vous ! Pensez à chiffrer !!

Fermer