1 To (et plus) de stockage S3 dans votre abonnement Next : c’est parti !
Ce midi, c'est fromage ET dessert
Annoncé le 24 décembre dernier en guise de cadeau de Noël à nos fidèles lecteurs, notre service de stockage dédié à la sauvegarde sort de la phase bêta. Tous les souscripteurs d'un abonnement Next Premium au tarif standard disposent désormais de 1 To de stockage, auquel s'ajoutent 100 Go par année d'ancienneté du compte.
Le 03 février à 11h10
5 min
Next
Next
S'abonner à Next, c'est toujours profiter d'une actualité quotidienne de qualité, sans publicités et sans promotions tapageuses. Maintenant, c'est aussi accéder sans surcoût à un espace de stockage. Il offre 1 To à tous les abonnés Premium, avec une capacité augmentée de 100 Go par année d'ancienneté du compte Next.
Lancé le 24 décembre dernier en bêta fermée, et étendu mi-janvier à quelques centaines de nouveaux accès supplémentaires, le service est désormais ouvert sans restrictions d'accès. Pour en profiter, rendez-vous sur l'onglet Stockage S3 de votre profil.
Ou suivez simplement la petite jauge intégrée en haut de page, qui vous indique directement à quelle capacité vous pouvez prétendre. Si vous voyez 3 To ou plus, félicitations, vous avez déjà fait un sacré bout de chemin avec nous, merci pour votre fidélité !
Stockage Next : comment ça marche ?
Comme l'avait expliqué Ferd dans son billet d'annonce, ce service de stockage a d'abord été pensé comme un cadeau de Noël, un avantage offert aux lecteurs de Next pour les remercier de leur fidélité et les encourager à s'abonner pour soutenir notre démarche de redressement.
En pratique, Next met à votre disposition un espace de stockage, basé sur une infrastructure hébergée en France et opérée par moji, l'opérateur qui a repris Next fin 2023. L'accès à cet espace se fait au travers du protocole S3, le standard du marché en matière de stockage objet (il n'y a donc aucun lien avec le service Amazon S3).
L'accès à votre espace et la programmation de vos sauvegardes se font au travers de clients logiciels ou de scripts compatibles avec le protocole S3 (certains sont déjà partagés sur le forum). Si vous n'êtes pas très familiers avec ces termes, ne craignez rien, il existe des outils très simples à prendre en main, et plusieurs articles, guides et tutos sont prévus pour vous accompagner.
Le premier vous explique par exemple déjà comment sauvegarder votre ordinateur ou votre NAS en quelques clics.
Au-delà de la prise en main, il y a quelques principes clés à respecter :
- Vous devez chiffrer vos données, précisément parce que ce sont VOS données.
- Vous devez considérer cet espace de stockage comme un service best-effort, c'est-à-dire associé à un niveau de disponibilité limité (un seul site géographique) et fourni sans garantie. Si vous tenez à vos données, vous devez en conserver une autre copie. De façon générale, nous vous invitons à respecter les fameux principes 3,2,1.
- L'accès à vos données est protégé par une clé privée, que vous serez amenés à télécharger lors de la création de votre espace. Conservez précieusement cette clé : si vous la perdez, vous n'aurez pas d'autre solution que de réinitialiser votre espace (et donc de supprimer les données déjà stockées).
D'un point de vue plus pratique, quelques autres informations à avoir en tête :
- L'accès au stockage est offert aux abonnés Premium (8 euros par mois ou 80 euros par an) et aux abonnements souscrits par l'intermédiaire d'un compte entreprise.
- Vous avez accès à votre espace (on parle aussi de bucket) pendant toute la durée de votre abonnement.
- En cas de résiliation ou de non-renouvellement de votre abonnement, votre espace de stockage reste accessible pendant trente jours. Il passe ensuite en lecture seule, avant suppression définitive trente jours plus tard. Le renouvellement de votre abonnement au cours de cette période de grâce rétablit l'accès immédiat.
- L'accès à votre espace est susceptible d'être coupé en cas d'activité inappropriée.
« Quand je rentre je lis Next. Avec toi ? »
Au détour de votre navigation, vous verrez que nous avons profité de nos développements autour du stockage pour retravailler certains des composants du profil, et du parcours d'abonnement.
Pour l'occasion, nous inaugurons une fonctionnalité qui nous a souvent été demandée : la possibilité d'offrir en quelques clics un abonnement à un tiers, soit depuis votre profil, soit depuis notre page Abonnez-vous à Next. Faites-en bon usage !

Il faudrait un Poing Dev dédié, mais sachez qu'il y a aussi eu beaucoup de travail invisible sous le capot pour fiabiliser le code du site, faciliter sa maintenance, et améliorer la qualité de service au niveau de certains composants comme la génération de factures, ou la gestion des comptes entreprise.
Ready to rumble
En attendant que vous fassiez grincer l'infra sous le poids de vos sauvegardes, un grand merci aux équipes moji, tant les développeurs que les ingés système et réseau, qui ont rendu ce service possible.
Ce stockage vient enrichir la proposition de valeur de Next. Son succès nous permettra de creuser toujours plus profond notre sillon : une info indépendante, honnête, qui privilégie l'analyse au buzz et refuse les logiques de course à l'audience, de suivi comportemental ou de publicité plus ou moins déguisée.
Next est encore et toujours un média à part dans le paysage Web francophone. On compte sur vous pour que ça dure.
1 To (et plus) de stockage S3 dans votre abonnement Next : c’est parti !
-
Stockage Next : comment ça marche ?
-
« Quand je rentre je lis Next. Avec toi ? »
-
Ready to rumble
Commentaires (151)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 03/02/2026 à 11h28
Faut que je m'en occupe maintenant
Le 03/02/2026 à 11h30
Ça va me servir d'espace de backup secondaire.
Le 03/02/2026 à 11h32
Je l'emploie depuis pour mes backups, ca tombait pile-poil et 3.15 To ca se refuse pas
Ca marche très bien
Encore MERCI
Le 03/02/2026 à 14h13
Le 03/02/2026 à 11h33
Je viens d'activer mon S3 pour faire une backup de Home Assistant, mais en le configurant je viens de voir qu'il ne supporte que le S3 officiel Amazon... plus qu'à scripter ça manuellement donc
Le 03/02/2026 à 11h39
Modifié le 03/02/2026 à 11h52
J'ai pensé qu'il y avait un filtrage de type "*.amazonaws.com" dans l'intégration
Edit : ah oui j'avais pas compris que c'était sur HACS
Modifié le 03/02/2026 à 11h47
Ça fonctionne nickel
edit: grilled
Le 03/02/2026 à 11h38
Question: vous conseillez quoi comme méthode pour l'utiliser sur Debian ? J'ai vu Rclone, mais un peu austère...
Le 03/02/2026 à 11h41
Le 03/02/2026 à 18h28
https://rclone.org/gui/
Modifié le 03/02/2026 à 18h28
Le 03/02/2026 à 11h41
Le patron a sorti le tord-boyau de dessous le comptoir.
Et il ne date pas du temps du mexicain.
Le 03/02/2026 à 11h54
(Bon à part ça, merci beaucoup c'est trop sympa :p)
Modifié le 03/02/2026 à 11h54
Aussitôt activé, aussitôt utilisé. Le backup de mon Synology est en cours
Le 03/02/2026 à 22h21
Le 03/02/2026 à 22h34
Le 04/02/2026 à 08h32
Le 04/02/2026 à 10h29
Je zone souvent dans les comms c'est devenu un petit péché mignon, mais j'ai l'impression que je ne suis pas le seul :P
Le 05/02/2026 à 12h29
Le 04/02/2026 à 09h44
Le 03/02/2026 à 12h28
Des KPIs permettraient d'estimer un peu sa conso, puisque cette offre peut se combiner avec un service tiers, soit pour avoir plusieurs sites, soit pour stocker une partie ailleurs quand ça dépasse le quota (ce qui peut arriver très vite quand on historise plusieurs archives !).
Le 03/02/2026 à 12h56
C’est un service best effort qui fera très bien ce qu’il doit faire, et c’est déjà pas mal !
(En plus je déteste ces principes de merde de factu à la requête, d’egress et tout, on veut vraiment simplifier tout ça du côté de moji mais c’est une autre histoire).
Le 03/02/2026 à 21h05
Le 03/02/2026 à 13h04
Pouvez-vous définir : "L'accès à votre espace est susceptible d'être coupé en cas d'activité inappropriée."
Le 03/02/2026 à 14h05
Le 03/02/2026 à 18h33
Modifié le 03/02/2026 à 13h24
quand je clique sur l'icône S3 j'ai ce message :
Adhésion Premium Requise
Vous devez avoir une adhésion premium pour accéder aux fonctionnalités de stockage S3.
(je suis abonné via LaPresseLibre)
Le 03/02/2026 à 13h43
Le 03/02/2026 à 14h05
J'étais passé à côté de cette petite info, merci pour la réponse !
Le 03/02/2026 à 14h06
Modifié le 04/02/2026 à 15h29
Le 04/02/2026 à 18h19
Stay tuned
Le 03/02/2026 à 13h33
Le 03/02/2026 à 13h56
Le 03/02/2026 à 14h00
Le 03/02/2026 à 14h15
Le 03/02/2026 à 13h53
Le 03/02/2026 à 14h00
Le 03/02/2026 à 14h01
Le 03/02/2026 à 14h14
Modifié le 03/02/2026 à 14h49
concernant le contrôle de l'intégrité des données, cela reste-t-il uniquement à la charge de l'utilisateur ou cette action est aussi réalisée du côté du serveur qui héberge les données ?
Le 03/02/2026 à 16h53
Le 03/02/2026 à 15h03
Le 03/02/2026 à 15h05
J'ai pu choper un accès libéré en décembre au bon moment, mais j'ai attendu le lancement officiel pour l'utiliser. Je vais donc m'y mettre tranquillement après avoir lu le mode d'emploi dans cet article.
Big bisous, comme chantait Carlos (pour les boomers), pas le condamné Ilich Ramírez Sánchez (pour les boomers aussi d'ailleurs).
Le 03/02/2026 à 15h21
Le backup est lancé de mon côté :)
Le 03/02/2026 à 15h24
Le 03/02/2026 à 15h26
Une question : à quoi correspondent les "objets" dont le nombre est indiqué à droite de la zone utilisation sur
Le 03/02/2026 à 17h49
Le 03/02/2026 à 15h27
2To!
J'ai enfin commencé à me pencher un peu là dessus maintenant que j'ai du temps libre et je me posais une question : J'ai certains fichiers qui me prennent beaucoup de place, je me dis que ça ne sert à rien de les chiffrer pour de la sauvegarde. Si même je pouvais libérer de l'espace disque, ça ne me déplairait pas (et perdre ces fichiers ne serait pas une catastrophe, dans le pire des cas).
Comme j'utilise déjà un S3 de chez Infomaniak pour héberger un site (à l'arrache, j'avoue...) et que j'y accède avec la commande swift (client d'OpenStack), est-ce que je peux aussi utiliser cette commande pour gérer manuellement les fichiers sur ce S3?
Désolé si cette question a déjà eu une réponse ailleurs, mais je ne l'ai pas trouvée ^_^ .
Le 04/02/2026 à 07h14
Le 04/02/2026 à 12h03
Le 03/02/2026 à 15h45
Le 03/02/2026 à 16h11
"Error creating folder
The remote destination folder could not be created. The service returned an error with Error Code TooManyBuckets and HTTP Body:
TooManyBucketssauvegardetx00000b83ff1defb43d1a4-0069820f11-35556586-southwest135556586-southwest1-fr1"Le 03/02/2026 à 18h03
vérifie si c'est aussi le cas pour ta config
pour personnalisé c'est sur le nom du dossier.
Le 03/02/2026 à 18h07
Modifié le 03/02/2026 à 22h13
Merci encore Next pour ce super cadeau.
Le 04/02/2026 à 09h48
Modifié le 03/02/2026 à 18h40
Le 03/02/2026 à 15h52
Modifié le 03/02/2026 à 15h56
Je n'avais pas envie de payer un vrai service de stockage pour mes vidéos Frigate...
(Et c'est con d'avoir que du local... Si mon serveur disparait, j'aurais même pas eu les images qui vont avec).
Bref, mode gros porc : "s3cmd sync" qui tourne en boucle pour exporter les vidéos quasi en temps réel !
Et comme ça prenait trop de temps entre deux boucles, j'ai du virer la suppression automatique du fichier distant si absent en local...
Promis, je le ferais tourner régulièrement un "sync" classique pour faire le ménage sur le S3
(avec recul, c'est bien aussi, si je me le fait tirer le serveur et qu'il vennait à être reconnecté à un réseau quelques jour plus tard, sa aurait été con qu'il vire du S3 tout ce qui n'est plus en rétention local
Le 03/02/2026 à 16h12
Merci pour l'espace de stockage. Ca me sera utile pour faire la sauvegarde de la sauvegarde de mon nas :)
Question d'un néophyte en matière de S3 et d'hébergement web:
Est ce qu'il est possible d'utiliser ce stockage S3 dans un but autre que la sauvegarde de données ?
Par exemple, pour héberger un wordpress
Le 04/02/2026 à 07h28
Le 04/02/2026 à 15h21
Merci big boss
Le 03/02/2026 à 16h13
Le 03/02/2026 à 16h20
Ça tombe à pic pour exporter la sauvegarde de mon cluster SeaweedFS tout neuf :)
Le 03/02/2026 à 16h21
Mais je ne comprends pas l'offre Tarif réduit (- de 25 ans ou revenus annuels < 20 000 €) qui dit :
« L'espace de stockage S3 n'est pas inclus dans cette offre. ».
Alors si c'est pas S3, c'est quoi ? Et est-ce que j'aurai 1,9 To ou seulement 1 To ?
Le 03/02/2026 à 16h31
Le 03/02/2026 à 17h14
Le 03/02/2026 à 18h41
Tout d'abord, je tiens à préciser que je comprend à 100 % le problème économique, je ne compte pas revenir dessus.
Mais mon problème est que maintenant, je suis officiellement un abonné de seconde zone, ce que je n'étais pas avant : il n'y avait pas de différence entre mes droits (au sens numérique du terme) et ceux des autres abonnés. Mais maintenant, je me sens exclu (encore une fois, avec raison, économiquement parlant), non seulement d'une possibilité, mais aussi d'une partie des contenus qui vont arriver (les tutos).
Je ne sais pas, mais je pense pas que je sois le seul à ressentir ça.
Du coup mon idée serait de filer aux abonnés à tarif réduit un stockage à taille fixe, de taille symbolique (j'imagine entre 1 Go et 100 Go, suivant où vous mettez le curseur).
Ca permettrait aux lecteurs tarif réduit :
* De tester et bidouiller avec un service S3 (ce qui est à mon avis l'esprit Next)
* D'autoriser la sauvegarde de documents essentiels (mon dossier de documents essentiels fait 3.1 Go, avec 1.1 Go où c'est un seul examen medical (le CD complet d'une IRM). Là où je veux en venir, c'est que même 1 Go, je pourrais l'utiliser pour les trucs les plus important)
* De participer dans toutes les actualités et le forum sur les sujet S3
Soyons clair, tout ce qu'il y a ci-dessus, ce n'est pas une critique. Encore une fois, je comprend à 100 %.
Je dis juste qu'en partant du postula que c'est le stockage qui coûte, filer 10 Go aux abonnés tarif réduit, c'est peanuts (j'imagine), et symboliquement, ça ferait un grand plus pour un bon nombre d'abonnés.
Voilà, c'était mon idée. Après, qu'elle soit reçue positivement ou négativement, je comprendrais dans tous les cas :)
Le 03/02/2026 à 19h13
De la même façon, un accès via La presse libre constitue une forme de dérogation, et pourtant on a le même respect et la même considération pour les lecteurs qui souscrivent cette offre plutôt qu'un abo Next en propre.
Sur le fond, on entend la proposition.
Le 03/02/2026 à 21h07
Juste pour répondre sur la forme : j'entend que de votre point de vu, être abonné éco n'est pas de seconde zone.
Cependant, pour une population de geeks (donc sensible à l'exclusion sociale depuis le collège pour beaucoup), et de pauvres (qui se privent donc de beaucoup de choses au quotidien), quand Next annonce "un nouveau service génial pour tous les abonnés, sauf vous les pauvres" (je caricature, évidemment), il faut comprendre que ça pique un peu. C'est normal, hein, encore une fois, je comprend parfaitement le pourquoi, je l'accepte, et le trouve normal et logique.
Ça a beau être normal, ça pique quand même :)
Et je ne doute pas une seule seconde que vous avez le même niveau de respect pour tout le monde.
(et j'espère que je fais pas trop chier avec mes réponses, c'est pas le but, j'essaye simplement d'être compris :) )
Le 03/02/2026 à 21h47
Le 04/02/2026 à 00h08
Hashtag logique.
Modifié le 04/02/2026 à 10h26
Pour l’avenir du media, pour l’avenir du groupe - et parce que la vie doit être un peu triste avec un cheat code d’argent illimité, l’humain se construit de ses difficultés - il fallait placer un curseur quelque part, et s’agissant de Next j’ai l’impression qu’on l’a mis à un endroit qui tient plus du yolo que notre banquier et ami ne le voudrait, donc le groupe de hippies qui sommeille en nous le vit bien.
Une autre dimension est à considérer, au delà de l’aspect social de service d’information de l’abo à 25 euros (qui est exceptionnellement large dans ses critères d’éligibilité rappelons-le) - ce que le S3 n’a pas du tout, c’est une commodité - nous avons eu une vague inédite de demandes d’abonnements fantaisistes au tarif réduit depuis le 24 décembre que nous n’avions jamais connue. Le S3 n’a pas vocation à faire perdre de l’argent au groupe parce que des petits malins veulent leur bon plan pas cher sans lire le journal, et on ne veut pas passer notre temps à checker si la petite Nathalie de 2018 est bien celle qui se cache derrière le compte roger1986 créé en 2013.
Au moins, avec l’arbitrage actuel les choses sont naturellement équilibrées, et les demandes à l’abonnement tarif réduit sont bizarrement revenues aux proportions habituelles.
Rappelons enfin que Next continue à perdre de l’argent, beaucoup moins qu’avant et le s3 aide visiblement, mais que c’est toujours le groupe qui paye.
L'objet social de Next et de moji n'est pas de fournir du stockage gratuit aux gens dans le besoin.
En plus on va avoir besoin à un moment de recruter si on veut étoffer notre contenu, reculant par la même le point d’équilibre.
Si le s3 convainc des abos à tarif réduit de résilier leur service C2 chez Syno pour venir chez nous c’est toujours bon pour tout le monde (sauf pour Syno mais il ne l’auront pas volé).
Le 04/02/2026 à 14h24
Oui, j'avoue, je suis un anti capitaliste notoire, et mes remarques en sont probablement teintées (no sarcasm).
Par ailleurs, je n'avais pas idée que depuis le 24 décembre, vous aviez eu un nombre de demandes fantaisistes accrues au tarif réduit. Ce n'est effectivement pas normal, et pas tolérable.
Encore une fois, je comprend parfaitement les problématiques économiques. Je les accepte sans sourciller.
Mais mon côté gaucho m'oblige à regarder aussi le côté social, et celui-ci me pousse à chercher des solutions qui incluent tout le monde (et je me fous de faire partie de la catégorie en question, hein, comme tu le sais, c'est pas pour moi).
D'où l'idée que j'ai partagé ci-dessus : que Next propose un stockage symbolique aux lecteurs abonnés à tarifs réduits (tient, peut-être que LPL pourrait être incluse aussi) : fournir un stockage symbolique fixe (entre 1 et 100 Go suivant où vous mettez le curseur), permettant à ces lecteurs de bidouiller, avec un coût marginal pour vous.
Ainsi, ces lecteurs ne seraient plus exclus, ils seraient inclus mais réduit, et socialement, ça change tout, sans que économiquement (j'imagine, au moins), ça change quelque chose.
Le 04/02/2026 à 18h12
Ensuite, si on décide de faire 1Go, c'est rat, si on décide 100Go, c'est clairement beaucoup trop, et aucune valeur entre les deux me parait franchement satisfaisante, c'est une immense zone grise, et chacun appréciera la valeur retenue avec sa propre subjectivité.
La seule position qui soit défendable, c'est de dire que le tarif réduit est déjà généreux, il est là pour permettre un accès à de l'information utile pour se faire une idée du monde numérique qui nous entoure.
Le s3 lui, c'est un cadeau pour nos abonnées et abonnés qui soutiennent Next de façon moins symbolique, et parfois depuis longtemps (d'où la prime à l'ancienneté).
Le 04/02/2026 à 19h04
Sur la taille possible, pour moi, encore, 1 Go ça peut faire rat, mais ça permet aussi aux abonnés d'avoir le goût (just a taste) de l'outil, d'apprendre, d'essayer, de bidouiller. C'est toujours mieux que rien, qui ne permet justement, rien.
Après, les barèmes peuvent jouer : 1 Go par année d'ancienneté par exemple, qui pourrait être un cadeau pour les abonné⋅e⋅s qui soutiennent Next, mais qui n'ont pas les moyens de faire plus. Ou par mois d'ancienneté. Ou même un système de "Tera suspendus", où un abonné qui n'utilise pas tout son stockage en ferait don, pour qu'il se partage parmi tous les "tarifs réduits".
Je faisais juste une proposition "simple", pour éviter que ce soit compliqué à implémenter. De mon point de vu, 5-10 Go fixe fournirait déjà un service énorme, sans que le coût soit prohibitif.
Si tu vois le S3 que comme un cadeau aux abonné⋅e⋅s fidèles, c'est à mon avis d'autant plus gênant que tu classes les abonné⋅e⋅s fidèles que suivant la somme qu'iels paient.
Mais j'entend que tu dis un "non" définitif, donc j'arrête d'argumenter, et te laisse tranquille, promis :)
Le 11/02/2026 à 14h03
Le 11/02/2026 à 19h05
Mais étant inscrit dès décembre, j'ai eu droit au To, au moins jusqu'à mon renouvellement d'abonnement (dans 11 mois), donc j'ai pu jouer avec et mettre en place mes scripts de backups (avant d'apprendre que ça allait être coupé au bout d'un ant ;) )
Mais encore merci de ta proposition !!!!
Modifié le 04/02/2026 à 18h15
L'accès S3 ne sera sûrement pas utilisé de tous d'ailleurs. Mais il faut bien fixer des limites et, à mon sens, c'est l'information qui doit primer sur le reste.
My 2 cents.
Le 04/02/2026 à 19h20
Si je peux échanger mes 2.86 To pour que tous les abonné⋅e⋅s tarif réduit aient 2.86 Go (j'ai compté 1000 personnes au tarif éco), je le ferais sans hésiter (d'ailleurs, Ferd, n'hésite pas).
Je suis d'accord sur le fait que l'information prime, mais faut pas oublier que le service S3 va devenir un produit d'appel pour s'abonner : j'ai fait un peu le tour des tarifs de stockage S3, et j'ai pas trouvé de stockage de 2 To à moins de 80 € par an. Donc clairement, des personnes vont s'abonner que pour le service S3.
Mais oui, c'est débattable, d'où le débat :)
Modifié le 05/02/2026 à 11h20
Le 04/02/2026 à 17h26
Le 04/02/2026 à 18h14
Le 03/02/2026 à 16h35
Sinon je suis preneur d'un client de qualitay sur Ubuntu. Duplicati permet de démarrer mais c'est assez pauvre niveau interface (j'ai toujours le design clair alors que je clique toujours sur le dark), et c'est une cata en ergonomie (les champs qui effacent les valeurs quand on retourne sur un écran
Et sinon, je n'aime pas ne pas comprendre comment sont stockées mes données. On n'a pas de vue globale pour les voir. Par exemple, si je veux vérifier un fichier quelconque dans le 151e sous-répertoire du 284e répertoire, comment fais-je ?
Le 03/02/2026 à 16h46
Chiffrez vraiment vos données avant de nous les envoyer, c'est important.
Le 03/02/2026 à 21h37
Le problème est que je ne connais pas de programme qui chiffre automatiquement durant l'envoi.
Si on veut une synchro une fois par jour par exemple, ça se met en place sur les données locales, qui sont en clair.
Mais sur du chiffré, c'est pas à la demande. J'ai des coffres cryptomator, mais il faut les mettre à jour manuellement. Pas possible de programmer une synchro de ces données chiffrées (à moins de pouvoir passer ses journées à tout mettre à jour manuelement).
Je sais pas si je suis clair
Le 03/02/2026 à 21h50
Quoi , je peux bien me faire un peu de pub 😂😂😂
Le 04/02/2026 à 15h33
Modifié le 03/02/2026 à 18h40
C'est un stockage objet, il faut un client S3 pour représenter le stockage.
On n'est pas sur une vue répertoire sous répertoire de type arborescence de fichier.
Sinon en client je me rappelle de vorta ou de pika backup qui sont tous les deux des gui pour borgbackup.
Si cela peut t'intéresser.
EDIT: j'ai dit de la daube!
Borg ne prends pas en charge stockage S3 donc vorta ni pika ne doivent le prendre en compte non plus.
DU coup je viens de découvrir Kopia:
Je ne sais pas trop ce qu'il vaut.
Le 03/02/2026 à 21h37
Le 03/02/2026 à 16h39
Plus qu'à apprendre à l'utiliser ;)
Modifié le 03/02/2026 à 16h57
Bordel 2.3To, c'est pas rien en ce moment.
Le 03/02/2026 à 16h55
Merci Next ! ❤️
Merci Ferd ! ❤️
Merci à tous ceux qui ont rendu et vont continuer à rendre ceci possible ! ❤️
J'ai mis en place un containeur LXC Duplicati, et paramétré les sauvegardes vers ce nouveau S3.
Par le passé, j'ai utilisé Backblaze. Je préfère savoir mes données (bien que chiffrées) en France
Le 03/02/2026 à 17h17
Modifié le 03/02/2026 à 17h26
Pour moi, c'est proxmox backup qui va gentiment remplir cet espace de petits objets tout chiffrés.
Le 03/02/2026 à 17h27
Merci encore pour cette offre.
Désolé de vous embêter avec ça, quand j'essaie de l'activer j'ai l'erreur suivante
" Echec de la création de l'utilisateur de stockage. Veuillez réessayer plus tard "
Le 03/02/2026 à 17h54
Le 03/02/2026 à 18h07
Le 03/02/2026 à 18h34
Pour rebondir sur un article récent, mes 2,2 To seront bien des Tio soit
2 199 023 255 552 octets
ou des To soit
2 000 000 000 000 octets
?
C'est juste pour chipoter
Le 03/02/2026 à 19h28
Le 04/02/2026 à 20h25
Le 03/02/2026 à 20h03
Bon, par contre sérieusement, il va falloir que je me mette à la sauvegarde du coup pour pas gâcher...
Le 03/02/2026 à 20h24
Après avoir sauvé 5Go seulement ^^ Serveur saturé ?
Le 03/02/2026 à 20h47
Le 03/02/2026 à 20h52
Le 03/02/2026 à 22h00
Le 04/02/2026 à 12h17
Le 05/02/2026 à 07h40
Fausse alerte!
(Question au passage, mais je me doute de la réponse: il n'est pas possible de le faire fonctionner en incrémental, ce backup ? Plutôt que de devoir tout envoyer chaque fois, envoyer juste le diff... Comme OneDrive -
Modifié le 05/02/2026 à 11h13
Modifié le 04/02/2026 à 21h09
Quelqu'un de l'équipe pour me dire si c'est normal que j'avais l'accès lors de la beta et maintenant non ?
L'écran continue à m'indiquer les 2,9 To pourtant ?
Le 03/02/2026 à 23h20
Le 05/02/2026 à 11h14
Le 04/02/2026 à 10h08
Étant un tout petit patron, c'est la seule façon pour moi de vous soutenir.
C'est d'ailleurs ce qui m'a incité à le faire. Donc merci :)
Le 04/02/2026 à 10h23
Le 04/02/2026 à 10h51
Modifié le 04/02/2026 à 15h10
Le 04/02/2026 à 18h04
En tout cas merci pour le cadeau que je vais activer de suite
Modifié le 04/02/2026 à 14h17
Est-il prévu de pouvoir faire une rotation des clés sans réinitialiser le stockage pour les dangers comme moi qui ont le copier/coller un peu vif (en ayant toujours accès à la clé actuelle) ?
Le 04/02/2026 à 15h05
Modifié le 04/02/2026 à 15h42
Merci pour ce cadeau inopiné.
Je souhaitais commenter la facture associée à l'abonnement associé à ce cadeau.
Je vois que mon abonnement est à renouvellement automatique, mais la facture ne donne pas un indice sur le compte ou la CB associée. Pas de 4 chiffres de fin avec des * pour masquer le reste.
Donc est-ce qu'il ne faudrait pas ajouter cette information sur la facture en ligne dans le profil ?
Et il y a la même date entre date de facture et date d'échéance.
On peut entendre l'échéance comme la date du paiement pour l'abonnement, ou l'échéance pour le renouvellement de l'abonnement à la fin de la période d'abonnement.
Je trouve cela un peu confusionnant comme terme. Si c'est à renouvellement automatique, il faudrait indiquer cette date future, non ?
Dans un cadre annuel, c'est facile, le lecteur rajoute un an à la date initiale, mais s'il s'est abonné moins longtemps, c'est moins instantané comme date.
Modifié le 04/02/2026 à 18h21
(On va regarder ça)
Modifié le 07/02/2026 à 18h13
(certainement uniquement pour les nerds du DNS comme bibi, évidemment)
Le 04/02/2026 à 17h39
Je vais pouvoir déverser le contenu de mon NAS Qnap qui a été hacké par QLocker, du coup, pas besoin de chiffrer c'est déjà fait
Le 05/02/2026 à 11h18
Le 05/02/2026 à 15h31
Le 04/02/2026 à 18h17
Je ne vais pas utiliser les 1,9 To mis à ma disposition, si une cagnotte au Go sort pour les abos tarifs réduits/LPL, je peux "reverser" une partie de mon espace de stockage.
Le 04/02/2026 à 18h36
Le 04/02/2026 à 20h29
Le 05/02/2026 à 00h12
Par contre avec Duplicati j'ai un débit d'upload très très lent, environ 500 KiB/s. C'est normal ?
A ce rythme ça va prendre longtemps de remplir mes 1,6 To !
J'ai vu dans les commentaires de l'article sur Duplicati, qui parlait de 64 Mo/s, ça laisse rêveur...
Modifié le 05/02/2026 à 11h48
Ou bien c'est du coté de ton CPU ou le chiffrage est trop lent et donc la quantité de donnée à uploader est limitée
Le 05/02/2026 à 11h06
c'était pas la connexion ni Moji le souci, mais bien le processeur/mémoire du Syno
ça m'a rappelé le temps de l'ADSL ou une grosse mise à jour de jeu pouvait prendre 1 ou 2j
Le 06/02/2026 à 00h31
Ce n'est clairement pas ma connexion qui limite, je viens de tester ma vitesse d'upload est à 170 Mb/s
On est pas tous égaux ? Ou j'ai merdé une configuration quelque part !?
Le 06/02/2026 à 06h56
Le test de la vitesse d’upload ne veut pas dire que tu as 170 Mbps vers tout Internet, ça va aussi dépendre de la qualité des intercos de ton opérateur (et de sa route vers nous), mais pour 170 Mbps bon, ça nous ramènerait 10 ans en arrière si c’était ça. Essaye d’envoyer ce même fichier sur gofile.io pour voir ?
Ca peut être ton cpu, ton disque, ou le tuning d’envoi de ton client (le nombre de sessions joue beaucoup).
Le 06/02/2026 à 08h48
Et sur Duplicati je n'ai rien tuné, c'est l'install par défaut, sans aucune option ajoutée.
Le 06/02/2026 à 10h01
Modifié le 06/02/2026 à 14h21
Le 05/02/2026 à 15h46
Le 05/02/2026 à 18h59
MErci !
Le 05/02/2026 à 20h20
Lors de la première annonce, en décembre je crois, je me suis abonné car j'avais un compte gratuit depuis pas mal d'années et j'y ai eu accès (mais pas eu le temps de l'utiliser).
J'ai mal noté la clé, et lors de la parution de cet article j'ai voulu refaire une clé (puisque c'était vide), et là d'un seul coup c'est devenu interdit pour mon compte ???
Ce serait bien que quelqu'un de l'équipe me réponde, que j'arrête de perdre du temps sur ça si vous avez changé les règles entre temps et que je sache déjà si j'ai changé mon abonnement gratuit en abonnement payant pour rien
Le 05/02/2026 à 22h11
Comme tu as reset ton espace après l’ajustement de cette règle tu as perdu la capacité à activer l’espace - tu l’aurais conservé pour un an sans cela.
Tu préfères qu’on réactive ton accès une dernière fois ou un remboursement ?
Le 06/02/2026 à 18h30
Le 09/02/2026 à 15h45
Modifié le 08/02/2026 à 18h37
comme j'ai un peu galéré à trouver la bonne configuration
s3cmdvoici ma configuration (fichier
${HOME}/.s3cfg)[default]
access_key = CENSORED
secret_key = CENSORED
gpg_passphrase = CENSORED
host_base = s3.fr1.next.ink
host_bucket = s3.fr1.next.ink
use_https = True
bucket_location = fr1
website_endpoint = https://s3.fr1.next.ink/
encoding = UTF-8
encrypt = True
gpg_command = /usr/sbin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
pour tester:
$ s3cmd ls
2026-02-07 21:27 s3://lisez-next
$ s3cmd put /tmp/test.txt s3://lisez-next
upload: '/tmp/test.txt' -> 's3://lisez-next/test.txt' [1 of 1]
7 of 7 100% in 0s 21.16 B/s done
Il y a une très bonne documentation içi: Gérer vos buckets S3 avec s3cmd
Modifié le 08/02/2026 à 19h22
j'ai un soucis pour l'upload de gros fichier, gpg crée d'abord une copie du fichier dans /tmp, ca peut facilement le saturer et c'est long car pas multithreadé. ya sûrement moyen de faire mieux en hookant le script de chiffrement
gpg_commandsi quelqu'un a des conseils :)
Le 09/02/2026 à 15h24
"échec de la création de l'utilisateur de stockage. Veuillez réessayer plus tard."
Le 09/02/2026 à 15h42
Le 10/02/2026 à 08h43
Le 09/02/2026 à 20h27
Modifié le 11/02/2026 à 22h35
Petit retour d’XP si ça peut aider certains pour de la synchro avec rclone.
Déjà, merci pour ce cadeau : 2,6 To à 80 € en plus de l’actu, ça fait plaisir et ça fait oublier mes déconvenues avec mon Proton Drive que je vais quitter…
Sinon, concernant le retour d’XP, j’ai commencé à utiliser le S3 depuis quelques jours avec rclone. Ça fonctionnait, mais je n’avais pas un débit d’upload terrible…
Je plafonnais de 300 à 500 KB/s, bof bof quoi.
Du coup, ce soir, j’ai cherché un peu, car j’ai vu que des gens parlaient de débits largement supérieurs en MB/s.
Finalement, j’ai mis le doigt dessus… l’IPv6.
En forçant rclone à passer par l’IPv4, boom ... les débits explosent ! Là, je suis à plus de 75 MB/s.
Je ne sais pas si c’est dû à un peering pourri entre Orange et Moji, mais en tout cas, l’upload est très limité en IPv6, ce qui est bizarre vu que je n’ai pas trop de problèmes avec d’autres services.
Voici ma conf rclone si ça peut aider certains.
[global]
transfers = 16
checkers = 32
buffer_size = 64M
[next.ink-s3]
type = s3
provider = Ceph
access_key_id = XXXXXXXXXXXXXXXX
secret_access_key = XXXXXXXXXXXXXXX
region = fr1
endpoint = https://s3.fr1.next.ink
no_check_bucket = true
acl = private
bucket_acl = private
upload_concurrency = 8
chunk_size = 8M
disable_checksum = true
force_path_style = true
[next.ink]
type = alias
remote = next.ink-s3:lisez-next
⚠ Les paramètres du type chunk_size ou buffer_size sont à ajuster en fonction des tailles des fichiers que vous uploadez.
la commande rclone
rclone -v sync /data/backup/ next.ink:backup/ \
--bind 0.0.0.0 \
--s3-disable-http2
le --bind 0.0.0.0 force l'ipv4
le --s3-disable-http2 améliore encore un peu la vitesse
peut-être liée à la façon dont travaille le load-balancer côté Moji.
⚠ ma conf d’exemple ne donne pas la partie chiffrement de rclone (type = crypt), car mes données sont déjà chiffrées. Ne prenez pas la conf telle quelle si vos données à synchroniser ne le sont pas déjà.
Du coup, je suis encore plus content ce soir du cadeau fait par nos amis
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?