1 To (et plus) de stockage S3 dans votre abonnement Next : c’est parti !

Ce midi, c'est fromage ET dessert

1 To (et plus) de stockage S3 dans votre abonnement Next :  c’est parti !

Annoncé le 24 décembre dernier en guise de cadeau de Noël à nos fidèles lecteurs, notre service de stockage dédié à la sauvegarde sort de la phase bêta. Tous les souscripteurs d'un abonnement Next Premium au tarif standard disposent désormais de 1 To de stockage, auquel s'ajoutent 100 Go par année d'ancienneté du compte.

Le 03 février à 11h10

Commentaires (151)

votre avatar
Super ! merci :-)
Faut que je m'en occupe maintenant
votre avatar
Merci !
Ça va me servir d'espace de backup secondaire.
votre avatar
J'avais réussi à faire parti des heureux élus à Noël :santa_flock:

Je l'emploie depuis pour mes backups, ca tombait pile-poil et 3.15 To ca se refuse pas :D
Ca marche très bien

Encore MERCI
votre avatar
Damned mes 3.05 surpassés !
votre avatar
Miam ! Merci :smack:
Je viens d'activer mon S3 pour faire une backup de Home Assistant, mais en le configurant je viens de voir qu'il ne supporte que le S3 officiel Amazon... plus qu'à scripter ça manuellement donc :tristan:
votre avatar
Je l'ai fait sur le mien avec mon s3 Next, et ça fonctionne très bien avec le module "S3 Compatible"
votre avatar
En utilisant "https://s3.fr1.next.ink/" comme Endpoint URL j'ai " Invalid endpoint URL. Please make sure it's a valid AWS S3 endpoint URL.".
J'ai pensé qu'il y avait un filtrage de type "*.amazonaws.com" dans l'intégration

Edit : ah oui j'avais pas compris que c'était sur HACS
votre avatar
Pour Home Assistant, j'ai utilisé ce repo : S3 Compatible Backup for Home Assistant

Ça fonctionne nickel :yes:
edit: grilled
votre avatar
Super 3.1To :p merci !

Question: vous conseillez quoi comme méthode pour l'utiliser sur Debian ? J'ai vu Rclone, mais un peu austère...
votre avatar
Rclone UI ? :)
votre avatar
Et apparemment, il y a une interface graphique expérimentale.
https://rclone.org/gui/
votre avatar
si tu veux une interface clic clic pour rclone, t'a rclone-browser (FOSS) ou rclone-UI (payant)
votre avatar
Tournée générale :kimouss:

Le patron a sorti le tord-boyau de dessous le comptoir.

Et il ne date pas du temps du mexicain. :phiphi:
votre avatar
Hep ! Hep ! On avais dit fin janvier la disponibilité générale, pas début février ! Carton rouge là :cartonrouge:

(Bon à part ça, merci beaucoup c'est trop sympa :p)
votre avatar
Merci beaucoup !
Aussitôt activé, aussitôt utilisé. Le backup de mon Synology est en cours :ouioui:
votre avatar
Je voulais aussi, mais il me semble que dans la doc de syno hyperbackup, si j'ai bien lu, il ne chiffre pas les fichiers sur le S3. Tu peux me tuyauteur stp ?
votre avatar
Si tu ajoutes une clé de chiffrement si :)
votre avatar
Merci, j'ai mal lu la doc. Sinon, tu lis vraiment toutes les com ? 22h34, heures sup tout ça, tu dors 2h par nuit ?
votre avatar
Je dors allright !
Je zone souvent dans les comms c'est devenu un petit péché mignon, mais j'ai l'impression que je ne suis pas le seul :P
votre avatar
il a @Ness_01 qui lui fait des réponses auto :glasses:
votre avatar
Je ne peux pas mieux dire :D
votre avatar
Comme je le disais sur la news précédente, je suis preneur si vous avez des chiffres d'utilisation plus détaillés à afficher dans le Profil. Les solutions du marché facturent sur plusieurs lignes (nombre de requêtes, volumes de transferts, etc.) ce qui rend l'évaluation du coût assez obscur pour un profane.

Des KPIs permettraient d'estimer un peu sa conso, puisque cette offre peut se combiner avec un service tiers, soit pour avoir plusieurs sites, soit pour stocker une partie ailleurs quand ça dépasse le quota (ce qui peut arriver très vite quand on historise plusieurs archives !).
votre avatar
Honnêtement je ne pense pas qu’on va se prendre la tête pour calculer tout ça si c’est en plus pour ne pas le facturer ^^
C’est un service best effort qui fera très bien ce qu’il doit faire, et c’est déjà pas mal !
(En plus je déteste ces principes de merde de factu à la requête, d’egress et tout, on veut vraiment simplifier tout ça du côté de moji mais c’est une autre histoire).
votre avatar
Pas de souci, effectivement si il n'y a pas d'outil simple pour le faire, je comprends tout à fait l'absence totale d'intérêt ! 😉
votre avatar
Encore une fois merci pour cet espace de backup.
Pouvez-vous définir : "L'accès à votre espace est susceptible d'être coupé en cas d'activité inappropriée."
votre avatar
On ne regarde absolument pas l'activité sur vos espaces, et on regarde encore moins le contenu de vos espaces (on insiste d'ailleurs pour que vous chiffriez), mais de la même façon qu'on peut modérer des commentaires, voire bannir un commentateur, on se réserve la possibilité de couper un accès si les conditions l'exigeaient. Il n'y a pas de scénario précis défini à l'avance, et on espère bien ne jamais avoir à le faire.
votre avatar
j'imagine que si un user bouffe toute la bande passante du serveur h24 ou crée des millions d'objets a la seconde, le tout sur une longue période (de façons malintentionné), ou qu'il utilise le s3 comme stockage pour partager du tipiak (et que ça se sait), la sword s'abattra...
votre avatar
Salut,

quand je clique sur l'icône S3 j'ai ce message :

Adhésion Premium Requise

Vous devez avoir une adhésion premium pour accéder aux fonctionnalités de stockage S3.


(je suis abonné via LaPresseLibre)
votre avatar
next.ink/216048/un-petit-to-pour-les-fetes/
Les internautes qui nous lisent par l'intermédiaire d'une offre La Presse Libre non souscrite auprès de Next lors de la période de lancement ne sont en revanche pas éligibles, les revenus afférents étant dans ce cas trop faibles pour Next pour justifier un tel cadeau.
votre avatar
Ha, j'avais pourtant lu cet article aussi au moment de sa publication.
J'étais passé à côté de cette petite info, merci pour la réponse !
votre avatar
La presse libre est déjà une offre très généreuse en soi, on ne peut pas concilier les deux malheureusement
votre avatar
Juste une petite remarque : ça serait bien pour ces comptes-là, mais également pour les personnes sur un abbo moins cher comme moi, de masquer le bouton S3 1 To dans la barre à côté de la recherche et la cloche. Comme on peut pas y accéder, c’est pas utile.
votre avatar
Techniquement on va permettre un upgrade des abonnements à tarif réduit donc c'est bien de montrer que l'option existe, mais on va bientôt sortir une option pour masquer le S3 du header.
Stay tuned
votre avatar
Chez moi ça marche pas, ça me dit « Échec de la création de l'utilisateur de stockage. Veuillez réessayer plus tard. » T_T
votre avatar
On regarde on revient vers toi
votre avatar
ça devrait être bon, réessaie stp
votre avatar
Effectivement ça fonctionne mieux ! Merci ! :)
votre avatar
Bon, plus qu'a me documenter pour connecter mon NAS dessus, merci l'équipe ! :fete:
votre avatar
Merci Next pour ce beau cadeau, un autre endroit pour mettre les backup c'est toujours bienvenu !
votre avatar
Ce cadeau si innatendu et si à propos que vous avez trouvé là, j'adore 👌
votre avatar
Merci Moji !
votre avatar
Bonjour l'équipe,
concernant le contrôle de l'intégrité des données, cela reste-t-il uniquement à la charge de l'utilisateur ou cette action est aussi réalisée du côté du serveur qui héberge les données ?
votre avatar
Je ne suis pas de l'équipe mais comme c'est du best effort j'imagine que c'est à nous de contrôler.
votre avatar
Merci beaucoup à Moji et Next pour cette initiative, y'a plus qu'à !
votre avatar
Merci, super cadeau !
J'ai pu choper un accès libéré en décembre au bon moment, mais j'ai attendu le lancement officiel pour l'utiliser. Je vais donc m'y mettre tranquillement après avoir lu le mode d'emploi dans cet article.
Big bisous, comme chantait Carlos (pour les boomers), pas le condamné Ilich Ramírez Sánchez (pour les boomers aussi d'ailleurs).
votre avatar
Merci beaucoup :)

Le backup est lancé de mon côté :)
votre avatar
Merci !!!!
votre avatar
Ouf, j'ai bien fait de terminer hier la sauvegarde de mon NAS sur le S3 de Next ("récupéré" mi-janvier, merci Next & moji) avant que cette ouverture générale bouffe la BP ! ;)

Une question : à quoi correspondent les "objets" dont le nombre est indiqué à droite de la zone utilisation sur next.ink Next ?
votre avatar
votre avatar
C'est génial, merci! :-)
2To! :tchintchin:

J'ai enfin commencé à me pencher un peu là dessus maintenant que j'ai du temps libre et je me posais une question : J'ai certains fichiers qui me prennent beaucoup de place, je me dis que ça ne sert à rien de les chiffrer pour de la sauvegarde. Si même je pouvais libérer de l'espace disque, ça ne me déplairait pas (et perdre ces fichiers ne serait pas une catastrophe, dans le pire des cas).

Comme j'utilise déjà un S3 de chez Infomaniak pour héberger un site (à l'arrache, j'avoue...) et que j'y accède avec la commande swift (client d'OpenStack), est-ce que je peux aussi utiliser cette commande pour gérer manuellement les fichiers sur ce S3?

Désolé si cette question a déjà eu une réponse ailleurs, mais je ne l'ai pas trouvée ^_^ .
votre avatar
Techniquement ça va fonctionner, mais n’hésite pas à chiffrer tous tes fichiers perso - même gros - c’est pas beaucoup compliqué.
votre avatar
Top, merci, c'est noté! :-)
votre avatar
Merci pour le stockage. Un tuto pour pouvoir l'utiliser en automatique via linux et pourquoi pas une sauvegarde de nos vm sous proxmox (HA) ?
votre avatar
Réponse à moi-même => j'ai trouvé votre tuto avec duplicati, mais impossible de faire quoi que ce soit, j'ai ce message (dsl pour la lmise en forme):
"Error creating folder

The remote destination folder could not be created. The service returned an error with Error Code TooManyBuckets and HTTP Body: TooManyBucketssauvegardetx00000b83ff1defb43d1a4-0069820f11-35556586-southwest135556586-southwest1-fr1"
votre avatar
j'ai eu la même erreur quand j'avais mis "photos" en tant que bucketname au lieu de "s3-next-ink"
vérifie si c'est aussi le cas pour ta config
pour personnalisé c'est sur le nom du dossier.
votre avatar
A noter le nom du bucket est « lisez-next » pour les comptes qui ont claim aujourd’hui, vérifiez bien le nom du bucket dans votre compte Next.
votre avatar
Peut-on changer le nom du bucket ?

Merci encore Next pour ce super cadeau.
:merci: :dix:
:inpactitude:
votre avatar
non, le nom du bucket est défini de notre côté, il n'est pas modifiable.
votre avatar
Tu as cette erreur car tu essayes de créer un bucket.
votre avatar
Merci:chinois:
votre avatar
Merci pour cet espace !
Je n'avais pas envie de payer un vrai service de stockage pour mes vidéos Frigate...
(Et c'est con d'avoir que du local... Si mon serveur disparait, j'aurais même pas eu les images qui vont avec).

Bref, mode gros porc : "s3cmd sync" qui tourne en boucle pour exporter les vidéos quasi en temps réel !
Et comme ça prenait trop de temps entre deux boucles, j'ai du virer la suppression automatique du fichier distant si absent en local...

Promis, je le ferais tourner régulièrement un "sync" classique pour faire le ménage sur le S3
(avec recul, c'est bien aussi, si je me le fait tirer le serveur et qu'il vennait à être reconnecté à un réseau quelques jour plus tard, sa aurait été con qu'il vire du S3 tout ce qui n'est plus en rétention local :sm:)
votre avatar
Bonjour à l'équipe,
Merci pour l'espace de stockage. Ca me sera utile pour faire la sauvegarde de la sauvegarde de mon nas :)

Question d'un néophyte en matière de S3 et d'hébergement web:
Est ce qu'il est possible d'utiliser ce stockage S3 dans un but autre que la sauvegarde de données ?
Par exemple, pour héberger un wordpress
votre avatar
C’est pas vraiment prévu pour autre chose que pour des accès épisodiques, mais ça va fonctionner. Ca sera limité question IOs par contre, et ça ne gèrera que le stockage de fichiers.
votre avatar
Intéressant tout ça.
Merci big boss
votre avatar
Encore merci pour le cadeau ! ça fait 1 mois que je l'utilise (heureux chanceux sur la beta fermée), j'ai repris mes scripts que j'utilisais pour un autre provider S3, aucun problème sur celui de next !
votre avatar
Incroyable, merci beaucoup ! Pour le coup je me suis réabonné après plusieurs mois de pause pour profiter de ce service. J’hésitais à le faire, on peut dire que ça a fait pencher grandement la balance du côté du réabo.

Ça tombe à pic pour exporter la sauvegarde de mon cluster SeaweedFS tout neuf :)
votre avatar
Heureux de voir que j'ai 1,9 To potentiel :)
Mais je ne comprends pas l'offre Tarif réduit (- de 25 ans ou revenus annuels < 20 000 €) qui dit :

« L'espace de stockage S3 n'est pas inclus dans cette offre. ».

Alors si c'est pas S3, c'est quoi ? Et est-ce que j'aurai 1,9 To ou seulement 1 To ?
votre avatar
Le stockage n'est pas inclus dans l'offre à tarif réduit, ce ne serait pas viable.
votre avatar
Oui, en effet. Merci pour ce retour :)
votre avatar
J'ai eu une idée.
Tout d'abord, je tiens à préciser que je comprend à 100 % le problème économique, je ne compte pas revenir dessus.

Mais mon problème est que maintenant, je suis officiellement un abonné de seconde zone, ce que je n'étais pas avant : il n'y avait pas de différence entre mes droits (au sens numérique du terme) et ceux des autres abonnés. Mais maintenant, je me sens exclu (encore une fois, avec raison, économiquement parlant), non seulement d'une possibilité, mais aussi d'une partie des contenus qui vont arriver (les tutos).
Je ne sais pas, mais je pense pas que je sois le seul à ressentir ça.

Du coup mon idée serait de filer aux abonnés à tarif réduit un stockage à taille fixe, de taille symbolique (j'imagine entre 1 Go et 100 Go, suivant où vous mettez le curseur).
Ca permettrait aux lecteurs tarif réduit :
* De tester et bidouiller avec un service S3 (ce qui est à mon avis l'esprit Next)
* D'autoriser la sauvegarde de documents essentiels (mon dossier de documents essentiels fait 3.1 Go, avec 1.1 Go où c'est un seul examen medical (le CD complet d'une IRM). Là où je veux en venir, c'est que même 1 Go, je pourrais l'utiliser pour les trucs les plus important)
* De participer dans toutes les actualités et le forum sur les sujet S3

Soyons clair, tout ce qu'il y a ci-dessus, ce n'est pas une critique. Encore une fois, je comprend à 100 %.
Je dis juste qu'en partant du postula que c'est le stockage qui coûte, filer 10 Go aux abonnés tarif réduit, c'est peanuts (j'imagine), et symboliquement, ça ferait un grand plus pour un bon nombre d'abonnés.

Voilà, c'était mon idée. Après, qu'elle soit reçue positivement ou négativement, je comprendrais dans tous les cas :)
votre avatar
Sur la forme, il n' y a pas d'abonnés de seconde zone, faut arrêter avec ça. Il y a un abonnement premium (le standard), sur lequel on pratique, sur demande et sous condition, une dérogation (le tarif éco) pour aider ceux qui n'ont pas forcément les moyens de payer pour l'information.

De la même façon, un accès via La presse libre constitue une forme de dérogation, et pourtant on a le même respect et la même considération pour les lecteurs qui souscrivent cette offre plutôt qu'un abo Next en propre.

Sur le fond, on entend la proposition.
votre avatar
Cool :)

Juste pour répondre sur la forme : j'entend que de votre point de vu, être abonné éco n'est pas de seconde zone.
Cependant, pour une population de geeks (donc sensible à l'exclusion sociale depuis le collège pour beaucoup), et de pauvres (qui se privent donc de beaucoup de choses au quotidien), quand Next annonce "un nouveau service génial pour tous les abonnés, sauf vous les pauvres" (je caricature, évidemment), il faut comprendre que ça pique un peu. C'est normal, hein, encore une fois, je comprend parfaitement le pourquoi, je l'accepte, et le trouve normal et logique.
Ça a beau être normal, ça pique quand même :)

Et je ne doute pas une seule seconde que vous avez le même niveau de respect pour tout le monde.

(et j'espère que je fais pas trop chier avec mes réponses, c'est pas le but, j'essaye simplement d'être compris :) )
votre avatar
Donc en résumé, next.ink ne devrait pas proposer d’abonnement à prix réduit cela serait plus simple.
votre avatar
Et ne pas proposer d'abonnements tout court, ce serait encore plus simple.
Hashtag logique.
:roll:
votre avatar
Tes remarques renvoient à un sujet plus fondamental que les droits numériques ou l’exclusion putative de la communauté : celui de la légitimité de l’argent. On vit tous dans un système où l’argent est au centre, on pourrait décider de s’en foutre - et dans une certaine mesure la reprise de Next s’inscrit dans cette logique - mais la vérité c’est que c’est impossible de s’en abstraire totalement, Next ayant des charges payables en euros.
Pour l’avenir du media, pour l’avenir du groupe - et parce que la vie doit être un peu triste avec un cheat code d’argent illimité, l’humain se construit de ses difficultés - il fallait placer un curseur quelque part, et s’agissant de Next j’ai l’impression qu’on l’a mis à un endroit qui tient plus du yolo que notre banquier et ami ne le voudrait, donc le groupe de hippies qui sommeille en nous le vit bien.

Une autre dimension est à considérer, au delà de l’aspect social de service d’information de l’abo à 25 euros (qui est exceptionnellement large dans ses critères d’éligibilité rappelons-le) - ce que le S3 n’a pas du tout, c’est une commodité - nous avons eu une vague inédite de demandes d’abonnements fantaisistes au tarif réduit depuis le 24 décembre que nous n’avions jamais connue. Le S3 n’a pas vocation à faire perdre de l’argent au groupe parce que des petits malins veulent leur bon plan pas cher sans lire le journal, et on ne veut pas passer notre temps à checker si la petite Nathalie de 2018 est bien celle qui se cache derrière le compte roger1986 créé en 2013.
Au moins, avec l’arbitrage actuel les choses sont naturellement équilibrées, et les demandes à l’abonnement tarif réduit sont bizarrement revenues aux proportions habituelles.

Rappelons enfin que Next continue à perdre de l’argent, beaucoup moins qu’avant et le s3 aide visiblement, mais que c’est toujours le groupe qui paye.
L'objet social de Next et de moji n'est pas de fournir du stockage gratuit aux gens dans le besoin.
En plus on va avoir besoin à un moment de recruter si on veut étoffer notre contenu, reculant par la même le point d’équilibre.
Si le s3 convainc des abos à tarif réduit de résilier leur service C2 chez Syno pour venir chez nous c’est toujours bon pour tout le monde (sauf pour Syno mais il ne l’auront pas volé).
votre avatar
J'entend la critique que mes remarques tiennent plus de la légitimité de l'argent.
Oui, j'avoue, je suis un anti capitaliste notoire, et mes remarques en sont probablement teintées (no sarcasm).

Par ailleurs, je n'avais pas idée que depuis le 24 décembre, vous aviez eu un nombre de demandes fantaisistes accrues au tarif réduit. Ce n'est effectivement pas normal, et pas tolérable.

Encore une fois, je comprend parfaitement les problématiques économiques. Je les accepte sans sourciller.

Mais mon côté gaucho m'oblige à regarder aussi le côté social, et celui-ci me pousse à chercher des solutions qui incluent tout le monde (et je me fous de faire partie de la catégorie en question, hein, comme tu le sais, c'est pas pour moi).
D'où l'idée que j'ai partagé ci-dessus : que Next propose un stockage symbolique aux lecteurs abonnés à tarifs réduits (tient, peut-être que LPL pourrait être incluse aussi) : fournir un stockage symbolique fixe (entre 1 et 100 Go suivant où vous mettez le curseur), permettant à ces lecteurs de bidouiller, avec un coût marginal pour vous.

Ainsi, ces lecteurs ne seraient plus exclus, ils seraient inclus mais réduit, et socialement, ça change tout, sans que économiquement (j'imagine, au moins), ça change quelque chose.
votre avatar
Pour répondre directement à ta suggestion, je ne pense pas du tout que ce soit excluant de ne pas avoir de s3 avec l'abonnement à tarif réduit, d'autant plus qu'il n'y a aucune différence visible entre les comptes qui ont l'abo à tarif réduit et les autres.

Ensuite, si on décide de faire 1Go, c'est rat, si on décide 100Go, c'est clairement beaucoup trop, et aucune valeur entre les deux me parait franchement satisfaisante, c'est une immense zone grise, et chacun appréciera la valeur retenue avec sa propre subjectivité.

La seule position qui soit défendable, c'est de dire que le tarif réduit est déjà généreux, il est là pour permettre un accès à de l'information utile pour se faire une idée du monde numérique qui nous entoure.
Le s3 lui, c'est un cadeau pour nos abonnées et abonnés qui soutiennent Next de façon moins symbolique, et parfois depuis longtemps (d'où la prime à l'ancienneté).
votre avatar
De mon point de vue, si, c'est excluant : tous les articles de lancement de S3, tous les articles de tutos, tout ceux là ne sont donc pas pour tous les abonnés. Mais je pense qu'on ne se changera pas l'avis l'un de l'autre sur ce sujet.

Sur la taille possible, pour moi, encore, 1 Go ça peut faire rat, mais ça permet aussi aux abonnés d'avoir le goût (just a taste) de l'outil, d'apprendre, d'essayer, de bidouiller. C'est toujours mieux que rien, qui ne permet justement, rien.
Après, les barèmes peuvent jouer : 1 Go par année d'ancienneté par exemple, qui pourrait être un cadeau pour les abonné⋅e⋅s qui soutiennent Next, mais qui n'ont pas les moyens de faire plus. Ou par mois d'ancienneté. Ou même un système de "Tera suspendus", où un abonné qui n'utilise pas tout son stockage en ferait don, pour qu'il se partage parmi tous les "tarifs réduits".
Je faisais juste une proposition "simple", pour éviter que ce soit compliqué à implémenter. De mon point de vu, 5-10 Go fixe fournirait déjà un service énorme, sans que le coût soit prohibitif.

Si tu vois le S3 que comme un cadeau aux abonné⋅e⋅s fidèles, c'est à mon avis d'autant plus gênant que tu classes les abonné⋅e⋅s fidèles que suivant la somme qu'iels paient.

Mais j'entend que tu dis un "non" définitif, donc j'arrête d'argumenter, et te laisse tranquille, promis :)
votre avatar
Si tu veux vraiment jouer avec du S3, tu me fais un mail perso et je te créé un compte sur mon serveur (quota de 1Go).
votre avatar
C'est très gentil à toi !
Mais étant inscrit dès décembre, j'ai eu droit au To, au moins jusqu'à mon renouvellement d'abonnement (dans 11 mois), donc j'ai pu jouer avec et mettre en place mes scripts de backups (avant d'apprendre que ça allait être coupé au bout d'un ant ;) )

Mais encore merci de ta proposition !!!!
votre avatar
Je comprends ton point de vue, même si je trouve que tu forces légèrement, sauf que le but de l'abonnement (réduit ou non) n'est pas le S3 mais bien l'accès à l'information et le soutien à l'équipe.
L'accès S3 ne sera sûrement pas utilisé de tous d'ailleurs. Mais il faut bien fixer des limites et, à mon sens, c'est l'information qui doit primer sur le reste.

My 2 cents.
votre avatar
J'entend la critique de forceur, que je comprend, mais il faut que tu saches que étant abonné éco qui a activé son stockage en décembre, j'ai actuellement 2.86 To de disponible de stockage S3 sur Next, au moins jusqu'à décembre prochain. Tout ça pour dire que je ne "force" pas pour moi, mais pour pour tout le monde.
Si je peux échanger mes 2.86 To pour que tous les abonné⋅e⋅s tarif réduit aient 2.86 Go (j'ai compté 1000 personnes au tarif éco), je le ferais sans hésiter (d'ailleurs, Ferd, n'hésite pas).

Je suis d'accord sur le fait que l'information prime, mais faut pas oublier que le service S3 va devenir un produit d'appel pour s'abonner : j'ai fait un peu le tour des tarifs de stockage S3, et j'ai pas trouvé de stockage de 2 To à moins de 80 € par an. Donc clairement, des personnes vont s'abonner que pour le service S3.

Mais oui, c'est débattable, d'où le débat :)
votre avatar
tous les articles de lancement de S3, tous les articles de tutos, tout ceux là ne sont donc pas pour tous les abonnés.
Je trouve que tu forces le trait, surtout sur les tutos pour stocker sur S3. Dans l'absolu tu prends le tuto S3 next, tu remplaces les URLs pour ton S3 Amazon ou Scaleway et en avant tu as un tuto S3 "généraliste". Donc ça concerne également les non-abonnés et abonnés-apacher qui ont une envie de bidouiller ou backup leurs données. :)
votre avatar
Il cause bien le monsieur. Faut suivre quel cursus pour faire pareil ? J'en ai besoin.
votre avatar
Il faut beaucoup lire Next 😜
votre avatar
Vous devez chiffrer vos données, précisément parce que ce sont VOS données.
On est d'accord sur le principe. Mais si on envoie en clair, c'est en clair chez vous ?

Sinon je suis preneur d'un client de qualitay sur Ubuntu. Duplicati permet de démarrer mais c'est assez pauvre niveau interface (j'ai toujours le design clair alors que je clique toujours sur le dark), et c'est une cata en ergonomie (les champs qui effacent les valeurs quand on retourne sur un écran :kill:).

Et sinon, je n'aime pas ne pas comprendre comment sont stockées mes données. On n'a pas de vue globale pour les voir. Par exemple, si je veux vérifier un fichier quelconque dans le 151e sous-répertoire du 284e répertoire, comment fais-je ?
votre avatar
Si vous envoyez en clair, c'est tout à fait en clair chez nous (et on veut absolument l'éviter !).
Chiffrez vraiment vos données avant de nous les envoyer, c'est important.
votre avatar
Ok, suppression en cours.
Le problème est que je ne connais pas de programme qui chiffre automatiquement durant l'envoi.
Si on veut une synchro une fois par jour par exemple, ça se met en place sur les données locales, qui sont en clair.
Mais sur du chiffré, c'est pas à la demande. J'ai des coffres cryptomator, mais il faut les mettre à jour manuellement. Pas possible de programmer une synchro de ces données chiffrées (à moins de pouvoir passer ses journées à tout mettre à jour manuelement).
Je sais pas si je suis clair :transpi:
votre avatar
Si tu es ou MacOS, il y a un super nouveau client qui chiffre les données à la demande "S3 Next"

Quoi , je peux bien me faire un peu de pub 😂😂😂
votre avatar
rclone mais c'est de la ligne de commande. Mais j'ai vu au-dessus qu'il existait une GUI.
votre avatar
Bonjour.

C'est un stockage objet, il faut un client S3 pour représenter le stockage.
On n'est pas sur une vue répertoire sous répertoire de type arborescence de fichier.

Sinon en client je me rappelle de vorta ou de pika backup qui sont tous les deux des gui pour borgbackup.

Si cela peut t'intéresser.


EDIT: j'ai dit de la daube!
Borg ne prends pas en charge stockage S3 donc vorta ni pika ne doivent le prendre en compte non plus.

DU coup je viens de découvrir Kopia:
github.com GitHub

Je ne sais pas trop ce qu'il vaut.
votre avatar
Merci, je vais regarder kopia.
votre avatar
Merci :yes:
Plus qu'à apprendre à l'utiliser ;)
votre avatar
Merci Next & Moji ! Je rentre et hop, backup du NAS chiffré.
Bordel 2.3To, c'est pas rien en ce moment.
votre avatar
Merci moji ! ❤️
Merci Next ! ❤️
Merci Ferd ! ❤️
Merci à tous ceux qui ont rendu et vont continuer à rendre ceci possible ! ❤️

J'ai mis en place un containeur LXC Duplicati, et paramétré les sauvegardes vers ce nouveau S3.
Par le passé, j'ai utilisé Backblaze. Je préfère savoir mes données (bien que chiffrées) en France :francais:
votre avatar
Merci ! Je vais avoir besoin d'étudier tout ça maintenant, vous êtes pas cool 😋
votre avatar
Un grand merci à Next et Moji pour joli cadeau. Et j'adore la petite jauge directement sur le site pour voir en un clin d'œil ce que l'on consomme. Et oui j'ai un certain traumatisme de stockage saturé...

Pour moi, c'est proxmox backup qui va gentiment remplir cet espace de petits objets tout chiffrés.
votre avatar
Bien le bonjour,

Merci encore pour cette offre.
Désolé de vous embêter avec ça, quand j'essaie de l'activer j'ai l'erreur suivante

" Echec de la création de l'utilisateur de stockage. Veuillez réessayer plus tard "
votre avatar
On t'a envoyé un mail je pense, on a une dizaine de comptes avec des anomalies qu'on rectifie au cas par cas :)
votre avatar
Oui, tout est beau, merci à toute l'équipe
votre avatar
Merci pour ce cadeau.
Pour rebondir sur un article récent, mes 2,2 To seront bien des Tio soit
2 199 023 255 552 octets
ou des To soit
2 000 000 000 000 octets
?
C'est juste pour chipoter
:cap:
votre avatar
2.5To dans la barre, 2.46TB dans le profil !
votre avatar
On assume un arrondi dans la barre. Mais du coup le mystère reste entier :p
votre avatar
3.2 To, qui dit mieux ?

Bon, par contre sérieusement, il va falloir que je me mette à la sauvegarde du coup pour pas gâcher...
votre avatar
" The connection to the server is lost, attempting again in..."

Après avoir sauvé 5Go seulement ^^ Serveur saturé ?
votre avatar
Il peut y avoir quelques bouchons un jour de grand départ, mais Bison futé veille au grain
votre avatar
J'allais faire un retour similaire. Il y'a une interface de support/ticketing/page d'info sur l'uptime du service vers laquelle se tourner ? :)
votre avatar
Une option est prévue pour acheter des To supplémentaires ?
votre avatar
Non, c'est un bonus offert dans le cadre de l'abonnement Next, pas une offre commerciale en propre donc il n'y a(ura) pas d'option de ce type
votre avatar
Apparemment c'était l'application elle-même qui avait foiré sur mon ordi :transpi: :cbon:

Fausse alerte! :pciwin:

(Question au passage, mais je me doute de la réponse: il n'est pas possible de le faire fonctionner en incrémental, ce backup ? Plutôt que de devoir tout envoyer chaque fois, envoyer juste le diff... Comme OneDrive - :pastaper: - ou Sync) :sucre:
votre avatar
Tu dois pouvoir gérer le type d'envoi, full ou incremental, depuis un outil tiers.
votre avatar
J'avais 2,76 To, et pis bêtement (ayant égaré ma clé) j'ai réinitialisé le stockage puisqu'il était vide, et me voilà expulsé avec un "Offre Éco non éligible L'offre Éco ne permet pas d'accéder au stockage S3. Veuillez passer à un abonnement Premium mensuel ou annuel pour bénéficier de cette fonctionnalité. Voir les offres Premium" etc etc. Je me retrouve fort désolé, mais sans stockage du tout ! :'(

Quelqu'un de l'équipe pour me dire si c'est normal que j'avais l'accès lors de la beta et maintenant non ?
L'écran continue à m'indiquer les 2,9 To pourtant ?
votre avatar
Quelqu'un aurait un tuto pour monter ce nouvel espace comme un disque (réseau ou non) Windows svp ?
votre avatar
Tu peux faire ça avec rclone et sa commande mount. J'avais tenté ça avec un stockage B2 mais je trouvais que c'était assez lent pour une utilisation régulière. Mais ça peut dépanner. Sinon sans ligne de commande il y a Mountain Duck
votre avatar
Merci beaucoup, pour l'amélioration de la génération des factures et des comptes d'entreprise.
Étant un tout petit patron, c'est la seule façon pour moi de vous soutenir.
C'est d'ailleurs ce qui m'a incité à le faire. Donc merci :)
votre avatar
Merci beaucoup. En plus mon ancienneté est valorisée, j'adore !!
votre avatar
C'est vrai, que pour fois que l'ancienneté est valorisée :)
votre avatar
on sait que la suppression des réductions permises par l'ancienneté en a déçu certains (rappel : on les a supprimées parce qu'elles sont l'un des facteurs qui précipitaient NXi vers la banqueroute), et ça nous tenait à cœur de trouver une mécanique pour tout de même la valoriser, on est donc particulièrement contents que vous y soyez sensibles !
votre avatar
Alors, en cas de doute, mon commentaire ne faisait pas du tout allusion à l'ancien système de réductions permises par l'ancienneté, mais était général :)
En tout cas merci pour le cadeau que je vais activer de suite :kimouss:
votre avatar
C'est super, après presque 15 ans d'autohébergement, j'ai enfin des backups, merci Next !

Est-il prévu de pouvoir faire une rotation des clés sans réinitialiser le stockage pour les dangers comme moi qui ont le copier/coller un peu vif (en ayant toujours accès à la clé actuelle) ?
votre avatar
Merci beaucoup.
votre avatar
Bonjour NXI (c'est fou l'acronyme pour Next INpact fonctionne toujours pour Next.ink :mrgreen:)

Merci pour ce cadeau inopiné.

Je souhaitais commenter la facture associée à l'abonnement associé à ce cadeau.
Je vois que mon abonnement est à renouvellement automatique, mais la facture ne donne pas un indice sur le compte ou la CB associée. Pas de 4 chiffres de fin avec des * pour masquer le reste.
Donc est-ce qu'il ne faudrait pas ajouter cette information sur la facture en ligne dans le profil ?:chinois:

Et il y a la même date entre date de facture et date d'échéance.
On peut entendre l'échéance comme la date du paiement pour l'abonnement, ou l'échéance pour le renouvellement de l'abonnement à la fin de la période d'abonnement.
Je trouve cela un peu confusionnant comme terme. Si c'est à renouvellement automatique, il faudrait indiquer cette date future, non ?
Dans un cadre annuel, c'est facile, le lecteur rajoute un an à la date initiale, mais s'il s'est abonné moins longtemps, c'est moins instantané comme date.
votre avatar
J'avais jamais fait le lien pour l'acronyme mais c'est vrai !!!

(On va regarder ça)
votre avatar
NX comme pour les NX domain, ça a son petit charme.

(certainement uniquement pour les nerds du DNS comme bibi, évidemment)
votre avatar
Merci pour ce joli cadeau. 3.1To, ca veut dire qu'on est plus si jeune surtout ^^
Je vais pouvoir déverser le contenu de mon NAS Qnap qui a été hacké par QLocker, du coup, pas besoin de chiffrer c'est déjà fait :D
votre avatar
D'ailleurs, je m'auto-cite mais si quelqu'un a trouvé une solution (hors celle donnée par QNAP qui nécessite de ne jamais avoir rebooté le NAS et d'essayer un extract via photorec) pour retrouver son contenu, je suis preneur :D
votre avatar
Et ça : https://www.ikarussecurity.com/en/security-news-en/qlocker/
votre avatar
Merci beaucoup pour ce gros cadeau !

Je ne vais pas utiliser les 1,9 To mis à ma disposition, si une cagnotte au Go sort pour les abos tarifs réduits/LPL, je peux "reverser" une partie de mon espace de stockage.
votre avatar
Vraiment Merci !
votre avatar
:pciwin: idée dans le vent, vous alloué 150To pour un nœud scihub, et vous proposez la vulgarisation d'un article par jour. ❤️ Je vous suis depuis 2018, plein d'amour
votre avatar
Un grand merci pour l'espace de stockage et l'article qui explique comment paramétrer un backup avec Duplicati. Super simple, efficace. J'ai pu supprimer ma solution précédente, bricolée avec Cryptomator, Freefilesync et Google Drive (et résilié un abonnement à 3€ par au passage).

Par contre avec Duplicati j'ai un débit d'upload très très lent, environ 500 KiB/s. C'est normal ?
A ce rythme ça va prendre longtemps de remplir mes 1,6 To !

J'ai vu dans les commentaires de l'article sur Duplicati, qui parlait de 64 Mo/s, ça laisse rêveur...
votre avatar
Avec Duplicati je sature mon upload a 1 Gbits/s sur une connexion fibre, mais c’était dans la nuit peut être qu'il y a des ralentissement en journée
Ou bien c'est du coté de ton CPU ou le chiffrage est trop lent et donc la quantité de donnée à uploader est limitée
votre avatar
avec mon NAS anémique, je tournais en effet entre 1 et 2Mo/s (ou Mio/s, je ne sais plus trop :stress:)
c'était pas la connexion ni Moji le souci, mais bien le processeur/mémoire du Syno
ça m'a rappelé le temps de l'ADSL ou une grosse mise à jour de jeu pouvait prendre 1 ou 2j
votre avatar
Mon PC n'est pas un foudre de guerre, mais bien au dessus d'un NAS anémique (c'est un Intel NUC8 i3). J'ai essayé de transférer un gros fichier avec WinSCP, pour tester un transfert tout bête, c'est la même : plafond à 600 KiB/s grand max.

Ce n'est clairement pas ma connexion qui limite, je viens de tester ma vitesse d'upload est à 170 Mb/s

On est pas tous égaux ? Ou j'ai merdé une configuration quelque part !?
votre avatar
L’infra chez nous se comporte pareil pour tout le monde, et à 4Mbps le problème est ailleurs.
Le test de la vitesse d’upload ne veut pas dire que tu as 170 Mbps vers tout Internet, ça va aussi dépendre de la qualité des intercos de ton opérateur (et de sa route vers nous), mais pour 170 Mbps bon, ça nous ramènerait 10 ans en arrière si c’était ça. Essaye d’envoyer ce même fichier sur gofile.io pour voir ?
Ca peut être ton cpu, ton disque, ou le tuning d’envoi de ton client (le nombre de sessions joue beaucoup).
votre avatar
J'ai uploadé un fichier de 50 MB sur gofile.io (même taille que mes volumes sur Duplicati), ça arrive en 3 secondes, soit 16,3 MB/s.

Et sur Duplicati je n'ai rien tuné, c'est l'install par défaut, sans aucune option ajoutée.
votre avatar
Je viens de tester d'uploader un fichier de 2Go avec un S3 explorer et j'etais entre 28 et 30 Mo/s
votre avatar
8 Mo/s avec S3 Explorer. On dirait que j'ai bien un goulet d'étranglement, processeur ou autre avec mon contexte Duplicati. A creuser. Merci pour vos retours (et merci encore à Next pour le stockage :)
votre avatar
Merci beaucoup pour cette initiative. :merci:
votre avatar
Et hop sauvegarde de mon syno en place ! Et la vitesse ca bien en plus :)
MErci !
votre avatar
Donc si je comprends bien vous avez changé les règles en cours de route ?
Lors de la première annonce, en décembre je crois, je me suis abonné car j'avais un compte gratuit depuis pas mal d'années et j'y ai eu accès (mais pas eu le temps de l'utiliser).

J'ai mal noté la clé, et lors de la parution de cet article j'ai voulu refaire une clé (puisque c'était vide), et là d'un seul coup c'est devenu interdit pour mon compte ???

Ce serait bien que quelqu'un de l'équipe me réponde, que j'arrête de perdre du temps sur ça si vous avez changé les règles entre temps et que je sache déjà si j'ai changé mon abonnement gratuit en abonnement payant pour rien :sm:
votre avatar
Comme on l’a expliqué dans les commentaires lors de la première phase de la bêta les comptes à tarif réduits étaient éligibles, tu as pu activer ton accès.
Comme tu as reset ton espace après l’ajustement de cette règle tu as perdu la capacité à activer l’espace - tu l’aurais conservé pour un an sans cela.
Tu préfères qu’on réactive ton accès une dernière fois ou un remboursement ?
votre avatar
Non, réactiver mon accès. Merci, j'avais zappé ce détail à l'époque, ou alors ce n'était pas clair. Mais bon, ça va me permettre de tester...
votre avatar
A priori tu devrais pouvoir reclaim ton S3 à partir de mercredi.
votre avatar
Salut,

comme j'ai un peu galéré à trouver la bonne configuration s3cmd

voici ma configuration (fichier ${HOME}/.s3cfg)

[default]
access_key = CENSORED
secret_key = CENSORED
gpg_passphrase = CENSORED

host_base = s3.fr1.next.ink
host_bucket = s3.fr1.next.ink
use_https = True
bucket_location = fr1
website_endpoint = https://s3.fr1.next.ink/
encoding = UTF-8
encrypt = True
gpg_command = /usr/sbin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s

pour tester:
$ s3cmd ls
2026-02-07 21:27 s3://lisez-next

$ s3cmd put /tmp/test.txt s3://lisez-next
upload: '/tmp/test.txt' -> 's3://lisez-next/test.txt' [1 of 1]
7 of 7 100% in 0s 21.16 B/s done



Il y a une très bonne documentation içi: Gérer vos buckets S3 avec s3cmd
votre avatar
je suis pas du tout expert s3, la config a sûrement besoin d'être améliorée (içi les recommandations aws)

j'ai un soucis pour l'upload de gros fichier, gpg crée d'abord une copie du fichier dans /tmp, ca peut facilement le saturer et c'est long car pas multithreadé. ya sûrement moyen de faire mieux en hookant le script de chiffrement gpg_command

si quelqu'un a des conseils :)
votre avatar
C'est normal d'avoir une erreur :
"échec de la création de l'utilisateur de stockage. Veuillez réessayer plus tard."
votre avatar
Normalement on a dû t'envoyer un mail à ce sujet, n'hésite pas à vérifier ton dossier spam :)
votre avatar
rien recu (y comprit dans les spams). Par contre, je me suis rendu compte que mon mail n'etait pas validé, ce que je viens de corrigé.
votre avatar
:love:
votre avatar
Coucou tlm,
Petit retour d’XP si ça peut aider certains pour de la synchro avec rclone.

Déjà, merci pour ce cadeau : 2,6 To à 80 € en plus de l’actu, ça fait plaisir et ça fait oublier mes déconvenues avec mon Proton Drive que je vais quitter…

Sinon, concernant le retour d’XP, j’ai commencé à utiliser le S3 depuis quelques jours avec rclone. Ça fonctionnait, mais je n’avais pas un débit d’upload terrible…
Je plafonnais de 300 à 500 KB/s, bof bof quoi.

Du coup, ce soir, j’ai cherché un peu, car j’ai vu que des gens parlaient de débits largement supérieurs en MB/s.

Finalement, j’ai mis le doigt dessus… l’IPv6.
En forçant rclone à passer par l’IPv4, boom ... les débits explosent ! Là, je suis à plus de 75 MB/s.

Je ne sais pas si c’est dû à un peering pourri entre Orange et Moji, mais en tout cas, l’upload est très limité en IPv6, ce qui est bizarre vu que je n’ai pas trop de problèmes avec d’autres services.

Voici ma conf rclone si ça peut aider certains.

[global]
transfers = 16
checkers = 32
buffer_size = 64M

[next.ink-s3]
type = s3
provider = Ceph
access_key_id = XXXXXXXXXXXXXXXX
secret_access_key = XXXXXXXXXXXXXXX
region = fr1
endpoint = https://s3.fr1.next.ink
no_check_bucket = true
acl = private
bucket_acl = private
upload_concurrency = 8
chunk_size = 8M
disable_checksum = true
force_path_style = true

[next.ink]
type = alias
remote = next.ink-s3:lisez-next


⚠ Les paramètres du type chunk_size ou buffer_size sont à ajuster en fonction des tailles des fichiers que vous uploadez.

la commande rclone

rclone -v sync /data/backup/ next.ink:backup/ \
--bind 0.0.0.0 \
--s3-disable-http2


le --bind 0.0.0.0 force l'ipv4
le --s3-disable-http2 améliore encore un peu la vitesse
peut-être liée à la façon dont travaille le load-balancer côté Moji.

⚠ ma conf d’exemple ne donne pas la partie chiffrement de rclone (type = crypt), car mes données sont déjà chiffrées. Ne prenez pas la conf telle quelle si vos données à synchroniser ne le sont pas déjà.


Du coup, je suis encore plus content ce soir du cadeau fait par nos amis :chinois:

1 To (et plus) de stockage S3 dans votre abonnement Next : c’est parti !

  • Stockage Next : comment ça marche ?

  • « Quand je rentre je lis Next. Avec toi ?  »

  • Ready to rumble

Fermer