votre avatar Abonné

fdorin

est avec nous depuis le 26 mai 2017 ❤️

2770 commentaires

Le 06/10/2023 à 09h 08

Le gros problème de leur outil postmaster, c’est que si tu n’envois pas au minimum une bonne centaine de mail par jour (seuil innatteignable pour un serveur mail perso) , leur outils ne te donne strictement aucune info sur ton IP ou domaine. Contrairement à Microsoft qui te donne le statut de ton IP dans leur outils postmaster (c’est comme ça que j’ai vu que ma nouvelle adresse était blacklisté en interne chez eux).

arf :/ c’est bon à savoir… Merci pour l’info :yaisse:

Le 06/10/2023 à 08h 52

Le souci est qu’il existe tellement de liste noire. Quand j’ai eu le souci pour mon domaine, l’IP de mon VPS était blacklistée sur une seule petite liste noire, non détecté par un outil comme mxtoolbox car non vérifié, mais idem, Microsoft m’a donné un lien avec la liste des listes noires utilisées, et j’ai pu constater la présence de l’IP sur une de ces listes.



Donc une liste sur quasiment 100 suffit à te pourrir l’envoi de mail. J’ai fais le nécessaire auprès de la liste pour retirer l’adresse et je n’ai plus jamais eu de souci.



Pour Google, je suis tombé sur leur outil Postmaster. Du coup, je vais le tester.

Le 06/10/2023 à 08h 34

Comme dit cyp, c’est pas aussi simple. J’ai eu serveur chez OneProvider (IP sur aucune liste noire) pendant des années sur lequel tournait un serveur mail, configuré comme il faut. 100% de mes mails finissaient dans les spam chez gmail et j’ai tout essayé pour solutionner ce problème mais rien n’y a fait. Yahoo et Hotmail acceptaient 100% de mes mails.
Il y a quelque mois je suis passé chez OVH et j’ai rapatrié mon serveur mail sur mon serveur OVH. Même config (copié/collé des fichiers de conf), même nom de domaine, seule l’IP a changé. Depuis gmail accepte 100% de mes mails.
Ma théorie c’est que Google a une liste noire interne et si tu es dans cette liste, tu finiras toujours en spam, quelque soit la configuration de ton serveur. Au final, il faut juste du bol (“bonne” IP ou “mauvaise” IP) pour ne pas finir en spam chez Gmail…

C’est bien, tu valides juste mon propos ;) Après, ce qui est délicat, c’est de savoir quelles sont les listes qui sont utilisées. Je sais que Microsoft fourni un outil pour faire des diagnostics. Je ne me souviens pas si Google fait la même chose par contre.



Non, il n’y a rien de magique là dedans. Le seul élément sur lequel on a difficilement la main (pour ainsi dire, pas du tout), c’est la réputation du domaine associé. Par exemple, si un domaine a été marqué comme SPAM par de nombreux utilisateurs, effectivement, ça risque d’être compliqué. Mais si c’est le cas, ce n’est pas fait sans raison.



La configuration d’un mail est une opération complexe, et il est souvent plus facile d’accuser le serveur qui réceptionne qu’une mauvaise configuration / défaut de configuration.



Pour l’envoi de mails, il faut tenir compte :




  • de la réputation de l’IP sur serveur qui envoie (= ne pas être blacklisté)

  • avoir un PTR (DNS inversé)

  • SPF + DKIM (en théorie non obligatoire mais de plus en plus demandé, notamment par les gros comme Google ou Microsoft)

  • que l’envoi respecte les recommandations (envoyer un mail depuis un serveur non présent dans le SPF => SPAM, envoyer un mail avec une mauvaise signature DKIM => SPAM, …)

  • que les mails envoyés soient bien formés

  • la présence d’un champ To: (l’envoi massif en CCi: sans champ To: est généralement une mauvaise idée par exemple)



D’autres caractéristiques peuvent être prises en compte, comme le taux de mail envoyés. Mais pour une petite association, je doute que cela rentre en compte.



Bref, à chaque fois que je suis intervenu sur des problèmes de mails qui arrivaient dans les spams, c’était un problème de configuration, et pas un souci d’un l’algo obscure.



Et l’envoi à un compte Gmail est quelque chose que je teste à chaque fois, tant ce fournisseur est incontournable aujourd’hui.



Mais c’est souvent Gmail qui est pointé du doigt, car il est vrai que Gmail a une des politiques les plus contraignantes que je connaisse vis-à-vis des mails. Donc quand ça marche chez les autres, mais pas chez Gmail, on accuse Gmail, bien trop souvent à tord.

Le 06/10/2023 à 06h 32

Si tout est bien configuré et que tu es malgré tout considéré comme spam, il y a fort à parier que le serveur d’envoi est blacklisté sur une liste genre spamhaus.



Car honnêtement, et pour l’avoir fait à plusieurs reprise, configuration OK et pas de blacklist, je n’ai jamais eu de souci.

Le 05/10/2023 à 08h 09

En gros, ce que tu es en train de dire, c’est que free à mis en place une sorte de portail de connexion (comme ceux qu’on peut trouver sur les Wifi public d’hotel ou autre) pour te forcer à voir leurs offres fibre ?



Après, certaines communes ont déjà coupé leur réseau ADSL. Peut-être te trouves-tu dans une commune dont le réseau va bientôt être coupé (et dans ce cas, te proposer la fibre me parait des plus pertinent) ? Mais si ce n’est pas le cas, c’est effectivement très limite.

Le 05/10/2023 à 06h 31


fofo9012 a dit:


Yep vous avez raison, en soit ce n’est pas illégal. Par contre je saisie mal le business modèle: Ce genre d’appli vis sur la collecte revente de données, et là vu la sensibilité c’est invendable en respectant la loi.


Non. Ce genre d’appli vit sur la vente d’abonnement et d’options.



Paradoxalement, ce genre d’appli doit côté doit vous garder captif le plus longtemps possible (il faut faire du fric) tout en vous gardant le moins possible (faut que ça marche, sinon, personne ne viendrait !)

Le 04/10/2023 à 06h 32

Non. Le RGPD ne rend rien illégal de fait. Le RGPD impose, entre autre :




  • d’avoir d’une base légale pour le traitement

  • d’avoir une considération particulière pour les données dites sensibles (dont l’orientation sexuelle appartient).



Ici, c’est une application de rencontre gay. Une personne qui s’y inscrit le sait pertinemment, et son inscription vaut consentement, répondant aux obligations légales permettant la collecte de l’information.



Ce que le RGPD interdit, c’est la collecte de données sensibles sans aucun rapport avec les traitements envisagés. Par exemple, une assurance n’aura pas le droit de collecter l’orientation sexuelle, sauf à ce que la personne donne explicitement son consentement.

Le 04/10/2023 à 21h 42


Tandhruil a dit:



Imaginons que je me serve d’un modèle de langage pour compresser ma musique, est ce que le fait de rajouter des milliers morceaux ne risque pas d’altérer la restitution d’un fichier compressé avant l’ajout de ces morceaux ?


Non, car tu ne vas pas mettre à jour le modèle lors de la compression.




En gros je me dis qu’il aura “appris” d’autres pattern et qu’il implémentera ces évolutions dans la restitution du fichier original en y ajoutant des artefacts.



C’est une connerie ?


Oui c’est une connerie :mdr: (mais c’est gentillet hein ;) )



L’entrainement d’un modèle et l’utilisation d’un modèle sont deux étapes bien distinctes. On peut avoir l’impression que non à cause de l’actualité, où on entend, par exemple, qu’OpenAI met à jour ChatGPT à l’aide des requêtes des utilisateurs, mais le processus derrière est complexe et surtout pas en temps réel.



Ce que fait OpenAI dans ce cas, c’est ceci :




  1. il met à jour le modèle de ChatGPT

  2. il récupère les requêtes des utilisateurs pendant une période donnée (par ex. 2 mois)

  3. il rajoute ces requêtes à son jeu d’entrainement

  4. il entraine de nouveau son modèle avec ces nouvelles données

  5. retour à l’étape 1), mais avec le nouveau modèle.



Par contre, là où les choses changes, c’est qu’aujourd’hui, les algorithmes de compression/décompression sont petits d’un point de vue implémentation (quelques ko). Avec des algorithmes à bases de modèles, on peut facilement avoir des algorithmes nécessitant plusieurs Go !



Comme on peut avoir plusieurs modèles, et des versions différents par modèles, il serait possible d’avoir des algorithmes qui ne diffère que par le modèle utilisé. S’il venait à se multiplier, on pourrait se retrouver avec des programmes de compression/décompression qui vont nécessiter de télécharger des Go et des Go de données pour pouvoir décompression un fichier de quelques Mo….



Bref, l’approche peut être intéressante pour du stockage à long terme en interne par exemple (archivage), mais je vois mal ce genre d’algorithme se populariser ailleurs que sur des ordinateurs devant la consommation d’espace et de RAM nécessaire pour les faire tourner…



Au delà de l’espace disque et mémoire nécessaire, il y a aussi le temps nécessaire. Fabrice Bellard, dans cet article, fait un comparatif du débit à la compression. Là où un gzip -9 traite 17400ko/s, les algorithmes à base de réseaux neuronaux atteignent pour la plupart… entre 1 et 3 ko/s ! (il y a un “petit” modèle qui réussi à atteindre quasiment 42ko/s)

Le 04/10/2023 à 07h 21

A noter que notre Fabrice Belard national (enfin national pour celles et ceux qui sont en France :francais:) à également travailler sur le sujet : https://bellard.org/nncp/



Il a fait des essais non pas sur des images, mais sur du texte. Les résultats sont aussi impressionnant.



L’inconvénient de ce genre d’approche, c’est que le modèle utilisé pour la compression peut être nécessaire pour la décompression. Ca va déprendre de l’algorithme utilisé !

Le 04/10/2023 à 12h 43

Simple : tu te mets en mode avion et tu regardes si ça marche ;)

Le 04/10/2023 à 08h 08

Super. Mais pour l’instant, je dois toujours avoir un problème de cache DNS : je pointe encore vers la page OVHCloud ;)

Le 03/10/2023 à 20h 54


(reply:2156556:Trit’)


Il y a peut être eu une cession du nom de domaine, et/ou un transfert vers un autre registrar. Dans ce cas, la configuration DNS peut sauter.



Et si on en crois le whois, il y a eu une mise à jour justement aujourd’hui…

Le 02/10/2023 à 17h 18


Mihashi a dit:


Et pour obtenir cette donnée anonymisée sans traiter la donnée personnelle, tu fais comment ?


Pour commencer la donnée traitée n’est pas une donnée personnelle, mais une donnée potentiellement personnelle. Dès la capture des sons, un procédé est mis en place d’un point de vue matériel (via le firmware) afin de garantir, dans l’éventualité où il y aurait une donnée personnelle, qu’elle ne soit plus personnel via un processus d’anonymisation.



Maintenant, c’est mon avis et mon interprétation ne compte pas. Par contre, celle de la CNIL, oui. Dans la délibération, elle précise notamment :




Il ressort des caractéristiques matérielles du dispositif développé par la société USS SENSIVIC, tel que paramétré au moment du contrôle pris isolément, que la société ne met pas en œuvre de traitement de données à caractère personnel.


Donc non, la capture d’un son et son traitement matériel (et je pense que la présence du mot matériel dans la décision de la CNIL est très importante) immédiat afin de l’anonymiser si nécessaire ne constitue pas un traitement à caractère personnel. Et quand on regarde les caractéristiques du traitement, avec des sons découpés par intervalle de 64ms, et traité indépendamment les uns des autres, je vois effectivement mal comment il serait possible de reconstituer une conversation par exemple.



Et dans un sens, heureusement. Sinon, même les sismographes seraient considérés comme réalisant des traitements de données à caractère personnel !



Dans sa décision, la CNIL précise bien ce qui relève de données à caractères personnels:




Pour autant, il doit être considéré que le couplage des données sonores et visuelles constitue
un traitement de données à caractère personnel, en ce qu’il est susceptible de permettre la
réidentification d’une personne physique.


Et c’est tout à fait logique, puisque la donnée visuelle est en elle-même identifiante. Lui rajouter une donnée ne change pas son caractère identifiant.



Pour en revenir sur le fond de mon premier commentaire, les situations de Saint-Etienne et d’Orléans sont donc très différentes sur le fond, car dans le premier cas, les sons ne sont pas anonymisés avant traitement et ont donc potentiellement un caractère personnel, tandis que ce n’est pas le cas dans le second.



[edit]
Voici la délibération de la CNIL, sur le site de LQDN.

Le 02/10/2023 à 08h 33


(quote:2156188:consommateurnumérique)
Tu énonces les arguments de l’industrie de la surveillance (cf. la partie de l’article «La novlangue de la mairie d’Orléans»).


Désolé, mais non. Faire remarquer que les deux cas ne sont pas les mêmes ce n’est pas reprendre sans réfléchir les arguments de l’industrie de la surveillance. D’un côté, les données sont brutes, et de l’autre anonymisé/pseudonymisé (je le rajoute pour te faire plaisir ;) ). Ce qui n’est drastiquement pas du tout la même chose.




D’abord, l’anonymisation n’est jamais vraiment assurée en matière de collectes de données personnelles.


Bien sur que si, l’anonymisation existe. Elle est délicate à mettre en oeuvre, beaucoup font de la pseudonymisation en pensant faire de l’anonymisation, mais cela n’empêche pas l’anonymisation d’être une réalité tangible.



Maintenant, l’anonymisation de données sonores, j’avoue ne pas y connaitre grand chose. Surtout que nous ne connaissons pas le procédé qui est employé, difficile donc de juger de son efficacité.



Quoi qu’il en soit, si je déplore que le résultat de l’analyse par un laboratoire indépendant ne soit pas librement accessible, ni même le nom du laboratoire, tu peux le demander par mail.



Je note également que l’entreprise ne sait pas contenté de faire un truc sur l’honneur (comme on voit beaucoup) mais est passé par un laboratoire indépendant.



Nous manquons d’information pour pouvoir se faire une idée précise. Mais je pense que la CNIL, elle, a eu toutes les informations nécessaires pour pouvoir répondre à la plainte.



Maintenant, je ne reproche ni n’approuve la position de la CNIL (je n’ai pas les éléments nécessaires pour me faire une idée précise), je reproche la position de LQDN, qui me semble bien approximative et relever plus du dogmatisme qu’une réelle analyse profonde du fait de “comparaisons de choux et de carottes”.




Enfin, quand bien même l’anonymisation serait optimale, le traitement d’une donnée personnelle reste le traitement d’une donnée personnelle.


Non, une donnée anonymisée n’est plus une donnée personnelle.




En l’occurrence, il s’agit in fine de comparer un son avec une base de modèles (comme dans l’affaire de St Etienne).


Ben non, justement. Les deux affaires, bien que semblable en apparence, sont en réalité très différentes sur le fond.

Le 02/10/2023 à 07h 04

Concernant le cas de Saint-Etienne, dommage que l’article ne cite pas ce journal de qualité ;)




LQDN qualifie néanmoins la réponse de la CNIL de « décevante ». D’une part parce que « la CNIL a mis presque trois ans à instruire ce dossier et à prendre une décision, alors qu’il ne s’agissait que de l’application stricte d’une décision déjà prise dans le passé à Saint-Étienne ».


Plusieurs choses :



Tout d’abord, non, ce n’est pas la même chose qu’à Saint-Etienne. A Saint-Etienne, les sons étaient, semble-t-il, transmis tels quels. Dont les voix => données personnelles. Ici, ce n’est pas le cas, puisque les sons sont anonymisés par le dispositif de capture de son lui-même.



La durée de la procédure, bien que dommageable j’en conviens parfaitement, peut aussi s’expliquer sur le besoin de recul pour évaluer l’anonymisation des sons mis en oeuvre.



De plus, si les sons sont anonymisés, le RGPD ne s’applique pas. A lire la réponse de la Quadrature du Net, on a l’impression que même un relevé de l’intensité sonore serait une atteinte à la vie privée :eeek2:

Le 29/09/2023 à 19h 15

Bon après faut pas non plus oublier l’optimisation fiscale hein :D. En France toute bonne boîte avec un “bon” expert comptable va faire en sorte d’avoir un bénéfice proche de zéro pour ne pas verser les primes et impôt sur les bénéfices



S’ils n’ont pas coopéré, c’est qu’ils s’en foutaient

Certes. Mais là, on n’est pas non plus dans une entreprise du numérique. Des charges dans le fret, il y en a beaucoup, et elles sont beaucoup plus “localisées” ;)



Même sans optimisation, on peut avoir un CA important et un bénéfice faible (voire même des pertes)

Le 29/09/2023 à 18h 21

D’après société.com, SAF Logistics compte entre 20 et 49 salariés. Entre 5000 et 10000 € / salarié pour un formulaire, chacun son avis si c’est chèrement payé ou non.



Pour 2019 , le CA s’élève à 26,4 millions d’€ pour un résultat net de 110 000 €.



Donc si on compare par rapport aux bénéfices, quasiment 2 fois le bénéfice de 2019, ça commence quand même à piquer un peu.

Le 28/09/2023 à 06h 23


xlp a dit:


Alors je ne vais pas chicanner sur les détails, ma “Bible PC programmation système” (si ça te dit quelque chose, un petit bouquin de 1000+ page sur… tout ça, entre autre DPMI) est à plus de 10 000km :D


Le livre que je rêvais d’avoir quand j’étais jeune :eeek2: Je me demande si je ne vais pas essayer de me trouver un exemplaire. Rien que pour le côté historique de la chose !




De mémoire personne n’utilisait le mode protégé sur 286 car impossible d’en sortir (même si la rumeur dit qu’il y avait un hack, l’explication que j’ai lu était “les ingé de chez Intel ne voyaient pas pourquoi on voudrait sortir du mode protégé”… ils n’avaient sûrement pas tort, je ne crois pas qu’on se soucie trop de sortir du mode protégé ces derniers temps… genre ces 20 dernières années :D)


Yes, effectivement. Impossible de sortir du mode protégé. C’est pour ça qu’il ne faut pas laisser faire les ingénieurs sans avoir de retour utilisateur :mad2: Vive l’agilité :francais: (je sais, c’est très contemporain comme vision ^^)

Le 28/09/2023 à 06h 19


Westvleteren a dit:


Je ne souviens pas que le MS-DOS gérait le mode protégé avec un 286.


A ma connaissance, il ne l’utilisait pas en interne, mais proposait une interface DPMI pour permettre aux programmes de l’utiliser facilement.




Et puis, dans mon souvenir un 286 pouvait entrer en mode protégé mais pas en sortir. C’était complet avec le 386.


Dans mon souvenir aussi ;)




Pour moi le bullshit, c’est un noyau qui ne se protège pas, qui n’offre aucune garantie d’intégrité, ou chaque programme individuel menace tout l’ensemble.


C’est une vision très contemporaine. Un noyau, aujourd’hui, devrait effectivement protéger les accès mémoire dans la mesure du possible (hardwarement parlant).



Ne pas oublier que le DOS était prévu pour du “monoprocessus”. Les contraintes d’intégrité mémoire ne sont pas du tout les mêmes qu’en multiprocessus.



Le DOS fournissait une abstraction matériel (certes basique par rapport à ce qui se fait aujourd’hui) mais la on parle des années 90 alors qu’on est en 2023 ! C’est une autre ère quand on parle informatique ! Les ports série et parallèle régnaient en maître, l’USB n’existait pas, les claviers et souris étaient souvent en PS/2 pour une interface en ligne de commande, sans connexion internet pour, au final, être monoprocessus. Sans oublier les lecteurs de disquette qui étaient plus souvent présent que le lecteur CD-ROM :)




Ensuite, le i386 date de 1986, je considère que tous les CPU actuels implémentent les protections nécessaires à un noyau et que ce débat n’aurait plus lieu d’être 37 ans plus tard.


Yes, mais je répondais initialement à un commentaire sur le DOS :)




Mais il est vrai que j’ignore les contraintes et solutions de l’embarqué, où tu sembles indiquer que l’intégrité du noyau passe derrière d’autres considérations. Cet arbitrage peut être optimum, mais celui qui l’a fait ne peut plus prévaloir sa solution de noyau.


Encore une fois, et ce n’est que mon avis, je trouve cela réducteur. Tout système n’est pas fait pour être “bidouillable” (dans le sens, personnalisable avec les programmes de l’utilisateur). Les protections mémoires sont super dès lors que l’on ne maitrise pas tout l’environnement notamment pour limiter l’impact de programmes “malveillants” (qu’ils soient malveillants intentionnellement ou simplement car codé avec les pieds). Lorsque le système est parfaitement contrôlé (souvent le cas de l’embarqué), je n’irai pas jusqu’à dire que les protections mémoires ne servent à rien (puisque cela protège la correction d’un processus par un autre qui aurait un bogue par exemple) mais c’est beaucoup moins utile.



Mais je te rejoins sur un point, en ce qui concerne les ordinateurs, smartphone, etc… : impensable aujourd’hui de ne pas avoir la possibilité de mettre des gardes fou d’ordre matériel sur la mémoire.

Le 27/09/2023 à 19h 35


xlp a dit:


Je doute que MS-DOS ait supporté le mode protégé (typiquement on utilisait les dos extender type dos4gw).


Alors soyons précis jusqu’au bout ;)



DOS pouvait fournir le DPMI. Les DOS extender (comme dos4gw) pouvait ensuite l’exploiter pour fournir des fonctionnalités avancées (plus de mémoire accessible, mode protégé, etc.).



Après, là où c’est parfois ambigu, c’est qu’il me semble (attention, c’est de mémoire donc je peux me tromper) que certains DOS extender venaient avec leur propre DPMI, pour pouvoir malgré tout se lancer si le DPMI du DOS n’était pas disponible mais que l’architecture matérielle était compatible (286 minimum).



Mais là, on rentre dans les détails vraiment très pointu, et je me rends compte que j’étais vraiment un geek à l’époque :francais:

Le 27/09/2023 à 19h 17


xlp a dit:


Pas nécessairement le timer, par exemple le clavier… Le drivers eux-même étaient des TSR (ie programmes qui ne s’arrêtent pas), par exemple pour fournir un accès à mettons un CD-ROM. Le TSR pouvait aussi fournir des services, et éventuellement ne faire qu’attendre une requête. Possible d’implémenter par exemple un FS en interceptent l’int 21.


Oui, le timer n’était qu’un exemple parce que j’avais en tête des tâches périodiques (plus précisément, lecture de son !). Et merci pour TSR. Je ne retrouvais pas l’acronyme :) C’est que ça commence à dater tout ça !

Le 27/09/2023 à 17h 05


Westvleteren a dit:


Il n’y a pas de noyau dans MS-DOS. Il n’y a qu’une seule zone mémoire, utilisée tant par le DOS lui-même, que les drivers et les programmes.


Oui et non. Vrai pour les premières versions de MS-DOS, fausses pour les dernières qui pouvaient gérer le mode protégé sur les systèmes 286 et supérieur.




Une écriture sur un mauvais adressage d’un seul programme ou driver pouvait planter tout le système. Dans les systèmes avec noyau, ce genre d’erreur ne plante que le programme. Pour les drivers, ensuite, il y en a dans le noyau (qui peuvent tout planter), et dans l’espace utilisateur (plantages plus limités), il y a même des mix.


C’est une définition que l’on retrouve souvent. Pour moi, c’est juste du bullshit. Tous les systèmes n’ont pas de mécanisme de protection de la mémoire. C’était le cas de l’architecture 8086. Sur ces systèmes, d’après ta définition, il ne peut y avoir de noyau, puisqu’il n’y a aucun moyen de protéger la mémoire. Les mécanismes de protection sont apparus avec le 286 et le mode protégé.



Aujourd’hui encore, il existe encore de nombre systèmes sans protection mémoire, notamment dans l’embarqué.



Et donc Linux, pourtant considéré par tout le monde comme un noyau, n’en est en fait pas un sur certaine architecture. C’est ce qui fait que cette définition ne me parait pas pertinente.



Le noyau est là pour fournir une base d’abstraction et de service. Ce que faisait le DOS de manière très basique (mais cela correspondait parfaitement au besoin de l’époque).

Le 27/09/2023 à 16h 54


Carpette a dit:


En quoi le DOS gérait la mémoire ? J’avais comme notion que chaque programme faisait ce qu’il veut pas (16 bits, pas de pagination, pas de MMU etc.)


En théorie oui, car le DOS était monotache. Par contre, il était possible d’avoir un programme en tâche de fond en le “branchant” sur le timer. Et donc, pour éviter tout souci de conflit mémoire, il vallait mieux demander au DOS des allocations mémoires plutôt que de prendre la mémoire où on en avait envie.




D’ailleurs j’ai souvent lu que DOS était plus un système de fichiers avec des abstractions très basiques (mode d’affichage, écran, souris) qu’un OS en tant que tel


Après, il ne faut pas oublier que DOS = Disk Operating System. Son but premier était donc bien la gestion des disques ;)

Le 27/09/2023 à 13h 52

Le doute s’installe en moi…
Effectivement, ici ou , on parle de noyau DOS. Attendons d’autres avis plus éclairés !

Le DOS est effectivement un noyau. Il fournissait des services basiques (via l’interruption 21h pour ceux qui connaissent l’assembleur !) par rapport à un système d’exploitation d’aujourd’hui, mais il était bien en charge d’une partie de l’abstraction matériel :




  • accès au fichier

  • gestion de la mémoire



On pouvait ensuite charger des drivers pour tout ce qui était lecteur CD par exemple. Les drivers venaient enrichir les services disponibles via interruptions (soit en fournissant de nouvelles interruptions, soit en venant rajouter des fonctionnalités à des interruptions déjà existantes).



A noter que certaines couches d’abstraction était fournies par le BIOS lui-même (int 10h pour la gestion graphique par exemple) et non par le système d’exploitation en lui-même.



COMMAND.COM n’était que l’interpréteur de commande (l’équivalent de sh/bash/zsh/tout autre shell).



[edit]
Pour terminer, le rôle du système d’exploitation n’était pas, à l’époque, de fournir l’abstraction complète du matériel. Par exemple, dans les jeux vidéos, c’était bien souvent le jeu lui-même qui devait supporter les différentes cartes son !

Le 27/09/2023 à 13h 40

En fait, il faut parler de projet GNU plutôt que de système d’exploitation.

Exactement (quoi que les plus chipoteurs diront que le projet en lui-même a réellement commencé en janvier 1984 :D)

Le 27/09/2023 à 12h 11


Le système d’exploitation GNU fête en ce moment ses 40 ans.


Non non non et non, je ne peux pas laisser passer ça :non: (même si d’autres l’ont déjà plus ou moins fait).



Le système d’exploitation GNU n’a pas 40 ans. Ce que l’on célèbre, c’est le message de Stallman dans les forums Usenet annonçant son projet de créer un système compatible Unix qui ne soit pas unix (GNU = Gnu is not Unix). Mais ce n’était qu’un projet qui n’avait pas encore démarré.



Donc, c’est le lancement du projet, pas le système d’exploitation en lui-même. Système d’exploitation que les plus mauvaises langues diront qu’il n’a jamais existé, faute de viabilité, aujourd’hui encore, de Hurd.



Ce n’est qu’en 1992 que l’on pourra parler de système d’exploitation grâce à la symbiose GNU/Linux (mais GNU n’est pas un système d’exploitation en lui-même, tout comme Linux n’en est pas un !).



Voilà, c’était pour être précis jusqu’au bout :cap:

Le 27/09/2023 à 09h 10

L’Europe n’avait justement pas interdit l’utilisation de la “videosurveillance algorithmique” ? Il me semble que la France s’asseyait déjà allègrement sur cette décision pour les JO…



Après je peux me tromper, car je n’ai pas suivi ce dossier avec attention, je l’admet :D

Le 26/09/2023 à 09h 15

Bon courage et bonne continuation. Merci pour tout :)

Le 26/09/2023 à 06h 47

Bienvenue et un grand merci à toi de sauver “notre” journal :pciwin:




Entre amis, c’est-à-dire toute la rédaction, tous les anciens, et vous, toutes les lectrices et tous les lecteurs, premium ou non, qui souhaiteriez vous joindre à nous, quelque part vers Paris.


Non alors là, je m’insurge (gentillement hein ;) ) Ca fait des années qu’une rencontre privilégiée est prévue entre l’équipe et les “gros contributeurs” (= atteint un certain pallier dans les financements participatifs). Je comprend très bien avec la COVID et la dernière fois, pas de bol, la grève de la SNCF, mais là, c’est ouvert à tout le monde ! J’espère que vous allez filtrer les réservations, je n’ai pas trop envie d’y voir le “trolleur fou” qui avait l’habitude d’être modéré sur les billets de Teuf ces derniers temps ;)




Sans vouloir trop divulgâcher la suite, je peux déjà vous dire que l’équilibre financier étant garanti sur le long terme, le centre de notre sujet aujourd’hui, c’est le fond.


Je lis entre les lignes, donc je peux me tromper. Mais vu la situation catastrophique décrite par Teuf il y a encore quelques semaines, et celle que tu nous décris maintenant, je ne vois qu’une solution pour que l’équilibre financier soit garanti sur le long terme en un laps de temps si court : tu t’es engagé à renflouer les caisses sur une période plus ou moins longue. Les mots ne seront pas suffisant pour t’exprimer ma gratitude. Un grand merci à toi donc :chinois:

Le 25/09/2023 à 07h 04

Allez, encore quelques années de procédure, avec une réduction supplémentaire et avec l’inflation, le montant de l’amende correspondra à 2 mallabars et 1 mars :francais:

Le 23/09/2023 à 17h 53

Ils sont tellement inventifs que tu peux demander à 3 commerciaux Oracle un “devis”, tu auras 3 résultats différents. Leur licensing est tellement compliqué que même eux ne savent pas comment faire pour les respecter, si ce n’est faire cracher un gros chèque :transpi:

Le 23/09/2023 à 15h 18

J’avais plus en tête la manière dont les licences de la BD Oracle sont gérées.



Exemple : si tu utilises la virtualisation et que tu as une machine virtuelle avec un coeur s’exécutant sur un processeur 64 coeurs, tu avais besoin de licencier les 64 coeurs.



Donc toutes les entreprises qui avaient plusieurs “petits” serveurs et qui ont décidé de tout mettre sur un gros serveur servant d’hyperviseur on eut très très mal.

Le 19/09/2023 à 05h 43


ericse a dit:


Cette promesse ne vaut rien, en tout cas pas plus que les précédentes promesses, en particulier celle de 2019 de ne plus jamais modifier les conditions d’utilisations rétro-activement :


Comme on dit, les promesses n’engagent que ceux qui y croient. Pour l’instant, le système n’est pas en place, donc difficile de savoir.



La seule chose sure, c’est que l’article annonce comme une certitude que les réinstallations seront comptées, alors qu’Unity affiche clairement une volonté contraire. A ce titre, et même en tenant compte de la communication plutôt hasardeuse de la part de Unity, l’article est erronée.

Le 18/09/2023 à 19h 24

Aucune idée. Et tant que la solution technique pour résoudre ce problème ne sera pas connu, il est impossible de répondre à cette question.

Le 18/09/2023 à 17h 07


oliv5 a dit:



Bref, les devs vont recevoir des factures dont le montant n’est pas anticipable. Aucun business ne peut fonctionner correctement dans ces conditions.


[Troll on]
Oracle a bien réussi pendant des années avec ce business modèle :francais:
[Troll off]



Sinon, entièrement d’accord avec toi. Le manque de visibilité sur les coûts est un réel problème pour les dev.

Le 18/09/2023 à 17h 05

C’est pour ça que je parlais de nouveaux jeux.



Par ce que là c’est 0,125€ minimum, mais rien ne les empêche de dire que demain ce sera 1€.
Ce n’est pas pour rien que la confiance ça vaut cher en économie.



De plus je crois qu’Unity est pas mal utilisé pour du mobile en free to play, et là les installations payantes c’est plus ennuyant. (Among us par exemple est free to play).



A moitié




Do installs of the same game by the same user across multiple devices count as different installs?
We treat different devices as different installs. We don’t want to track identity across different devices.


Si un utilisateur change de téléphone il faut payer.



Mettre des frais à l’installation n’a pas de sens dans le modèle économique d’Unity vu que le free to play existe

La remarque était sur la réinstallation qui était comptée comme une nouvelle installation, non sur l’installation sur de multiple ordinateurs/smartphone ;)



A ce titre, l’article est erroné puisqu’il annonce clairement le contraire ;)

Le 18/09/2023 à 16h 01


Mais on connait au moins déjà une limitation : la réinstallation d’un jeu comptera tout autant que la première.


Non. La réinstallation ne comptera pas, cf la FAQ du changement tarifaire.




Does a reinstall of an app on the same device count towards the Unity Runtime Fee?
No, we are not going to charge a fee for reinstalls.


Le 21/09/2023 à 16h 56


Carpette a dit:


Un pilote qui marche à travers la version de windows ça peut arriver mais c’est plus de l’ordre de l’exception que de la normale en plus d’être rarement supporté.


C’est plutôt le contraire. C’est souvent supporté. Ce n’est pas pour rien qu’on pouvait encore utiliser des drivers pour XP sous Seven par exemple.



Maintenant, cela n’empêche pas Microsoft de mettre à jour les caractéristiques pour certains types de pilote. Si la portabilité se retrouvait assez aisément avec des pilotes de périphériques plug&play (souris, clavier, imprimante, etc.), des cartes d’acquisitions, etc… pour d’autre comme des cartes graphiques qui sont très liées au système, c’était très différent.



Les vieux drivers ne sont plus utilisables aujourd’hui car




  1. ils sont rarement en 64 bits (qui est devenu la norme aujourd”hui)

  2. ne sont pas signés (ce qui est aussi devenu un prérequis aujourd’hui

Le 21/09/2023 à 06h 36

Du coup, est-ce que synology va revoir sa politique de gestion de mise à jour du noyau au sein de ses NAS ?



J’avoue que je ne serais pas contre. J’envisage d’utiliser Wireguard sur mon NAS, mais pour l’instant, je ne peux pas sans grosse bidouille à cause de ça :mdr:

Le 19/09/2023 à 12h 05

Ce qui est rigolo, c’est que la liberté d’expression, c’est vraiment quand ça l’arrange. Lorsqu’il s’agissait du compte Twitter d’elonjet, il était bien content que le compte soit suspendu !



Donc quand il qualifie des demandes / restrictions de fachistes…

Le 18/09/2023 à 14h 56


OB a dit:



Globalement, pour moi, à partir du moment où effectivement tu sorts des chemins balisés par le FAI, you are on your own . Mais ca veux pas dire qu’il faut que ce soit rendu impossible par ledit FAI


Rien ne dit que c’est “rendu impossible” par le FAI. Il y a quand même une différence majeure entre une volonté affichée et ne pas avoir pensé à un cas d’utilisation. Les abonnements 4G sont fait pour la mobilité, pas pour des serveurs. Une connexion entrante n’a pas de sens pour l’usage qui en est prévue.



Si on l’utilise pour autre chose, c’est à nos risques et péril.





Pour moi ça relève de l’inversion de responsabilité qu’on constate souvent dans la société en général


Moi j’y vois plutôt une vision de plus en plus manichéenne de la société. Si c’est pas ça, alors c’est ça. Et ici, c’est si ce n’est pas possible, c’est que le FAI a tout fait pour ne pas le permettre, sans tenir compte d’une éventuelle impossibilité technique, coût ou tout simplement cas d’usage non envisagé.




Après si i y a des impossibilités techniques elles sont respectable mais il faut les énoncer clairement. Le manque d’IPv4 en est un exemple parlant. Les FAI sont par contre pas obligé de se comporter comme si ils s’adressaient exclusivement à des teubés . “Si vous fabriquez un service que même les abrutis sauront utiliser , alors seuls les abrutis voudront l’utiliser” ….


Mais que faut-il annoncer ? Les impossibilités techniques apparaissent quand on sort du cadre prévu. Comment prédire ce qui n’est pas prévisible ? “Désolé, vous ne pouvez pas utiliser un tournevis pour tourner votre ratatouille” :aie:




L’argument du DDOS me parait pas pertinent en revanche car même sans auto-hébergement tu peux te faire DDOS par des rageux (voire même par des gamins débiles qui savent pas taper une IP dans un champs texte sans se gourer, je l’ai vécu chez un FAI…)


Mais si l’attaque DDOS vient saturer l’antenne, c’est toute une zone qui se retrouve affectée, pas uniquement la victime.

Le 18/09/2023 à 09h 34


Tandhruil a dit:


Sur les jeux multijoueurs sur playstation comme les Call Of Duty il faut ouvrir l’UPNP de ton accès en UDP (YOLO)


:eeek: :vomi1:



(c’est pas contre toi hein, c’est contre cette pratique qui me semble être une connerie sans nom d’un point de vue de la sécurité des réseaux, surtout aujourd’hui)



Merci pour ton exemple en tout cas !

Le 18/09/2023 à 09h 19


mayuraviva a dit:


On ne tombera pas d’accord sur le fait que ça n’est pas neutre, mais c’est pas grave ;) Je comprends qu’on puisse avoir une opinion différente à ce sujet.


Je crois qu’on est d’accord sur notre désaccord :)




Ça fonctionne mais j’aurais apprécié que les FAI ne mettent pas des bâtons dans les roues en bloquant volontairement les connexions entrantes.


La dessus, je ne suis pas d’accord. Rien ne te permet de dire que c’est volontaire de leur part. Ils ont fait un choix d’infrastructure qui ne permet pas (ou en tout cas, pas facilement) de mettre en place des connexions entrantes. Le choix de l’infrastructure a plus été guidé par des considérations pécuniaires à mon humble avis ;)




ça existe mais seulement les entreprises peuvent y souscrire.


Attention à ne pas tomber dans le piège du marketing : de nombreuses offrent labelisées “Pro” peuvent être souscrite par des particuliers, et des offres non pro souscrite par des entreprises. Il faut regarder les conditions générales de vente, mais bien souvent, ce n’est que du marketing.



Le pro/pas pro se réfère plus souvent à un usage général qu’à des conditions d’accès. Par ex. en pro fibre, tu auras souvent des délais d’intervention de quelques heures en cas de panne, voire la mise en place du solution 4g de remplacement le temps d’intervenir si le temps d’intervention est très long et des pénalités en cas d’absence totale de service.



En “pas pro” fibre, on te dira simplement : ça marche pas. Notre technicien interviendra dans un délai de 2 semaines. En attendant, débrouillez-vous.




Pour l’instant la solution la moins chère dans une situation où il n’y a pas d’ADSL ou de fibre, c’est de prendre un forfait Free Mobile à 19,99€ (250Go/mois en 5G) et un VPN qui proposent une IPv4 fixe + un préfixe IPv6 et qui ne bloque pas le connexion entrantes (environ 5~10 €). Ce qui revient à environ 30 € par mois donc le même prix qu’un abonnement ADSL.


Attention tout de même : certains opérateurs ne permettent pas un usage data uniquement. C’était le cas de free il y a quelques années (mais je ne sais pas ce qu’il en est aujourd’hui). En bref, en cas d’usage data uniquement (pas de réception ni d’émission d’appel ou de SMS), free se réservait le droit de suspendre la ligne.



Bouygues le permet (et j’ai un abonnement dans un routeur 4G depuis des années donc je le confirme). Par contre, certains VPN ou service ne fonctionne pas (j’ai déjà eu le souci pour un VPN, je suppose en IPSec mais je n’ai pas approfondi, et un service de secrétariat téléphonique auquel j’avais prêté ma connexion lors d’une panne où, malheureusement, le service de VOIP qu’ils utilisaient ne fonctionnait pas). Mais ce n’est pas pour autant qu’il faut faire une généralité sur ce qui fonctionne / ne fonctionne pas. Sur le même abonnement Bouygues, j’ai pu faire des connexions à d’autres VPN et utiliser de la VOIP plus “classique” sans aucun problème.

Le 18/09/2023 à 08h 21


brupala a dit:


les jeux vidéo souvent et le P2P, tout ce qui est échange quoi, on ne peut pas se contenter d’un internet mode minitel, ou diffuseur de vidéos,


Je ne suis pas un grand joueur, mais je veux bien qu’on me dise en quoi les jeux vidéos vidéo ont besoin d’avoir un rôle de serveur nécessitant des connexions entrantes. A part les “LAN party” que je faisais quand j’étais plus jeune et qu’on ne faisait qu’en local faute de débit (l’ADLS commençait juste et il y avait encore beaucoup de 56k !) et qu’on pourrait faire sur directement via internet maintenant



Pour le P2P, il est tout à fait possible de le faire sans avoir de connexion entrante directe. C’est plus compliqué, je te l’accorde, mais l’usage reste tout à fait possible.



Même la téléphonie sur IP peut se passer de connexion directement entrante.

Le 18/09/2023 à 07h 51


brupala a dit:


C’est quand même un peu dommage de ne pas pouvoir profiter de la fibre à 100% avec des connexions ethernet.


Avec le Wifi6, la connexion internet redevient le goulot d’étranglement ;)

Le 18/09/2023 à 07h 47


OB a dit:



Sauf que pour moi…. tu peux pas vraiment compter comme ca : En tant que FAI, tu proposes un service, avec ses limites explicites. Les gens prennent, ou pas, selon leurs besoin, et les gens n’utilisent pas tous internet de la même façon, et même au niveau des gens les choses évoluent dans le temps , les choses ne sont pas figés.


On est d’accord. Ce que je voulais souligner, c’est que ceux qui ont “besoin” d’avoir des connexions entrantes, ça ne court vraiment pas les rues. Et juger “inadmissible” (pour reprendre le terme de mayuraviva) le fait qu’un abonnement ne permette pas ça n’a pas de sens, tout comme cela n’a pas de sens de dire qu’à cause de cela, la neutralité du net n’est pas respectée.




Pour moi regarder ce qui est fait par 99% des gens à l’instant T et , sciemment, exclure les 1% restant dont l’usage te parait inutile à toi me semble trompeur pour ces 1% , pour moi ça reviens un peu à dire que sous prétexte que 99% des gens peuvent utiliser leurs 2 jambes , on va pas se faire chier à mettre des rampes et des ascendeurs pour les 1% qui n’ont qu’à faire comme tout le monde. C’est du nivellement par le bas.


Quand le 1% ne “coute rien”, je suis d’accord, c’est du nivèlement par le bas. Mais souvent le 1% coûte.



Je suis entrepreneur et je côtoie donc pas mal d’entrepreneurs. Quand un entrepreneur fait des investissements pour se lancer, et qu’à la fin on lui dit qu’il manque une rampe d’accès pour les personnes à mobilité réduite nécessitant un investissement de plusieurs milliers d’euro, investissement correspondant grosso modo à ce qu’elle a déjà investi personnellement, on se retrouve dans une situation où la personne dit stop (vécu par une amie : après installation chez elle d’un cabanon de jardin et de toilette sèche pour l’accueil de ses clients, il fallait qu’elle débourse encore plus de 3000€ pour rendre accessible aux personnes à mobilité réduite).



Et dans ce cas là, pourquoi se limiter aux personnes à mobilité réduite ? Pourquoi pas aux malvoyants (installation de guide par exemple) ou aux malentendants ?



La question de l’inclusion est un vrai problème. Car tout le monde est pour, mais quand il s’agit de faire face à la réalité des coûts…



Et pour en revenir au sujet, il faut être honnête : la part de la population ayant besoin d’avoir des connexions entrantes chez lui (donc d’avoir un serveur) est quand même extrêmement faible. Et il existe des alternatives. Ce n’est pas comme si la 4G était le seul et unique moyen.




Alors oui, c’est comme ca dans les télécom depuis l’ADSL je vais pas le nier. Mais c’est pas pour ça que c’est “normal” (toujours selon moi)


Mettre en place des connexions entrantes, ce n’est pas forcément anodin et ne se limite pas forcément à désactiver un pare-feu et à attribuer une IP fixe “publique”. La gestion d’un réseau n’a absolument rien à voir au niveau d’un FAI avec ce que l’on peut faire chez soi. Ils ont des équipements auquel le commun des mortels n’aura jamais accès, sans compter sur les obligations légales qu’on les FAI. Ils devront se retrouver à gérer les attaques DDOS (on fait quoi quand le réseau mobile d’une antenne est saturé à cause d’une attaque sur les services autohébergés de Mme MICHU ?).



Croire que c’est facile et qu’il n’y a qu’à, c’est ne voir que la partie émergée de l’iceberg. Les réseaux ADSL et fibre ont été bâti autour de ces considérations. Le réseau mobile, je ne crois pas (il a été bâti historiquement autour des abonnements téléphoniques, pas des abonnements internet, même si aujourd’hui les abonnements internet en sont une composante majeure).

Le 17/09/2023 à 12h 41


mayuraviva a dit:


Oui je sais qu’il est toujours possible de contourner le problème en prenant un VPN (ou le tunnel sera établi à l’initiative du client) qui va fournir une IPv4 fixe et un /64 d’IPv6, mais ça reste un hack/contournement, c’est moins propre que si le FAI d’origine proposait un accès neutre.


Et encore, pas forcément. Certains opérateurs ne permettent pas certains VPN (certains protocoles sont parfois bloqués, comme l’IPSec qui agisse au niveau réseau et non au niveau applicatif du modèle OSI)




Je trouve que bloquer toutes les connexion entrantes c’est une atteinte à la neutralité du net, car c’est retirer une fonctionnalité qui est normalement présente sur un accès à Internet neutre.


Encore une fois, non. La neutralité n’est pas en question, puisque tu as accès à tous les services depuis ta connexion, et que le traffic n’est pas priorisé ou interdit. La neutralité ne serait pas respecté si tu devais payer plus cher ton abonnement fibre auprès de ton FAI pour avoir un abonnement permettant de consulter les sites de VOD par exemple.



Les FAI sont, comme leur nom l’indique, des fournisseurs d’accès à internet. A ce titre, ils permettent de se connecter à internet, comme 99% de gens le font (et je suis gentil avec le 99%). L’autohébergement, l’IP fixe ne sont absolument pas un besoin pour la grande majorité de nos concitoyens.




Sur les accès à Internet via ADSL ou fibre, il est possible de désactiver partiellement ou totalement le pare-feu de la box qui bloque les connexions entrantes. Je veux bien que pour l’IPv4 ça ne soit plus possible en raison de la pénurie (beurk le CGNAT), mais en IPv6 il n’y aucune excuse valable si ce n’est une vision minitel 2.0 des télécommunications.


Je ne sais pas si ce cas se rencontre sur l’ADSL ou fibre, mais je n’ai jamais vu un FAI empêcher la désactivation du parte-feu ou autre. Par contre, j’ai déjà vu des FAI ne pas proposer d’IPv6 !




C’est comme si on pouvait appeler ‘n’importe quel numéro avec un téléphone mais sans que personne puisse nous appeler.


Non. Car l’accès à internet de 99% des gens se fait à sens unique. Avoir un serveur à la maison, cela demande des compétences que peu ont (et même ceux qui les ont, peu en on réellement besoin).




Et aussi derrière un accès mobile il n’y a pas forcément qu’un smartphone Android ou iOS, mais il peut y avoir d’autres équipements avec le partage de connexion, ou si la carte SIM est dans un routeur.


Je le sais très bien. Et comme je le dis dans un autre commentaire, j’ai eu affaire il y a quelques mois à un technicien orange au sujet d’une double SIM dans un routeur 4G. C’était la première fois qu’il voyait ça ! (et je confirme que le routeur 4G pour une connexion internet, ça fonctionne relativement bien !).



Mais encore une fois, avoir un serveur en partage de connexion, ça n’a pas de sens. Derrière un routeur, cela pourrait encore avoir sens, mais cela représente tellement peu de cas d’usage.




Dans certaines situation comme celles décrites initialement dans l’article il n’est pas possible d’avoir un accès ADSL ou fibre, par exemple une personne vivant dans un mobile home. Ça ne me parait pas acceptable que les personnes dans cette situation se retrouvent avec un accès moins neutre que les autres. Après tout je pourrais très bien avoir l’envi d’avoir un serveur hébergé sur un PC portable dans un mobile-home.


Et bien il existe d’autres solutions. Le hertzien, le satellite. La 4G n’est pas la seule solution existante fasse à la fibre/ADSL. Et c’est possible en 4g, à condition de bien choisir son fournisseur (mais pas avec les forfaits grand public des grands opérateurs).




Ça n’est que mon avis, mais je trouve ça inacceptable de faire une différentiation à ce point d’un accès 4G/5G d’un accès ADSL ou fibre, surtout que ça n’est pas uniquement motivé par des raisons techniques mais par une vision politique des grand FAI de ce qu’est Internet: du minitel 2.0.


Comparer ainsi un abonnement 4g et un abonnement fibre n’a pas de sens. Les gens ne prennent pas un abonnement 4G pour la 4G. Il prenne un abonnement téléphonique, c’est-à-dire un numéro de téléphone, auquel est associé un abonnement 4G. Le besoin numéro 1 est donc le numéro de téléphone, et le besoin secondaire un accès internet pour nos smartphones (et la, la notion de serveur n’a pas de sens).



Maintenant, si tu veux prendre un tournevis pour planter un clou, libre à toi. Mais ne vient pas te plaindre parce que ce n’est pas pratique ;)

Le 17/09/2023 à 06h 56

Juste laisser le choix de… ça serait sympa

Certains opérateurs spécialisés le permettent. Je ne suis pas certains que les opérateurs grand public le fasse. Mais en même temps, les opérateurs grand public proposent des abonnements mobiles qui sont, comme leur nom l’indique… dédié au mobile (et on ne met pas un serveur sur un mobile, ça n’a pas de sens).



A part une entreprise qui ne serait connectée qu’en 4G et qui pourrait avoir besoin d’une IP fixe pour la mobilité de ses employées par exemple (VPN), il n’y a aucune raison pour les opérateurs “classiques” de proposer une option qui serait utilisée par 0,01% de la population.



Il y a quelques mois, j’ai eu un technicien orange pour un souci sur une 2e SIM mise dans un routeur 4G (problème de suivi de consommation data). Il n’avait JAMAIS vu cette situation (carte SIM dans un routeur). Donc déjà ça, c’est quelque chose d’atypique, alors un serveur derrière une connexion 4G, je n’ose imaginer….

Le 17/09/2023 à 06h 47


brupala a dit:


Rappelons aussi que par défaut un PC sur une connexion internet fixe change d’adresse IPV6 chaque jour (privacy), certes dans le même /64 mais c’est déjà bien. cette adresse est utilisée pour les connexions sortantes, on pourrait imaginer une adresse fixe pour les connexions entrantes, on peut avoir plein d’adresses en ipv6 sur la même interface et dans des réseaux différents,


Effectivement, en pratique, en tout cas sur PC, l’adresse IPv6 est par défaut une adresse temporaire avec une durée de validité de quelques heures. Mais cette adresse est utilisée pour toute connexion sortante. Ce n’est pas une adresse par service ou autre. Du coup, le pistage par IP, si la portée est temporellement réduite, reste toujours possible. Pour peu qu’une analyse sur la base du préfixe est possible, c’est comme si l’adresse IP n’était pas changée.



L’avantage des adresses IPv6 temporaire est de rendre totalement inefficace le scan des plages IP que l’on peut trouver en IPv4, car même si un attaquant trouvait une IPv6 utilisée (énorme coup de chance), sa durée de vie très limitée rend l’exploitation de cette découverte quasi impossible.

Le 16/09/2023 à 21h 30

Je ne suis pas d’accord avec cela, il n’y a qu’un seul Internet, faire une différence sous d’autres appellation commerciales, c’est camoufler le fait que ça n’est pas neutre. Et ça me paraît inacceptable de faire payer plus, ou réserver cette offre uniquement a des entreprises pour avoir un accès neutre. Qu’il y ait une différence de prix sur des débits et des volumes, je n’ai rien contre tant que l’accès est neutre.



En ce qui concerne la sécurité c’est de ma responsabilité de choisir de mettre un pare-feu, pas celui du FAI surtout lorsqu’il n’est même pas désactivable.
Ce que je fais avec mon accès à Internet, ne regarde pas mon FAI, si je souhaite faire de l’autohebergement ou du P2P sur mon téléphone ça ne regarde que moi. D’ailleurs rien ne m’oblige à utiliser un téléphone avec un forfait “mobile”, on peut très bien utiliser une clé 4G ou un modem, ou même utiliser son téléphone avec le partage de connexion.

Tu sembles te méprendre sur ce qu’est la neutralité du net.



La neutralité du net est l’un des principes fondateurs d’internet, dont le principe est d’exclure tout traitement visant à privilégier des flux d’information et de ne pas en prioriser certains au détriment d’autres. Par extension, on y retrouve aussi la limitation d’accès à certaine plateforme uniquement.



Ce que tu n’as pas, sur le mobile, c’est la possibilité d’établir une connexion depuis l’extérieur vers ton mobile. Mais une fois la connexion établie par le mobile, elle est belle et bien bidirectionnelle et sans flux privilégiés (sauf peut être la VOIP en cas de saturation, ce qui est loin d’être déconnant pour des terminaux qui sont à la base… des téléphones !).



Fournir une IPv4 par mobile n’est pas possible à cause de la pénurie. Une IPv6 serait possible, mais cela poserait de gros problème de confidentialité. Ne pas oublier qu’un abonnement mobile est, par définition, mobile. Fournir une IP propre à un terminal reviendrait à fournir sur un plateau un mécanisme de pistage intrinsèquement lié aux protocoles réseau et donc totalement invisible pour l’utilisateur et sans aucun moyen d’action pour empêcher le pistage.



Sans compter que le caractère mobile fait que la topologie du réseau est constamment changeante (changement d’antennes). Pour un serveur, cela serait clairement problématique.