votre avatar Abonné

Nozalys

est avec nous depuis le 15 février 2010 ❤️

2423 commentaires

Le 27/11/2024 à 15h 18

Les commentaires ici (PCI, NXI, Next), pour moi ça évoque surtout de bons souvenirs, de bonne marrade, des discussions avec des gens compétents dans des domaines pointus, de découvertes aussi. Le plaisir d'apprendre et de faire apprendre un truc aux autres, quand bien même c'est un tout petit truc.

Ça occulte largement les quelques pathétiques déboires que j'ai pu lire ici ou là.

Longue vie à ce lieu !

Le 27/11/2024 à 15h 14

Sinon, à ce sujet, ça donne quoi l'usage de @Ness_01 dans l'analyse des messages pour la modération, comme vous en parliez au poing Dev 12 ? Un petit retour d'expérience serait très intéressant :)
Ce projet est le mien, donc je vais me charger de te répondre.
Je prévoyais de faire un post plus détaillé, mais je vais essayer de synthétiser mon approche dans ce commentaire.
On fera un post à part si nécessaire.

Premièrement, un disclaimer.
Je n'ai pas de certification en Machine Learning (pour l'instant) et je me suis lancé dans ce projet par pure passion pour ce domaine que je découvre. Le développement est + / - en standby pendant que je me familiarise avec des techniques plus avancées en ML. Parallèlement, je travaille également sur d'autres projets chez moji.

La première étape a été de concevoir un plugin pour WordPress qui émet un event à chaque commentaire posté. Cet event initie une requête HTTP vers un service interne avec un payload contenant le commentaire, ses parents éventuels et le titre de l'article. Puis de coder la logique de gestion du retour du LLM pour réaliser une action (autoriser ou non la publication d'un commentaire)

Ça c'était la partie facile. On a vu cet outil comme un outil de pré modération dans un premier temps, toujours un humain dans la boucle qui valide ou non la décision.

La deuxième étape, setup un serveur d'inférence.
La plupart des gens sont maintenant familiers avec des solutions comme Ollama, setup avec lequel j'ai commencé à explorer les LLMs après que les possibilités offertes par l'API d'OpenAI m'aient révélé leurs limitations.

(Parenthèse : Aucun de vos commentaires n'est passé chez OpenAI. Je parle uniquement de mon utilisation sur d'autres intégrations à mon workflow.)

J'ai très vite été confronté à deux problèmes.

- La limitation des modèles génératifs disponibles à ce moment sur huggingface
- La génération structurée

Bien que des efforts conséquents aient été faits par la communauté open source, la différence de qualité était encore flagrante. J'ai cependant obtenu des résultats qui se défendaient très bien avec les modèles de Nous Research (big up à eux), notamment Hermès 2.

La question est : comment encoder nos valeurs éthiques dans ce modèle ? Chaque modèle est entraîné sur un corpus censé lui fournir l'ajustement des paramètres idéal pour lui faire remplir toutes les tâches basiques type Q/A, synthèse de texte, extraction d'informations, etc.
Qui plus est, les corpus choisis portent tous indirectement des biais

Mais avant de réfléchir à cela, comment traiter l'output généré par les modèles de langage (LLM) avec du code ?
PHP est loin d'être un langage naturel, et notre modèle est entraîné à produire du texte qui l'est

Je me suis fait les dents sur plusieurs solutions plus ou moins optimales.
La première, proposée sur le cookbook Haystack était lente, couteuse en ressources et peu flexible.
Le principe : demander gentiment au LLM de générer un output correspondant à un schéma json validé via Pydantic
Si le validateur retourne des erreurs, on demande à nouveau au LLM de traiter ces erreurs en lui fournissant le schéma et les erreurs détectées.
Ensuite, on espère qu'en moins de 5 à 10 boucles, le LLM arrivera à générer un output valide. Éventuellement, j'ai mis en place des regex qui pourraient extraire uniquement le JSON si un message supplémentaire était inséré.
Vous vous doutez que c'était loin d'être optimal.

Après un certain temps de pérégrination et d'expérimentations, j'ai choisi llama.cpp comme stack pour mon serveur d'inférence. C'est un projet open-source qui mérite d'être bien plus connu.

En plus d'offrir une perspective plus avancée du fonctionnement d'un modèle et du processus d'inférence, llama.cpp m'offre des possibilités de personnalisation bien plus poussées, comme par exemple la grammaire GBNF.

J'ai lu récemment cet article de blog qui explique visuellement le principe de fonctionnement pour la contrainte de l'output en créant une Finite State Machine. Cette machine implémente la regex de validation du JSON que l'on souhaite générer.

En plus de cela, llama.cpp offre un temps d'inférence bien inférieurs à ce que peut faire Ollama.

La rédaction de ce commentaire m'a déjà pris plus de temps que je n'avais prévu, et je dois aller me préparer à dîner.

Si le sujet vous intéresse, je pourrais décrire comment j'utilise ensuite FastAPI pour interagir avec llama.cpp, comment j'injecte du contexte et crée une pipeline d'agents pour décomposer la tâche de modération en étapes distinctes.

Ou bien la façon d'encoder des valeurs éthiques dans une surcouche sur le modèle fondationnel pour intégrer la charte constitutionnelle de sa communautée.

Cette étape est, in fine, la plus intéressante, à mon avis. Comment adapter ? Comment tolérer une certaine limite d'humour noir pour ne pas être contraint par le puritanisme qu'on pourrait trouver dans un modèle trop politiquement correct du fait de son statut de produit ? Comment exprimer ses valeurs en vecteurs ?


Qu'est ce qui constitute du discours toxique, jusqu'ou la liberté d'expression peut aller ?

Taxonomie d'un commentaire toxique
Ingénierie automatique de prompts

Actuellement je bloque sur la création d'un golden dataset destiné à fine tuner une surcouche (QLoRA) sur le modèle de fondation choisi.

Pour cela, j'ai besoin de finaliser une pipeline utilisant argilla pour annoter des commentaires destinés à une phase de reinforcement learning via RLHF ou RLAIF . J'aimerais également ajouter la génération de rationales qui permettront d'expliquer les décisions de modération prises par le modèle et de les ajuster au besoin.

Un grand merci pour le temps consacré à ton retour très utile !
Je survole le domaine des LLM et baigne surtout dans celui du ML/DL.

Je me pose donc une question : pourquoi ne pas faire un RAG (Retrieval-Augmented Generation) sur un LLM donné en donnant à manger tous les articles et tous les commentaires du site, ainsi qu'en lui donnant vos documents de "votre éthique" et "votre ligne éditoriale" ?
En ajoutant un prompt indiquant au LLM qu'il est un commentateur respectueux, avec de l'humour, etc, les résultats ne pourraient-ils pas être plus conforme à vos attentes ?

Le 22/11/2024 à 11h 50

Qu'est-ce qui va empêcher les utilisateurs toxiques de Twitter d'aller intoxiquer aussi les gens sur Bluesky ?
Je veux dire, la modération ça ne suffit pas, même une hypothétique équipe ultra staffée de 10 000 modérateurs ne peuvent pas modérer des centaines de millions de messages envoyés par des dizaines de millions de gens.

Alors quoi d'autre, concrètement ? Pourquoi ce réseau serait-il mieux que les autres, alors qu'un réseau social n'est rien d'autre qu'un reflet de notre société, et que c'est notre société qui est toxique, agressive, cynique.

Le 22/11/2024 à 11h 07

Parce que ce que l'article ne dit pas, c'est que le faible impact a pu être contenu grâce à la réactivité des mécanismes de re-routage automatique (on parle de GMPLS).

Mais en contrepartie, d'autres câbles sous-marins, sur lesquelles les routes alternatives ont été empreintées, eux, ont vu leur bande-passante augmenter (temporairement, jusqu'à ce que les câbles soient réparés), ce qui a d'autres impacts sur la planification à long terme de la croissance des capacités.

Le 18/10/2024 à 23h 57

Intéresssant d'apprendre que vous vous lancez dans ce genre de projet directement utile & utilisable par nous, pôvres lecteurs.

Bon, moi ça ne me servira à rien, je vis sur un territoire où l'électricité n'est disponible qu'à travers un seul et unique fournisseur, une "Société Coopérative d'Intérêt Collectif Agricole". Donc pas de mise en concurrence possible.
Cela dit, ici le prix du kWh est toujours moins cher que les décrets nationaux, je sais pas comment ils font, mais OSEF tant que c'est dans ce sens-là !

Le 03/10/2024 à 10h 49

Tu dis ça parce que l'on ne paye plus les appels vocaux à la durée puisqu'on a à peu près tous des forfaits et que l'intérêt des 0800 est devenu très faible.

Mais comme dit plus haut, le 0800 est un numéro gratuit.

On peut lire sur le site economie.gouv.fr :

Les numéros en 08 répondent à trois types de tarification :
>gratuite : c'est 100 % gratuit pour l'usager, même lorsqu'il appelle depuis un mobile. Cette tarification gratuite correspond aux indicatifs 0800 à 0805
>banalisée : le coût de la communication peut être facturé (cela dépend de votre opérateur et de votre abonnement), mais sans paiement du service lui-même. Cette tarification correspond aux indicatifs 0806 à 0809
>majorée ou surtaxée : c’est-à-dire avec un service payant, en plus du coût de communication. Cette tarification correspond aux indicatifs 081, 082, 089 et numéros à quatre chiffres de type 3xxx.

Donc, pour la plupart des gens, de 0800 à 0809, rien de plus à payer que son abonnement téléphonique.

La confusion vient du fait que des numéros de services payants ont été ajoutés dans la tranche des 08. Vu qu'il n'y a que 9 chiffres utilisables pour les tranches de numérotation, c'était difficile de faire différemment.

Pour moi, les 0800 c'était payant. Et je ne pense pas que la majorité des gens s'amuse à croiser les données pour comprendre/apprendre que les 0800-0809 sont gratuits, mais les 081/etc. sont payants...

Tous les numéros dans les pubs sont en 08xx donc le 08 est associé au payant.

Je maintiens que prendre cette base pour un service d'une telle importance est un choix stupide. Et je maintiens qu'un numéro court aurait été judicieux.

Le 01/10/2024 à 15h 23

Le choix du 0800 112 112 est franchement mauvais. Pour le commun des mortels, 0800 c'est déjà la direction de la poubelle.
Un identifiant ultra court à 2 chiffres (comme les 15, 17, 18) ou 3 chiffres (117, 119, etc.) aurait été infiniment plus pertinent.

Le 26/09/2024 à 11h 59

Mais, si j'ai bien compris, si on désactive le PPA, on revient au fonctionnement "classique et attendu" des cookies, à savoir qu'on est pisté plus finement par les régies publicitaires ?.

Tant que Mozilla reste une entreprise de confiance, qui voudrait désactiver cela ?

Le 23/09/2024 à 09h 16

Quelle est la portée du module TIC ?
Mon compteur est dans la rue, à environ 30 mètres, 3 murs porteurs et 2 cloisons de mon bureau, la zone où je pourrais mettre un récepteur.

Le 16/09/2024 à 15h 41

Merci pour le lien, je ne connaissais pas et ça pourrait m'intéresser.

Le 16/09/2024 à 13h 15

C'est vrai, et en même temps, pour une fois que le service qui s'est fait pirater prend la notion de dédommagement au sérieux, on ne va pas cracher dans la soupe.

Le 13/09/2024 à 17h 48

Tiens c'est vrai que ça fait longtemps qu'on a pas entendu causer @Ness_01 :smack:

Le 06/09/2024 à 09h 46

"Notez qu’il n’est plus possible depuis des années maintenant d’enregistrer des sites en -gouv.fr"
Je ne comprends pas cette phrase... Extrait du gros fichier CSV en open-data :

action-energie-gouv.fr;DE;99;BONN;EPAG Domainservices GmbH;fr;;;;0;03-11-2020;15-12-2022
actionenergie-gouv.fr;DE;99;BONN;EPAG Domainservices GmbH;fr;;;;0;19-11-2020;19-12-2022
action-habitat-gouv.fr;DE;99;BONN;EPAG Domainservices GmbH;fr;;;;0;22-12-2020;19-02-2021
actionhabitat-gouv.fr;DE;99;BONN;EPAG Domainservices GmbH;fr;;;;0;20-01-2021;19-02-2023
aide-prime-gouv.fr;FR;75;Paris;AFNIC-Operation-Interne;fr;;;;0;16-02-2021;26-05-2021
gpsi-intradef-gouv.fr;FR;59;ROUBAIX;OVH;fr;;;;0;03-09-2016;17-11-2016
[...]

Il y en a 1166 comme ça.

Alors pourquoi sont-ils toujours là ? La phrase me semble mensongère.

Le 29/08/2024 à 12h 18

Donc en 2 ans ils font x2 sur le segment Gaming. Vu la croissance du segment DC, ils pourraient faire un effort pour le grand public et calmer leur politique tarifaire lunaire, ça ne se verrait pas dans leur bilan.

Le 23/08/2024 à 09h 11

Comment est élaborée la liste des navigateurs par défaut ? C'est Apple qui choisi parmi les plus connus ? Ou elle sera exhaustive ? Pour moi qui n'utilise que Firefox Focus, et qui n'apparaît pas dans les captures d'écran, j'espère pouvoir continuer à l'avoir comme navigateur par défaut.

Reste ensuite le problème des applications tierces qui ne respectent pas le réglage de l'utilisateur et qui ouvrent Safari en interne quoi qu'il arrive..

Le 13/08/2024 à 14h 09

Non c'est encore pire : l'idée d'utiliser un détergent pour tuer un virus/bactérie/microbe n'est pas illogique en soi.
Par contre, la corrélation entre montée des eaux et augmenter les biens en bords de mer et totalement illogique pour le coup.
C'est un champion ! (ou alors il est juste vieux lui-aussi et bafouille à tour de phrase).

Le 13/08/2024 à 12h 25

Merci Next pour ces nouvelles pleines d'avenir !

Le 18/07/2024 à 11h 01

Je ne comprends pas trop ce que tu veux dire. Je n'ai vu nul part que le calcul se faisait sur le serveur. Et le système actuel (le futur ancien système donc), il n'y a pas de calcul, puisque le téléchargement est le même pour tous.

Et le téléchargement "unique" n'a pas que des inconvénients :
- les téléchargements étant les mêmes pour tous, il est plus facile de mettre en place un cache / proxy / partage par peer / téléchargement offline
- le gestionnaire de paquets c'est bien pour gérer l'installation d'applications et leurs dépendances. Ici, ce n'est pas le cas, car les dépendances vont dépendre de la machine et énormément de sa configuration hardware (type de processeurs, cartes graphiques, bus, réseau, RAM, disque dur, etc.) avec une complexité, certes peut être pas insurmontable, mais plus grande que la gestion "statique" de dépendance des systèmes de gestion de paquets actuels.
- L'installation de la mise à jour se fait offline entre le moment où elle débute, et le moment où elle se termine. Avec un gestionnaire de paquets, ce n'est pas toujours le cas. On peut certes télécharger en amont les paquets à installer, mais un paquet peut ensuite avoir besoin de ressources complémentaires nécessitant une connexion internet que le gestionnaire de paquets ne pourra pas télécharger lui-même (c'est rare, mais ça arrive).

Je ne dis pas qu'un système différentiel ne présente pas d'avantages et que le système complet est exempts de défauts. Je dis juste que le système "complet" n'a pas que des défauts, et à aussi des avantages ;)

Concernant ce point :

*[...] le téléchargement "unique" n'a pas que des inconvénients :
- les téléchargements étant les mêmes pour tous, il est plus facile de mettre en place un cache / proxy / partage par peer / téléchargement offline [...]*

Le téléchargement incrémental ou différentiel n'est pas non plus incompatible avec le caching et le peering : au lieu d'héberger un gros fichier monolithique KB1234.msu, tu héberge son contenu. Il suffit d'héberger les fichiers à l'intérieur de l'archive, et tu héberge aussi le manifest qui contient les métadonnées requises (checksum, conditions d'installation ou pas, etc.)

En procédant comme ça, c'est facile de conserver du cache tout en augmentant la finesse de l'incrémental : toutes les machines téléchargent le manifest, puis ensuite seulement les fichiers unitaires requis.

Et rien n'empêche de concevoir un fetcher dédié pour demander à télécharger la mise à jour hors ligne (genre avec Microsoft Catalog.

Le 18/07/2024 à 10h 54

Je suis tout à fait d'accord, je pensais même qu'ils pousseraient l'ISS jusqu'à s'arracher de la gravité terrestre et l'envoyer, tranquillement, s'éloigner de notre planète. Je n'ai aucune idée de la force qu'il faudrait pour cela, c'est peut-être ça qui a rendu cette option caduque ?

Le 05/07/2024 à 14h 12

Tu utilises quoi, ou recommande quoi comme application 2FA/MFA locale sur smartphone (android + iOS) ?
Comment faire avec ces applications pour avoir 2 devices synchronisés ?

Le 28/06/2024 à 11h 05

Je me demande aussi.. désinstaller une mise à jour c'est pas non plus très évident. Utiliser un point de restauration ?

Le 27/06/2024 à 16h 43

L'état autorise la vente à l'étranger d'activités stratégiques, puis 8 ans plus tard, réalise sa bêtise, et rachète.

Ce n'est pas que 8 ans plus tard, avant Nokia, ASN était déjà dans le giron de l'américain Alcatel-Lucent. C'est bien plus vieux que ça, la fusion date de 2006. Autre époque, autres mœurs !

Le 27/06/2024 à 16h 27

L'activité marine d'Orange n'est pas comparable avec l'activité marine d'ASN. On pourrait même plutôt prononcer la phrase dans l'autre sens ;)

Le 20/06/2024 à 11h 35

Intéressant et amusant !
Je suis quand même étonné de ne pas voir Ness_01 débarquer et s'offusquer de cette ignoble tentative de déstabilisation.

Le 14/06/2024 à 10h 43

ca ne règlerait qu'une partie du problème.

Certes, mais ça sera déjà ça de pris.

Le 14/06/2024 à 10h 15

Au pire, est-ce que le composant sera intégralement désinstallable en Powershell ? Ou bien sera-t-il tellement intriqué dans l'OS, comlme Cortana, qu'on ne pourra rien faire d'autre que le désactiver en priant pour qu'il ne se réactive pas à la moindre update, et en devant croire sur parole l'OS ?

Le 14/06/2024 à 10h 26

C'est pas crédible, @Ness_01 fait des blagues et des remarques trop pertinentes pour être une IA. Vous nous mentez ! Next nous ment !
#complot #noussachons #rendezlargent #jenecontractepas

Le 01/05/2024 à 14h 12

Qu'est ce qui est scandaleux du coup sur l'édition classique ?

La quantité de bloatwares pré-installés, la publicité qui est de facto installée, le partage des données avec ses "partenaires" (de mémoire plus de 600 tiers). Windows n'est pas un SaaS, et pourtant Microsoft le transforme comme tel.

Le 30/04/2024 à 21h 55

Donc personne ne veut migrer mais vous ne savez pas pourquoi vu que vous ne savez pas ce que ça donne concrètement :reflechis:

On sait ce que ça donne en édition classique, et c'est scandaleux...

Le 26/04/2024 à 22h 09

C'est quoi l'avantage de w10 par rapport à 11 concrètement sur un parc administré ? Parce que perso j'ai 3/4 du parc sur W11 et tout le monde préfère, y compris moi.

J'en sais rien vu que je ne sais pas à quel point W11 est sale ou sain en édition Enterprise, comparé à l'édition familiale classique. De ce point de vue-là, W10 est sain, stable et mature.

Le 26/04/2024 à 16h 36

Je me pose la question sachant que le projet de migration W10 -> W11 commence tout juste dans mon entreprise.

Actuellement, personne dans l'équipe IS/IT n'a envie de migrer, mais Microsoft l'a bien compris : ils ont fixé la date de fin du support, elle arrive vite, et ont déjà arrêté les mises à jour semestrielles en 2022...

Cet "OS-poubelle" qui vient saccager tout ce que Windows 10 avait fait de bien, risque fort de pousser certaines entreprises à faire le grand saut quant à l'OS principal des machines des salariés lambda.

Le 26/04/2024 à 16h 31

Ça fait déjà longtemps (à l'échelle du développement des IA génératives) que ce problème est pensé : comment éviter d'entraîner un modèle sur des données "impures" issues d'autres modèles ?
Inévitablement, les modèles risquent de devenir de plus en plus lisses et normalisés avec le temps. Je pense à titre personnel que la courbe de mesure de la "qualité" de tous ces modèles (langage, image, etc.) est une courbe en cloche.

GG pour le titre "URL" de l’article :cap:

Le 30/03/2024 à 10h 49

Quoi ? Non ! Comment ça le personnel de l'éducation nationale est en tout point identique au reste de la population ? Et les difficultés dans le public sont les mêmes que dans le privé ? On m'aurait menti ? :troll:

Le 29/03/2024 à 16h 23

Merci Vincent pour ce billet, ça fait longtemps que je n'avais pas lu un article de ce genre ici !

J'ai bondi quand j'ai entendu cette proposition, pas que je me sente particulièrement visé ni que je sois accro à la data, mais l'absurdité telle de cette phrase et la méconnaissance certaine du sujet m'a rendu les bras ballants.

C'est si triste de constater, années après années, que nos dirigeants ne gagnent pas en compétence/connaissance sur le numérique.

Faudrait-il un ministère du numérique dédié ...?

Le 29/03/2024 à 00h 07

"Jean Zay Rien" :francais:

ok je sors ---> []

Le 26/03/2024 à 11h 47

Sidenote : ça me fait mal de voir que 1/3 des Français pensent que l'homéopathie et l'astrologie sont des sciences... J'en suis tout flagada.

De fait, les résultats de la question "à quelle fréquence effectuez-vous ces activités scientifiques suivantes" sont j'imagine assez peu pertinents.

Le 26/03/2024 à 10h 26

«Forbes rappelle à ce titre que Google a d’ailleurs annoncé en décembre une mise à jour qui rendra « techniquement impossible » la fourniture d’informations en réponse à de tels mandats.»

Quel genre de procédé peut-il exister pour que ça soit techniquement impossible de récupérer la liste des viewers d'une vidéo ? A partir du moment où le compteur de vue s'incrémente et que le fait d'avoir vu une vidéo est sauvegardée dans le profil de chaque utilisateur connecté (ne fonctionne pas pour les vues anonymes). J'ai du mal à saisir.

Le 25/03/2024 à 13h 56

J'ai un V8 de 4.8L :pleure::pleure::pleure:

Ça peut se ranger dans une p'tite berline sans que ça soit un énorme SUV "Super-useless-véranda" ;)

Le 23/03/2024 à 13h 58

Et pour la 4ème, elle est "drôlement" vraie ;)

Le 21/03/2024 à 16h 49

Tu veux dire le dernier GPU "accessible" qui sait faire du FP64 :) Effectivement pour bencher le H100 c'est pas con de prendre qq heures en cloud.

Non, je voulais dire le derneir GPU qui a été conçu pour maximiser les performances de calcul en FP64. Tous les GPU depuis sont focalisés sur les performances en FP8. Ils continuent d'être capable de calculer du FP64, heureusement, mais soit à travers les CUDA cores existants, qui ne sont plus vraiment optimisés, soit à travers les Tensor cores, et là, c'est sous-optimal à fond.
L'effet de bord c'est ce que tu dis : le ratio performance FP64/prix du GPU est de moins en moins bon.

Le 20/03/2024 à 15h 05

Pas à la base.

Le premier GPU spécifiquement fait pour le GPU computing était le GP100 (architecture Pascal), qui se distinguait des GP102/104 qui GPU orienté graphique par la mémoire HBM2 et surtout par le support du FP64 à la moitié de la vitesse du FP32, alors que la vitesse du FP64 sur les GPU grand publique est divisé par 32 par rapport au FP32. C'est cette perfo en FP64 qu'on cherchait en achetant ces GPU.

Même après le virage vers l'IA, ces GPUs orienté computing ont toujours gardé ce support à demi vitesse du FP64, sur les GV100, A100, et H100. Je suppose que c'est toujours le cas sur le nouveau GB100, mais ce n'est pas encore clairement annoncé.

Mais vince120 a raison, nous on est "acquis", faute de concurrence malheureusement et ils préfèrent faire la danse du ventre devant les data scientists qui sont en pleine croissance.

L'ennui c'est que le V100, le dernier GPU vraiment taillé pour le FP64 n'est plus produit, et il date de 2017. On se retrouve sacrément dans le flou quand on veut mettre à jour ses serveurs de calcul (typiquement pour du split-step), et qu'on doit comparer torchons et serviettes sans avoir de données claires.
J'en viens à envisager de tester des codes de benchs pour quelques heures sur des offres de cloud computing (pour ne pas me tromper dans l'achat), mais c'est dur à trouver et encore assez cher.
Là je dois renouveler un serveur, et je ne sais pas comment comparer les perfs FP32/64 entre les V100, les RTX A6000 Ampere, les RTX 6000 Ada, et les H100.

Le 18/03/2024 à 21h 10

C'est intéressant de savoir qu'il devient possible d'avoir une machine de calcul quantique à taille presque humaine. C'est déjà beaucoup en terme de miniaturisation d'avoir tout ça dans une seule baie, refroidissement inclus. Le tout pour une consommation raisonnable.
Je ne sais pas encore ce qu'on en fera à l'avenir, mais c'est prometteur.

Le 18/03/2024 à 15h 23

Le longhaul n'est pas le cœur de notre métier, mais basé sur mes connaissances, j'ai du mal à raccrocher les wagons avec ce que tu dis.
Je vais faire un petit exposé rapide de ce que je sais, n'hésite pas à corriger le cas échéant.

Sur des dorsales terrestres, les câbles sont très capacitifs, ça ne coûte pas beaucoup plus cher à déployer (144 fibres, voir plus).
Sur une seule paire (1/72ème du câble en question), on peut faire passer plusieurs dizaines de Tbps sur plus de 200km (24 Tbps chez Cienna par paire par exemple) grâce au multiplexage (les fameuses longueurs d'ondes). Les équipements en charge de répéter le signal sont des OTN, ce ne sont pas des routeurs, ils renvoient juste la lumière dans la direction souhaitée, et peuvent extraire une longueur d'onde en particulier pour une desserte locale.
A titre de comparaison, le dernier câble transatlantique conjoint de FB et Microsoft atteint 200 Tbps.
10 paires en continental, et that's it (1/7ème de la capa physique du câble, on pourrait monter à bien plus).
Et le tout pour une fraction du prix (il doit y avoir grand minimum un facteur 5 entre les deux approches en moyenne)

D'ailleurs, tout le trafic mondial ne passe pas par des câbles sous marin, loin s'en faut.
Sur le territoire de l'Europe continentale, à ma connaissance, tout passe sur des réseaux terrestres.
On passe par la France pour aller de Londres à Milan, Gibraltar est hors course (hors traversée de la Manche évidemment).
La question de la latence (et donc du chemin le plus direct possible) est centrale dans les choix d'architecture de backbone.
Le câble sous-marin est utile quand il faut aller tout droit d'un continent à l'autre.
La seule exception, c'est quand le réseau terrestre n'est pas sûr (comme le cas de l'Afrique).

Alors, ce que tu appelles OTN dans ton exemple est indéfini : un OTN c'est un transpondeur, et c'est justement ce que les opérateurs veulent éviter : un transpondeur, car c'est l'élément du terminal qui coûte le plus cher.

Mais quand tu dis "ils renvoient juste la lumière dans la direction souhaitée et peuvent extraire une longueur d'onde en particulier pour une desserte locale.", ça c'est bien la définition d'un WSS, un routeur optique.

Tout est fait, par le plan de routage et le plan de restauration s'il y en a un, pour rester aussi longtemps que possible dans le domaine de l'optique, donc en passant par des routeurs optiques. Or, il faut un routeur par paire de fibre car le routeur ne gère que les directions et pas la superposition de fibres. Mais à la limite c'est pas grave, c'est pas ce qui coûte le plus cher.
> Encore une fois, on est d'accord sur ce point : ce n'est pas la capacité de transport des liaisons terrestres qui pose problème, mais la capacité de routage et/ou de régénération des nœuds terrestres qui rends l'architecture terrestre inadaptée à éponger le surplus de demande d'un câble qui lâche. Et on parle là de tous les nœuds terrestres traversés, il peut y en avoir beaucoup, beaucoup, car le plus gros du trafic d'un câble ne sert pas directement le pays où il atterrit.
Aucun opérateur terrestre, consortium inclus, ne s'amuse à acheter de la capacité "noire" juste pour servir "au cas où".

Si, le jour où un câble sous-marin de 200 Tbps lâche, on voulait adapter un réseau terrestre pour éponger temporairement le trafic, il faudrait acheter dans le meilleur des cas (aucune régénération sur tout le chemin terrestre, soit une limite à ~2000 km en terrestre) d'un coup 200 paires de transpondeurs, des dizaines de WSS, des châssis et des m² pour mettre tout ça.

On parle 100 à 150 M€, juste pour du temporaire. Je ne parle même pas du temps de reconfiguration du réseau pour optimiser les nouvelles routes. Ni du délai d'approvisionnement.

Dit autrement : les grosses liaisons terrestres ont effectivement des dizaines de paires de fibre, mais une grande partie d'entre elles sont en fibre noire (=pas équipée du tout), et pour les autres, elles ne sont pas chargées à 100 %, et donc n'ont pas les équipements de terminal déjà reliés pour réagir "au cas où".

C'est dimensionné (si le client à accepté de payer pour ça) pour palier à une panne ou une casse fibre terrestre, avec la capacité associée, pas pour absorber une casse de câble sous-marin.

Donc pour du temporaire, non, ce n'est pas prêt d'arriver. Par contre pour remplacer à long terme un câble sous-marin, ça peut effectivement s'envisager.

Le 18/03/2024 à 09h 35

Rien ne distingue fondamentalement un réseau terrestre d’un réseau sous marin.
Dans le premier cas, c’est moins cher, facilement réparable/upgradable mais c’est très exposé (pas un souci sur des territoires socialement stables en temps de paix), et dans le second c’est plus cher, moins réparable/upgradable, mais globalement moins accessible.
Mais ce sont littéralement les mêmes façon de transporter du signal, et certaines artères terrestres sont très capacitives.

Et pourtant, si : les deux domaine sont très différents. Certes c'est un signal optique qui transporte l'information dans les deux cas, mais les contraintes sont bien différentes.
Un câble sous-marin a pour objectif de transporter le maximum de données sur une grande distance, avec pas ou très peu de besoin de routage : c'est la capacité qui est poussée au maximum.

Un réseau terrestre a pour objectif de transporter les données vers plein de directions diverses, avec très souvent des superpositions de couches (donc de fibres) : c'est moins la capacité qui est poussée que les possibilités de routage et la réduction de la régénération (quand on repasse par le domaine électrique pour régénérer un signal trop bruité).

Pour faire absorber la capacité d'un gros câble transatlantique ou transpacifique à un réseau terrestre, il faudrait pouvoir reconfigurer tous les routeurs dudit réseau terrestre (en optique ce sont des WSS), ce qui veut dire que toutes les longueurs d'ondes présentes dans le câble (il peut y en avoir jusqu'à 88/96/128) doivent être inutilisées sur le réseau terrestre : autant le dire tout de suite, ce n'est jamais le cas, y compris sur les gros liens terrestres. Ce n'est pas la capacité des liens terrestres mais la disponibilité des longueurs d'ondes et le plan de routage qui rendent ça quasiment impossible.

Non, un câble sous-marin chargé ne peut pas être re-routé via un réseau terrestre existant. Quelques longueurs d'ondes peuvent l'être, mais ça ne peut pas concerner toute la capacité d'un câble.

Le 15/03/2024 à 22h 46

Le problème quand il y a autant de coupures simultanées, c'est que le nombre de navires de maintenance marine, lui, n'est pas extensible, et qu'ils sont parfois déjà en mission loin de là...

Le 15/03/2024 à 22h 42

Je voyais plutôt ça comme des connexions gros débit de proche en proche. Genre un gros câble entre Paris (ou Strasbourg) et Berlin, un gros câble entre Berlin et Varsovie, etc. Du coup les accords ne devraient avoir lieu qu'entre pays limitrophes.

Non, les réseaux terrestres ne sont pas dimensionnés pour acheminer le trafic international de proche en proche. Les réseaux terrestres ont des contraintes de routage extrêmement complexes que les câbles sous-marins n'ont pas (mais ils ont la contrainte de la distance et du débit), et ils ne servent qu'à la distribution plus fine. Les réseaux sont interconnectés entres les pays mais ne peuvent pas en plus assumer un trafic de passage d'un continent à l'autre.

Pour faire une analogie pertinente :
Les câbles sous-marins sont comme des autoroutes à 8 ou 10 voies : ça va vite, mais il y a très peu d'échangeurs.
Les gros réseaux terrestres "backbone" (inter-métropoles et inter-frontaliers) sont comme des petites autoroutes 2x2 voies ou des grosses nationale, c'est un trafic dense mais fluide avec plus d'échangeurs donc plus de contraintes.
Ensuite viennent les "anneaux" urbains puis le FTTH.

Une route nationale Française n'est pas dimensionnée pour supporter la fermeture de 4 autoroutes entre l’Espagne et l’Allemagne.

Le 08/03/2024 à 10h 56

Qu'est-ce qui est mieux : produire en Europe, à proximité avec moins de pollution liée au transport et un meilleur contrôle de la pollution de l'usine ou continuer à tout produire en Chine sans contrôle ?

L'autre question que je me pose, c'est pourquoi ces activistes ont visé Telsa, et pas le groupe VAG, ou Mercedes-Benz, qui produisent bien plus de SUV, de "machines à tuer" et autres "monster trucks" que Tesla.. Sauf que ceux-là, en prime, roulent au diesel et à l'essence. Mangez-en, c'est du bon !

Tesla n'est pas blanc comme neige dans sa production, mais il faudrait d'abord faire le ménage chez soi avant d'aller salir la maison du voisin...

Le 06/03/2024 à 08h 49

Depuis quelques années, quand tu fais une MAJ sur iOS, le Store ne renvoie que la différence des blocs avec la version précédente = grosses économies de BP à la clé (je n'en tiens même pas compte dans le calcul, mais comme le coût de la bande passante a baissé ces 5 dernières années, mettons que ça se compense).

Mais clairement, si les 119 milliards, c'est tous les téléchargements en incluant les MAJ, alors là c'est encore plus ridicule, ça nous amène à 300k de cout réel de distribution par an pour Spotify, sur toute la planète.
L'argument du coût de la distribution est absolument malhonnête, c'est un écran de fumée jeté aux yeux d'un public non averti.

Merci pour les ordres de grandeur, ça remet en effet l'église au centre du village.

Le 05/03/2024 à 10h 47

Comme sur l'autre news "Pour Apple, Spotify devrait être reconnaissante", je vois beaucoup de commentaires assez basiquement anti-Apple. Moi le premier, je pense que par bien des pratiques, Apple est condamnable en Europe, grâce à la protection que nous offre le cadre législatif Européen (petite tacle à tous les anti-Europe). [Par exemple les décisions récentes qui ont enfin obligé Apple a accepter les moteurs de rendus hors Safari, ça c'est une victoire pertinente.]

MAIS : Dans le cas présent, je me pose quand même la question suivante : s'il est vrai que Spotify ne doit s'affranchir, de base, que de 99 € par an, comment justifier cette décision ?
99 €, c'est extrêmement loin de couvrir les frais de traitement, stockage et distribution de 120 000 000 000 téléchargements que Apple a dû assurer. Et 15 % de commission finale pour tout cela, ça ne semble pas ultra extravaguant, dans le monde du SAAS.

Si ces chiffres avancés par Apple sont vrais, je trouve le jugement sévère. Bon, je ne suis pas légiste, donc mon avis n'a pas d'importance.

Spotify n'est pas une petite entreprise qui a eu du mal à exister à cause d'Apple : c'est une grande entreprise, profitable, qui s'est développée, et a même explosé grâce aux 2 stores : AppStore et PlayStore. Il me semble normal qu'ils se rémunère entre eux pour cela.

Le 19/02/2024 à 14h 32

Idem, il y a quelques années, en passant de LOS 16 à LOS 17, ils avaient introduits plein de bugs sur la stack Bluetooth.
J'avais signalé ça, capturé les logs adéquats avec les propositions de correction, ça n'a jamais été pris en compte.

Je pense qu'ils ont d'autres chats à fouetter que de regarder les bugtrackers des randoms.