votre avatar

Lasout

est avec nous depuis le 17 juin 2011 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

258 commentaires

Drapeau de l'Europe

Le 22/05/2024 à 14h 26

C'est un plan à 43 milliards dont ces 2,5 milliards vont financer différents travaux portés par des labo de recherche.
Il n'est pas dit non plus (c'est même hautement improbablement vu le fonctionnement du LETI et des Fraunhofer que je connais) que les industriels ne seront pas associés à ces travaux de recherche.
Enfin, il n'est pas choquant de vouloir financer l'apprentissage/l'éducation et la R&D pour pérenniser dans le long terme l'implantation d'usines de ce type.

quandela OVHcloud MosaiQ

Le 19/03/2024 à 14h 14

Mwais, générer de l'entropie via un dispositif quantique, ce n'est pas nouveau... il y a des appliances pour ça... là ça a un côté couper son pain avec un sabre laser pour faire des toasts...

Peu importe, ce n'est pas de la R&D, je réponds juste à la question et c'était écrit dans l'article...
Pour le reste, cf. l'autre moitié de ma réponse.

Le 19/03/2024 à 09h 52

En dehors de la R&D: "OVHcloud utilise par ailleurs l’ordinateur quantique en interne, pour générer des nombres aléatoires pour des clés de chiffremen" à la fin de l'article...

Sinon, plus généralement, les débouchés possibles pour les ordinateurs quantiques sont multiples mais les différentes technos manquent encore de maturité pour de réelles applications pratiques à échelle intéressante.

Mais tout ça est évoqué dans les différents articles de Next sur le sujet ;)

Google utilise le machine learning pour réduire la pollution du trafic aérien

Le 11/08/2023 à 08h 03

Les trainées n’ont pas a voir avec le mode de propulsion, donc ça ne changera rien.
C’est bien dit dans l’article.


ce n’est pas complètement vrai dans la mesure ou les paramètres influants, outre les pression, humidité et températures atmosphériques, sont également les valeurs de sortie de ce qui est “produit” par le système de propulsion, et j’imagine qu’entre du kérosène, du saf ou d’autres chose, ce n’est pas parfaitement égal.
On ne peut donc pas tabler sur une réduction des contrails grâce à un changement de carburant, en revanche il faudra adapter le modèle.



Je n’ai pas vu dans l’article google la comparaison “hors tout”: on réduit les contrails, super (vraiment). Mais on rallonge le vol: de combien ? quel est le bilan global à la fin ? (il y a bien une note concernant l’augmentation de consommation de kérosène, mais bon ils comparent des % de consommation de carburant avec des baisses de CO2eq lié aux contrails, on ne peut donc pas en conclure grand chose…)


La DGSE imagine les cyberguerres du futur, de 2030 à 2060

Le 04/07/2022 à 08h 17

Je n’ai pas un avis aussi tranché (j’imagine que ta question est purement rhétorique ?).



Pour ma part, je n’ai pas d’avis pertinent sur le devenir du/des “métavers” tels que le proposés aujourd’hui, au sens de leur adoption et/ou succès financier, en revanche, j’ai du mal à imaginer que le concept de métavers au sens large n’aboutisse jamais. Pour moi c’est juste une question de temps et de forme (et là, je ne m’avancerai pas sur des jalons…).
Une fois qu’on a dit ça, plein d’évènements pourraient empêcher son aboutissement (et beaucoup d’autres choses), comme des troubles mondiaux voir des guerres, la raréfaction des ressources, …



Tout ça pour dire, que c’est quand même important de prendre du recul sur les choses, et le recul ça signifie autant ne pas se lancer aveuglément dans des technologies plus ou moins bullshit, que ne pas rejeter directement un concept car le seul exemple qu’on en ai est bullshit.


Lasers intenses : voici le laboratoire commun HERACLES

Le 02/02/2022 à 19h 37

Je pense que c’est le cas de beaucoup de projets, ou parfois un mélange des deux approches, une forme de sérendipité.
Mais avoir un descriptif de projet au top sémantiquement qui fait par hasard directement un super acronyme bien à propos, ça doit relever du miracle :)


Le 02/02/2022 à 16h 01

C’est bien 100W, mais à 100Hz (et pas 100W à 100W, ça n’a aucun sens).


Le 02/02/2022 à 15h 59

pour signaler une erreur : le petit triangle avec un ! dedans en bas de la brève.
Je te laisse faire pour l’exercice pratique. ;)


je connais le truc (je l’ai déjà utilisé pour signaler des erreurs dans des articles, mais je t’assure que ce matin l’icône n’était pas là, je me suis dit que le code de rendu des pages de brèves était peut être différent, j’ai trouvé ça bizarre. En tout cas merci pour ta réponse, car là il y est… peut être le moteur de rendu de Brave qui fait le bordel.. bref :)


Le 02/02/2022 à 11h 04

Hello, je n’ai pas trouvé comment signaler une erreur sur les articles du Brief, mais je vous invite à supprimer mon commentaire après :
Dans la description de l’Axe 2, à la fin de la brève, la cadence de répétition c’est 100 Hz, pas 100 W :)
(j’ai vérifié sur le communiqué de presse: https://www.thalesgroup.com/fr/monde/groupe/press_release/linstitut-polytechnique-paris-le-cnrs-et-thales-creent-le-laboratoire)


Les Français et la science : une relation compliquée et ambivalente

Le 11/01/2022 à 16h 04

Je suppose (lecture en diagonale, j’ai peut-être raté un point), qu’ils ont fait les regroupements “après coup”, de part des statistiques d’opinion proches ;)


Très bonne remarque, merci à toi :)


Le 11/01/2022 à 12h 29

Moi ça me gène un peu de mettre la pratique du yoga, l’aromathérapie ou l’hypnose dans le même panier (j’ai cité ces trois choses en exemple, mais c’est le panier dans son ensemble qui me pose problème).
S’il est vrai qu’aucune de ces disciplines n’est de la science, les usages et éléments de preuves (ou d’absence de preuves) disponibles pour chacune d’elles n’ont rien à voir. A ce tarif, ils auraient pu rassembler la voyance avec également, nous n’étions plus à ça près…


James Webb : le déploiement du bouclier thermique est terminé !

Le 05/01/2022 à 10h 25

Tout est (en anglais)



Mais en gros, en plus d’avoir moins tendance à capturer des corps (petits astéroïdes éventuellement, poussières, …) par rapport aux autres points, L2 est également le seul à être aligné avec le soleil et le système Terre-Lune. Ce qui est bien pratique puisque le bouclier thermique doit protéger les instruments des émissions infrarouges solaires ET du système Terre-Lune. S’ils n’étaient pas alignés, la tâche serait bien plus complexe (géométrie du bouclier, etc…).


Une potentielle exoplanète extragalactique à 28 millions d'années-lumière

Le 06/11/2021 à 22h 56

Je n’ai pas de preuve formelle pour supporter mon propos, mais je suis en désaccord avec cette idée commune suivant laquelle on connaîtrait mieux l’espace que le fond des océans. Il est vrai que le fond des océans est encore largement méconnu, et c’est bien dommage; néanmoins l’immensité spatiale et temporelle de l’univers me laisse penser qu’on en connait encore moins que pour nos océans, et c’est bien logique. La comm’ est simplement plus tonitruante, et les recherches plus conséquentes, mais pas en proportion.


Le 06/11/2021 à 10h 38

Hello, en fait certaines théories (sérieuses) envisagent bien la possibilité de se rendre aussi loin via différentes astuces physiques (par exemple la métrique d’Alcubierre" target="_blank">https://fr.m.wikipedia.org/wiki/Métrique_d%27Alcubierre#:~:text=La%20métrique%20d’Alcubierre%2C%20également,le%20physicien%20mexicain%20Miguel%20Alcubierre.)). Le problème étant surtout que la possibilité de réalisation technique elle-même risque de ne jamais être à notre portée si tant est qu’elle soit valide, ce qui reste également à prouver.



Mais je joue sur la sémantique là, en fait, je voulais surtout intervenir pour rappeler que le propos des astronomes à travers les exoplanètes n’est pas de fantasmer des mondes lointains en espérant s’y rendre un jour (même si on a le droit de rêver) mais plutôt d’étudier la formation et l’évolution des planètes en général, ainsi que sur l’histoire de l’univers, dans le but d’en apprendre plus sur notre propre planète et in fine sur nous mêmes.


Dune : le CNRS revient sur l’« anatomie de l'Épice »

Le 15/09/2021 à 09h 14

Pourquoi “plutôt” ? L’un n’empêche pas l’autre.


Tout a fait d’accord!
Je n’ai pas lu ces deux références, mais j’ai lu Dune que j’ai adoré.
Ainsi que plein d’autres romans :)


Montdenier et Montagnac : Perseverance réussit la collecte de deux échantillons prometteurs

Le 13/09/2021 à 19h 00

Honnêtement, on m’offre le voyage aller seulement, en me garantissant un à deux mois confortables sur place, j’y vais sans hésitation.


On ne saurait déjà pas te garantir de finir l’aller :)


Le 13/09/2021 à 13h 23

Oui si on oublie toute la logistique pour les maintenir en vie!


Et si on apprenait les portes logiques dès le plus jeune âge ?

Le 08/09/2021 à 08h 58

je trouve ça cool dans l’idée, mais au risque de sonner un peu réac’ j’ai l’impression que si on commence enfin à donner l’importance qu’il faut à l’informatique dans l’éducation (c’est plutôt bien); ça se fait au détriment de sciences plus classiques (la mécanique ou la cinématique par exemple).
Et je trouve ça un peu dommage, car c’est bien de savoir coder, et c’était (c’est) clairement trop rare encore, mais savoir comprendre comment fonctionnent un moteur ou une centrale nucléaire, c’est quand même pas mal non plus pour un citoyen…



Eléments de contexte: j’ai une formation en conception mécanique + ingénieur soudeur; je bosse dans la recherche en matériaux et je suis passionné d’informatique avec quelques petites compétences associées. Du coup j’ai certainement beaucoup de biais qui se compensent plus ou moins :D :mad2:


TickrMeter : suivez le cours des actions via un boîtier e-Paper

Le 06/09/2021 à 11h 58

Certes c’est probablement plus éco moins consommateur que l’équivalent à écran LCD, après j’ai quand même du mal à mettre “respect de l’environnement” en positif pour parler d’un bidule qui ne sert qu’à afficher en direct le cours d’une action, par pur confort, alors que tu as déjà des dispositifs à portée de main qui peuvent le faire sans en fabriquer de nouveaux…


Concours Next INpact de rentrée : qui sont les gagnants ?

Le 06/09/2021 à 07h 19

Chouette un concours :D


Windows 11 et vieux PC : Microsoft recule et publie un nouveau test de compatibilité

Le 27/08/2021 à 17h 37

Le sous-titre du vendredi 😱🤣


Vaccination d'Emmanuel Macron : les quatre bourdes de l'Elysée

Le 27/08/2021 à 15h 52


(reply:1892455:soupêtte)




Tu te trompes en effet complètement sur l’intérêt que je prête ou non à leur travail, en fonction des personnes visées ou non.
Spoiler alert: dans l’absolu ça ne me gêne pas de lire un article critique sur une défaillance du système, du gouvernement, de l’Elysée ou du président.



Je ne nie absolument pas la qualité de leur travail d’enquête non plus.



Simplement, et je ne parlais pas uniquement de Mediapart, je déplore qu’aujourd’hui (si ça se trouve ça a toujours été le cas mais ma prise de conscience est plus récente, je n’en sais rien) le travail journalistique soit très souvent orienté et présenté d’une façon partisane. Que l’enquête soit sérieuse et de qualité c’est bien, que les faits sous-jacents soient avérés c’est encore mieux, mais tout ça ne compense pas chez moi la déception et le désintérêt que j’éprouve pour une grande partie de la presse à connaître la teneur d’un article simplement en connaissant le titre du journal… Rassure toi: il m’arrive quand même de les lire assez régulièrement ;)


Le 27/08/2021 à 15h 07


(reply:1892443:soupêtte)




Du coup je suis pas sûr que ce soit un super exemple pour eux de mettre en avant le fait que parfois c’est bien plus pernicieux… J’aurai plutôt tendance à dire que ça illustre mon propos, même si dans le cas présent “y’a pire”


Le 27/08/2021 à 14h 27

Un vrai problème dans le process, mais présenté dans du journalisme “à charge” quoi, c’est malheureusement bien trop la norme aujourd’hui :(
Le jeu des tournures de phrases et des titres…



Merci pour cet article !


Windows 11 Beta : quelles restrictions matérielles, comment les contourner ?

Le 23/08/2021 à 17h 11

Non je ne confonds pas.
Le risque, quand on n’est pas naïf, c’est que MS impose (ou incite fortement) les constructeurs à mettre des SB non desactivables sur leurs machines.
Avec un SB désactivable (allez, même enclenchépar défaut dans l’UEFI ou le bios, pourquoi pas), la sécurité est “amenée” à tous, et celui qui veut la gérer lui même peut prendre le contrôle au besoin.
C’est là dessus qu’il va falloir être très vigilant.


Beaucoup d’exemples concrets de SB non désactivables ? (c’est une vraie question car je n’en ai jamais vu mais je vois passer très peu de machines OEM)


Le 23/08/2021 à 17h 10

Ta machine est probablement encore très agréable dans la vie de tous les jours, voire certains jeux ou applications professionnelles vu la carte graphique, et si SDD.



Mais le CPU est très ancien.
Si tu compares ton Xeon au moindre CPU d’entrée de gamme comme un i3-10100 (même nombre de coeurs et threads que ton Xeon), le Xeon est complétement dépassé : Passmark 14723245 contre 26378828 pour un des plus petits i3.
Et le jeu d’instructions est sans commune mesure, plus des extras comme des disques NVME, de l’USB3 sans carte fille…



Ton PC et processeur semblent accuser leur décennie. Je trouve que tu as bien sauvé la planète et tes finances en les tenant tout ce temps. Mais en terme de performances sur les nouveautés tu ne pourras plus suivre.
Note : j’ai connu ce même problème avec un fantastique i7-2600 que j’ai recyclé en NAS, pour prendre un petit processeur récent plus agréable. La suite Adobe se lance au moins deux fois plus vite, alors que je la voyais ralentir au fil des màj.


yep je suis bien conscient de cet état de fait et j’approuve à 100% :)
mon interrogation provient surtout de l’écart de perf que j’ai pu observer entre la virtualisation de Win 11 et de Win 10 (je vais tester mac os 11 pour rire).


Le 23/08/2021 à 14h 04

J’ai une assez vieille machine, un Xeon X3480 sur une mobo en chipset P55 avec 16Go de DDR3 et une GTX1060 à côté, je sais que l’ensemble n’est pas compatible pour de nombreuses raisons mais j’ai testé en machine virtuelle quand même, par curiosité, et alors que j’arrive à virtualiser avec un confort correct (pour du surf ou de la bureautique) pas mal de distrib’ linux ou encore windows 10, j’ai été surpris par windows 11 qui s’est révélé outrageusement lent (à démarrer, puis l’interface en elle même).
Je n’ai pas creusé plus loin, j’étais juste un peu curieux, mais je me demande si cela vient justement de jeux d’instructions spécifiques introduits dans les générations de processeurs ultérieures à mon Xeon ou d’autres soucis spécifiques à la machine virtuelle en elle même.



Quelqu’un a d’autres retours d’expérience ?


Artemis : le retour des humains sur la Lune en 2024 compromis

Le 18/08/2021 à 08h 41

Le SLS et Orion ont effectué leurs vols tests ?



La quantité d’énergie que tu dépenses et de CO2 que tu émets pour ce commentaire quand il y a tant de gens qui n’ont même pas accès à l’eau potable… tu vois où je veux en venir ?
Sinon, pour parler chiffres, le budget de la NASA aux USA c’est 0,48% du budget fédéral en 2020. Tu crois vraiment que c’est là qu’il y a des économies à faire pour sauver la planète ? Sachant qu’une bonne partie de ce budget est dédiée à l’observation de la Terre, la gestion des crises et à la compréhension des phénomènes naturels qui nous impactent/que nous causons ?


Le 17/08/2021 à 08h 54

Et encore c’est sûrement sans compter sur leurs propres sous-traitants :)


Instances Ampere Altra chez Oracle Cloud : quelles performances ?

Le 07/06/2021 à 19h 56

Je calcule le temps Altra / Epyc pour chaque nombre de threads affichés dans les histogrammes Blender et x264, pour savoir combien de fois Epyc va plus vite qu’Altra. De ton côté tu dis (corrige moi si je me trompe j’ai un doute) qu’Altra est 15,9x plus performant à 16T qu’à 1T tandis que pour Epyc c’est 14,7x, ce qui tend à démontrer qu’Altra scale mieux. De mon côté j’ai fait la comparaison pour chaque nombre de threads présentés d’un processeur par rapport à l’autre.



Ensuite tu dis que l’écart s’amenuise, je ne dis pas le contraire mais je dis juste que ce n’est pas probant avec l’échantillon mesuré indiqué dans l’article, car il stagne de 1T à 8T dans le cas de Blender (avec même une légère remontée à 2T si j’enlève l’arrondi à une décimale) puis une chute de 1,9x à 1,8x entre 8T et 16T. Je pense juste que pour voir l’effet du scaling de façon notable il faudrait effectivement des résultats avec plus de threads, là statistiquement, on ne voit rien du tout (mais tu le sous-entends déjà à la fin, mon intention n’est pas la critique).



Pour l’interprétation que j’ai faite du paragraphe concernant le la similarité x264 vs Blender, toutes mes excuses, j’ai bien relu et j’avais mal interprété: nous disons effectivement la même chose :)



EDIT: et réflexion qui vient de me venir: c’est assez contre-intuitif pour moi de voir qu’Epyc a justement “plus de mal” à maintenir l’écart (et de loin) en x264 qu’avec Blender. Une hypothèse ?



Sinon pour, et c’est tout à fait perso, je préfère le graph type “nuage de points” dans Excel pour représenter des données si on veut montrer la présence ou l’absence de tendance ==> les lignes aident visuellement (mais je dis ça juste pour discuter, n’y vois pas une critique du tout)


Le 07/06/2021 à 16h 02

Merci pour cet article super intéressant!



En revanche sur l’interprétation de ces résultats préliminaires je me permets de commenter vos analyses:
Blender
Il est vrai qu’en augmentant le nombre de threads l’écart se réduit, mais pas autant que ce que vous semblez entendre, en effet voilà les ratios en fonction du nombre de threads:
1T:1,9x; 2T:1,9x; 4T:1,9x; 8T:1,9x; 16T:1,8x.



x264
La tendance est en fait assez différente de ce qu’on voit pour Blender, voilà les ratios en fonction du nombre de threads:
1T:1,9x; 2T:1,4x; 4T:1,1x; 8T:1x; 16T:1,1x.



En traçant l’ensemble sur un graph, on voit bien que si l’écart à 16T est plus faible que l’écart à 1T dans les deux cas, dans le cas Blender on a en fait pas de tendance de 1T à 8T puis une chute en passant à 16T alors que sur le test x264 on a une chute rapide de 1T à 8T puis une remontée à 16T (quasi aussi importante que la chute entre 8T et 16T du test Blender).



J’ai tracé le tout vite fait et en comparant ces ratios ça saute aux yeux.



Encore merci pour ces mesures, et on est bien d’accord que ce sont des résultats préliminaires et je ne conclue rien non plus de définitif avec, mais je trouve juste que les résultats sont un poil différents d’une partie du texte associé je me permets donc d’y aller de mon commentaire :chinois:


QNAP QXG-10G2T-X710 : une carte réseau 2x 10 Gb/s avec SR-IOV et Data Direct I/O

Le 14/04/2021 à 06h 38

Je te trouve un tantinet condescendant, mais bon 😅
Je pense que ça va encore être un dialogue de sourd mais: je n’oppose pas ces deux aspects, je constate que l’un (le développement de nouveaux produits) semble aller plutôt bien au regard des standards du marché tandis que l’autre (la correction des failles) semble plutôt pêcher.
Du coup, il est légitime de s’interroger (juste pour la forme car QNAP n’a évidemment de comptes à rendre qu’à son conseil d’administration) sur la stratégie de l’entreprise et l’allocation des ressources qui en découle.
Il est évident également que ça n’est pas le seul paramètre qui rentrera en compte dans ces sujets, on peut citer par exemple la complexité technique des sujets à traiter (et là il est compliqué de comparer stricto-sensu un lancement de gamme et des corrections de faille).
Seulement, là où je pose une interrogation légitime et ouverte (qui n’attend d’ailleurs pas spécialement une réponse spécifique que tu ne saurais apporter) tu m’adresses une fin de non-recevoir condescendante alors que tu n’as rien de factuel de plus, en dehors de sous entendre que je n’y connais probablement rien au fonctionnement d’une boite de cette ampleur.



Si je voulais adopter le même type de ton que toi, je te dirai que tu as une façon bien candide de voir le fonctionnement d’une boîte (surtout de cette ampleur). Et comme dit, je n’oppose pas le fait de développer une gamme plus ou moins complète au fait de corriger rapidement des failles.



😚


Le 13/04/2021 à 17h 49

C’est vrai mais c’est quand même au bout du bout une direction commune qui décide d’attribuer plus ou moins de budget, de ressources et d’humains à droite ou à gauche, et une fois les méandres de la compta analytique passée, le budget global… c’est celui de qnap.


Des chercheurs font un pas vers la « production industrielle d’hydrocarbures biosourcés »

Le 13/04/2021 à 07h 58

Niveau science, c’est très intéressant.
Niveau société, on peut se poser la question. Le problème des hydrocarbures n’étant pas seulement leur approvisionnement (même si ça induit évidemment de lourdes tensions géopolitiques) mais également le fait qu’on les brûle tout simplement, en rejetant tout un tas de saloperies dans l’atmosphère… même si on ne parle que du CO2… Je suis pas sûr que ce soit une bonne nouvelle d’avoir à portée de main dans ce siècle leur production à volonté.


Les Français seraient-ils devenus technophobes ?

Le 12/04/2021 à 14h 35

“37 % seulement des Français interrogés faisaient confiance aux médias, à égalité avec les Britanniques. Seuls le Japon (36 %) et la Russie (29 %) enregistrent un taux inférieur, loin derrière les 45 % d’Américains, 52 % d’Allemands et 70 % de Chinois interrogés.”



Comme quoi on garde encore un peu d’esprit critique par rapport à d’autres. Inattendu.



Plus sérieusement, en répondant à cette étude, je serais probablement classé comme n’ayant pas confiance dans les médias, alors qu’en réalité c’est surtout que j’essaie de faire un tri le plus critique possible, ce qui n’est pas évident. Mais j’ai par exemple relativement confiance en Next Inpact ce qui ne m’empêche d’adopter un regard critique sur le contenu des articles tout en reconnaissant la grande valeur de ce média.
Des journaux ou chaines de TV plus généralistes, c’est une autre histoire…


Netflix s’engage « à atteindre l’objectif Net Zéro carbone d'ici la fin de l'année 2022 »

Le 02/04/2021 à 14h 48

Tu peux lire le billet de blog en lien si tu veux.



En fait, ils s’appuient sur les recommandations scientifiques et on retrouve les idées présentées par l’ADEME (liens dans les commentaires) :




  1. RÉDUCTION de nos émissions

  2. CONSERVATION d’écosystèmes existants qui stockent du CO2

  3. ÉLIMINATION du CO2 de l’atmosphère


J’ai lu, merci.
Pour autant, cela ne signifie pas qu’il y ait un quelconque fondement scientifique derrière la désignation “net zero carbon” pour une entreprise. Ce net zero n’est d’ailleurs défini ou normé nul part; hormis dans les billets de blogs des entreprises qui veulent se verdir…
Devenir plus efficient, planter des arbres et protéger la forêt, c’est bien (à condition que ce soit vraiment fait en tout cas, ce qui est à priori peu souvent le cas en fait, mais ça n’implique de toute façon pas qu’on est “net zero carbone” si tant est que cela veuille dire quoi que ce soit.


Le 02/04/2021 à 09h 18

Greenwashing sans fondement scientifique ?


Nombreuses nouveautés pour Google Maps, dont une Live View améliorée

Le 31/03/2021 à 12h 19


(reply:1864450:Mr Patator)




Ce serait peut-être vrai si on gardait nos smartphones 10 ans ou plus.
(d’ailleurs si je ne me trompe pas, on regarde aussi la TV et la météo dessus, et parfois on téléphone même!)


Cédric O : service universel de la fibre en 2025, saturation de la 4G, plan d’aide au numérique

Le 16/03/2021 à 10h 06

Je te confirme que les PTO ont plusieurs prises.
Le “problème” actuel est que la fibre étant en voie de déploiement, dans beaucoup d’endroits, il n’y a encore qu’un seul opérateur qui a fibré physiquement l’immeuble, et les autres opérateurs n’ont pas forcément signés le contrat pour utiliser son réseau et déployer leurs offres.
M’enfin gageons que ça ne peut qu’évoluer dans le bon sens, il ne faut pas stigmatiser là un défaut structurel de la fibre par rapport au cuivre, ça n’a rien à voir, ça a plutôt trait à la jeunesse du déploiement de la fibre par rapport à l’ancienneté du cuivre…


Autonomie numérique : objectifs et fortes ambitions de l’Europe d’ici à 2030

Le 10/03/2021 à 17h 45

C’est ton post idéologique c’est ça ?
Tu pourras toujours dire qu’ils ne sont pas élus, oui.
Tu pourras toujours dire qu’ils n’y connaissent rien, c’est toujours agréable pour tous ceux qui sont consultés dans les domaines en question (qui sont des gens comme toi).



Tu pourras toujours dire que la planification c’est le mal.
En attendant, la planification c’est bien ce qui a permis à la France de se développer, tout comme la planification l’a permis dans de nombreux pays (USA, Chine…). Donc, j’avoue que je ne sais pas bien ce que tu reproches à cela. Je crois que tu vois le soviétisée un peu partout, et surtout là où il n’est pas forcément.



L’argent des autres ? Ben c’est le concept oui, puisque l’Union européenne est financée par le budget des pays membres. C’est ce qui permet d’avoir de grands projets à l’échelle européenne, de faire progresser tant économiquement que démocratiquement bien des pays.



Je ne comprends pas bien où tu veux en venir en fait.


Don’t feed the troll :)


Au CEA : « recycler le combustible nucléaire »

Le 16/02/2021 à 09h 58

Je n’ai pas forcément d’avis sur la question, si ce n’est qu’en général quand on peut recycler plutôt que ré-extraire j’ai tendance à trouver ça mieux par principe, hors contrainte économique. Mais je pense que même sans cette contrainte, ça n’est pas forcément si évident, car j’imagine que certaines technos de recyclage ne sont pas forcément beaucoup plus propres que certaines techniques d’extraction, pour ce qui est des déchets nucléaires, aucune idée.



En revanche, un autre élément de réponse dont on fera ce que l’on veut:
De mémoire, la production de déchets nucléaires annuelle en France, c’est dans les 40 000 tonnes, c’est à dire que dalle ou presque. Du coup, l’intérêt écologique n’est pas monstrueux non plus.



En gros, les centrales qui utiliseraient ces déchets présentent des problèmes de sûreté encore à adresser (en comparaison d’autres technos), la méthode de recyclage des déchets reste à développer industriellement, n’est certainement pas neutre non plus et la matière première est disponible en abondance, enfin l’intérêt économique n’est visiblement pas là.



Au final, je ne sais pas si c’est une bonne chose ou pas, mais je comprends que ça ai du mal à percer :/


Le nouveau CNNum privilégie les scientifiques aux informaticiens (et aux start-upeurs)

Le 12/02/2021 à 22h 31

Mais non.



Il ne s’agit pas de recréer une société antique.



Il s’agit de partir du postulat de départ :
« Nous devons nous gouverner pour le temps long, l’échelle du siècle » et en se donnant comme contrainte de ne pas céder à la dictature politique.



Le PCC a son Histoire et ses valeurs, nous en avons d’autres mais nous devons tout repenser pour arriver nous aussi à gouverner pour le temps long.



Nous devons aussi supprimer toute querelle politicienne de personne pour choisir des objectifs et des doctrines pour les mettre en œuvre de manière systémique.



Le tout en mettant ce gouvernement sous le contrôle du peuple et en les obligeants à dialoguer sans cesse.



Mais en assurant à ce gouvernement non réélectible et serviteur de l’intérêt général et du peuple, un temps long pour agir.



Et aidé par des chambres hybrides de prospective qui proposent des plans déclinés à l’échelle du siècle pour permettre la transformation rendue nécessaire pour la réalisation des objectifs poursuivis.



Même si notre PIB diminue de 50% dans les 30 ans qui viennent, ce sytème de dialogue permanent entre citoyens, gouvernement et prospectivistes permettra que les avancées soient faites même en cas d’effondrement relatif tout en restant sous le contrôle citoyen.


Je veux simplement dire que ce qui nous permet de discuter c’est qu’on sous-traite beaucoup de travail. Si on doit travailler plus, il est difficile d’imaginer qu’on sera capables de plus discuter.


Le 12/02/2021 à 17h 56

La démocratie est plus difficile à projeter dans le temps long que des dictatures politiques, mais il faut parvenir à le faire en gardant nos valeurs au cœur.



Je réfléchissais à une forme de gouvernement qui emprunte à l’Athènes antique, où l’on choisirait un gouvernement de personnes très capables dans les différents domaines pour une durée de 15 ou 20 ans sans discontinuer et non renouvelable mais qui devrait mettre en œuvre les objectifs et la doctrine politique choisie par les citoyens.



Tout changement d’objectif, de moyen ou de doctrine au cour du mandat devrait faire l’objet d’un référendum à choix multiples et engagerait le gouvernement.



Ce gouvernement serait encadré par une chambre citoyenne qui devrait voter les lois.



En cas de violation de la loi par ce gouvernement, le peuple pourrait voter par référendum la destitution d’un ou de plusieurs de ses membres.



Ce mandat long mais impératif dans les objectifs à pour objet de retirer les enjeux politiciens et électoralistes de l’action de gouvernement et de redonner au souverain, le peuple, le choix de sa destinée.



Ce mandat a aussi pour objectif d’être assez long pour qu’une politique puisse être menée à son terme dans le temps long tout en étant contrôlé par les citoyens.



Ce système pourrait fonctionner sur la base d’orientations et de plans proposés par ces chambres de prospective dont le précédent commentateur parlait et dont la réalisation serait proposé au peuple lorsqu’il décide de l’orientation dudit gouvernement.


Les démocraties antiques et suivantes étaient assises sur des cohortes d’esclaves travaillant pour les citoyens qui gouvernent.
Nous sommes assis sur des machines, pour lesquelles on va commencer à manquer de ressources pour les alimenter, maintenir et fabriquer dans les mêmes conditions, très probablement dans ce siècle.
Du coup se baser sur ces systèmes n’est certainement pas une source de pérennité malheureusement.


Le 12/02/2021 à 13h 57

Sauf que la cybersécurité n’est pas un outil mais bien une démarche. Rien à faire de savoir si tu utilises un hash 512 ou 256 ou si tu t’appuies sur TLS 1.3.



Par contre ne pas intégrer en même temps que les enjeux et perspectives les risques et les menaces inhérents, surtout dans un contexte aujourd’hui hyper connecté je persiste à penser que ce n’est pas très sérieux. Surtout lorsqu’on prétend couvrir des domaines aussi sensibles que l’économie, les organisations, l’action publique ou les territoires.


Je ne dis pas qu’il n’aurait pas été bien d’avoir des experts en cybersécurité dans le CNNum, je suis assez d’accord avec ça.
Mais je nuance car:




  1. Leur absence n’implique pas que les présents n’ont rien à faire là

  2. Le sujet cybersécurité est traité par l’état à travers, entre autres, l’ANSSI

  3. Pour le coup comme l’a montré Fred42, le problème de ce CNNum semble plus large, et en fait, il n’y a même pas assez de membres à priori (sans parler de leurs champs d’étude), donc on aurait pu prendre ceux là ET des ingés en cybersécurité.



Après en pratique, si l’état ne tient compte de toute façon ni de l’avis du CNNum ni de l’avis du patron de l’ANSSI… Car au final, aucunes de ces personnes ne sont des décideuses.



Et pour ta première réponse concernant le fait que la cybersécurité est une démarche pas un outil:
Je ne prétends pas que la cybersécurité n’est pas une science. Je dis qu’être chercheur cybersécurité dans un labo (privé ou public peu importe) ou ingénieur cybersécurité dans une boite, ce sont deux métiers différents, et le second n’est pas scientifique (ça ne veut pas dire qu’il ne pourrait pas l’être, mais là n’est pas la question).



Donc oui, quand on me dit “ils privilégient les scientifiques aux informaticiens” ça ne me choque pas, mais ça ne veut pas dire grand chose. Le fond de la question c’est surtout, pourquoi n’y a-t-il pas de chercheurs spécialistes du domaine, et pourquoi ne respectent-ils pas le décret de 2017.



Pour mon avis perso (qui est peut-être, et je l’espère, totalement faux): c’est de toute façon encore une structure dont la vocation est louable mais qui ne sert à rien dans la pratique, peu importe ses membres.


Le 12/02/2021 à 13h 23

Merci à vous deux :chinois:
Le truc c’est que beaucoup de dev’ ou d’ingés sécurité info se prennent pour des scientifiques, et regardent un peu de haut tout le reste. Alors qu’un ingénieur de ligne chez Total qui fait tourner une raffinerie a bien compris qu’il ne fait pas de la science. :troll:
Et si je pousse le bouchon, un chercheur de CNRS qui conduit des analyses en développant son propre code Python, ne se dit certainement pas que la partie scientifique de son boulot c’est le code. C’est un outil qu’il utilise parmi tant d’autres pour mener à bien ses travaux. La science c’est une question de démarche et de méthode, pas de discipline…



Là pour le coup c’est factuel, merci :)


Le 12/02/2021 à 11h 06

Quel est le problème avec les travaux de Serge Tisseron (par exemple?). C’est une référence dans son domaine.
On peut estimer qu’il y a effectivement un manque de représentativité d’autres disciplines dans le CNNUm (comme la cybersécurité), mais ça ne veut pas dire que ceux qui y sont n’ont rien à y faire, car on parle effectivement d’enjeux sociétaux.



Je suis d’accord ;) Mais bon je pense qu’il faut nuancer un peu aussi. Et justement le CNNum est plutôt chargé d’approcher les questions numériques sous un angle sociétal, la cybersécurité c’est effectivement l’affaire de l’ANSSI qui est rattachée directement au Premier Ministre, alors que le CNNum est rattaché au secrétaire d’Etat chargé du numérique.


Le 12/02/2021 à 09h 46

L’ANSSI est rattachée directement au bureau du Premier Ministre. Je me dis qu’au moins, ça fait pas doublon pour le conseil…


Le 12/02/2021 à 08h 53

Je jette un pavé dans la mare, et j’assume le fait que c’est une position purement personnelle avec tous les biais que ça implique pour le coup:



le titre m’a fait un peu plaisir, car étant moi même ingénieur dans un milieu de recherche scientifique (pas en informatique) mais passionné par l’informatique et fréquentant pas mal d’ingénieurs en informatique, j’ai souvent eu le sentiment, que contrairement à leurs confrères d’autres disciplines comme les matériaux, la mécanique, la chimie, etc… qui ont bien compris qu’être ingénieur et scientifique sont deux choses différentes (qui peuvent parfois se cumuler évidemment), les informaticiens (que je connais) ont bien plus souvent du mal à faire cette distinction.


Si l'USB Type-C perce dans l'équipement résidentiel, c'est souvent sans Power Delivery

Le 09/02/2021 à 16h 15

Je n’impose rien à personne, je n’interdit pas de développer ces techniques. Je dis simplement que c’est une source de gaspillage énergétique supplémentaire.
Ensuite oui, à mon sens, pour un bénéfice minimal (mais je n’ai pas dit inexistant non plus). Toujours est-il que ce bénéfice, peu importe son niveau, est un bénéfice de confort.



Je ne sais pas trop ce que viennent faire les bébés phoques là dedans, mais j’espère qu’ils se portent bien.
Quant à la liberté de choix, mais là encore ça n’engage que moi, j’ai plutôt l’impression de vivre dans une société d’abondance (je suis d’ailleurs le premier à avoir des tas de trucs inutiles).



Mais à nouveau, tu détournes le débat et l’oriente comme ça t’arrange. J’ai simplement commencé par dire qu’un transformateur en plus dans les prises murales, c’est de la consommation en plus. Je n’ai rien dit d’autre, je n’ai fait que répondre par la suite aux nouveaux points que tu amenais, et qui sont complètement décorrélés de cette remarque initiale.


Le 09/02/2021 à 14h 27

Je dois avouer que tu me fais penser à Schopenhauer et l’Art d’avoir toujours raison, pour le coup (je pense notamment au Stratagème XVIII).




  1. Non, je te remercie, mais je ne confonds pas. Un chargeur, branché à vide, ne consomme pas rien. C’est un composant actif, ce N’EST PAS une “bête” prise électrique. Un lien pour t’en convaincre. Un extrait pas choisi au hasard: “Selon le Lawrence Berkeley National Laboratory(1), un chargeur branché « à vide » peut entraîner un appel de puissance moyen de 0,26 W “

  2. Encore une fois, tu déplaces le débat. Je n’ai jamais dit que l’usage actuel que l’on a des chargeurs “jetables” n’est pas un gâchis qu’il faut combattre. Je dis simplement que rajouter des chargeurs intégrés dans les prises murales constituerait juste un gâchis de plus, sans bénéfice notable. Non tu ne me feras pas croire que c’est ce que les constructeurs attendent pour arrêter de mettre des chargeurs dans les boites de téléphone (d’ailleurs ceux qui veulent jouer le jeu on déjà un peu commencé, en dehors de ça, ils ne le font déjà pas alors qu’on a effectivement déjà X chargeurs répondant au besoin, dans le mur ou pas…)

  3. L’argument selon lequel le courant continu ou l’USB sont de vieux standards est bien fallacieux. En premier lieu, mon problème n’a jamais été d’amener du DC ou AC au chargeur, mais bien d’avoir un chargeur alimenté en permanence (si tu relis mon premier message, je n’avais aucune autre thèse que celle-ci). Enfin concernant la pérennité du standard USB, bien sûr qu’il est vieux et là pour encore longtemps, reste qu’il va encore évoluer, et chaque constructeur va continuer à vouloir fournir son propre chargeur pour aller encore plus vite etc. Mais encore une fois, je réponds à ce point par politesse, tu as amené le débat là mais c’est complètement à côté et sans lien avec ma remarque initiale.