Difficile à dire... Zuckerberg ne soutient pas officiellement Trump à priori... Voir https://www.ledevoir.com/economie/816686/silicon-valley-rival-trump-est-il-mark-zuckerberg par exemple De là à dire que c'est un démocrate...
En 2022-2024 l'informatique a fait pas mal de progrès comparé aux années 80-90...
Oh juste x18 millions de fois plus puissants entre 1993 et 2024 pour les supercalculateurs...
En premier lieu je ne pense pas que la conception d'Ariane fasse beaucoup usage des supercalculateurs. En second lieu, la simulation de systèmes complexes tels qu'une fusée et des éléments qui la composent reste un sujet complexe, même si la puissance de calcul a en effet explosé, la mécanique par exemple est toujours la même, un élément fini c'est toujours un élément fini et sans de bonnes données expérimentales il n'est point de bon modèle numérique. Bref, c'est pas parce qu'on simule que c'est parfait et que tout est possible du premier coup sans passer par l'expérimentation. Enfin, le pourcentage de réussite estimé provient probablement de... Simulations ;) Mais tu peux aussi te faire embaucher chez Ariane group, t'occuper de leur acheter les licences logicielles et les serveurs qui vont bien, puis laisser les ingénieurs faire leur travail.
Au-delà de la problématique de l'accès aux données stockées dans le cloud (je ne suis pas capable d'infirmer ou confirmer tes propos), je pense plus globalement qu'être persuadé qu'on est protégé à coup sûr alors que les solutions ne sont pour commencer pas opensource, c'est de la naïveté de la part de nos autorités. C'est pas comme si le passé ne nous avait pas déjà prouvé maintes fois qu'il ne faut pas leur faire une confiance aveugles.
Enfin, plus "trivialement", sur un autre registre que le pompage et l'accès aux données, la simple utilisation d'un logiciel US donne des droits au DoJ sans égards pour les lois internationales. À titre perso je m'en tape un peu, mais si j'étais "capitaine d'industrie" comme on dit, ça me laisserait songeur... Mais puisqu'on met déjà tout ça partout dans les entreprises, pourquoi pas bleu ou sens ? C'est "pas pire". Triste ambition...
C'est contextualisé dès l'introduction de l'article, c'est un peu le principe des t@lc... Pas obligé d'apprécier, mais c'est la nature de l'exercice :)
C'est un plan à 43 milliards dont ces 2,5 milliards vont financer différents travaux portés par des labo de recherche. Il n'est pas dit non plus (c'est même hautement improbablement vu le fonctionnement du LETI et des Fraunhofer que je connais) que les industriels ne seront pas associés à ces travaux de recherche. Enfin, il n'est pas choquant de vouloir financer l'apprentissage/l'éducation et la R&D pour pérenniser dans le long terme l'implantation d'usines de ce type.
Mwais, générer de l'entropie via un dispositif quantique, ce n'est pas nouveau... il y a des appliances pour ça... là ça a un côté couper son pain avec un sabre laser pour faire des toasts...
Peu importe, ce n'est pas de la R&D, je réponds juste à la question et c'était écrit dans l'article... Pour le reste, cf. l'autre moitié de ma réponse.
Le
19/03/2024 à
09h
52
En dehors de la R&D: "OVHcloud utilise par ailleurs l’ordinateur quantique en interne, pour générer des nombres aléatoires pour des clés de chiffremen" à la fin de l'article...
Sinon, plus généralement, les débouchés possibles pour les ordinateurs quantiques sont multiples mais les différentes technos manquent encore de maturité pour de réelles applications pratiques à échelle intéressante.
Mais tout ça est évoqué dans les différents articles de Next sur le sujet ;)
Les trainées n’ont pas a voir avec le mode de propulsion, donc ça ne changera rien. C’est bien dit dans l’article.
ce n’est pas complètement vrai dans la mesure ou les paramètres influants, outre les pression, humidité et températures atmosphériques, sont également les valeurs de sortie de ce qui est “produit” par le système de propulsion, et j’imagine qu’entre du kérosène, du saf ou d’autres chose, ce n’est pas parfaitement égal. On ne peut donc pas tabler sur une réduction des contrails grâce à un changement de carburant, en revanche il faudra adapter le modèle.
Je n’ai pas vu dans l’article google la comparaison “hors tout”: on réduit les contrails, super (vraiment). Mais on rallonge le vol: de combien ? quel est le bilan global à la fin ? (il y a bien une note concernant l’augmentation de consommation de kérosène, mais bon ils comparent des % de consommation de carburant avec des baisses de CO2eq lié aux contrails, on ne peut donc pas en conclure grand chose…)
Je n’ai pas un avis aussi tranché (j’imagine que ta question est purement rhétorique ?).
Pour ma part, je n’ai pas d’avis pertinent sur le devenir du/des “métavers” tels que le proposés aujourd’hui, au sens de leur adoption et/ou succès financier, en revanche, j’ai du mal à imaginer que le concept de métavers au sens large n’aboutisse jamais. Pour moi c’est juste une question de temps et de forme (et là, je ne m’avancerai pas sur des jalons…). Une fois qu’on a dit ça, plein d’évènements pourraient empêcher son aboutissement (et beaucoup d’autres choses), comme des troubles mondiaux voir des guerres, la raréfaction des ressources, …
Tout ça pour dire, que c’est quand même important de prendre du recul sur les choses, et le recul ça signifie autant ne pas se lancer aveuglément dans des technologies plus ou moins bullshit, que ne pas rejeter directement un concept car le seul exemple qu’on en ai est bullshit.
Je pense que c’est le cas de beaucoup de projets, ou parfois un mélange des deux approches, une forme de sérendipité. Mais avoir un descriptif de projet au top sémantiquement qui fait par hasard directement un super acronyme bien à propos, ça doit relever du miracle :)
Le
02/02/2022 à
16h
01
C’est bien 100W, mais à 100Hz (et pas 100W à 100W, ça n’a aucun sens).
Le
02/02/2022 à
15h
59
pour signaler une erreur : le petit triangle avec un ! dedans en bas de la brève. Je te laisse faire pour l’exercice pratique. ;)
je connais le truc (je l’ai déjà utilisé pour signaler des erreurs dans des articles, mais je t’assure que ce matin l’icône n’était pas là, je me suis dit que le code de rendu des pages de brèves était peut être différent, j’ai trouvé ça bizarre. En tout cas merci pour ta réponse, car là il y est… peut être le moteur de rendu de Brave qui fait le bordel.. bref :)
Je suppose (lecture en diagonale, j’ai peut-être raté un point), qu’ils ont fait les regroupements “après coup”, de part des statistiques d’opinion proches ;)
Très bonne remarque, merci à toi :)
Le
11/01/2022 à
12h
29
Moi ça me gène un peu de mettre la pratique du yoga, l’aromathérapie ou l’hypnose dans le même panier (j’ai cité ces trois choses en exemple, mais c’est le panier dans son ensemble qui me pose problème). S’il est vrai qu’aucune de ces disciplines n’est de la science, les usages et éléments de preuves (ou d’absence de preuves) disponibles pour chacune d’elles n’ont rien à voir. A ce tarif, ils auraient pu rassembler la voyance avec également, nous n’étions plus à ça près…
Mais en gros, en plus d’avoir moins tendance à capturer des corps (petits astéroïdes éventuellement, poussières, …) par rapport aux autres points, L2 est également le seul à être aligné avec le soleil et le système Terre-Lune. Ce qui est bien pratique puisque le bouclier thermique doit protéger les instruments des émissions infrarouges solaires ET du système Terre-Lune. S’ils n’étaient pas alignés, la tâche serait bien plus complexe (géométrie du bouclier, etc…).
Je n’ai pas de preuve formelle pour supporter mon propos, mais je suis en désaccord avec cette idée commune suivant laquelle on connaîtrait mieux l’espace que le fond des océans. Il est vrai que le fond des océans est encore largement méconnu, et c’est bien dommage; néanmoins l’immensité spatiale et temporelle de l’univers me laisse penser qu’on en connait encore moins que pour nos océans, et c’est bien logique. La comm’ est simplement plus tonitruante, et les recherches plus conséquentes, mais pas en proportion.
Le
06/11/2021 à
10h
38
Hello, en fait certaines théories (sérieuses) envisagent bien la possibilité de se rendre aussi loin via différentes astuces physiques (par exemple la métrique d’Alcubierre" target="_blank">https://fr.m.wikipedia.org/wiki/Métrique_d'Alcubierre#:~:text=La métrique d’Alcubierre, également,le physicien mexicain Miguel Alcubierre.)). Le problème étant surtout que la possibilité de réalisation technique elle-même risque de ne jamais être à notre portée si tant est qu’elle soit valide, ce qui reste également à prouver.
Mais je joue sur la sémantique là, en fait, je voulais surtout intervenir pour rappeler que le propos des astronomes à travers les exoplanètes n’est pas de fantasmer des mondes lointains en espérant s’y rendre un jour (même si on a le droit de rêver) mais plutôt d’étudier la formation et l’évolution des planètes en général, ainsi que sur l’histoire de l’univers, dans le but d’en apprendre plus sur notre propre planète et in fine sur nous mêmes.
je trouve ça cool dans l’idée, mais au risque de sonner un peu réac’ j’ai l’impression que si on commence enfin à donner l’importance qu’il faut à l’informatique dans l’éducation (c’est plutôt bien); ça se fait au détriment de sciences plus classiques (la mécanique ou la cinématique par exemple). Et je trouve ça un peu dommage, car c’est bien de savoir coder, et c’était (c’est) clairement trop rare encore, mais savoir comprendre comment fonctionnent un moteur ou une centrale nucléaire, c’est quand même pas mal non plus pour un citoyen…
Eléments de contexte: j’ai une formation en conception mécanique + ingénieur soudeur; je bosse dans la recherche en matériaux et je suis passionné d’informatique avec quelques petites compétences associées. Du coup j’ai certainement beaucoup de biais qui se compensent plus ou moins
Certes c’est probablement plus éco moins consommateur que l’équivalent à écran LCD, après j’ai quand même du mal à mettre “respect de l’environnement” en positif pour parler d’un bidule qui ne sert qu’à afficher en direct le cours d’une action, par pur confort, alors que tu as déjà des dispositifs à portée de main qui peuvent le faire sans en fabriquer de nouveaux…
Tu te trompes en effet complètement sur l’intérêt que je prête ou non à leur travail, en fonction des personnes visées ou non. Spoiler alert: dans l’absolu ça ne me gêne pas de lire un article critique sur une défaillance du système, du gouvernement, de l’Elysée ou du président.
Je ne nie absolument pas la qualité de leur travail d’enquête non plus.
Simplement, et je ne parlais pas uniquement de Mediapart, je déplore qu’aujourd’hui (si ça se trouve ça a toujours été le cas mais ma prise de conscience est plus récente, je n’en sais rien) le travail journalistique soit très souvent orienté et présenté d’une façon partisane. Que l’enquête soit sérieuse et de qualité c’est bien, que les faits sous-jacents soient avérés c’est encore mieux, mais tout ça ne compense pas chez moi la déception et le désintérêt que j’éprouve pour une grande partie de la presse à connaître la teneur d’un article simplement en connaissant le titre du journal… Rassure toi: il m’arrive quand même de les lire assez régulièrement ;)
Le
27/08/2021 à
15h
07
(reply:1892443:soupêtte)
Du coup je suis pas sûr que ce soit un super exemple pour eux de mettre en avant le fait que parfois c’est bien plus pernicieux… J’aurai plutôt tendance à dire que ça illustre mon propos, même si dans le cas présent “y’a pire”
Le
27/08/2021 à
14h
27
Un vrai problème dans le process, mais présenté dans du journalisme “à charge” quoi, c’est malheureusement bien trop la norme aujourd’hui :( Le jeu des tournures de phrases et des titres…
Non je ne confonds pas. Le risque, quand on n’est pas naïf, c’est que MS impose (ou incite fortement) les constructeurs à mettre des SB non desactivables sur leurs machines. Avec un SB désactivable (allez, même enclenchépar défaut dans l’UEFI ou le bios, pourquoi pas), la sécurité est “amenée” à tous, et celui qui veut la gérer lui même peut prendre le contrôle au besoin. C’est là dessus qu’il va falloir être très vigilant.
Beaucoup d’exemples concrets de SB non désactivables ? (c’est une vraie question car je n’en ai jamais vu mais je vois passer très peu de machines OEM)
Le
23/08/2021 à
17h
10
Ta machine est probablement encore très agréable dans la vie de tous les jours, voire certains jeux ou applications professionnelles vu la carte graphique, et si SDD.
Mais le CPU est très ancien. Si tu compares ton Xeon au moindre CPU d’entrée de gamme comme un i3-10100 (même nombre de coeurs et threads que ton Xeon), le Xeon est complétement dépassé : Passmark 1472⁄3245 contre 2637⁄8828 pour un des plus petits i3. Et le jeu d’instructions est sans commune mesure, plus des extras comme des disques NVME, de l’USB3 sans carte fille…
Ton PC et processeur semblent accuser leur décennie. Je trouve que tu as bien sauvé la planète et tes finances en les tenant tout ce temps. Mais en terme de performances sur les nouveautés tu ne pourras plus suivre. Note : j’ai connu ce même problème avec un fantastique i7-2600 que j’ai recyclé en NAS, pour prendre un petit processeur récent plus agréable. La suite Adobe se lance au moins deux fois plus vite, alors que je la voyais ralentir au fil des màj.
yep je suis bien conscient de cet état de fait et j’approuve à 100% :) mon interrogation provient surtout de l’écart de perf que j’ai pu observer entre la virtualisation de Win 11 et de Win 10 (je vais tester mac os 11 pour rire).
Le
23/08/2021 à
14h
04
J’ai une assez vieille machine, un Xeon X3480 sur une mobo en chipset P55 avec 16Go de DDR3 et une GTX1060 à côté, je sais que l’ensemble n’est pas compatible pour de nombreuses raisons mais j’ai testé en machine virtuelle quand même, par curiosité, et alors que j’arrive à virtualiser avec un confort correct (pour du surf ou de la bureautique) pas mal de distrib’ linux ou encore windows 10, j’ai été surpris par windows 11 qui s’est révélé outrageusement lent (à démarrer, puis l’interface en elle même). Je n’ai pas creusé plus loin, j’étais juste un peu curieux, mais je me demande si cela vient justement de jeux d’instructions spécifiques introduits dans les générations de processeurs ultérieures à mon Xeon ou d’autres soucis spécifiques à la machine virtuelle en elle même.
La quantité d’énergie que tu dépenses et de CO2 que tu émets pour ce commentaire quand il y a tant de gens qui n’ont même pas accès à l’eau potable… tu vois où je veux en venir ? Sinon, pour parler chiffres, le budget de la NASA aux USA c’est 0,48% du budget fédéral en 2020. Tu crois vraiment que c’est là qu’il y a des économies à faire pour sauver la planète ? Sachant qu’une bonne partie de ce budget est dédiée à l’observation de la Terre, la gestion des crises et à la compréhension des phénomènes naturels qui nous impactent/que nous causons ?
Le
17/08/2021 à
08h
54
Et encore c’est sûrement sans compter sur leurs propres sous-traitants :)
Je calcule le temps Altra / Epyc pour chaque nombre de threads affichés dans les histogrammes Blender et x264, pour savoir combien de fois Epyc va plus vite qu’Altra. De ton côté tu dis (corrige moi si je me trompe j’ai un doute) qu’Altra est 15,9x plus performant à 16T qu’à 1T tandis que pour Epyc c’est 14,7x, ce qui tend à démontrer qu’Altra scale mieux. De mon côté j’ai fait la comparaison pour chaque nombre de threads présentés d’un processeur par rapport à l’autre.
Ensuite tu dis que l’écart s’amenuise, je ne dis pas le contraire mais je dis juste que ce n’est pas probant avec l’échantillon mesuré indiqué dans l’article, car il stagne de 1T à 8T dans le cas de Blender (avec même une légère remontée à 2T si j’enlève l’arrondi à une décimale) puis une chute de 1,9x à 1,8x entre 8T et 16T. Je pense juste que pour voir l’effet du scaling de façon notable il faudrait effectivement des résultats avec plus de threads, là statistiquement, on ne voit rien du tout (mais tu le sous-entends déjà à la fin, mon intention n’est pas la critique).
Pour l’interprétation que j’ai faite du paragraphe concernant le la similarité x264 vs Blender, toutes mes excuses, j’ai bien relu et j’avais mal interprété: nous disons effectivement la même chose :)
EDIT: et réflexion qui vient de me venir: c’est assez contre-intuitif pour moi de voir qu’Epyc a justement “plus de mal” à maintenir l’écart (et de loin) en x264 qu’avec Blender. Une hypothèse ?
Sinon pour, et c’est tout à fait perso, je préfère le graph type “nuage de points” dans Excel pour représenter des données si on veut montrer la présence ou l’absence de tendance ==> les lignes aident visuellement (mais je dis ça juste pour discuter, n’y vois pas une critique du tout)
Le
07/06/2021 à
16h
02
Merci pour cet article super intéressant!
En revanche sur l’interprétation de ces résultats préliminaires je me permets de commenter vos analyses: Blender Il est vrai qu’en augmentant le nombre de threads l’écart se réduit, mais pas autant que ce que vous semblez entendre, en effet voilà les ratios en fonction du nombre de threads: 1T:1,9x; 2T:1,9x; 4T:1,9x; 8T:1,9x; 16T:1,8x.
x264 La tendance est en fait assez différente de ce qu’on voit pour Blender, voilà les ratios en fonction du nombre de threads: 1T:1,9x; 2T:1,4x; 4T:1,1x; 8T:1x; 16T:1,1x.
En traçant l’ensemble sur un graph, on voit bien que si l’écart à 16T est plus faible que l’écart à 1T dans les deux cas, dans le cas Blender on a en fait pas de tendance de 1T à 8T puis une chute en passant à 16T alors que sur le test x264 on a une chute rapide de 1T à 8T puis une remontée à 16T (quasi aussi importante que la chute entre 8T et 16T du test Blender).
J’ai tracé le tout vite fait et en comparant ces ratios ça saute aux yeux.
Encore merci pour ces mesures, et on est bien d’accord que ce sont des résultats préliminaires et je ne conclue rien non plus de définitif avec, mais je trouve juste que les résultats sont un poil différents d’une partie du texte associé je me permets donc d’y aller de mon commentaire
Je te trouve un tantinet condescendant, mais bon 😅 Je pense que ça va encore être un dialogue de sourd mais: je n’oppose pas ces deux aspects, je constate que l’un (le développement de nouveaux produits) semble aller plutôt bien au regard des standards du marché tandis que l’autre (la correction des failles) semble plutôt pêcher. Du coup, il est légitime de s’interroger (juste pour la forme car QNAP n’a évidemment de comptes à rendre qu’à son conseil d’administration) sur la stratégie de l’entreprise et l’allocation des ressources qui en découle. Il est évident également que ça n’est pas le seul paramètre qui rentrera en compte dans ces sujets, on peut citer par exemple la complexité technique des sujets à traiter (et là il est compliqué de comparer stricto-sensu un lancement de gamme et des corrections de faille). Seulement, là où je pose une interrogation légitime et ouverte (qui n’attend d’ailleurs pas spécialement une réponse spécifique que tu ne saurais apporter) tu m’adresses une fin de non-recevoir condescendante alors que tu n’as rien de factuel de plus, en dehors de sous entendre que je n’y connais probablement rien au fonctionnement d’une boite de cette ampleur.
Si je voulais adopter le même type de ton que toi, je te dirai que tu as une façon bien candide de voir le fonctionnement d’une boîte (surtout de cette ampleur). Et comme dit, je n’oppose pas le fait de développer une gamme plus ou moins complète au fait de corriger rapidement des failles.
😚
Le
13/04/2021 à
17h
49
C’est vrai mais c’est quand même au bout du bout une direction commune qui décide d’attribuer plus ou moins de budget, de ressources et d’humains à droite ou à gauche, et une fois les méandres de la compta analytique passée, le budget global… c’est celui de qnap.
Niveau science, c’est très intéressant. Niveau société, on peut se poser la question. Le problème des hydrocarbures n’étant pas seulement leur approvisionnement (même si ça induit évidemment de lourdes tensions géopolitiques) mais également le fait qu’on les brûle tout simplement, en rejetant tout un tas de saloperies dans l’atmosphère… même si on ne parle que du CO2… Je suis pas sûr que ce soit une bonne nouvelle d’avoir à portée de main dans ce siècle leur production à volonté.
“37 % seulement des Français interrogés faisaient confiance aux médias, à égalité avec les Britanniques. Seuls le Japon (36 %) et la Russie (29 %) enregistrent un taux inférieur, loin derrière les 45 % d’Américains, 52 % d’Allemands et 70 % de Chinois interrogés.”
Comme quoi on garde encore un peu d’esprit critique par rapport à d’autres. Inattendu.
Plus sérieusement, en répondant à cette étude, je serais probablement classé comme n’ayant pas confiance dans les médias, alors qu’en réalité c’est surtout que j’essaie de faire un tri le plus critique possible, ce qui n’est pas évident. Mais j’ai par exemple relativement confiance en Next Inpact ce qui ne m’empêche d’adopter un regard critique sur le contenu des articles tout en reconnaissant la grande valeur de ce média. Des journaux ou chaines de TV plus généralistes, c’est une autre histoire…
Tu peux lire le billet de blog en lien si tu veux.
En fait, ils s’appuient sur les recommandations scientifiques et on retrouve les idées présentées par l’ADEME (liens dans les commentaires) :
RÉDUCTION de nos émissions
CONSERVATION d’écosystèmes existants qui stockent du CO2
ÉLIMINATION du CO2 de l’atmosphère
J’ai lu, merci. Pour autant, cela ne signifie pas qu’il y ait un quelconque fondement scientifique derrière la désignation “net zero carbon” pour une entreprise. Ce net zero n’est d’ailleurs défini ou normé nul part; hormis dans les billets de blogs des entreprises qui veulent se verdir… Devenir plus efficient, planter des arbres et protéger la forêt, c’est bien (à condition que ce soit vraiment fait en tout cas, ce qui est à priori peu souvent le cas en fait, mais ça n’implique de toute façon pas qu’on est “net zero carbone” si tant est que cela veuille dire quoi que ce soit.
Ce serait peut-être vrai si on gardait nos smartphones 10 ans ou plus. (d’ailleurs si je ne me trompe pas, on regarde aussi la TV et la météo dessus, et parfois on téléphone même!)
Je te confirme que les PTO ont plusieurs prises. Le “problème” actuel est que la fibre étant en voie de déploiement, dans beaucoup d’endroits, il n’y a encore qu’un seul opérateur qui a fibré physiquement l’immeuble, et les autres opérateurs n’ont pas forcément signés le contrat pour utiliser son réseau et déployer leurs offres. M’enfin gageons que ça ne peut qu’évoluer dans le bon sens, il ne faut pas stigmatiser là un défaut structurel de la fibre par rapport au cuivre, ça n’a rien à voir, ça a plutôt trait à la jeunesse du déploiement de la fibre par rapport à l’ancienneté du cuivre…
C’est ton post idéologique c’est ça ? Tu pourras toujours dire qu’ils ne sont pas élus, oui. Tu pourras toujours dire qu’ils n’y connaissent rien, c’est toujours agréable pour tous ceux qui sont consultés dans les domaines en question (qui sont des gens comme toi).
Tu pourras toujours dire que la planification c’est le mal. En attendant, la planification c’est bien ce qui a permis à la France de se développer, tout comme la planification l’a permis dans de nombreux pays (USA, Chine…). Donc, j’avoue que je ne sais pas bien ce que tu reproches à cela. Je crois que tu vois le soviétisée un peu partout, et surtout là où il n’est pas forcément.
L’argent des autres ? Ben c’est le concept oui, puisque l’Union européenne est financée par le budget des pays membres. C’est ce qui permet d’avoir de grands projets à l’échelle européenne, de faire progresser tant économiquement que démocratiquement bien des pays.
Je ne comprends pas bien où tu veux en venir en fait.
Je n’ai pas forcément d’avis sur la question, si ce n’est qu’en général quand on peut recycler plutôt que ré-extraire j’ai tendance à trouver ça mieux par principe, hors contrainte économique. Mais je pense que même sans cette contrainte, ça n’est pas forcément si évident, car j’imagine que certaines technos de recyclage ne sont pas forcément beaucoup plus propres que certaines techniques d’extraction, pour ce qui est des déchets nucléaires, aucune idée.
En revanche, un autre élément de réponse dont on fera ce que l’on veut: De mémoire, la production de déchets nucléaires annuelle en France, c’est dans les 40 000 tonnes, c’est à dire que dalle ou presque. Du coup, l’intérêt écologique n’est pas monstrueux non plus.
En gros, les centrales qui utiliseraient ces déchets présentent des problèmes de sûreté encore à adresser (en comparaison d’autres technos), la méthode de recyclage des déchets reste à développer industriellement, n’est certainement pas neutre non plus et la matière première est disponible en abondance, enfin l’intérêt économique n’est visiblement pas là.
Au final, je ne sais pas si c’est une bonne chose ou pas, mais je comprends que ça ai du mal à percer :/
Il s’agit de partir du postulat de départ : « Nous devons nous gouverner pour le temps long, l’échelle du siècle » et en se donnant comme contrainte de ne pas céder à la dictature politique.
Le PCC a son Histoire et ses valeurs, nous en avons d’autres mais nous devons tout repenser pour arriver nous aussi à gouverner pour le temps long.
Nous devons aussi supprimer toute querelle politicienne de personne pour choisir des objectifs et des doctrines pour les mettre en œuvre de manière systémique.
Le tout en mettant ce gouvernement sous le contrôle du peuple et en les obligeants à dialoguer sans cesse.
Mais en assurant à ce gouvernement non réélectible et serviteur de l’intérêt général et du peuple, un temps long pour agir.
Et aidé par des chambres hybrides de prospective qui proposent des plans déclinés à l’échelle du siècle pour permettre la transformation rendue nécessaire pour la réalisation des objectifs poursuivis.
Même si notre PIB diminue de 50% dans les 30 ans qui viennent, ce sytème de dialogue permanent entre citoyens, gouvernement et prospectivistes permettra que les avancées soient faites même en cas d’effondrement relatif tout en restant sous le contrôle citoyen.
Je veux simplement dire que ce qui nous permet de discuter c’est qu’on sous-traite beaucoup de travail. Si on doit travailler plus, il est difficile d’imaginer qu’on sera capables de plus discuter.
Le
12/02/2021 à
17h
56
La démocratie est plus difficile à projeter dans le temps long que des dictatures politiques, mais il faut parvenir à le faire en gardant nos valeurs au cœur.
Je réfléchissais à une forme de gouvernement qui emprunte à l’Athènes antique, où l’on choisirait un gouvernement de personnes très capables dans les différents domaines pour une durée de 15 ou 20 ans sans discontinuer et non renouvelable mais qui devrait mettre en œuvre les objectifs et la doctrine politique choisie par les citoyens.
Tout changement d’objectif, de moyen ou de doctrine au cour du mandat devrait faire l’objet d’un référendum à choix multiples et engagerait le gouvernement.
Ce gouvernement serait encadré par une chambre citoyenne qui devrait voter les lois.
En cas de violation de la loi par ce gouvernement, le peuple pourrait voter par référendum la destitution d’un ou de plusieurs de ses membres.
Ce mandat long mais impératif dans les objectifs à pour objet de retirer les enjeux politiciens et électoralistes de l’action de gouvernement et de redonner au souverain, le peuple, le choix de sa destinée.
Ce mandat a aussi pour objectif d’être assez long pour qu’une politique puisse être menée à son terme dans le temps long tout en étant contrôlé par les citoyens.
Ce système pourrait fonctionner sur la base d’orientations et de plans proposés par ces chambres de prospective dont le précédent commentateur parlait et dont la réalisation serait proposé au peuple lorsqu’il décide de l’orientation dudit gouvernement.
Les démocraties antiques et suivantes étaient assises sur des cohortes d’esclaves travaillant pour les citoyens qui gouvernent. Nous sommes assis sur des machines, pour lesquelles on va commencer à manquer de ressources pour les alimenter, maintenir et fabriquer dans les mêmes conditions, très probablement dans ce siècle. Du coup se baser sur ces systèmes n’est certainement pas une source de pérennité malheureusement.
Le
12/02/2021 à
13h
57
Sauf que la cybersécurité n’est pas un outil mais bien une démarche. Rien à faire de savoir si tu utilises un hash 512 ou 256 ou si tu t’appuies sur TLS 1.3.
Par contre ne pas intégrer en même temps que les enjeux et perspectives les risques et les menaces inhérents, surtout dans un contexte aujourd’hui hyper connecté je persiste à penser que ce n’est pas très sérieux. Surtout lorsqu’on prétend couvrir des domaines aussi sensibles que l’économie, les organisations, l’action publique ou les territoires.
Je ne dis pas qu’il n’aurait pas été bien d’avoir des experts en cybersécurité dans le CNNum, je suis assez d’accord avec ça. Mais je nuance car:
Leur absence n’implique pas que les présents n’ont rien à faire là
Le sujet cybersécurité est traité par l’état à travers, entre autres, l’ANSSI
Pour le coup comme l’a montré Fred42, le problème de ce CNNum semble plus large, et en fait, il n’y a même pas assez de membres à priori (sans parler de leurs champs d’étude), donc on aurait pu prendre ceux là ET des ingés en cybersécurité.
Après en pratique, si l’état ne tient compte de toute façon ni de l’avis du CNNum ni de l’avis du patron de l’ANSSI… Car au final, aucunes de ces personnes ne sont des décideuses.
Et pour ta première réponse concernant le fait que la cybersécurité est une démarche pas un outil: Je ne prétends pas que la cybersécurité n’est pas une science. Je dis qu’être chercheur cybersécurité dans un labo (privé ou public peu importe) ou ingénieur cybersécurité dans une boite, ce sont deux métiers différents, et le second n’est pas scientifique (ça ne veut pas dire qu’il ne pourrait pas l’être, mais là n’est pas la question).
Donc oui, quand on me dit “ils privilégient les scientifiques aux informaticiens” ça ne me choque pas, mais ça ne veut pas dire grand chose. Le fond de la question c’est surtout, pourquoi n’y a-t-il pas de chercheurs spécialistes du domaine, et pourquoi ne respectent-ils pas le décret de 2017.
Pour mon avis perso (qui est peut-être, et je l’espère, totalement faux): c’est de toute façon encore une structure dont la vocation est louable mais qui ne sert à rien dans la pratique, peu importe ses membres.
Le
12/02/2021 à
13h
23
Merci à vous deux Le truc c’est que beaucoup de dev’ ou d’ingés sécurité info se prennent pour des scientifiques, et regardent un peu de haut tout le reste. Alors qu’un ingénieur de ligne chez Total qui fait tourner une raffinerie a bien compris qu’il ne fait pas de la science. Et si je pousse le bouchon, un chercheur de CNRS qui conduit des analyses en développant son propre code Python, ne se dit certainement pas que la partie scientifique de son boulot c’est le code. C’est un outil qu’il utilise parmi tant d’autres pour mener à bien ses travaux. La science c’est une question de démarche et de méthode, pas de discipline…
Là pour le coup c’est factuel, merci :)
Le
12/02/2021 à
11h
06
Quel est le problème avec les travaux de Serge Tisseron (par exemple?). C’est une référence dans son domaine. On peut estimer qu’il y a effectivement un manque de représentativité d’autres disciplines dans le CNNUm (comme la cybersécurité), mais ça ne veut pas dire que ceux qui y sont n’ont rien à y faire, car on parle effectivement d’enjeux sociétaux.
Je suis d’accord ;) Mais bon je pense qu’il faut nuancer un peu aussi. Et justement le CNNum est plutôt chargé d’approcher les questions numériques sous un angle sociétal, la cybersécurité c’est effectivement l’affaire de l’ANSSI qui est rattachée directement au Premier Ministre, alors que le CNNum est rattaché au secrétaire d’Etat chargé du numérique.
262 commentaires
Meta ferme CrowdTangle, l’Europe demande des explications
19/08/2024
Le 19/08/2024 à 12h 01
Difficile à dire... Zuckerberg ne soutient pas officiellement Trump à priori...Voir https://www.ledevoir.com/economie/816686/silicon-valley-rival-trump-est-il-mark-zuckerberg par exemple
De là à dire que c'est un démocrate...
Ariane 6 : le premier lancement est un « succès », mais…
10/07/2024
Le 09/07/2024 à 18h 57
En second lieu, la simulation de systèmes complexes tels qu'une fusée et des éléments qui la composent reste un sujet complexe, même si la puissance de calcul a en effet explosé, la mécanique par exemple est toujours la même, un élément fini c'est toujours un élément fini et sans de bonnes données expérimentales il n'est point de bon modèle numérique.
Bref, c'est pas parce qu'on simule que c'est parfait et que tout est possible du premier coup sans passer par l'expérimentation.
Enfin, le pourcentage de réussite estimé provient probablement de... Simulations ;)
Mais tu peux aussi te faire embaucher chez Ariane group, t'occuper de leur acheter les licences logicielles et les serveurs qui vont bien, puis laisser les ingénieurs faire leur travail.
Au Royaume-Uni, Microsoft reconnait l’absence de souveraineté pour les données policières
25/06/2024
Le 25/06/2024 à 18h 01
Au-delà de la problématique de l'accès aux données stockées dans le cloud (je ne suis pas capable d'infirmer ou confirmer tes propos), je pense plus globalement qu'être persuadé qu'on est protégé à coup sûr alors que les solutions ne sont pour commencer pas opensource, c'est de la naïveté de la part de nos autorités. C'est pas comme si le passé ne nous avait pas déjà prouvé maintes fois qu'il ne faut pas leur faire une confiance aveugles.Enfin, plus "trivialement", sur un autre registre que le pompage et l'accès aux données, la simple utilisation d'un logiciel US donne des droits au DoJ sans égards pour les lois internationales. À titre perso je m'en tape un peu, mais si j'étais "capitaine d'industrie" comme on dit, ça me laisserait songeur... Mais puisqu'on met déjà tout ça partout dans les entreprises, pourquoi pas bleu ou sens ? C'est "pas pire". Triste ambition...
[T@LC] On fait passer le test de Turing à ChatGPT, et on a bien rigolé
18/06/2024
Le 18/06/2024 à 16h 03
C'est contextualisé dès l'introduction de l'article, c'est un peu le principe des t@lc...Pas obligé d'apprécier, mais c'est la nature de l'exercice :)
Le Chips Act se met en place avec un investissement accordé à l’Imec
22/05/2024
Le 22/05/2024 à 14h 26
C'est un plan à 43 milliards dont ces 2,5 milliards vont financer différents travaux portés par des labo de recherche.Il n'est pas dit non plus (c'est même hautement improbablement vu le fonctionnement du LETI et des Fraunhofer que je connais) que les industriels ne seront pas associés à ces travaux de recherche.
Enfin, il n'est pas choquant de vouloir financer l'apprentissage/l'éducation et la R&D pour pérenniser dans le long terme l'implantation d'usines de ce type.
OVHcloud montre son MosaiQ et nous parle de son ordinateur quantique
18/03/2024
Le 19/03/2024 à 14h 14
Pour le reste, cf. l'autre moitié de ma réponse.
Le 19/03/2024 à 09h 52
En dehors de la R&D: "OVHcloud utilise par ailleurs l’ordinateur quantique en interne, pour générer des nombres aléatoires pour des clés de chiffremen" à la fin de l'article...Sinon, plus généralement, les débouchés possibles pour les ordinateurs quantiques sont multiples mais les différentes technos manquent encore de maturité pour de réelles applications pratiques à échelle intéressante.
Mais tout ça est évoqué dans les différents articles de Next sur le sujet ;)
Google utilise le machine learning pour réduire la pollution du trafic aérien
11/08/2023
Le 11/08/2023 à 08h 03
ce n’est pas complètement vrai dans la mesure ou les paramètres influants, outre les pression, humidité et températures atmosphériques, sont également les valeurs de sortie de ce qui est “produit” par le système de propulsion, et j’imagine qu’entre du kérosène, du saf ou d’autres chose, ce n’est pas parfaitement égal.
On ne peut donc pas tabler sur une réduction des contrails grâce à un changement de carburant, en revanche il faudra adapter le modèle.
Je n’ai pas vu dans l’article google la comparaison “hors tout”: on réduit les contrails, super (vraiment). Mais on rallonge le vol: de combien ? quel est le bilan global à la fin ? (il y a bien une note concernant l’augmentation de consommation de kérosène, mais bon ils comparent des % de consommation de carburant avec des baisses de CO2eq lié aux contrails, on ne peut donc pas en conclure grand chose…)
La DGSE imagine les cyberguerres du futur, de 2030 à 2060
04/07/2022
Le 04/07/2022 à 08h 17
Je n’ai pas un avis aussi tranché (j’imagine que ta question est purement rhétorique ?).
Pour ma part, je n’ai pas d’avis pertinent sur le devenir du/des “métavers” tels que le proposés aujourd’hui, au sens de leur adoption et/ou succès financier, en revanche, j’ai du mal à imaginer que le concept de métavers au sens large n’aboutisse jamais. Pour moi c’est juste une question de temps et de forme (et là, je ne m’avancerai pas sur des jalons…).
Une fois qu’on a dit ça, plein d’évènements pourraient empêcher son aboutissement (et beaucoup d’autres choses), comme des troubles mondiaux voir des guerres, la raréfaction des ressources, …
Tout ça pour dire, que c’est quand même important de prendre du recul sur les choses, et le recul ça signifie autant ne pas se lancer aveuglément dans des technologies plus ou moins bullshit, que ne pas rejeter directement un concept car le seul exemple qu’on en ai est bullshit.
Lasers intenses : voici le laboratoire commun HERACLES
02/02/2022
Le 02/02/2022 à 19h 37
Je pense que c’est le cas de beaucoup de projets, ou parfois un mélange des deux approches, une forme de sérendipité.
Mais avoir un descriptif de projet au top sémantiquement qui fait par hasard directement un super acronyme bien à propos, ça doit relever du miracle :)
Le 02/02/2022 à 16h 01
C’est bien 100W, mais à 100Hz (et pas 100W à 100W, ça n’a aucun sens).
Le 02/02/2022 à 15h 59
je connais le truc (je l’ai déjà utilisé pour signaler des erreurs dans des articles, mais je t’assure que ce matin l’icône n’était pas là, je me suis dit que le code de rendu des pages de brèves était peut être différent, j’ai trouvé ça bizarre. En tout cas merci pour ta réponse, car là il y est… peut être le moteur de rendu de Brave qui fait le bordel.. bref :)
Le 02/02/2022 à 11h 04
Hello, je n’ai pas trouvé comment signaler une erreur sur les articles du Brief, mais je vous invite à supprimer mon commentaire après :
Dans la description de l’Axe 2, à la fin de la brève, la cadence de répétition c’est 100 Hz, pas 100 W :)
(j’ai vérifié sur le communiqué de presse: https://www.thalesgroup.com/fr/monde/groupe/press_release/linstitut-polytechnique-paris-le-cnrs-et-thales-creent-le-laboratoire)
Les Français et la science : une relation compliquée et ambivalente
11/01/2022
Le 11/01/2022 à 16h 04
Très bonne remarque, merci à toi :)
Le 11/01/2022 à 12h 29
Moi ça me gène un peu de mettre la pratique du yoga, l’aromathérapie ou l’hypnose dans le même panier (j’ai cité ces trois choses en exemple, mais c’est le panier dans son ensemble qui me pose problème).
S’il est vrai qu’aucune de ces disciplines n’est de la science, les usages et éléments de preuves (ou d’absence de preuves) disponibles pour chacune d’elles n’ont rien à voir. A ce tarif, ils auraient pu rassembler la voyance avec également, nous n’étions plus à ça près…
James Webb : le déploiement du bouclier thermique est terminé !
05/01/2022
Le 05/01/2022 à 10h 25
Tout est là (en anglais)
Mais en gros, en plus d’avoir moins tendance à capturer des corps (petits astéroïdes éventuellement, poussières, …) par rapport aux autres points, L2 est également le seul à être aligné avec le soleil et le système Terre-Lune. Ce qui est bien pratique puisque le bouclier thermique doit protéger les instruments des émissions infrarouges solaires ET du système Terre-Lune. S’ils n’étaient pas alignés, la tâche serait bien plus complexe (géométrie du bouclier, etc…).
Une potentielle exoplanète extragalactique à 28 millions d’années-lumière
05/11/2021
Le 06/11/2021 à 22h 56
Je n’ai pas de preuve formelle pour supporter mon propos, mais je suis en désaccord avec cette idée commune suivant laquelle on connaîtrait mieux l’espace que le fond des océans. Il est vrai que le fond des océans est encore largement méconnu, et c’est bien dommage; néanmoins l’immensité spatiale et temporelle de l’univers me laisse penser qu’on en connait encore moins que pour nos océans, et c’est bien logique. La comm’ est simplement plus tonitruante, et les recherches plus conséquentes, mais pas en proportion.
Le 06/11/2021 à 10h 38
Hello, en fait certaines théories (sérieuses) envisagent bien la possibilité de se rendre aussi loin via différentes astuces physiques (par exemple la métrique d’Alcubierre" target="_blank">https://fr.m.wikipedia.org/wiki/Métrique_d'Alcubierre#:~:text=La métrique d’Alcubierre, également,le physicien mexicain Miguel Alcubierre.)). Le problème étant surtout que la possibilité de réalisation technique elle-même risque de ne jamais être à notre portée si tant est qu’elle soit valide, ce qui reste également à prouver.
Mais je joue sur la sémantique là, en fait, je voulais surtout intervenir pour rappeler que le propos des astronomes à travers les exoplanètes n’est pas de fantasmer des mondes lointains en espérant s’y rendre un jour (même si on a le droit de rêver) mais plutôt d’étudier la formation et l’évolution des planètes en général, ainsi que sur l’histoire de l’univers, dans le but d’en apprendre plus sur notre propre planète et in fine sur nous mêmes.
Dune : le CNRS revient sur l’« anatomie de l’Épice »
15/09/2021
Le 15/09/2021 à 09h 14
Tout a fait d’accord!
Je n’ai pas lu ces deux références, mais j’ai lu Dune que j’ai adoré.
Ainsi que plein d’autres romans :)
Montdenier et Montagnac : Perseverance réussit la collecte de deux échantillons prometteurs
13/09/2021
Le 13/09/2021 à 19h 00
On ne saurait déjà pas te garantir de finir l’aller :)
Le 13/09/2021 à 13h 23
Oui si on oublie toute la logistique pour les maintenir en vie!
Et si on apprenait les portes logiques dès le plus jeune âge ?
08/09/2021
Le 08/09/2021 à 08h 58
je trouve ça cool dans l’idée, mais au risque de sonner un peu réac’ j’ai l’impression que si on commence enfin à donner l’importance qu’il faut à l’informatique dans l’éducation (c’est plutôt bien); ça se fait au détriment de sciences plus classiques (la mécanique ou la cinématique par exemple).
Et je trouve ça un peu dommage, car c’est bien de savoir coder, et c’était (c’est) clairement trop rare encore, mais
savoircomprendre comment fonctionnent un moteur ou une centrale nucléaire, c’est quand même pas mal non plus pour un citoyen…Eléments de contexte: j’ai une formation en conception mécanique + ingénieur soudeur; je bosse dans la recherche en matériaux et je suis passionné d’informatique avec quelques petites compétences associées. Du coup j’ai certainement beaucoup de biais qui se compensent plus ou moins
TickrMeter : suivez le cours des actions via un boîtier e-Paper
06/09/2021
Le 06/09/2021 à 11h 58
Certes c’est probablement
plus écomoins consommateur que l’équivalent à écran LCD, après j’ai quand même du mal à mettre “respect de l’environnement” en positif pour parler d’un bidule qui ne sert qu’à afficher en direct le cours d’une action, par pur confort, alors que tu as déjà des dispositifs à portée de main qui peuvent le faire sans en fabriquer de nouveaux…Concours Next INpact de rentrée : qui sont les gagnants ?
13/09/2021
Le 06/09/2021 à 07h 19
Chouette un concours
Windows 11 et vieux PC : Microsoft recule et publie un nouveau test de compatibilité
27/08/2021
Le 27/08/2021 à 17h 37
Le sous-titre du vendredi 😱🤣
Vaccination d’Emmanuel Macron : les quatre bourdes de l’Elysée
27/08/2021
Le 27/08/2021 à 15h 52
Tu te trompes en effet complètement sur l’intérêt que je prête ou non à leur travail, en fonction des personnes visées ou non.
Spoiler alert: dans l’absolu ça ne me gêne pas de lire un article critique sur une défaillance du système, du gouvernement, de l’Elysée ou du président.
Je ne nie absolument pas la qualité de leur travail d’enquête non plus.
Simplement, et je ne parlais pas uniquement de Mediapart, je déplore qu’aujourd’hui (si ça se trouve ça a toujours été le cas mais ma prise de conscience est plus récente, je n’en sais rien) le travail journalistique soit très souvent orienté et présenté d’une façon partisane. Que l’enquête soit sérieuse et de qualité c’est bien, que les faits sous-jacents soient avérés c’est encore mieux, mais tout ça ne compense pas chez moi la déception et le désintérêt que j’éprouve pour une grande partie de la presse à connaître la teneur d’un article simplement en connaissant le titre du journal… Rassure toi: il m’arrive quand même de les lire assez régulièrement ;)
Le 27/08/2021 à 15h 07
Du coup je suis pas sûr que ce soit un super exemple pour eux de mettre en avant le fait que parfois c’est bien plus pernicieux… J’aurai plutôt tendance à dire que ça illustre mon propos, même si dans le cas présent “y’a pire”
Le 27/08/2021 à 14h 27
Un vrai problème dans le process, mais présenté dans du journalisme “à charge” quoi, c’est malheureusement bien trop la norme aujourd’hui :(
Le jeu des tournures de phrases et des titres…
Merci pour cet article !
Windows 11 Beta : quelles restrictions matérielles, comment les contourner ?
23/08/2021
Le 23/08/2021 à 17h 11
Beaucoup d’exemples concrets de SB non désactivables ? (c’est une vraie question car je n’en ai jamais vu mais je vois passer très peu de machines OEM)
Le 23/08/2021 à 17h 10
yep je suis bien conscient de cet état de fait et j’approuve à 100% :)
mon interrogation provient surtout de l’écart de perf que j’ai pu observer entre la virtualisation de Win 11 et de Win 10 (je vais tester mac os 11 pour rire).
Le 23/08/2021 à 14h 04
J’ai une assez vieille machine, un Xeon X3480 sur une mobo en chipset P55 avec 16Go de DDR3 et une GTX1060 à côté, je sais que l’ensemble n’est pas compatible pour de nombreuses raisons mais j’ai testé en machine virtuelle quand même, par curiosité, et alors que j’arrive à virtualiser avec un confort correct (pour du surf ou de la bureautique) pas mal de distrib’ linux ou encore windows 10, j’ai été surpris par windows 11 qui s’est révélé outrageusement lent (à démarrer, puis l’interface en elle même).
Je n’ai pas creusé plus loin, j’étais juste un peu curieux, mais je me demande si cela vient justement de jeux d’instructions spécifiques introduits dans les générations de processeurs ultérieures à mon Xeon ou d’autres soucis spécifiques à la machine virtuelle en elle même.
Quelqu’un a d’autres retours d’expérience ?
Artemis : le retour des humains sur la Lune en 2024 compromis
17/08/2021
Le 18/08/2021 à 08h 41
Le SLS et Orion ont effectué leurs vols tests ?
La quantité d’énergie que tu dépenses et de CO2 que tu émets pour ce commentaire quand il y a tant de gens qui n’ont même pas accès à l’eau potable… tu vois où je veux en venir ?
Sinon, pour parler chiffres, le budget de la NASA aux USA c’est 0,48% du budget fédéral en 2020. Tu crois vraiment que c’est là qu’il y a des économies à faire pour sauver la planète ? Sachant qu’une bonne partie de ce budget est dédiée à l’observation de la Terre, la gestion des crises et à la compréhension des phénomènes naturels qui nous impactent/que nous causons ?
Le 17/08/2021 à 08h 54
Et encore c’est sûrement sans compter sur leurs propres sous-traitants :)
Instances Ampere Altra chez Oracle Cloud : quelles performances ?
07/06/2021
Le 07/06/2021 à 19h 56
Je calcule le temps Altra / Epyc pour chaque nombre de threads affichés dans les histogrammes Blender et x264, pour savoir combien de fois Epyc va plus vite qu’Altra. De ton côté tu dis (corrige moi si je me trompe j’ai un doute) qu’Altra est 15,9x plus performant à 16T qu’à 1T tandis que pour Epyc c’est 14,7x, ce qui tend à démontrer qu’Altra scale mieux. De mon côté j’ai fait la comparaison pour chaque nombre de threads présentés d’un processeur par rapport à l’autre.
Ensuite tu dis que l’écart s’amenuise, je ne dis pas le contraire mais je dis juste que ce n’est pas probant avec l’échantillon mesuré indiqué dans l’article, car il stagne de 1T à 8T dans le cas de Blender (avec même une légère remontée à 2T si j’enlève l’arrondi à une décimale) puis une chute de 1,9x à 1,8x entre 8T et 16T. Je pense juste que pour voir l’effet du scaling de façon notable il faudrait effectivement des résultats avec plus de threads, là statistiquement, on ne voit rien du tout (mais tu le sous-entends déjà à la fin, mon intention n’est pas la critique).
Pour l’interprétation que j’ai faite du paragraphe concernant le la similarité x264 vs Blender, toutes mes excuses, j’ai bien relu et j’avais mal interprété: nous disons effectivement la même chose :)
EDIT: et réflexion qui vient de me venir: c’est assez contre-intuitif pour moi de voir qu’Epyc a justement “plus de mal” à maintenir l’écart (et de loin) en x264 qu’avec Blender. Une hypothèse ?
Sinon pour, et c’est tout à fait perso, je préfère le graph type “nuage de points” dans Excel pour représenter des données si on veut montrer la présence ou l’absence de tendance ==> les lignes aident visuellement (mais je dis ça juste pour discuter, n’y vois pas une critique du tout)
Le 07/06/2021 à 16h 02
Merci pour cet article super intéressant!
En revanche sur l’interprétation de ces résultats préliminaires je me permets de commenter vos analyses:
Blender
Il est vrai qu’en augmentant le nombre de threads l’écart se réduit, mais pas autant que ce que vous semblez entendre, en effet voilà les ratios en fonction du nombre de threads:
1T:1,9x; 2T:1,9x; 4T:1,9x; 8T:1,9x; 16T:1,8x.
x264
La tendance est en fait assez différente de ce qu’on voit pour Blender, voilà les ratios en fonction du nombre de threads:
1T:1,9x; 2T:1,4x; 4T:1,1x; 8T:1x; 16T:1,1x.
En traçant l’ensemble sur un graph, on voit bien que si l’écart à 16T est plus faible que l’écart à 1T dans les deux cas, dans le cas Blender on a en fait pas de tendance de 1T à 8T puis une chute en passant à 16T alors que sur le test x264 on a une chute rapide de 1T à 8T puis une remontée à 16T (quasi aussi importante que la chute entre 8T et 16T du test Blender).
J’ai tracé le tout vite fait et en comparant ces ratios ça saute aux yeux.
Encore merci pour ces mesures, et on est bien d’accord que ce sont des résultats préliminaires et je ne conclue rien non plus de définitif avec, mais je trouve juste que les résultats sont un poil différents d’une partie du texte associé je me permets donc d’y aller de mon commentaire
QNAP QXG-10G2T-X710 : une carte réseau 2x 10 Gb/s avec SR-IOV et Data Direct I/O
13/04/2021
Le 14/04/2021 à 06h 38
Je te trouve un tantinet condescendant, mais bon 😅
Je pense que ça va encore être un dialogue de sourd mais: je n’oppose pas ces deux aspects, je constate que l’un (le développement de nouveaux produits) semble aller plutôt bien au regard des standards du marché tandis que l’autre (la correction des failles) semble plutôt pêcher.
Du coup, il est légitime de s’interroger (juste pour la forme car QNAP n’a évidemment de comptes à rendre qu’à son conseil d’administration) sur la stratégie de l’entreprise et l’allocation des ressources qui en découle.
Il est évident également que ça n’est pas le seul paramètre qui rentrera en compte dans ces sujets, on peut citer par exemple la complexité technique des sujets à traiter (et là il est compliqué de comparer stricto-sensu un lancement de gamme et des corrections de faille).
Seulement, là où je pose une interrogation légitime et ouverte (qui n’attend d’ailleurs pas spécialement une réponse spécifique que tu ne saurais apporter) tu m’adresses une fin de non-recevoir condescendante alors que tu n’as rien de factuel de plus, en dehors de sous entendre que je n’y connais probablement rien au fonctionnement d’une boite de cette ampleur.
Si je voulais adopter le même type de ton que toi, je te dirai que tu as une façon bien candide de voir le fonctionnement d’une boîte (surtout de cette ampleur). Et comme dit, je n’oppose pas le fait de développer une gamme plus ou moins complète au fait de corriger rapidement des failles.
😚
Le 13/04/2021 à 17h 49
C’est vrai mais c’est quand même au bout du bout une direction commune qui décide d’attribuer plus ou moins de budget, de ressources et d’humains à droite ou à gauche, et une fois les méandres de la compta analytique passée, le budget global… c’est celui de qnap.
Des chercheurs font un pas vers la « production industrielle d’hydrocarbures biosourcés »
13/04/2021
Le 13/04/2021 à 07h 58
Niveau science, c’est très intéressant.
Niveau société, on peut se poser la question. Le problème des hydrocarbures n’étant pas seulement leur approvisionnement (même si ça induit évidemment de lourdes tensions géopolitiques) mais également le fait qu’on les brûle tout simplement, en rejetant tout un tas de saloperies dans l’atmosphère… même si on ne parle que du CO2… Je suis pas sûr que ce soit une bonne nouvelle d’avoir à portée de main dans ce siècle leur production à volonté.
Les Français seraient-ils devenus technophobes ?
12/04/2021
Le 12/04/2021 à 14h 35
“37 % seulement des Français interrogés faisaient confiance aux médias, à égalité avec les Britanniques. Seuls le Japon (36 %) et la Russie (29 %) enregistrent un taux inférieur, loin derrière les 45 % d’Américains, 52 % d’Allemands et 70 % de Chinois interrogés.”
Comme quoi on garde encore un peu d’esprit critique par rapport à d’autres. Inattendu.
Plus sérieusement, en répondant à cette étude, je serais probablement classé comme n’ayant pas confiance dans les médias, alors qu’en réalité c’est surtout que j’essaie de faire un tri le plus critique possible, ce qui n’est pas évident. Mais j’ai par exemple relativement confiance en Next Inpact ce qui ne m’empêche d’adopter un regard critique sur le contenu des articles tout en reconnaissant la grande valeur de ce média.
Des journaux ou chaines de TV plus généralistes, c’est une autre histoire…
Netflix s’engage « à atteindre l’objectif Net Zéro carbone d’ici la fin de l’année 2022 »
02/04/2021
Le 02/04/2021 à 14h 48
J’ai lu, merci.
Pour autant, cela ne signifie pas qu’il y ait un quelconque fondement scientifique derrière la désignation “net zero carbon” pour une entreprise. Ce net zero n’est d’ailleurs défini ou normé nul part; hormis dans les billets de blogs des entreprises qui veulent se verdir…
Devenir plus efficient, planter des arbres et protéger la forêt, c’est bien (à condition que ce soit vraiment fait en tout cas, ce qui est à priori peu souvent le cas en fait, mais ça n’implique de toute façon pas qu’on est “net zero carbone” si tant est que cela veuille dire quoi que ce soit.
Le 02/04/2021 à 09h 18
Greenwashing sans fondement scientifique ?
Nombreuses nouveautés pour Google Maps, dont une Live View améliorée
31/03/2021
Le 31/03/2021 à 12h 19
Ce serait peut-être vrai si on gardait nos smartphones 10 ans ou plus.
(d’ailleurs si je ne me trompe pas, on regarde aussi la TV et la météo dessus, et parfois on téléphone même!)
Cédric O : service universel de la fibre en 2025, saturation de la 4G, plan d’aide au numérique
16/03/2021
Le 16/03/2021 à 10h 06
Je te confirme que les PTO ont plusieurs prises.
Le “problème” actuel est que la fibre étant en voie de déploiement, dans beaucoup d’endroits, il n’y a encore qu’un seul opérateur qui a fibré physiquement l’immeuble, et les autres opérateurs n’ont pas forcément signés le contrat pour utiliser son réseau et déployer leurs offres.
M’enfin gageons que ça ne peut qu’évoluer dans le bon sens, il ne faut pas stigmatiser là un défaut structurel de la fibre par rapport au cuivre, ça n’a rien à voir, ça a plutôt trait à la jeunesse du déploiement de la fibre par rapport à l’ancienneté du cuivre…
Autonomie numérique : objectifs et fortes ambitions de l’Europe d’ici à 2030
10/03/2021
Le 10/03/2021 à 17h 45
Don’t feed the troll :)
Au CEA : « recycler le combustible nucléaire »
16/02/2021
Le 16/02/2021 à 09h 58
Je n’ai pas forcément d’avis sur la question, si ce n’est qu’en général quand on peut recycler plutôt que ré-extraire j’ai tendance à trouver ça mieux par principe, hors contrainte économique. Mais je pense que même sans cette contrainte, ça n’est pas forcément si évident, car j’imagine que certaines technos de recyclage ne sont pas forcément beaucoup plus propres que certaines techniques d’extraction, pour ce qui est des déchets nucléaires, aucune idée.
En revanche, un autre élément de réponse dont on fera ce que l’on veut:
De mémoire, la production de déchets nucléaires annuelle en France, c’est dans les 40 000 tonnes, c’est à dire que dalle ou presque. Du coup, l’intérêt écologique n’est pas monstrueux non plus.
En gros, les centrales qui utiliseraient ces déchets présentent des problèmes de sûreté encore à adresser (en comparaison d’autres technos), la méthode de recyclage des déchets reste à développer industriellement, n’est certainement pas neutre non plus et la matière première est disponible en abondance, enfin l’intérêt économique n’est visiblement pas là.
Au final, je ne sais pas si c’est une bonne chose ou pas, mais je comprends que ça ai du mal à percer :/
Le nouveau CNNum privilégie les scientifiques aux informaticiens (et aux start-upeurs)
12/02/2021
Le 12/02/2021 à 22h 31
Je veux simplement dire que ce qui nous permet de discuter c’est qu’on sous-traite beaucoup de travail. Si on doit travailler plus, il est difficile d’imaginer qu’on sera capables de plus discuter.
Le 12/02/2021 à 17h 56
Les démocraties antiques et suivantes étaient assises sur des cohortes d’esclaves travaillant pour les citoyens qui gouvernent.
Nous sommes assis sur des machines, pour lesquelles on va commencer à manquer de ressources pour les alimenter, maintenir et fabriquer dans les mêmes conditions, très probablement dans ce siècle.
Du coup se baser sur ces systèmes n’est certainement pas une source de pérennité malheureusement.
Le 12/02/2021 à 13h 57
Je ne dis pas qu’il n’aurait pas été bien d’avoir des experts en cybersécurité dans le CNNum, je suis assez d’accord avec ça.
Mais je nuance car:
Après en pratique, si l’état ne tient compte de toute façon ni de l’avis du CNNum ni de l’avis du patron de l’ANSSI… Car au final, aucunes de ces personnes ne sont des décideuses.
Et pour ta première réponse concernant le fait que la cybersécurité est une démarche pas un outil:
Je ne prétends pas que la cybersécurité n’est pas une science. Je dis qu’être chercheur cybersécurité dans un labo (privé ou public peu importe) ou ingénieur cybersécurité dans une boite, ce sont deux métiers différents, et le second n’est pas scientifique (ça ne veut pas dire qu’il ne pourrait pas l’être, mais là n’est pas la question).
Donc oui, quand on me dit “ils privilégient les scientifiques aux informaticiens” ça ne me choque pas, mais ça ne veut pas dire grand chose. Le fond de la question c’est surtout, pourquoi n’y a-t-il pas de chercheurs spécialistes du domaine, et pourquoi ne respectent-ils pas le décret de 2017.
Pour mon avis perso (qui est peut-être, et je l’espère, totalement faux): c’est de toute façon encore une structure dont la vocation est louable mais qui ne sert à rien dans la pratique, peu importe ses membres.
Le 12/02/2021 à 13h 23
Merci à vous deux
Le truc c’est que beaucoup de dev’ ou d’ingés sécurité info se prennent pour des scientifiques, et regardent un peu de haut tout le reste. Alors qu’un ingénieur de ligne chez Total qui fait tourner une raffinerie a bien compris qu’il ne fait pas de la science.
Et si je pousse le bouchon, un chercheur de CNRS qui conduit des analyses en développant son propre code Python, ne se dit certainement pas que la partie scientifique de son boulot c’est le code. C’est un outil qu’il utilise parmi tant d’autres pour mener à bien ses travaux. La science c’est une question de démarche et de méthode, pas de discipline…
Là pour le coup c’est factuel, merci :)
Le 12/02/2021 à 11h 06
Quel est le problème avec les travaux de Serge Tisseron (par exemple?). C’est une référence dans son domaine.
On peut estimer qu’il y a effectivement un manque de représentativité d’autres disciplines dans le CNNUm (comme la cybersécurité), mais ça ne veut pas dire que ceux qui y sont n’ont rien à y faire, car on parle effectivement d’enjeux sociétaux.
Je suis d’accord ;) Mais bon je pense qu’il faut nuancer un peu aussi. Et justement le CNNum est plutôt chargé d’approcher les questions numériques sous un angle sociétal, la cybersécurité c’est effectivement l’affaire de l’ANSSI qui est rattachée directement au Premier Ministre, alors que le CNNum est rattaché au secrétaire d’Etat chargé du numérique.