votre avatar Abonné

Renault

est avec nous depuis le 2 mars 2015 ❤️

164 commentaires

Le 03/02/2020 à 13h 48







deathscythe0666 a écrit :



Le pilotage des centrales (quelles qu’elles soient) obéit au même principe : il faut à tout moment équilibrer la production et la demande. Dans les centrales gaz on ouvre plus ou moins les vannes, dans les STEP aussi, dans les centrales charbon on met plus ou moins de charbon, et dans le nucléaire on fait varier (un tout petit peu) la quantité de fissions (on est légèrement en dessous de 1 pour réduire la puissance, légèrement au dessus pour augmenter) grâce à une injection plus ou moins importante de bore dans le modérateur (de l’eau). Et donc, dans tous les cas, le pilotage est en pratique fait par les opérateurs de la centrale, décidé par leurs supérieurs, et à la demande du réseau. 





C’est même fait automatiquement via la synchronisation à 50 Hz. Le but est que le réseau électrique fonctionne à 50 Hz, donc les turbines de production qui sont des rotors activés par la vapeur d’eau doivent tournés 50 fois par seconde précisément. Si la turbine tourne trop lentement, c’est qu’il y a trop de demandes par rapport à la production (et vice versa). Et automatiquement il y a ajustement dans ces centrales pour équilibrer et maintenir cette fréquence. C’est d’ailleurs aussi un soucis du nouveau renouvelable (éolien et photovoltaïque), il n’est pas sensible à ce paramètre.



L’homme va surtout surveiller que tout tourne comme prévu, et anticiper / préparer. On sait qu’en début de soirée il va y avoir un pic, donc on va commencer à préparer en avance les moyens de productions pour être prêts au bon moment. Ou pour appeler les gros consommateurs d’énergie du pays comme certaines usines gourmandes pour leur demander de s’arrêter si on voit que cela ne tiendra pas. C’est l’effacement, en échange ils sont payés pour ne pas consommer. Cela peut aider à lisser un pic en baissant de quelques pourcents la demande.


Le 03/02/2020 à 09h 37







DayWalker a écrit :



 



 Ah oui, effectivement, la production  nucléaire est très "pilotable". Elle ne bouge juste pas d'un poil dans la journée, donc ne s'ajuste pas du tout au cycle de consommation. Et si tu en doutes, tu peux regarder les données brutes de RTE, dont voici une capture (moyennée sur 7 jours autour des équinoxes et solstices), en échelle log pour mieux voir les variations des différentes sources.       





https://zupimages.net/up/20/05/voi8.png



         

La seule chose qu'on voit, c'est que la production nucléaire est indépendante de l'heure de la journée (comme les biosources), mais qu'elle fluctue avec les saisons (arrêts/démarrages de coeurs nucléaires).






 Le coté "pilotable" du réseau est ajusté par l'hydraulique et le gaz principalement, et pour finir de coller à la consommation, on achète à l'étranger.









Plusieurs choses.



Déjà si le nucléaire sait moduler sa puissance en fonction du besoin. Les données de production sont disponibles là :https://www.rte-france.com/fr/eco2mix/eco2mix-mix-energetique



Regarde par exemple le dimanche 2 février, le nucléaire varie le long de la journée à des puissances qui ne s’expliquent pas par “on a éteint ou allumé complètement une nouvelle tranche”.



Ensuite, encore une fois, la pilotabilité n’a rien à voir avec le fait que la production est +/- constante ou puisse varier sur la journée. La question est : est-ce qu’on peut allumer cette production quand on veut pour répondre à un besoin minimal ? Si oui, c’est pilotable, si non comme l’éolien et le photovolataïque, cela ne l’est pas.


Le 31/01/2020 à 22h 10







jeff.110 a écrit :



Entre pays voisin, l’électricité est en permanence vendue/achetée sur un marché global de l’électricité.

Celui qui a l’électricité la moins cher à un instant T revend aux autres.

En l’état, la France revend de l’électricité à ses voisin la plupart du temps, et elle en achète (au prix fort) lors des pics de consommation ( journée, grand froid, grand chaud, notamment)



 

De moins en moins grâce au renouvelable justement.

La France achète certes cher lors des pics de froid, mais ces gros pics ne sont pas si nombreux que ça finalement.



Par contre la France en achète lorsqu’il y a grand vent ou grand soleil, beaucoup de pays européens comme l’Allemagne surproduisent et payent les clients pour acheter cette électricité qui serait perdue. La France en profite. Et quand le vent ou le soleil se calment, elle peut en revendre à ses voisins normalement comme d’habitude.



Bien sûr il faut regarder le marché européen, mais comme chaque pays est responsable de sa propre production (l’UE n’impose que le taux de renouvelable par pays), chaque pays essaye au maximum d’être indépendant des autres même si finalement tout le monde en achète ou en revend.



Le seul cas de coopération très renforcée est je crois entre le Danemark et la Norvège. Où le Danemark utilise son exédent éolien pour stocker en Norvège sous forme de barrage réversible hydraulique. Et bien sûr paye pour cela. Mais ce genre de procédés ne peut pas être généralisé à l’ensemble du continent ou demanderait du moins une expertise transnationale (à savoir l’UE) pour répartir correctement la production par rapport à la consommation et aux possibilités géographiques de chacun.


Le 31/01/2020 à 19h 47







Idiogène a écrit :



Et avec les 66500 tonnes restantes on fait des piles à combustible au plutonium ou des munitions en uranium appauvri ?

Le rendement a trois conséquences : surdimensionnement des installations, déchets en quantité plus importante que nécessaire, coût économique qui pourrait partir ailleurs. D’ailleurs le nucléaire… on le stock !





Ça c’est les tonnes d’uranium en minerais, une bonne partie n’est pas radioactif ou très peu. Tout comme les autres minerais où tu n’as pas que la matière qui t’intéresse. Donc ce n’est pas un sujet.



Une partie des déchets radioactifs à haute activité (celle qui est vraiment problématique) peut être recyclé en combustible nucléaire dans des surgénérateurs. Donc ce n’est pas perdu. Et une partie bien sûr doit être stocké mais le volume est faible en comparaison du service rendu.



Note, je suis pour optimiser cela bien sûr, mais tout n’est pas possible. Générer de l’électricité avec de la vapeur d’eau qui est la voix classique pour en produire à grande échelle impose cette limite d’un rendement d’un tiers. Et globalement le nouveau renouvelable ne fait guère mieux jusqu’à présent.



Mais le rendement n’est pas le sujet, même avec 100% de rendement le solaire a des défauts intrinsèques et à cause du caractère diffus de son énergie, il faut de très grandes installations pour produire autant que l’énergie atomique. Tu ne pourras pas produire autant d’énergie que les centrales nucléaires avec la même surface d’exploitation à coup de panneaux solaires ou éoliennes. Ce qui pose des soucis évidemment en consommation de matière, en affectation des sols et en coût.



Sinon le reste de ton propos, je ne sais pas si tu t’adresses toujours à moi mais je ne vois pas vraiment le rapport ni où tu veux en venir.


Le 31/01/2020 à 18h 51







Idiogène a écrit :





La question du rendement importe peu à dire vrai pour le nucléaire. L’uranium est tellement dense en énergie (il ne faut que 95 000 tonnes d’uranium par an maximum pour la France entière) que le fait qu’une partie de la fission ne fasse que de la chaleur n’a pas une grande importance. C’est du gaspillage mais qui n’est pas très coûteux économiquement ou écologiquement.



Techniquement on pourrait améliorer le rendement en récupérant cette chaleur pour l’injecter dans un réseau de chaleur. Mais je crois que cette option serait très coûteuse et il y a des défis techniques car les centrales ne sont pas juste à côté de grands bassins de populations.



Pour le solaire photovoltaïque, il faut faire attention aux effets d’annonce. Plein de techno des laboratoires ne vont jamais à l’étape industrielle : trop complexe, matériaux trop rares ou chers, le gain en conditions réelles ne serait pas assez importantes. En labo quand tu contrôles ton environnement tu peux toujours obtenir des chiffres sexy dans pas mal de processus. Mais le but est d’avoir ces chiffres sexy sur le toit d’un citoyen lambda alors qu’il a plu ou neigé dessus pendant des jours durant sa vie le tout avec un entretien presque nul et avec une exposition pas parfaite.



Puis même en doublant le rendement de ces cellules, cela ne règle pas fondamentalement ses défauts. Il faudra toujours stocker cette énergie, il faudra toujours énormément d’installations (et donc de matériaux) pour remplir le même service. C’est bien sûr toujours appréciable mais cela ne suffira pas.


Le 31/01/2020 à 10h 27

En vrai le photovoltaïque a un intérêt : compenser l’énergie requise pour la climatisation. En général quand il fait chaud, il y a du soleil et quand il fait nuit on en a moins besoin.



Mais c’est plutôt cher pour un tel besoin. Disons que quelques pourcents de photovoltaïques pour gérer cette surconsommation au niveau du pays n’est pas un mal dans ce but. Mais pas plus.

Le 31/01/2020 à 09h 55







OB a écrit :



 

Autant je suis d’accord que c’était d’une connerie monstre d’arrêter les études sur la surgénération, autant en accuser les écolo…

Les écolos sont aussi contre les barrage, les centrales conventionnelles, … et on les ferme pas pour autant.  



 

L’arrêt de Superphoenix était un totem à abattre pour que les écolos puissent rejoindre le gouvernement Jospin. Donc si ils en sont responsables. Je parle bien du parti politique pas de la population écolo même s’il y a un lien.









OB a écrit :



Ces centrales n’ont jamais tourné correctement, et l’utilisation du sodium, pour le coup, rendait tout accident dramatique (alors qu’avec des EPR ou autre , un accident c’est grave mais localisé - il ne peux pas y avoir “d’explosion nucléaire” avec une centrale)



 

Ces centrales ou projets sont des prototypes pour valider le processus. Qu’ils ne soient pas sûr comme les autres n’était pas nécessaire car c’est de la recherche donc avec un fonctionnement différent.









OB a écrit :



Et il y a aussi qu’on a voulu privilégier la fusion, plus moderne, plus propre, plus mieux…. et qui pour l’instant nous a couté 19 milliards et c’est loin d’être fini… :-)





Il n’y a pas de lien entre la fusion et la fission ici.

La fusion c’est sexy sur le papier mais pour le coup on ignore si on parviendra à le faire fonctionner de manière rentable sur la durée. Il y a une vraie incertitude. Au moins les technologies de fission ont une garantie de fonctionner car on a de l’expérience et que la mise en œuvre est simple à côté.



 



OB a écrit :



De souvenir extraire le thorium est coûteux (car disponible mais très dilué) et pas si simple que ça pour le faire à grande échelle.



Il faut bien réaliser que l’uranium n’est pas cher et que ses réserves sont bien suffisantes pour le siècle à venir (voire plus) donc la recherche autour des alternatives n’est pas pressée. Donc on investi moins.


Le 31/01/2020 à 09h 18







DayWalker a écrit :



A partir du moment où le nucléaire produit des déchets dangereux à très très longue durée de vie et qu’on ne peut pas recycler, on devrait le bannir. Et si ce n’est pas pour nous, c’est au moins pour les générations futures.



 

Comme cela a été dit plus haut, la problématique des déchets est souvent mal comprise. Non pas qu’il n’y a pas de sujets mais il ne faut pas tomber dans la caricature.



L’essentielle des “déchets nucléaires” en volume sont de faible activité et à faible période de vie. Typiquement les vêtements des employés d’une centrale. En gros après quelques années / décennies il n’y a aucun risque pour l’environnement.



Les déchets problématiques, à haute activité et à longue durée de vie ont plusieurs pistes. D’abord on pourrait en recycler une bonne partie pour en faire du combustible nucléaire à nouveau. La France d’ailleurs les garde de côté dans ce but. C’était le but du projet Superphoenix et Astrid qui ont tous les deux été fermés pour satisfaire les écolos… Mais les russes et chinois investissent dedans et pourraient racheter notre combustible usé si nous ne relançons pas la filière.



Pour ce qui ne peut pas être recyclé, cela représente uniquement quelques piscines olympiques par an (soit pas grand chose quand même !), le but est le stockage profond. Il y a eu des précédents dans l’histoire de la Terre sans que cela ne soit un problème pour la vie en surface. On a aujourd’hui une bonne connaissance de la géologie et de la physique et chimie pour évaluer comment le faire pour minimiser le risque au maximum. Le risque 0 n’est pas possible, mais on s’en approche.



Après il faut savoir choisir ses priorités et les conséquences de ses choix. Le nucléaire fait peur car c’est dangereux, mais le risque d’un accident important ou des déchets est finalement faible car la probabilité que cela arrive est très faible à côté. Or, à côté, la pollution du CO2 est avéré et massif chaque année, les conséquences à court terme sont quasiment certaines si rien n’est fait. En plus, admettons qu’il y a un soucis avec les déchets nucléaires qui sont enfouis. Une zone de quelques kilomètres carrés sera impropre à la vie. Le réchauffement climatique est mondial, ses conséquences seront globales. Il ne suffira pas juste de se déplacer un peu pour vivre normalement.



Donc si le nucléaire peut aider à résoudre à court terme le problème du CO2 avant qu’on s’attaque aux problèmes du nucléaire, je pense que c’est bien oui. Sans renier les problèmes du nucléaire pour autant. C’est d’ailleurs ce que le GIEC préconise. Même avec le nucléaire cela sera très difficile.







DayWalker a écrit :



Quant à l’aspect “pilotable”, la production de nos centrales ne peut pas suivre le rythme diurne/nocturne, et tend à produire largement trop la nuit (d’où les contrats à heures creuses la nuit pour pousser à se chauffer la nuit électriquement, ou à chauffer l’eau). Bref, la production nucléaire est largement aussi inadaptée que les ENR à notre rythme de vie (grosse consommation en journée, avec des pics en fin de journée). Par contre, utiliser les batteries de nos (futures) voitures comme éléments de lissage (les charger avec du PV le jour, et les utiliser en partie pendant qu’on prépare à manger pour lisser le pic de consommation), c’est éprouvé et fonctionnel… au Japon.







L’aspect pilotable n’est pas ta définition. Une centrale est pilotable si au moment on a besoin d’énergie, on peut produire au moins de l’énergie à partir de celle-ci. Si elle produit en surplus, ce n’est pas grave. Cela n’empêche pas non plus que toute centrale a ses indisponibilités pour maintenance (que ce soit nucléaire, charbon ou gaz).



Mais les maintenances se préparent en avance, on essaye de ne pas tout mettre en maintenance en même temps. Et cela représente une faible portion du temps de production en fait. Pour l’éolien ou le solaire, même si tu veux de l’énergie de leur part, s’il n’y a pas de vent ou de soleil tu ne peux rien faire ! C’est donc de l’énergie fatale, car la production n’est pas contrôlable.



Pour les histoire de diurne / nocturne, tu as tout faux. D’ailleurs la France est le seul pays au monde à avoir du nucléaire qui sait faire du suivi de charge (car on dépend énormément de nos centrales donc on e a besoin). C’est-à-dire que nos centrales peuvent moduler leur puissance pour produire plus ou moins suivant la demande. Les autres pays globalement font de la production de base, à savoir une quantité constante à toute heure, le pic de demande étant géré par d’autres sources. Car ils n’ont pas assez de nucléaire pour avoir besoin de cette complexité.

 

Pourquoi le système de diurne / nocturne ? Tout d’abord il faut savoir qu’une centrale nucléaire c’est un coût fixe. L’uranium ne coûte pas grand chose. Donc si on vend de l’électricité la nuit, cela ne pose pas de soucis. C’est même mieux car cela signifie que les centrales nucléaires seront mieux amorties.



L’autre avantage c’est que cela limite les pics de consommation, du matin et du soir. La France consomme presque la même chose la nuit que la journée ce qui n’est pas le cas de nos voisins. Tu peux le constater avec les données de ce site par exemple :https://www.electricitymap.org/?page=country&solar=false&remote=… Or gérer un pic de consommation très intense c’est très compliqué. Il y a des tas de choses qu’on peut faire la nuit plutôt que la journée pour lisser cette consommation au maximum comme une partie du chauffage, la production d’eau chaude, la lessive ou la vaisselle. Voire plus tard, charger des appareils type voitures / bus.



Si on devait produire un maximum en journée, l’énergie produite actuellement la nuit devrait être faite en journée. Comme notre réseau électrique n’a pas des marges de manœuvres extraordinaires en hiver, il faudrait construire plus de centrales électriques pour répondre à cette surcharge en journée. Pour finalement être en sous charge la nuit. C’est du gâchis.


Le 30/01/2020 à 19h 29

EPR n’est pas un échec en tant que tel, c’est surtout une grosse erreur de communication et d’estimation.



Je veux dire, ils ont été sacrément optimistes au niveau budget et délais. Ils ont imaginé construire un nouveau type de réacteur, alors que cela fait 15 ans qu’on en avait plus fait, au prix et aux délais où on a pu produire les derniers avec l’expérience bien en place.



C’était évident que pour un tel projet il fallait plus de temps et de budget. C’était vraiment sous estimé.



Mais comme pour la précédente série, une fois celle de Flamanville finie (et oui ça arrivera), les autres centrales seront moins chères et plus rapides à produire grâce à l’expérience et à l’industrialisation du processus.

Le 30/01/2020 à 16h 12

Cela ne changerait rien. 50% du mix c’est une notion qui est indépendante de la quantité d’électricité produite. Cela serait différent si le but est de diminuer la consommation de sorte à ce qu’on puisse fermer environ 30% du parc nucléaire sans avoir besoin d’ajouter d’unités de production supplémentaires.



Du coup si on regarde le plan du gouvernement, il semble qu’on se dirige vers plus d’éolien et de photovoltaïque avec du gaz en secours pour remplacer les centrales nucléaires concernées. Ce qui au niveau bilan carbone est une erreur mais ça…



Note que je ne pense pas qu’on doive réduire la consommation électrique, et je pense que cela va bien augmenter. Pour décarboner l’économie, il faudra utiliser l’électricité en partie. Pour alimenter des véhicules ou le chauffage avec des pompes à chaleur.



Il faudra baisser notre demande en énergie c’est certain (en isolant nos maisons par exemple), mais pour se passer un maximum du pétrole / gaz / charbon, il faudra de l’électricité avec une production la plus pauvre en gaz à effet de serre possible. Ce qui impliquera probablement une hausse de la production électrique dans nos contrées.



D’autant que l’avantage de l’électricité, c’est que c’est un vecteur énergétique très polyvalent. Tu peux en produire avec à peu près n’importe quelle source primaire. Par exemple, si tu électrifies le chauffage mais que faute de nucléaire et éolien disponible à court terme tu as besoin de gaz, tu vas augmenter le bilan CO2 de l’électricité et de ce chauffage par rapport à la théorie. Mais avec le temps, si tu décarbonises l’électricité à nouveau (ce qui nécessite de convertir ou d’ajouter quelques centrales à l’échelle du pays), tu décarbonises l’ensemble du chauffage électrique sans avoir besoin de changer à nouveau le mode de production chez le particulier. Ils pourront garder leur pompe à chaleur.



Certains par exemple passent du fioul au gaz, mais pour décarboner totalement ils devront passer à une pompe à chaleur ou au biomasse à un moment donné. Donc cela implique plus de travail et c’est plus coûteux. Il est plus simple et moins coûteux de changer le mode de production électrique d’un pays que de convertir tous les chauffages individuels à un nouveau mode de production.

Le 30/01/2020 à 15h 54

Le gouvernement est très ambigüe. Le plan actuel est de baisser le nucléaire à 50% de l’énergie électrique en France. Ce qui est plus bas que les 70-75% actuels.



Donc certes ce n’est pas une suppression totale du nucléaire mais ce changement n’est pas une baisse anodine non plus.

Le 30/01/2020 à 15h 53

> Commençons par un point global sur la situation de la France : « En

2018, en France, les coûts de production de l’éolien terrestre (50 à 71

€/MWh) et des centrales photovoltaïques au sol (45 à 81 €/MWh) sont 

compétitifs avec ceux d’une centrale à gaz à cycle combiné (CCGT) (50 à 66 €/MWh) ».



Ce genre de comparaisons est absurde car on compare les choux et des carottes avec ces chiffres. C’est d’ailleurs étonnant que l’ADEME fasse ça.



Ici on compare des centrale avec source d’énergies intermittentes avec une centrale qui a une source d’énergie pilotable. Avec le gaz on peut décider quand on produit et quand on ne produit pas pour répondre à la demande. Avec l’éolien et le solaire, on est dépendant de la météo. Pour combler ce problème il faut donc du stockage et le coût est rapidement prohibitif par rapport au gaz. Pour comparer les deux de manière équitable il faudrait tenir compte de ce coût additionnel, car le service rendu n’est absolument pas le même.



Après on peut faire le pari de l’autoconsommation sans stockage mais je doute que beaucoup de gens souhaitent faire ça avec les contraintes que cela impose.



Et comme mentionné plus haut, outre l’aspect économique, il y a l’aspect écologique. Passer à ces renouvelables n’ont pas un grand intérêt en France avec une énergie fondée sur le nucléaire. Du moins du point de vue des gaz à effet de serre.

 

Le 31/10/2019 à 06h 59

Dans Fedora Silverblue, /var et /etc sont en lecture et écriture pour des raisons évidentes de configuration et de stockage de données de travail pour certaines applications serveurs ou systèmes. Cependant tes binaires ou bibliothèques qui sont dans /usr eux ne sont pas modifiables sans changement d’état du système.

Le 30/10/2019 à 14h 04

Oui Flatpak va de fait réduire l’usage de bibliothèques partagées, du moins pour les moins connues car sinon les runtimes gèreront cet aspect de la manière la plus efficiente possible.



Mais il y a une raison aussi à cette conception, c’est que les bibliothèques partagées c’est sexy sur le papier mais ça a des inconvénients non négligeables. C’est à cause d’eux qu’il est difficile de distribuer une application proprement sous Linux entre les distributions car les dépendances et les versions diffèrent.



Puis cela génère des bogues, car le développeur de l’application X et celui de Y même s’ils utilisent la même bibliothèque, ils n’ont probablement pas développé et testé avec la même version. Or choisir une version commune aux deux peut engendrer des bogues difficiles identifier et à résoudre.



Et générer ces paquets, près de 10 000 pour Fedora seulement, demande beaucoup de travail que ce soit pour créer et maintenir ces paquets tout comme l’infra. Flatpak permet d’alléger la tâche, car ce travail peut être fait plus facilement par le développeur de l’application même ou par une mutualisation des efforts (comme Flathub) qui touche toutes les distributions.



Bref, Flatpak (et plus largement Silverblue) est une remise en cause de la distribution traditionnelle. C’est un but assumé. Car il y a des problèmes avec le modèle traditionnel qui ne sont solubles qu’avec une remise en cause de celui-ci. Et encore il y a tentative d’essayer de concilier les deux aspects au maximum, car cela reste des modèles antagonistes. De toute façon chaque distribution fera le choix d’adopter ce changement ou pas, il n’y a pas de contraintes, donc il y a aura toujours moyen de rester comme avant pour ceux qui le veulent.

Le 30/10/2019 à 09h 40

Pas du tout, l’installation via rpm-ostree se base sur des overlays, liens matériels et clichés du système. D’ailleurs ostree est souvent surnommé git du binaire. Donc en fait quand tu changes ton système, tu fais un changement d’état. Ce changement est indolore et instantané et tu peux revenir en arrière sans problèmes. D’ailleurs GRUB peut maintenant proposer les différentes versions de ton système pour revenir facilement en arrière si nécessaire.



Il n’y a donc absolument pas la latence de Windows là dessus qui repose sur des mécanismes très différents.



L’article est bien fait, par ailleurs je suis en train d’en rédiger un à ce sujet. Cependant il oublie (volontairement ou pas) des éléments. Silverblue et Atomic puisent leurs origines dans Fedora.next qui était la période de brainstorming de Fedora en 2013-2014. Silverblue n’est que la concrétisation de ce travail mais n’est aussi qu’un aspect et un test.



Il n’est pas sûr que Silverblue parvienne à devenir la version de Fedora Workstation par défaut. C’est l’objectif mais les difficultés restent nombreuses et tout le monde ignore si on pourra aboutir à ce que l’on souhaite.



Ensuite, l’objectif aussi de la distribution est de reposer au maximum sur les Flatpak et podman. Le système immuable doit être le plus minimal possible (dans l’idéal il n’y aurait que le noyau, le chargeur de démarrage et le système d’init et ce qui est nécessaire pour eux). Ce qui contourne la limitation liée à rpm-ostree.



Les conteneurs, surtout les Flatpak, devraient user de portails et de droits d’accès pour faire des actions nécessaires en dehors du conteneur. Mais c’est encore en développement et pas opérationnel. Fedora travaille aussi pour que les paquets RPM de logiciels graphiques génèrent automatiquement un Flatpak associé pour augmenter la quantité de logiciels disponibles via les dépôts de Fedora dans Silverblue. Mais ce n’est pas encore pleinement opérationnel.



Toolbox et podman sont plutôt dédiés dans l’idée aux outils de développements et aux codeurs. Genre si tu veux coder une application qui utilise Python 3.6 pour le contexte professionnel.



Très clairement Silverblue n’est qu’expérimental et reste un travail de R&D essentiellement. Il y a bien du chemin à parcourir avant d’envisager que Silverblue devienne la version de référence voire unique de Fedora Workstation.

Le 30/04/2019 à 21h 08

Héhé ;)

 

Merci Vincent pour la couverture, bon travail. :)

Le 25/04/2019 à 09h 41

En fait il y a aussi des considérations légales.



Le point de vue de Fedora et de RH Legal est que les pilotes proprio (comme celui de nVidia) violent la GPL et ne peuvent donc être pleinement intégrées aux dépôts officiels. Et reposer la procédure d’installation sur un dépôt non officiel (bien que de qualité comme RPM Fusion) est un risque important.



Le meilleur compromis est de faire en sorte que RPMFusion soit le mieux intégré que possible et que la compatibilité avec le pilote nVidia soit maximale dans les procédures. En effet, chaque nouveauté actuellement est testée avec les pilotes proprio de nVidia pour éviter tout problème pour les utilisateurs concernés. Il y a peu de chances que cela aille plus loin tant que nVidia ne change pas de licence de manière globale.



Après Debian et Ubuntu ont fait des choix différents, car le droit est différent (entités européennes contre américaine) et Canonical n’a pas hésité à intégrer ZFS nativement alors que beaucoup s’accordent à dire que la compatibilité des licences ne l’autorise pas.

Le 11/04/2019 à 19h 14

C’est fou comme tu mets Assange comme une victime systématiquement. Je ne dis pas que c’est mal qu’Assange ait fait des révélations contre les USA, mais il y a des méthodes plus adaptées que ce qu’il a choisi.



Si les grands journaux se sont détournés de Wikileaks, ce n’est pas parce que les américains ont fait pression (tu parles, ce sont les mêmes qui se sont attaqués aux dossiers suivant dont ceux sur Snowden). C’est parce que Wikileaks, et donc Assange, sont irresponsables pour communiquer des informations sensibles.



Être un journaliste et un lanceur d’alerte, ce n’est pas juste prendre des documents secrets et les balancer dans la nature comme ça. Non, l’étape un c’est de trier ce qui est pertinent du reste, ensuite c’est de masquer les informations sensibles qui ne sont pas pertinents (genre les noms, adresses et compagnie des militaires en opération) avant de procéder à une analyse. Les gros journaux font ce travail, c’est pourquoi il faut des semaines voire des mois de travail avant d’aboutir à une publication. Wikileaks a systématiquement balancé en brut les données dans la nature. Ce n’est pas responsable du tout. Tant que tu ne comprendras pas ça, tu ne comprendras pas le gros problème de leur méthode.



Que Assange soit anti-américain, cela ne fait pas de doute. Le fait que rien n’a été émis sur le dos de la Russie et de la Chine laisse planer un gros doute sur le fait qu’il ne soit pas favorable à ces régimes d’une façon ou d’une autre. Ce n’est pas crédible qu’il ait eu autant de documents sensibles sur autant de pays alliés aux USA et rien concernant ces pays là avec tout ce qu’ils font. Bref, lanceur d’alerte oui, mais pas contre tout le monde. Deux poids, deux mesures.

Le 11/04/2019 à 13h 26

Je ne comprends pas ta remarque.



Manning a eu un procès avec des chefs d’accusation valides. Or plus haut quelqu’un a mentionné que le droit américain n’a rien de valable pour inculper Assange, ce qui est évidemment faux. Et que si c’était vraiment le cas, qu’il était blanc comme neige vis à vis du droit américain, alors il n’aurait rien à craindre. Jusque là aucun pays n’a fait une extradition sans mandat d’arrêt qui soit fondé légalement.



Bien évidement qu’Assange risque gros, mais il risque gros car il y a des charges légales contre lui. Sinon il ne risquerait rien.

Le 11/04/2019 à 13h 12

Ce qui est grave et malhonnête c’est la manière dont il a diffusé ces documents. Il a été totalement inconscient en procédant ainsi. Il y avait largement de quoi publier de manière propre les documents contre les USA mais il ne l’a pas fait.



Le journalisme ou être un lanceur d’alerte n’est pas une excuse pour publier n’importe comment n’importe quoi.



Et ton discours est assez risible. Si les USA n’ont rien pour le juger, qu’est-ce qu’il risque ? Ils ne vont pas extrader Assange pour les beaux yeux des américains. Ils vont exiger un mandat d’arrêt valide. Et vu ce qu’il a fait, aucun pays au monde n’aurait un droit incompatible avec une telle arrestation. Il a diffusé des documents confidentiels, porté atteinte à la sûreté d’un État, il a mis en danger des personnes, notamment en zone de guerre, il a probablement aidé à influer une élection présidentielle, etc. Bref, il y a largement de quoi lui faire un procès sérieux.



D’habitude ce qu’on lui reproche est une activité d’espionnage, qui se réalise souvent sous la protection d’un état (souvent celui d’où le vient). Le soucis est qu’il agit seul, donc il ne profite pas des protections usuelles pour ce genre de choses.



D’ailleurs que les russes par exemple condamne son arrestation est une preuve de plus de l’hypocrisie dans ce dossier. Depuis quand la Russie respecte le journalisme, les droits de l’Homme, tout ça ? Leur action est contre els USA et il n’est pas improbable que Assange ait été financé ou qu’il ait travaillé pour eux.

Le 11/04/2019 à 12h 35

Pour moi le problème est là.



Que Assange soit arrêté me semble normal. Ce qu’il a fait est grave et malhonnête même pour un lanceur d’alerte ou un journaliste.

 

Le vrai problème, et celui qui devrait être combattu, c’est que les USA risquent de lui faire un procès qui ne respecte pas l’État de droit et que la sentence soit trop forte (conditions de détention inadmissibles ou peine de mort). D’autant plus que ce problème n’est pas propre à Assange, mais concerne potentiellement tout le monde.



Or bizarrement, il semble y avoir plus de marques de soutiens pour que Assange soit libre sans procès que pour défendre en fait l’application de l’État de droit aux USA.

Le 08/04/2019 à 16h 45

Mouais, tu enjolives un peu l’histoire quand même.



Déjà, et il faut rappeler les faits : Assange est libre. Il n’est pas en prison. S’il veut demain il peut quitter l’ambassade.



Après bien sûr, s’il sort, il ne sera pas libre très longtemps mais en l’état actuel des choses il est coincé dans cet ambassade car il refuse de mettre un pied dehors pour éviter une arrestation. C’est quand même une situation différente. Il refuse d’assumer ses actes devant un tribunal, c’est son choix mais je ne trouve pas à titre personnel que cela soit un comportement propre non plus.



D’autant que Assange a pour moi des défauts qu’on met rarement sur le tapis. Il a vraiment essayé d’attirer l’attention sur sa plateforme Wikileaks et sur lui. Il fait par ailleurs souvent sa diva médiatiquement. Et en plus la manière dont fonctionne Wikileaks est assez critiquable. De nombreuses fois les informations confidentielles n’ont pas été caviardées (mettant en danger des hommes sur le terrain), la collaboration avec les médias pour transmettre ces infos n’a pas été systématique, ni toujours bienvenue. Et il est assez étrange que tout ce qui a été publié est contre les USA et ses alliés et jamais contre la Russie, la Chine ou un autre État adversaire des USA. Pour moi cela cache quelque chose en terme d’influence et de financement de tout ceci.



Bref, Assange n’est pas… un ange non plus selon moi et son attitude actuelle est critiquable.



Et non, je n’ai rien contre des lanceurs d’alerte s’ils font bien leur travail. Par exemple Snowden est assez exemplaire. Il est discret depuis ses révélations, il vit en Russie sans les critiquer. Et il n’a pas mené une campagne médiatique systématique à l’encontre des USA, et il a affirmé être près à comparaître aux USA pour assumer ses actes sous certaines conditions ce que Assange a toujours refusé de faire.

Le 08/04/2019 à 16h 00

Le plan très haut débit n’a jamais mentionné un objectif de 100% de couverture en fibre optique et encore moins pour 2022.



En fait ce plan est en fait la mise en œuvre de celui de l’UE d’apporter le très haut débit partout en 2022. Mais le très haut débit c’est au moins 30 Mbits/s. Ce débit est largement atteignable avec du coaxial, 4G fixe ou du VDSL2.



L’État s’est engagé par contre sur une couverture de 80% de fibre optique, ce qui est très différent de 100%. Car ce seront notamment ces 20% manquant qui seront les plus coûteux et longs à fibrer. C’est un objectif qui reste ambitieux et qui ne sera probablement pas tenu en l’état.

Le 31/10/2018 à 10h 18

C’est un peu du foutage de gueule qu’une entreprise non rentable depuis si longtemps et qui a un chiffre d’affaire 10 fois plus faible que Red Hat la ramène sur le sujet.



> Canonical insiste sur l’adoption massive d’Ubuntu pour de nouvelles

infrastructures, dans des banques, des groupes télécom ou encore dans la

recherche. Un mouvement que la société voit mené par les développeurs

(citant pêle-mêle des projets Kubernetes, OpenStack, de machine

learning, d’intelligence artificielle ou l’Internet des objets).



La dynamique est peut être bonne pour eux sur ces technos, mais ils sont loin derrière RHEL en terme d’adoption sur le terrain. Cela me paraît ridicule qu’ils se congratulent autant pour l’instant.

Le 31/10/2018 à 07h 47

Il est plus que probable que le problème vienne de Wayland plutôt que de GNOME.



Tu as essayé de lancer GNOME avec X.org pour voir ? C’est très rapide à tester.

Le 30/10/2018 à 17h 59

Car GNOME est l’environnement de référence pour Fedora. Red Hat et Fedora y investissent beaucoup de temps (ces contributions représentent environ 30% des commits du projet GNOME).



 Du coup la qualité de l’intégration est bien meilleure que les autres, il en devient logique de le mettre en avant.



Personnellement je ne trouve pas que cela fait macOS pour autant, les concepts d’ergonomie sont assez différents quand même. Il ne faut pas s’arrêter à la tête de la barre du haut.

Le 30/10/2018 à 09h 23

N’oublions pas que IBM est mondial, le droit français n’est pas appliqué partout. ;)



Mais IBM a des employés qui contribuent pour le boulot et sur le temps libre dans des projets libre comme le noyau, Eclipse, etc. De manière similaires à de nombreux employés de Red Hat. Je ne vois aps forcément le conflit sur ce point non plus.

Le 30/10/2018 à 08h 42

CentOS n’est plus indépendant depuis quelques années, Red Hat a embauché les principaux contributeurs et allouent des ressources au projet. Car c’est dans son intérêt. De la même façon que Microsoft a offert (ou presque) des licences Windows pour de gros parcs, pour maximiser l’usage des produits maisons partout.



Car RHEL est cher, mettre du RHEL là où c’est critique (serveurs critiques de la boîtes) et du CentOS là où ça l’est moins (ordinateur du secrétariat par exemple)  c’est intéressant pour Red Hat. Mieux que rien du tout faute d’avoir une offre globale compatible.

Le 05/07/2018 à 20h 35

Ah NextINpact, seul site d’actualité francophone dont je suis fier de payer pour accéder à du contenu de qualité et INpactant.



Des bonnes analyses sur le numérique tout en étant varié, du politique au matériel sans trop s’attarder sur le buzz du moment. On en aimerait plus souvent.



Le retour du matériel en avant plan compenserait les pertes récentes dans le secteur, du moins en francophone. Pourtant il y a tellement à dire, et surtout redire sur les annonces des fabricants et la confrontation avec le réel.



Pour moi tout média devrait être ainsi, privilégier la qualité, éviter de trop surfer sur le buzz quitte à devoir payer (un peu) pour y accéder. pourvu que cela dure !

Le 26/01/2018 à 14h 44

Je suis d’accord avec toi, je l’ai même précisé.



Mais il faut savoir distinguer le formulaire applicable de ces théories (qui ont un champ de validité défini et très exploitable dans ces limites) et la vision de ces modèles sur le fonctionnement de l’univers (qui elles ne sont pas compatibles et dont une seule peut expliquer réellement son fonctionnement).

Le 26/01/2018 à 12h 29

> « La théorie de Newton n’a pas été jetée à la poubelle et remplacée

par des choses qui n’ont rien à voir, la théorie d’Einstein contient la

théorie de Newton, ce sont des poupées russes qui sont englobées les

unes dans les autres. Donc tout ce que l’on sait aujourd’hui va rester,

va éventuellement être modifié profondément par en dessous, mais à un

certain niveau restera vrai ».



Oui et non en fait.

Les formules de la mécanique de Newton restent vrais et pertinents dans son domaine d’application. Il est après tout bien plus simple et tant que les résultats suivent, c’est tant mieux.



Cependant la physique newtonienne et relativiste n’ont absolument pas la même description du monde. La gravité est une force d’un côté, une courbure de l’espace temps de l’autre. Et il semble assez peu probable que ce soit ainsi en réalité. Il est fort probable que la courbure de l’espace temps soit générique, partout. Voire que ce soit quelque chose d’autre.



C’est un changement assez fondamental, seule la partie calculatoire s’emboîte plus ou moins ici, l’explication du résultat ne sont pas cohérents et donc ne s’emboîtent pas.

 

Le 12/01/2018 à 11h 30

Le droit constitutionnel c’est bien entendu l’organisation de l’État (répartition des pouvoirs, création des institutions et de leur fonctionnement) mais cela décrit aussi les principes fondamentaux de nos sociétés. Par exemple décrire les libertés fondamentales, préciser qu’il n’y a pas de discrimination autorisée, etc.



Dans ce second cadre, la Neutralité du Net a sa place car ce n’est pas qu’une question économique. Par exemple cela pourrait confirmer que l’État ne peut par exemple couper la connexion Internet à quelqu’un sur décision administrative, et un citoyen isolé pourrait exiger l’accès au réseau. Cela est possible de le faire via la loi, mais le bloc constitutionnel est plus rigide ce qui est son principal intérêt.

Le 07/11/2017 à 15h 13

Oui, et ?



Je ne vois vraiment pas où tu veux en venir, en quoi cela change fondamentalement mon message et en quoi ta précision est utile en fait.

Le 07/11/2017 à 12h 05

En quoi c’est simpliste ?

Ça prend en compte les parts de marché, la question de l’image, des marges, etc. C’est loin d’être anodin toutes ces questions.



Puis si le marché des voitures autonomes sera important dans un avenir proche, cela reste une niche aujourd’hui. C’est clairement une question d’image et d’investissement à long terme.

Le 06/11/2017 à 17h 07

> NVIDIA. Leader du marché graphique, il continue de passer à côté de

secteurs importants comme celui des consoles, des machines d’Apple



Ne pas oublier que pour ce genre de contrats (avec un très gros volume, mais sur des produits avec peu de marges comme les consoles) c’est bien plus intéressant pour AMD que nVidia de les signer.



nVidia est la référence du secteur, il a des marges confortables, pas grand chose à prouver et n’a pas besoin d’investir dans des produits dont la marge sera faible. Au contraire, AMD a tout intérêt de revaloriser son image (et donc d’étendre sa présence), et un contrat de gros volume même à faible marge reste pertinent pour faire tourner les usines, les équipes et gagner un peu d’argent de manière fixe. AMD est prêt à casser les prix pour obtenir ce type de contrat, pas nVidia.



 Je pense que ceci explique en partie les choix de nVidia et d’AMD sur la répartition du secteur, nVidia mise sur le haut de gamme avec une forte valeur ajoutée et une bonne retombée médiatique (le GPU qui tourne sur une voiture autonome, ça fait plus rêver que la PS4), AMD visait surtout à survivre et essayer de reconquérir du marché par le point faible de son concurrent : le bas de gamme.

Le 14/09/2017 à 10h 40

Il faut arrêter de voir du complot partout.

Pour bosser dans l’embarqué, où les soucis de sécurité et de mises à jour sont problématiques, il n’y a pas de complot pour vendre plus de puce.



Seulement déjà il faut savoir que Linux embarqué dans des appareils spécifiques types IoT ont été patché par le concepteur de la puce (type Qualcomm) pour une version spécifique. Ce travail est souvent mal fait, car faire bien demande du temps ce qui a un coût direct mais aussi indirect (en retardant la diffusion du dit produit). Et cela est souvent géré aussi par des équipes chinoises ou indiennes qui sont moins regardantes sur la qualité du produit final.



Et Qualcomm et compagnie ne sont pas du genre à maintenir le produit longtemps, car après tout, le prochain processeur est déjà en cours de conception et il y a du boulot à faire dessus.



 Donc tu te retrouves avec un vieux noyau pour toute la durée de vie du produit.



Du coup il est très difficile de maintenir ce qui est produit, le mettre dans le noyau officiel est impossible (trop gros et mal fait), et le maintenir par le vendeur du produit final est souvent trop délicat également.



Ils ne font pas cela par malveillance, c’est vraiment une question de coût (pour vendre des Android à vraiment pas chers, tu dois rogner sur pas mal de choses, Apple peut se permettre un suivi grâce au prix très élevé de ses appareils et à la maîtrise de la chaine de production) et de temps. Les équipes n’étant pas de tailles infinies, la diversité des produits étant énorme et le budget limité, tu ne peux pas assurer une maintenance sur le très long terme. Et vu le volume des ventes des téléphones en faveur des Android pas très chers, le consommateur soutient cette politique.



Sans compter la difficulté que représente d’utiliser un logiciel moderne sur des composants anciens. Tu ne peux pas utiliser Firefox décemment sur un PC des années 95, car Firefox et le Web exigent plus de puissance qu’à l’époque. Et essayer de maintenir une maintenance éternelle pour tout ça est vraiment très difficile.



 Le changement de mentalité ne se fera que si les consommateurs le souhaitent (donc probablement quand une grande attaque de masse surviendra), si les politiques imposent un temps de maintenance minimale (comme la garantie en somme) ou via un autre business model (un abonnement permettant de payer le coût des mises à jour plutôt que de payer le produit une seule fois ce qui limite le budget pour ce genre d’activités).



Dans tous les cas, cela se traduira par une hausse des prix assez importante du secteur des technologies.

Le 09/08/2017 à 08h 19

Est-ce que la recherche d’une version HTTPS d’un site par défaut rend inutile l’extension HTTPS Everywhere ou non ? Je ne trouve pas cela très clair. :)

Le 13/07/2017 à 15h 50

Ce n’est pas vrai, tu me poursuis partout. :P



En effet Wayland n’est pas encore disponible pour Cinnamon.

Le 13/07/2017 à 10h 31

Ah ça, ok. x)

J’ai essayé et je n’aime pas non plus, mais certains trouvent ça efficace (moi au contraire).



Comme c’est une option je ne vois pas le soucis.

Le 13/07/2017 à 10h 13

Que veux-tu dire par là ?

La capture d’écran ne montre que la configuration de ce mode hein, la teinte rouge n’était visible que sur l’écran (donc pas en capture d’écran).

Le 31/01/2017 à 09h 06

N’oublions pas que Torvalds est payé par la Linux Fondation en télé travail, il gère son emploi du temps librement hein. :)

Il ne se surmène pas pour le noyau. Il vit correctement à côté. Je suppose qu’il bosse le week-end car c’est plus calme que le reste du temps (où il prend plus de repos).



De même, il ne vérifie pas chaque correctif du noyau. Il délaisse beaucoup de sous-section entièrement à ses lieutenants, où il valide presque directement ce qu’ils ont approuvé. Il ne s’occupe globalement que ce dont il a la charge ou ce qu’il l’intéresse (soit une partie bien délimitée, notamment autour des systèmes de fichiers ou du cœur du noyau). Parfois il vérifie de manière aléatoire pour le fun. Puis il trolle aussi.



Bref, c’est un bon intégrateur, mais pas un surhomme non plus. :)

Le 26/01/2017 à 08h 42

Les gens, avant de dire que vos extensions ne supportent pas le multiprocessus, allez à la page suivante :

&nbsphttps://arewee10syet.com/



Cette page liste les extensions connues comme compatibles ou non avec ce dispositif. Mozilla ne devine pas quelles sont les extensions qui fonctionnent, elle se base sur le retour des utilisateurs. Les 34 du temps, les incompatibilités n’en sont pas, ce sont juste des extensions non testées avec le multiprocessus activé.



Bref, installez l’extension recommandée par Mozilla, forcez le multiprocessus avec vos extensions et renvoyer l’info si cela fonctionne bien avec tout ceci ou pas. Cela augmentera le nombre d’extensions compatibles. Et si ce n’est pas bon, contactez le développeur pour qu’il corrige cela.

Le 25/01/2017 à 12h 00

Ou alors tu forces l’activation et tu testes pour déterminer si c’est compatible ou pas.

Mozilla ne devine pas si une extension est compatible ou non, elle se base sur les retours des utilisateurs. Si tu forces l’activation, et que tu ne vois aucun soucis particulier, tu peux remonter sur le site dédié à Mozilla que cette extension est compatible.



Donc pour les extensions avec peu d’utilisateurs, je vous conseille de vous y mettre pour débloquer la situation de tout le monde. ;)

Le 25/01/2017 à 09h 44







Groaaa a écrit :





Et pourtant, cela arrive…

Beaucoup de gens sont méfiants ou ne comprennent pas l’utilité (et ont du coup un doute sur l’utilité de faire des travaux ou autres pour ça, ce qui peut être c’est vrai parfois un peu gênant selon les cas).



Bref, à moins d’avoir sonder tout le monde, ne crois pas que c’est gagné d’avance. J’ai vraiment vu des situations débiles sur le sujet.


Le 25/01/2017 à 08h 57

Même pas, normalement Toulon est plus au Sud que Marseille, ici c’est l’inverse.



Ils ont vraiment merdé jusqu’au bout. Et apparemment pas mal de villes sont concernées (je n’avais pas regardé ailleurs, et ça fait peur un tel amateurisme).

Le 24/01/2017 à 22h 51

Ils devraient revoir leur géographie.

Sur les cartes, Marseille et Toulon sont à 100 km environ de leur emplacement réels, à savoir vers Arles et Aix-en-Provence respectivement. <img data-src=" />

Le 23/01/2017 à 13h 07

Les normes dont tu parles sont des normes auto-certifiantes.

En gros c’est Samsung qui décide si son produit est CE ou pas.



Bien sûr pas n’importe qui a le droit d’utiliser ce logo, il faut être approuvé avant et il y a des audits de temps en temps. Mais personne n’a vérifié que le Note 7 fonctionnait bien, sauf Samsung.



Il est impossible que des logos type CE soient certifiés par des organismes indépendants systématiquement. Cela coûterait bien trop cher, prendrait bien trop de temps… Et globalement le système actuel fonctionne plutôt bien.



Et comme je l’ai dit avant, rien ne dit qu’une autorité l’aurait détecté. On reste sur un nombre de pannes assez faible quand même sur un composant très difficile à tester.

Le 23/01/2017 à 11h 32

C’est vrai qu’il y a un soucis du point de vue disponibilité d’équivalent à un Note.

Ma femme a un Note 2 qui se fait vieillissant et qui commence à être au bout de ses capacités.



On voulait profiter de la sortie du Note 7 pour bénéficier d’un Note 4 à prix abordable. Résultat des courses : pas de Note 7, pas de Note 5 en France et le Note 4 neuf compatible opérateurs français se vend extrêmement cher (500 à 700€ pour un téléphone aussi vieux) et est difficile à se procurer (non, je n’achète pas de l’import depuis Hong Kong).



&nbsp;Du coup il faut se rabattre potentiellement sur des alternatives type LG Stylus mais globalement cela ne tiens pas la route niveau performances et qualité en comparaison. Ou alors il faut abandonner l’idée d’avoir un équivalent du Note pour l’instant. Mais c’est dommage, Samsung aurait pu en profiter pour maintenir le Note 4 ou importer le Note 5 le temps de sortir la version 8.

Le 23/01/2017 à 11h 21

Samsung a fait un rappel général pour deux raisons :



* Ils ne connaissaient pas l’origine du problème (donc ils n’avaient aucune idée de l’étendu des défauts potentiels, cela pouvait être un défaut dans l’assemblage même du produit par exemple) ;

* Le nombre de cas est resté bas mais c’est assez supérieur aux taux habituels (des smartphones qui prennent feu, tu en as dans chaque modèle).



Ils n’avaient pas le choix, la polémique avait grandi, il y avait une grande incertitude autour du modèle ce qui le rend commercialement invendable. Ce sont les opérateurs et autres autorités qui ont refusé les ventes ou l’usage du produit avant le rappel par Samsung.



Comme je le dis, c’est très difficile d’identifier ce genre de soucis qui n’impactent pas un grand nombre de produits. Les tests qualités se font par échantillons (tu ne peux pas tout tester, surtout que certains tests sont destructifs). Si tous tes échantillons passent, le lot est valide. Et vu le volume produit dans son ensemble et le peu de cas répertoriés (on est dans l’ordre du 1 modèle défectueux pour 1000 modèles sains) cela ne me paraît pas invraisemblable que ce soit passé inaperçu.

Le 23/01/2017 à 10h 50

Il ne faut pas perdre de vue que il n’y a eu que quelques centaines (voire milliers) de cas problématiques sur des millions d’appareils. Cela reste peu. Il est très difficile de trouver ce genre de soucis lors des prototypes ou essais de la chaîne. Quelque soit ton processus de qualité, tu n’es jamais à l’abri de ce genre d’erreurs qui passent à la trappe.



Cela ne me paraît pas du tout déconnant donc que cela ne se soit pas vu avant la production en série en si gros volume.