votre avatar Abonné

JNSON

est avec nous depuis le 13 juillet 2022 ❤️

117 commentaires

Le 22/07/2024 à 18h 56

Au hasard, passer au fichier .sys suivant et ne pas charger la protection contre les named pipes foireux ?

Il est aussi possible d'envoyer un rapport d'erreur pour remonter le problème et envisager un correctif.

Si le bug est prévisible, ce n'est pas vraiment un bug, vu que vous qu'en l'anticipant, une correction s'impose d'elle même. A partir du moment où vous n'avez pas prévu le bug, il se produira, ce qui s'est produit ici. Maintenant, oui, si le correctif consiste à dire qu'on peut passer au fichier sys suivant, c'est pas grave, OK. Mais les bugs se produiront toujours parceque vous n'avez pas anticiper un problème, jamais autrement, à moins de travailler dans l'objectif de saboter le projet (ce qui peut être une piste cela dit). On peut toujours dire après coup, on aurait pu faire ceci ou cela, mais bon, résoudre le problème à postériori ne résou pas le problème à priori. Impossible de remonter dans le temps.

Donc soit vous décidez à priori que certains problèmes peuvent se poser et que vous pouvez ignorer le chargement fichier sys à priori en toute conscience, soit vous décidez à priori qu'aucun problème ne devrait se poser, car au moment où vous écrirez le code, vous considérerez que le problème que vous envisagez est impossible (à tord ou à raison), et que s'il se produit quand même, c'est que au moment où vous y pensez, vous ne savez pas pourquoi cela se produit. Soit vous tolérez l'erreur sans trop savoir ce que ça va donner (et éventuellement ce que cela va empirer), soit vous faite tout planter, en disant qu'il vaut mieux préserver l'intégrité du système, et notamment l'intégrité des données qu'il ne faut pas corrompre. Si le noyau arrive par exemple à un état non anticipé, est-ce qu'il vaut mieux générer un écran bleu ou continuer au risque de bousier le système de fichier ? Par exemple, et petite digression, j'ai entendu du dire que le noyau Linux était tellement stable qui ne générais pas de kernel panic même avec une mémoire instable. Personnellement, cela m'est déjà arrivé d'avoir une mémoire instable, le noyau n'a pas planté, et pourtant mon ordinateur faisait n'importe quoi (j'ai mis du temps à comprendre que c'était la mémoire le problème, enfin 2h). J'estime avoir eu de la chance que ça n'ait pas eu plus de conséquences sur mon système de fichiers. J'aurais préféré un kernel panic. Maintenant, dans le cas de cet article, je ne sais pas trier ce que peut être toléré comme erreur de ce qui ne peut pas l'être.

Ce que je dis en revanche, c'est que les bugs arrivent quelque soit les précautions prises. Donc par définition, si on n'anticipe pas un bug et son sens, c'est qu'on ne sais pas s'il faut faire tout planter, ou si on peut tolérer l'erreur. Pour tester un programme, on doit faire des tests, et mon propos initial supposait que des tests sur Crowdstrike avait bien été effectués avant la mise en production. Je me suis alors demandé comment des tests peuvent passer sur une machine de test et pas sur une machine en production ? Du fait qu'un programme C ne fait pas toujours planter un programme à cause d'un mauvais accès mémoire, seul le noyau fait planter le programme s'il se rend compte que l'accès porte sur un espace mémoire non autorisé. Mais si l'accès mémoire est autorisé au moment du test, bien qu'incohérent, le noyau n'arrête rien, et le programme C n'arrête rien non plus, ce qui n'aurait pas été le cas d'autres langages (Pour les langages système, on peut citer Rust). Cela peut être une hypothèse (entre autres) de pourquoi le bug a passé les tests : l'environnement mémoire n'était pas le même, et dans un cas, le noyau ne fait pas planter le programme, dans l'autre il faitt planter le programme (et lui même), et pas de chance, ça tombe en prod. Ben ça, ça arrive typiquement avec C/C++.

Donc au final, un langage moins laxiste sur la gestion de la mémoire, si les hypothèses de départ sont les bonnes, aurait peut être permis d'éviter le problème, car le dit programme aurait planté dès la phase de test.
En disant cela je comprend qu'on ne peut pas se permettre de tout recoder en Rust, mais tout de même, je n'ai jamais trouvé bien pratique cette façon d'accepter n'importe quoi en C en matière de gestion de mémoire, en pariant sur le fait qu'un⋅e développeur⋅e doit être parfait (impossible !), et que cela ne devrait jamais arriver.

Le 22/07/2024 à 17h 32

Aller, je craque:
"D'autre part, vous proposez des tests pour éviter le problème dans le code en production, mais vous ne pouvez pas faire un try/catch à chaque fois que vous lisez une variable."

Non, question de contexte, mais en général on englobe toute un section de code.

" Et même si vous le faites, il faut vous attendre à deux catégories de problèmes ; les exceptions (ouvrir un fichier qui n'existe pas), ou les erreurs (arriver à un état du programme qui n'aurait pas du arriver). A moins de considérer qu'une mauvaise adresse mémoire pointé par une variable soit un comportement normal, il s'agit au tout état de cause d'une erreur et non d'une exception."

C'est une bonne remarque. Si les environnements managés (java, C#) considèrent à peu près pareil et gèrent de la même façon les erreurs de pointeur et les erreurs "managées", ce n'est pas pareil en C et en C++ (qui eux-mêmes sont différents).
Quand je parlais de try/catch, c'était sur l'idée générale.
Et donc c'est une mauvaise remarque: en C, on peut aussi dire comment le soft doit gérer les exceptions SYSTEMES (div/0, accès mémoire illégal, instruction illégale). Ce qui fait l'équivalent d'un try/catch (je ne me rappelle plus bien, je n'ai pas fait de C de ce genre depuis 2000).
On ne peut pas catcher toutes les erreurs mémoires, mais quelque soit le système, taper dans la RAM système (comme 0x9c) est catchable. Ce qu'on ne peut pas détecter ainsi, c'est quand le programme écrit trop loin dans sa propre mémoire.

Bref il y a des mécanismes basiques, en place depuis le début de la "mémoire protégée" qui existent en quasi standard.

Donc de la part d'un programmeur d'EDR, c'est pour moi impardonnable.

Mais la question n'est pas de faire un catch, mais quoi faire du catch ? Si vous décider de poursuivre l'exécution alors que l'état du programme est incohérent, vous n'aurez rien résolu du problème initial et vous déplacez le problème ailleurs. S'il y a un écran bleu sous Windows, ce n'est pas parce que le noyau fonctionne mal (ou pas forcément), mais parce que le noyau est arrivé dans un état incohérent où il ne peut poursuivre son exécution sans potentiellement aggraver le problème. Un catch pour empêcher l'écran bleu ne changerait rien au fait que cela n'aurait pas du arriver dans le sens où le bug n'a pas été anticipé (sinon, il n'y aura pas de bug en fait).

Ce qui peut arriver à l'échelle du noyau peut aussi arriver à l'échelle d'un programme. Faire un catch de quelque chose d'incohérent dans le contexte, ne changera rien au fait que cela n'aurait pas du arriver. Et donc, dans ces conditions, il vaut mieux que tout plante plutôt que continuer l'exécution avec un cas non prévu. C'est tout ce que j'ai essayé de dire, et c'est pas la peine de me prendre de haut en entrant dans les détails technique du C pour noyer le poisson dans l'eau. Ce que je dis est une banalité. Votre façon de me rabaisser est intolérable.

Le 22/07/2024 à 17h 22

Oui, et ce code était là pour montrer qu'avec un pointeur NULL, on pouvait facilement accéder à un espace mémoire non nul, en montrant l'adresse en mémoire d'un des attributs de la structure.

Un code qui génère un accès non autorisé à une adresse très très basse (du style de 0x9C) a de très forte chance d'être provoqué par le déréférencement d'un pointeur NULL, dont un simple test if (v != NULL) protège. Ce n'est pas l'unique possibilité d'avoir ce genre d'erreurs, mais dans la grande majorité des cas, c'est ça.

Donc l'article parle bien de l'adresse 0x9C. Un accès à ce type d'adresse est très majoritairement dû à l'usage non testé d'un pointeur NULL (le fameux déréférencement). Donc, le test proposé par Wosgien (qui protège contre le déréférencement d'un pointeur NULL) sera efficace dans la grande majorité des cas.

Maintenant, et sans vouloir être désagréable, notre échange m'indique clairement que vous n'êtes pas développeur (ou si c'est le cas, j'en suis désolé, mais vous avez de grave lacune sur la notion de pointeur). Dans les deux cas, il me parait inutile de continuer ce dialogue de sourd.

Heureusement que vous n'êtes pas désagréable !

Le 22/07/2024 à 15h 54

Votre exemple ne dit rien du tout. Votre exemple dit que l'entier 0x9C est différent de 0 (et je dis bien entier, pas pointeur). Ce qui est d'une évidence qu'il n'est même pas besoin de souligner.

Partez de "if (v!=null)" qui est l'exemple donné plus haut par Wogien que j'ai contredis.


Cf. mon commentaire #12.5

Vous dites que mon exemple parle de l'entier 0x9C, car l'éditeur de Next.ink a modifié mon texte. Si vous cliquez sur mon lien, vous pourrez constater que mon code de départ parle bien du pointeur qui a l'adresse 0x9c. Mais ce pointeur est bien un entier au final. Cela revient au même.

Le 22/07/2024 à 15h 39

Votre exemple ne dit rien du tout. Votre exemple dit que l'entier 0x9C est différent de 0 (et je dis bien entier, pas pointeur). Ce qui est d'une évidence qu'il n'est même pas besoin de souligner.

Partez de "if (v!=null)" qui est l'exemple donné plus haut par Wogien que j'ai contredis.


Cf. mon commentaire #12.5

Si c'est évident, pourquoi me contredire ? Ai-je dis autre chose ?

Le 22/07/2024 à 15h 38

if (test != null) {
test->machin++;
}

Alors c'est pas "v", mais "test", mais je parlais bien de ça depuis le début... Cf. mon commentaire #12.5

Vous dites ici "if (test!=null), mais dans le commentaire d'avant, vous faisiez référence au lien qui donnait ce code
: typedef struct {
int field1;
int field2;
} test_s;

int main()
{
test_s* test = NULL;

printf("Adresse de l'attribut field2 : %lx", (unsigned long int)&(test->field2));

return 0;
}
Or il n'y a pas de "if(test!=null)" dans ce code. Donc on ne parle de pas de la même chose.
Encore une fois, si vous testez :
int main()
{
printf("Hello World");
int v=(int)0x9c;
if (v==NULL)
printf("0x9c est un pointeur NULL");
else
printf("0x9c n'est pas un pointeur NULL");


return 0;
}

Ca m'affiche "0x9c n'est pas un pointeur NULL". Vous pouvez tester le code ici : https://onlinegdb.com/oi9IbrDM5
C'est de ça dont au parlait au début et uniquement de ça. NULL correspond à l'adresse 0, et if "(test!=null)" sera validé si test n'est pas égal à 0, et non pas si test n'est pas égal à 0x9a ce dont on parle dans l'article.

Le 22/07/2024 à 15h 28

Relis l'exemple de code que je t'ai donné. Je te parle de déréférencement de pointeur. Le problème n'est pas d'accéder au pointeur, mais à un des attributs de la structure pointée par le pointeur (sans compter que ton code ne manipule pas de pointeurs, juste des entiers).

https://onlinegdb.com/03Sut0yrO

Donc je dirais que vous avez tous les deux tord.


Je vais utiliser un argument d'autorité, même si je n'aime pas ça : ça fait plus de 30 ans que je développe et au moins 25 que je fais du C plus ou moins régulièrement, dont de la programmation système et sur système embarqué.

Donc oui, je suis sûr de mon coup et tu te trompes. Ce que je t'énonce là, cela fait partie de la base du C.

Concernant l'argument d'autorité, je ne vois pas le rapport ! J'ai donné un exemple qui explicitait ce que je disais. Si vous êtes compétent, vous devriez comprendre mon propos. Si vous parlez d'autre chose, je ne peux rien pour vous, car nous allons avoir un dialogue de sourd, et cette conversation ne sert à rien. Partez de "if (v!=null)" qui est l'exemple donné plus haut par Wogien que j'ai contredis.

Le 22/07/2024 à 15h 20

Relis l'exemple de code que je t'ai donné. Je te parle de déréférencement de pointeur. Le problème n'est pas d'accéder au pointeur, mais à un des attributs de la structure pointée par le pointeur (sans compter que ton code ne manipule pas de pointeurs, juste des entiers).

https://onlinegdb.com/03Sut0yrO

Donc je dirais que vous avez tous les deux tord.


Je vais utiliser un argument d'autorité, même si je n'aime pas ça : ça fait plus de 30 ans que je développe et au moins 25 que je fais du C plus ou moins régulièrement, dont de la programmation système et sur système embarqué.

Donc oui, je suis sûr de mon coup et tu te trompes. Ce que je t'énonce là, cela fait partie de la base du C.

Mais dans l'exemple que vous donnez, il n'y a pas "if (v!=null)", pourtant c'est de ça dont parlait "Wogien" plus haut. Si vous parlez d'autre chose, je ne peux pas vous répondre puisqu'on parlait pas de ça au départ.

Le 22/07/2024 à 14h 52

Il a pourtant raison. Bien que l'adresse 0x9C ne soit pas une adresse nulle, cela ressemble fortement au déréférencement d'un pointeur NULL.

Exemple :

if (test != null) {
test->machin++;
}


test est une structure plus ou moins complexe, dont l'adresse de base est représentée par la valeur contenue dans test, et dont chaque champs ce déduit ensuite à partir de cette valeur de base.

Maintenant, ce n'est pas parce que cela ressemble a un pointeur NULL que c'est effectivement le cas. Ce n'est pas la seule chose qui puisse provoquer ce genre de comportement.

Je viens de vérifier avec ce code :

int main()
{
printf("Hello World");
int v=(int)0x9c;
if (v==NULL)
printf("0x9c est un pointeur NULL");
else
printf("0x9c n'est pas un pointeur NULL");


return 0;
}

Ca m'affiche "0x9c n'est pas un pointeur NULL". Vous pouvez tester le code ici : https://onlinegdb.com/oi9IbrDM5
Donc je dirais que vous avez tous les deux tord.

Le 22/07/2024 à 14h 31

Le sens de mon premier commentaire était de dire que les langages C et C++ ne génèrent pas les mêmes exceptions en fonction de la configuration mémoire dans laquelle on se trouve à cause du laxisme des deux langages dans la gestion de la mémoire


Il sera bon de ne pas tenter de réécrire l'histoire. C et C++ ne sont pas laxistes. Ils permettent des choses que d'autres ne permettent pas. Un grand pouvoir implique de grandes responsabilités.

Certains langages proposent effectivement des mécanismes pour éviter les problèmes de gestion de mémoire, et utilisent plusieurs mécanismes, parfois complémentaire, à cette fin.

Maintenant, nous parlons ici d'un cas particulier, qui est de la programmation système, nécessitant un très bas niveau d'abstraction, ce qu'offre le C et dans une moindre mesure, le C++. Pour de la programmation système, on oublie tous les langages qui dépendent d'un runtime et/ou d'une machine virtuelle.

Ne pas oublier non plus que le C a été initialement inventé pour réécrire de manière "portable" Unix. La gestion de la mémoire se devait donc d'offrir un contrôle important au développeur. Ce n'est pas du laxisme, mais une volonté forte.

Avant son invention, le seul moyen utilisable pour écrire un OS était l'assembleur. Ce qui n'était absolument pas portable, puisqu'on devait alors réécrire entièrement les OS pour chaque architecture et chaque processeur.

A ma connaissance, il n'y a que très peu de langages qui permettent aujourd'hui de faire de la programmation système :
- le C
- le C++ (privé de certaines fonctionnalités comme la gestion des exceptions)
- l'Ada
- le Rust
- l'assembleur

Il en existe surement d'autres, mais dans les plus connus/répandus, je ne pense pas en oublier.

Pour terminer, le coup de la remonté des erreurs par le programme jusqu'à le faire crasher, c'est effectivement plutôt une bonne pratique (pour les exceptions, ça va dépendre du type d'exception et de la robustesse que l'on souhaite donner à son applicatif). Mais ça, c'est possible pour les programmes justement, pas lorsqu'on fait de la programmation système.

Si on faisait ça en programmation système, les BSOD ou les kernel panic seraient légions. Un OS ne doit pas planter. Et on le voit bien aujourd'hui, Windows, Linux, MacOS, FreeBSD, etc. sont très stable et fiable. Un programme qui plante ne fera pas planter le système.

Par contre, lorsque le problème est dans un driver / module noyau... les choses se corsent.

Je ne réécrit pas l'histoire ! Je dis juste mon appréciation de c/c++ !

Le 22/07/2024 à 13h 23

Un test "!= null" ou un try/catch, c'est pas hors de portée non plus.

Ce bug, bien que minimisé dans les médias, aura de lourdes répercussions. Quand un bug touche uniquement les techs, ça va, c'est une mauvaise réputation chez les techs. Quand ça atteint les utilisateurs, on en est pour 5 à 10 ans de perte de confiance.

Quand un employé perdu utilise le joker "on a un problème informatique" au téléphone avec un client, l'employé DOIT avoir mauvaise conscience. Là, il pouvait fièrement le dire. On n'est pas près qu'il se repose des question sur son usage: ce sera l'ordi qui bug/se trompe/lag/freeze.

Le plus gros mal en informatique, c'est le peu de confiance qu'ont les utilisateurs dans l'outil, souvent par manque de formation.
C'est un énorme travail de la part des chefs de projet pour animer cela et rendre la confiance dans l'outil. On doit souvent se porter "garant" du résultat.
Le moindre faux pas, le moindre résultat inexpliqué et c'est comme un lent poison pour le projet.

Résultat: si l'outil n'est pas fiable, pas la peine de passer du temps dessus - et on se retrouve avec un outil dont les données sont pourries, inutilisable, rejeté. Du coup, on se voit obligé de changer d'outil parce que le directeur des employés l'exige - pour un outil moins bon parfois mais qui était dans les pages de 01informatique.

Bref, l'étendue de cet incident est bien plus large que 8,5M ordinateurs: que ce soit de bonne ou mauvaise foi, les reprogrammations de visites à l'hôpital, les retards logistiques, les décalages dans les transports ne se résolvent pas en prenant le prochain horaire: c'est plusieurs jours de replanification!

Je rappelle que Crowdstrike est censé garantir disponibilité et uptime. Là, leur bug est l'équivalent EXACT d'une attaque de virus réussi pour une équipe informatique. Sans parler qu'avoir un EDR, c'est une charge de travail de maintient supplémentaire pour débloquer les postes injustement bloqués, et une gêne régulièrement dans l'usage des ordis + une charge en ressources informatiques...

La com de Crowdstrike me paraît du coup totalement décalée. Le PDG devrait démissionner, la boîte offrir l'année de presta et baisser le coût de moitié: l'attaque qu'elle vient de faire surpasse largement un gros virus tellement c'était étendu et généralisé. Ils viennent de prouver qu'ils sont aussi dangereux que les attaques contre lesquelles ils sont censés nous prémunir.

D'autre part, vous proposez des tests pour éviter le problème dans le code en production, mais vous ne pouvez pas faire un try/catch à chaque fois que vous lisez une variable. Et même si vous le faites, il faut vous attendre à deux catégories de problèmes ; les exceptions (ouvrir un fichier qui n'existe pas), ou les erreurs (arriver à un état du programme qui n'aurait pas du arriver). A moins de considérer qu'une mauvaise adresse mémoire pointé par une variable soit un comportement normal, il s'agit au tout état de cause d'une erreur et non d'une exception. Dans ce cas, quand un programme génère une erreur, il faut laisser le programme planter et ne surtout pas continuer l'exécution pour éviter qu'un comportement improbable (et pire) ne se produise. Donc même si vous faites un try/catch, si ça ne doit pas arriver, il faut quand même terminer le programme. Le try/cath ne servirait dans cet exemple qu'à journaliser la trace de l'erreur et/ou à fermer correctement les verrous obtenus sur le système.

Le sens de mon premier commentaire était de dire que les langages C et C++ ne génèrent pas les mêmes exceptions en fonction de la configuration mémoire dans laquelle on se trouve à cause du laxisme des deux langages dans la gestion de la mémoire, ce qui pose problème quand on test le programme, que le test est validé dans un environnement et que l'erreur se produit quand même quand l'environnement et la configuration mémoire du programme changent, i.e. lorsque le programme passe en production. Ce type de problèmes intempestifs ne se produit pas dans d'autres langages de programmation, où la gestion de la mémoire est plus cadrée. Maintenant, je n'ai pas dit que c'est ceci qui s'est passé dans le cas de cet article d'où le "peut-être" dans mon premier commentaire.

Le 22/07/2024 à 13h 06

Un test "!= null" ou un try/catch, c'est pas hors de portée non plus.

Ce bug, bien que minimisé dans les médias, aura de lourdes répercussions. Quand un bug touche uniquement les techs, ça va, c'est une mauvaise réputation chez les techs. Quand ça atteint les utilisateurs, on en est pour 5 à 10 ans de perte de confiance.

Quand un employé perdu utilise le joker "on a un problème informatique" au téléphone avec un client, l'employé DOIT avoir mauvaise conscience. Là, il pouvait fièrement le dire. On n'est pas près qu'il se repose des question sur son usage: ce sera l'ordi qui bug/se trompe/lag/freeze.

Le plus gros mal en informatique, c'est le peu de confiance qu'ont les utilisateurs dans l'outil, souvent par manque de formation.
C'est un énorme travail de la part des chefs de projet pour animer cela et rendre la confiance dans l'outil. On doit souvent se porter "garant" du résultat.
Le moindre faux pas, le moindre résultat inexpliqué et c'est comme un lent poison pour le projet.

Résultat: si l'outil n'est pas fiable, pas la peine de passer du temps dessus - et on se retrouve avec un outil dont les données sont pourries, inutilisable, rejeté. Du coup, on se voit obligé de changer d'outil parce que le directeur des employés l'exige - pour un outil moins bon parfois mais qui était dans les pages de 01informatique.

Bref, l'étendue de cet incident est bien plus large que 8,5M ordinateurs: que ce soit de bonne ou mauvaise foi, les reprogrammations de visites à l'hôpital, les retards logistiques, les décalages dans les transports ne se résolvent pas en prenant le prochain horaire: c'est plusieurs jours de replanification!

Je rappelle que Crowdstrike est censé garantir disponibilité et uptime. Là, leur bug est l'équivalent EXACT d'une attaque de virus réussi pour une équipe informatique. Sans parler qu'avoir un EDR, c'est une charge de travail de maintient supplémentaire pour débloquer les postes injustement bloqués, et une gêne régulièrement dans l'usage des ordis + une charge en ressources informatiques...

La com de Crowdstrike me paraît du coup totalement décalée. Le PDG devrait démissionner, la boîte offrir l'année de presta et baisser le coût de moitié: l'attaque qu'elle vient de faire surpasse largement un gros virus tellement c'était étendu et généralisé. Ils viennent de prouver qu'ils sont aussi dangereux que les attaques contre lesquelles ils sont censés nous prémunir.

Mais dans l'article, on parle bien de l'adresse 0x9c et non de NULL (qui est représenté par 0 si ma mémoire est bonne). Ici 0x9c pointe vers la page 0 si j'ai bien compris et qui n'est pas à l'adresse 0 dans la mémoire. Du coup votre test if (v!=null) ne devrait pas passer.

Le 22/07/2024 à 07h 27

La question des tests vient peut être du fait que ça vient de bugs intempestifs, surtout avec des pointeurs mémoire en C/C++. En effet, on test le programme dans un écosystème avec une organisation mémoire du système qui reste la même, et même si certaines adresse mémoire sont incorrectes, on ne s'en rend pas compte car elles accèdent à une zone mémoire du programme valide (donc il ne plante pas). Puis lorsqu'on met en production le programme, la configuration mémoire chez les clients n'est plus du tout la même, et les pointeurs incorrectes pointent vers une zone mémoire non valide, puis le programme plante. Ce scénario, s'il est avéré, est du au langage C/C++ qui permet de faire tout et n'importe quoi, sans que des erreur ne soient toujours générées au moment des tests. C'est une des raisons qui m'ont poussé à abandonner le C++ depuis bien longtemps.

Le 22/05/2024 à 23h 00

Ce n'est pas Dredi pourtant .....:D

:D J'ai peut être un peu trop aimé H2G2, mais je pense pas !

Le 22/05/2024 à 21h 28

Enfin surtout ses habitants, car bon, la planète, je pense qu'elle s'en bat le noyau :p

De toute façon, le modèle de croissance permanente explosera dans un joli feu d'artifice, il n'y aura pas de "transition écologique", car ça fait trop chier le business, la consommation, le plein emploi, etc...

Donc préparons nous à finir dans un grand feu de joie (en tout cas, niveau température, ça devrait le faire)

Dire que la planète "s'en bat le noyau" suppose à votre rhétorique l'une de ces hypothèses :
1. elle [la terre] a une conscience et a décidé que la vie sur terre n'est pas son problème. Dans ce cas, c'est un peu dommage, on pourrait lui expliquer qu'il y a d'autres espèces qui sont contentes de faire partie de cette vie perdue dans l'espace, et que c'est tellement rare (voir unique) que son attitude manque de poésie.
2. elle n'a pas de conscience et s'en fou au même titre qu'elle s'en fou de tout. Mais dans ce cas, on ne peut pas dire "elle", car un sujet suppose une conscience. C'est un peu comme une IA qui dit "je", c'est purement virtuel, ça n'a pas de sens philosophique. Il n'y a pas de "je pense donc je suis".
3. vous faites référence à son système de valeur supposé si la terre avait une conscience de ses "intérêts", et vous supposez qu ses plaques tectoniques serait plus importantes que ce qui s'y passe à la surface, car les échelles de temps, d'énergie et d'espace sont en total décalage. Dans ce cas, je vois deux problèmes :
3.1. l'humain a re modélisé toute sa surface. Même l'axe de rotation de la terre va légèrement changer à cause du réchauffement climatique, et donc à cause de l'action de l'homme (je sais pas si on serait arrivé si avait voulu le faire exprès cela dit).
3.2. Le décalage en masse, en espace, et en temps n'est pas important en soi. C'est un peu comme vous disiez que le cerveau des espèces n'était pas utile car il ne représente que 2% seulement du poids de chaque individu.
4. tout ça à la fois, car la Terre représente tout ce qui s'y trouve, dont elle même, dont nous même.

Le 07/05/2024 à 13h 57

J'ai des batteries, j'en suis content. Elles prennent une partie du surplus le matin, la restitue l'après-midi. En été j'ai quelques journées totalement "autonome" (mais si EDF coupe le jus, ça ne fonctionne plus, question de sécurité)
MAIS: c'est mon joujou. Il faudra plus de 10ans pour qu'elles soient "rentables" (enfin, moins ces 2 dernières années). Elles sont garanties 10 ans. Donc c'est juste le temps de la garantie. L'assureur n'aime pas les batteries, il vaut mieux les mettre à l'extérieur.

Les batteries, c'est pour ceux qui surproduisent: j'ai 3kWh, ma maison en consomme "à vide" en gros 0,3/0,4 - mais j'ai toute la cuisine et l'eau chaude sanitaire en électrique. D'où la batterie, qui me permet d'être à 50% en autoconsommartion sans trop me poser de questions en ce moment au lieu de 25% (qui est en gros la moyenne sans batterie)

Nous avons des batteries Pylontech Lithium-Phosphate de Fer, garantie à 6000 cycles à 80% de décharge (il y a des modèles à 90% voir à 100% de décharge). Les Lithium-Phosphate de Fer ne peuvent pas s'emballer parait-il, donc théoriquement, elles ne prendront pas feu au contraire des Lithium-Ion présentes dans les voitures électriques car plus légères (notre véhicule est loin de la maison). Mais je n'ai que très peu de compétence en chimie, donc je ne peux pas l'affirmer par moi même. Notre talon est de 200Wh si on ne fait rien dans la maison, et si on ne chauffe pas. Concernant l’amortissement global de toutes l'installation, j'ai compté 13 ans avec batterie, et 7 sans batterie dans notre cas. J'estime la durée de vie des batteries à 16 ans dans nos conditions. Pour les panneaux, c'est beaucoup plus (garantie à 25 ans, mais peuvent éventuellement durer 40 ans). Tous les onduleurs sont garantis 20 ans. Sur l'année, on auto consomme 70% de notre production, et on est autonome à 50%. Les 30% injectés dans le réseau nous sont restitués gratuitement plus tard via un système de "batterie virtuelle" sur notre facture. L'abonnement est plus cher, mais on y gagne sur l'année.

Le 07/05/2024 à 13h 44

Merci pour le lien, je regarderai, mais étant en tarif Tempo avec deux voitures électriques, et chauffage bois sur une maison passive, je n'aurai que le talon (150-200VA) à éventuellement autoconsommer. Côté Consuel, c'est mon métier, même si je ne contrôle que des centrales entre 3 et 500kWc, donc ce ne serait pas un problème.

Si vous recherchez le talon oui, mais si vous utilisez une grosse installation, vous pouvez recharger un VE la journée sans problème entre 10 et 16A (chez, nous on charge a 13A pour se donner de la marge, et on ne prend pas plus). Je n'ai pas encore regardé si ça valait la peine de passer en heures creuse/pleine. Pendant cinq-six mois, ce n'est pas très important étant donné qu'on ne prend pas grand chose sur le réseau, pas même la nuit vu qu'on a des batteries. De plus, on ne peux pas avoir de formule "tempo", car on n'est pas chez EDF vu qu'ils ne rachètent pas l'électricité non subventionnée, même à bas prix. Notre surplus n'est pas subventionné car on est pas passé par un pro, mais nous ne souhaitons pas qu'elle le soit. Après, de notre côté, on fait aussi du télétravail, ce qui nous permet de recharger la journée. Notre voiture a une petite batterie de 22Kwh, donc il faut la recharger souvent.

Le 07/05/2024 à 00h 48

Côté rentabilité pour 99% des gens impossible, même avec des batteries "recyclées" sauf peut-être à les avoir gratuites ou presque et ce en DIY, et / ou pour un grosse capacité, mais il faudrait donc dimensionner son installation PV en conséquence et vraiment avoir tout en électrique à la maison. En revanche, lorsque les bornes compatibles se seront démocratisées, le V2H des voitures électriques pourrait être un vrai plus dans cet optique, à condition d'avoir une voiture électrique bien sûr et de l'avoir choisie avec cette option.
Mais aujourd'hui avec des bornes à +6000€ c'est juste un gouffre financier.
Reste que RTE en 2022 dans son étude sur le futur du réseau compte bien sur ces batteries roulantes pour lisser la production/ consommation des ENR ainsi que le pilotage de ces mêmes voitures si le parc automobile VE venait comme il semble que cela se dessine, à devenir important.

Les batteries peuvent être amorties avec une grosse installation, mais il faut plus envisager les batteries comme un confort individuel, et comme une utilité collective relative, car cela permet de soulager le réseau le soir en hiver à 19h, et toute la nuit en été, tout en polluant un peu plus (beaucoup moins que pour un véhicule électrique dont les dimensionnement ne sont pas les mêmes). On met quand même deux fois plus de temps à amortir une grosse installation. Mais quand on est en bout de circuit avec des coupures intempestives, voir quand on est par vraiment les premiers à voir le courant rétabli suite à une tempête, ça peut être pratique.

Le 07/05/2024 à 00h 20

Oui, juste qu'avant qu'avant d'avoir 16A sur une prise depuis le kit PV va falloir que notre cher soleil s'énerve drôlement 😁, si t'as 1,5A à la prise à midi avec ton kit 400Wc ce sera la fête déjà !

Je n'ai pas de kit, nous avons fait une installation fixe sur mesure nous même comme un pro l'aurait fait sans passer par le système de kit qui coûte plus cher et est plus difficile à amortir. De plus, les kits n'étaient pas très populaires quand nous avons fait notre installation. Et aussi, on est très limité sur la puissance légale maximum avec ces solutions. Nous sommes très au dessus de 400Wc. Dans les pics, nous étions à 78% de la capacité de production hier la journée où vous écriviez ce commentaire (je suis dans le nord), et à 92% de la capacité d'injection toujours pendant les pics. Donc s'il s'agissait d'atteindre un maximum, c'est carrément possible. C'est plutôt pas mal pour un temps pas top. Sur la journée, si je tiens pas compte des pics, nous étions environ à 60% de la capacité de production pour un temps plutôt nuageux par rapport à un beau temps de mois de mai et à 50% de production environ par rapport à un beau de mois de juin. Maintenant, avec 400wc, on ne va pas bien loin, car cela représente au maximum 1.73A. Impossible d'atteindre les 16A, mais ce dernier point n'a rien à voir avec la météo. Enfin, il n'y a que les mois de novembre, décembre et janvier qui posent de gros problèmes de production (rapport de 1 à 40), surtout dans le nord. Entre février et mars le rapport est de 1 à 10, et en avril, il est de 1 à 2. En moyenne sur l'année, nous sommes autonomes à 50% avec chauffage PAC, plaque à induction, et voiture électrique (20000Km/an), et nous sommes autonomes à 90% pendant 6 mois. Toutefois chaque projet est unique, et il faut bien l'étudier avant d'entreprendre des travaux. Si vous êtes intéressé par le sujet, je vous conseille ce simulateur de production du parlement européen, qui tient compte des taux d'ensoleillement passés en fonction de votre région, de la pente et de l'orientation de vos (futures) panneaux, des poussières moyennes et résiduelles sur l'année, et des types des panneaux : https://re.jrc.ec.europa.eu/pvg_tools/fr/ . Mais il faut quand même charbonner sur la partie électrique pour être aux normes et avoir une validation du Consuel, mais aussi sur la partie amortissement (soirées tableur en perspective). Dans vos calculs, il faut tenir compte du taux d'intérêt de l'épargne que vous ne mettez pas en banque, mais aussi du taux d'inflation moyen de l'électricité.

Le 30/04/2024 à 21h 26

Effectivement, je te rejoins sur la galère pour pouvoir désactiver tout ce bazar. Et je crois même que c'est impossible de le faire complètement.
Mais après, on est quand même encore loin d'un iOS ou IpadOS.

Oui, mais quand même, on voit bien quel est le souhait derrière. iOS, c'est fermé dès le départ, mais c'est parce qu’ils ont joué sur l'effet "waouh" du premier iPhone. A l'époque, on aurait passé comme rabat joie si on avait dit que tout était verrouillé, d'autant que rien n'était vraiment ouvert dans l'existant de l'époque. Donc c'est passé assez facilement. Même aujourd'hui, je pense qu'il y a pas mal de monde qui trouvent l'attitude d'Apple comme normale étant donné qu'ils sont les propriétaires de leurs produits. Là, pour moi il n'y a pas de doute que si ils peuvent verrouiller le reste des OS, il le feront, et je pense qu'ils y vont progressivement, ou en tout cas, il essayent autant qu'ils pensent pouvoir le faire. Je pense même que s'ils le jugent nécessaire, ils peuvent attendre une génération pour installer une nouvelle normalité et passer à l'étape suivante après. Personnellement, du temps où on était sur Windows 98, tout le monde aurait trouvé très choquant que ses données soient exfiltrés légalement ailleurs, loin de la "protection" du RGPD (non existant à cet époque). Maintenant, ils peuvent aussi faire machine arrière selon les législations en place, ou selon le comportement des clients, mais ça serait un mauvais calcul selon moi de la part des consommateurs, car le code, justement, n'est pas libre à la base (il y a quand même un lien direct avec le "free" de Linux ou de FreeBSD), et donc, il n'y a pas vraiment de liberté.

Le 30/04/2024 à 18h 55

C'est pas "libre" dans le sens "free" de Linux, mais sous windows et macos, tu peux développer, installer et partager avec qui tu veux n'importe quel programme sans avoir l'accord de l'éditeur de l'OS.

Oui, j'avais bien compris le sens de libre dans ce contexte, merci :) J'insiste, et je trouve que Windows, et MacOS sont de plus en plus fermés, y compris avec des app préinstallées, des comptes en ligne quasi obligatoire pour démarrer le système, avec des identifiants publicitaires associés à chaque compte, des applis payantes préinstallées (je cite les points évoqués plus haut), des clouds qui synchronisent automatiquement votre petit journal OneNote en ligne, sans chiffrement de bout en bout pour Windows, des applications qui doivent être signées par les éditeurs d'OS. C'est plus marqué chez Microsoft que chez Apple. Bien sûr, on peut toujours tout contourner, mais je ne crois pas que ce soit le sujet.

Le 30/04/2024 à 00h 38

Je suis pas sûr que Windows ou MacOS soient si libres que ça. De moins en moins, je dirais.

Le 16/04/2024 à 17h 42

Je trouve que le sujet est important, concerne le numérique, et que c'est normal qu'il soit traité. Si on pouvait même avoir des points de vue issues de plusieurs spécialités (sociologie, psychologie, fouloscopie, etc), et par forcément sur des sujets lourds, je trouverais ça d'autant plus intéressant.

Le 16/04/2024 à 12h 59

Très bon post, merci ! que j’ai lu attentivement. Par contre, pour faciliter la lecture, quelques paragraphes ou sauts de ligne seraient les bienvenus et en plus ça structure la logique des idées exposées.

:yes: :smack:

Yes ! Merci pour les encouragements et merci pour le conseil :yes:

Le 14/04/2024 à 20h 23

"Concernant le mur de la lumière, il est possible de le dépasser quand la lumière n'est pas à sa vitesse maximum. Par exemple dans l'eau où elle est ralentie. Passer le mur de la lumière est possible dans ces conditions et cela provoque une onde de choc lumineuse. C'est l'effet Tcherenkov"


Oui c'est vrai, mais je parlais de la vitesse de la lumière dans le vide.
"Concernant les trois cerveaux, ce n'est pas une vision cartographique du cerveau mais une vision analytique de l'évolution des comportements entre trois évolution majeures du monde animal.

L'analyse du fonctionnement du cerveau en mode « boite noire » a donné des théories que les trois cerveaux dont il ne faut pas prendre le nom au premier degré.
L'analyse du fonctionnement en « boite blanche » permise par les IRM apporte la cartographie fonctionnelle de notre cerveau.
Les deux types analyse apportent des éléments complémentaires."


Oui sans doute, mais il semblerait tout cela soit faux aussi d'un point de vue analytique et que justement, l'analyse fonctionnelle du cerveau l'ai démenti. Ma source concernant ce point est une émission de France Culture d'il y a 2 ans environ qui portait justement sur les problèmes de la vulgarisation. Après, j'avoue ne pas avoir creusé plus que ça, mais l'intervenant était formel.

Ce que on peut trouver sur Wikipedia sur le sujet :
Le concept du cerveau triunique est contesté par le journaliste Michel de Pracontal dans son livre L'Imposture scientifique en dix leçons2. La théorie des trois cerveaux est un modèle vulgarisé par Arthur Koestler où le cerveau humain est présenté en analogie avec un empilement de trois couches géologiques, qui seraient au sens évolutionnaire des éons strictement indépendants, structures cérébrales héritées par l'évolution. Cette idée est considérée comme trompeuse, puisque les structures dites du cerveau 'mammalien' ont évolué à travers la spécialisation de structures présentes depuis les plus anciens des vertébrés, comme la lamproie. Par exemple, le néocortex a évolué à partir de structures déjà existantes dont le pallium ; il n'a pas été rajouté par-dessus le reste du cerveau comme le suggère le modèle triunique.

La totale indépendance de trois cerveaux clairement distincts est aujourd'hui rejetée par de nombreux scientifiques, ceux-ci considérant plutôt les aires cérébrales comme des ensembles en interaction. À ce titre, Jean-Didier Vincent dans La biologie des passions préfère le modèle d'état central fluctuant. Mais cela n'empêche pas la partie paléontologique et évolutive de la théorie d'être justifiée3 : le cerveau humain est le résultat de périodes de céphalisation successives.

Le 14/04/2024 à 19h 40

Concernant le mur de la lumière, il est possible de le dépasser quand la lumière n'est pas à sa vitesse maximum. Par exemple dans l'eau où elle est ralentie. Passer le mur de la lumière est possible dans ces conditions et cela provoque une onde de choc lumineuse. C'est l'effet Tcherenkov

Concernant les trois cerveaux, ce n'est pas une vision cartographique du cerveau mais une vision analytique de l'évolution des comportements entre trois évolution majeures du monde animal.

L'analyse du fonctionnement du cerveau en mode « boite noire » a donné des théories que les trois cerveaux dont il ne faut pas prendre le nom au premier degré.
L'analyse du fonctionnement en « boite blanche » permise par les IRM apporte la cartographie fonctionnelle de notre cerveau.
Les deux types analyse apportent des éléments complémentaires.

"Concernant le mur de la lumière, il est possible de le dépasser quand la lumière n'est pas à sa vitesse maximum. Par exemple dans l'eau où elle est ralentie. Passer le mur de la lumière est possible dans ces conditions et cela provoque une onde de choc lumineuse. C'est l'effet Tcherenkov"


Oui c'est vrai, mais je parlais de la vitesse de la lumière dans le vide.
"Concernant les trois cerveaux, ce n'est pas une vision cartographique du cerveau mais une vision analytique de l'évolution des comportements entre trois évolution majeures du monde animal.

L'analyse du fonctionnement du cerveau en mode « boite noire » a donné des théories que les trois cerveaux dont il ne faut pas prendre le nom au premier degré.
L'analyse du fonctionnement en « boite blanche » permise par les IRM apporte la cartographie fonctionnelle de notre cerveau.
Les deux types analyse apportent des éléments complémentaires."


Oui sans doute, mais il semblerait tout cela soit faux aussi d'un point de vue analytique et que justement, l'analyse fonctionnelle du cerveau l'ai démenti. Ma source concernant ce point est une émission de France Culture d'il y a 2 ans environ qui portait justement sur les problèmes de la vulgarisation. Après, j'avoue ne pas avoir creusé plus que ça, mais l'intervenant était formel.

Le 14/04/2024 à 19h 38

Cela fait longtemps que je demande si ceux qui plongent directement dans le complotiste ne sont pas aussi ceux qui ont cru au "consensus global" par simple "bon sens" ou pari, plutôt que par conviction personnelle.


Pour une grande partie, selon moi, c’est le cas. Par désillusion essentiellement. Quand ce à quoi on a crû ne donne pas les résultats attendus, il est courant que cela tende vers une situation de rejet, un sentiment d’avoir été trompé, abandonné. Et si on a le sentiment d’avoir été socialement trompé, il n’y a que quelques marches à gravir pour certains pour se tourner vers le complotisme, c’est à dire la croyance en l’existence d’un ensemble de forces, plus ou moins cachées, malignes, qui les a sciemment manipulés pour profiter d’eux.

Maintenant, je mettrais un joli bémol sur l’aspect « conviction personnelle » qui est sans doute la pire des illusions. On devrait douter de tout, même de soi et de ses présupposées convictions personnelles, qui la plupart du temps, ne sont pas si personnelles que ça.

Ce qui ne signifie pas que l’on ne doit rien faire, au nom du doute. Même les philosophes du doute l’on reconnu. Le doute est un outil qui doit s’appliquer à tout, mais qui ne doit pas empêcher d’agir. On peut être conscient que ce que l’on nous bassine à longueur de journée est à prendre avec des pincettes, ce n’est pour autant qu’il faut se murer derrière un rejet farouche et entier, sans réflexion, ou pire en se tournant vers le miroir aux alouettes de gourous alternatifs. Il n’est pas impossible d’adopter le consensus, pour ce qu’il est, c’est à dire un compromis, sans faire preuve pour autant de naïveté, et sans en accepter béatement tous les aspects.
Du moins je l’espère.

Mais juger des opinions personnelles des autres est une attitude que je ne défend pas. D'abord parce que c'est pas accessible si facilement (pas même pour soi même), ensuite parce que c'est déplacé, et enfin parce que c'est arrogant : "j'ai compris ce que tu as mal compris mon pauvre, et tes idées ne viennent même pas de toi". Par ailleurs, ça peut être facilement retourné contre celui emploi cette technique. En somme, je me garderais bien de psychologiser X ou Y, surtout quand X ou Y sont des concepts abstraits. Tout le monde pourrait y voir midi à sa porte. En revanche, mon propos tenait plutôt au fait que si on n'accorde pas beaucoup d'importance à la démonstration que quelque chose est pertinent en restant à la surface des choses, et que l'on accorde uniquement de l'importance au consensus, alors d'un point de vue strictement logique et non psychologique, il n'est pas si anormal de penser que ce consensus puisse être renversé par une majorité d'opinion et non par un fait scientifique. La cohérence de surface n'est pas contredite. Il faudrait plutôt dire "je ne sais pas", plutôt que "je paris sur le consensus", car dans le dernier cas, cela sous-tend que le consensus peut gagner un jour et perdre un autre jour, sans qu'il n'y besoin d'aucune base scientifique perçue pour que ce soit réellement cas, puisqu'on se contenterait de le constater sans vraiment comprendre pourquoi le consensus aurait échoué sur tel sujet, ce qui ne serait pas vraiment différent de quand on lui accordait de la valeur sans savoir pourquoi. A défaut, on peut aussi dire "j'ai confiance en cette communauté scientifique", car la confiance, c'est justement quand on ne sais pas. Et si la confiance est perdue, elle peut être regagnée par une autre communauté scientifique (toujours sur la base de la logique). Mais dire, "je crois au consensus", c'est un contresens.

Concernant le doute, pour moi, c'est une notion trop abstraite dont je n'ai jamais pris le temps de l'objectiver formellement. Mais mes cours de philo sur Descartes m'ont plus donné l'impression qu'il était perdu (y a pas de mal, ça nous arrive à toustes j'imagine). Ça pour douter, il doutait. Dans les limites, on ne peut pas ne pas douter, mais on ne pas que douter. Ça ne fait pas beaucoup avancer les choses. Dès fois, il faut affirmer ses idées sans reculer, dès fois, il faut arrêter et prendre du recul. C'est plus un savoir vivre et une expérience personnelle d'essai/erreur qui tend à une meilleure connaissance de soi. Peut être, de temps en temps, on peut se faire aider pour parfaire cette connaissance intime. Mais je trouve que c'est toujours plus pertinent de démontrer l'impertinence d'une analyse que de dire "il faut douter de ce que tu dis par principe" sans avoir de base concrète qui puisse le justifier le cas échéant. Cela dépend aussi du risque pris et du danger encouru. Plus le risque est gros, plus il faut être sûr, et revérifier. Moins il y a de risque et de danger, plus il faut expérimenter un nouveau cycle d'essai/erreur. C'est le but du jeu peut être ?

Après, c'est sûr qu'on peut pas répondre à toutes les personnes qui dérivent sur internet. La dangerosité de la chose tient plus à l'effet de masse peut être, qui fait que la société peut perdre pied. A l'échelle individuelle, une personne qui se trompe finira la plus part du temps par s'en rendre compte. Le problème pour moi, c'est quand il y a un enchaînement massif qui s'autoalimente et peut être que les réseaux sociaux permettent un effet de bord dans la société qui aurait été plus ou moins bénin dans le passé.

Le 14/04/2024 à 17h 16

Tout comme le fut la télévision en son temps et tout comme le fut l’église bien avant : un réseau de diffusion de l’information à grande échelle et de propagande par effet de biais.

On mesure mal d’ailleurs ce qu’a pu être l’église dans nos contrées, ce qu’elle a permis, un temps où la communication centrale n’était pas portable aisément. Arriver à communiquer à l’échelle d’un territoire, pas seulement la parole de « Dieu » mais la parole d’état, aussi bien au travers des sermons que des « fêtes » données simultanément dans tout le pays, vectrices de la parole et du pouvoir royal.

Sans s’égarer de trop, le moteur de la croyance en quelque chose est bien souvent dicté par la recherche de sens. Chacun est mû par une certaine recherche de sens. À force de désillusions, il faut croire que la « dissidence » par rapport au « consensus global » est devenue un de ces moteurs aujourd’hui, moteur au nom duquel, certains se jettent souvent sans discernement dans le complotisme (se pensant et se nommant eux même des « éveillés ») sombrant dans le réconfort d’autres croyances qui ont l’apparence de vérités puisque s’opposant à un consensus forcément dicté par des puissances qui auraient tout intérêt à garder ce consensus vivant.

Sauf que ce n’est pas parce qu’une parole va à contresens du consensus, qu’elle est intrinsèquement plus pertinente. Sans compter le côté fabulatoire de bien des positions, elles représentent un danger plus grand encore que le risque inhérent à la soumission au consensus pour celui ou celle qui en prend le parti. Car tapis derrière cette dissidence, il y a tout un tas de malandrins prêt à profiter de cette manne de soi-disant incrédules.





"elles représentent un danger plus grand encore que le risque inhérent à la soumission au consensus pour celui ou celle qui en prend le parti."

C'est une remarque intéressante qui peut paraître évidente de "bon sens", mais autant je suis d'accord que croire à tout ce qui est contre le "consensus global" me semble être un contresens, autant, croire que le consensus est un meilleur pari en général me parait tout autant être un contresens dont je me demande si ce n'est pas le même. Ce n'est certainement pas parce que le consensus global serait faux, et ce n'est pas du tout là où je veux en venir. En pariant aveuglement sur le consensus global, on gagnera beaucoup plus facilement un débat en pariant sur le consensus global, tout simplement parce qu'on sera probablement majoritaire (d'où le consensus). Mais est-ce vraiment parce qu'on a compris ce qui en fait un consensus ? Parce que croire sur parole quelque chose ne me semble pas être une démarche beaucoup plus pertinente. Nos profs de math (entre autres) l'avaient bien compris, et passaient beaucoup de temps à démontrer ce qu'ils disaient. Et je me rappel que c'était dur à nos ages. C'était beaucoup facile d'appliquer une formule mathématique, que de démontrer sa pertinence. C'était valable aussi avec nos profs d'histoire/géo même si eux basaient plus leur raisonnement sur les sources historiques. Cela fait longtemps que je demande si ceux qui plongent directement dans le complotiste ne sont pas aussi ceux qui ont cru au "consensus global" par simple "bon sens" ou pari, plutôt que par conviction personnelle. Pour qu'il y ai consensus, il faut qu'il se fasse. Croire au "consensus global", c'est antinomique de ce qu'est un consensus global non ?

Le 14/04/2024 à 12h 40

J'ai écris "pour moi". C'est très personnel, je le sais!

Mais je me projette aussi en me posant la question "serais-je mieux qu'eux dans leur environnement"? Je ne crois pas.
Mais JE trouve qu'actuellement il est relativement difficile de se construire, car il y a peu de sources très construites qui sont connues.
C'est même le cas des revues: ayant une collection de revues des années 80, qu'en j'en sors une du grenier, je suis effaré de voir que moi-même, après 5 pages, je vais voir combien de pages dure encore l'article (en gros, 10 de plus). Une revue actuelle, 7 pages c'est un article énorme.

On ne prend plus vraiment le temps d'apprendre.

D'autre part, mon avis rejoins un peu l'article: quand on dit que les émission TV de sciences on disparu, oui, mais dans les années 90 déjà et début 2000 c'était pas mal le cas, remplacées par "Capital", puis les autres émissions d'investigation, puis ... par la téléréalité (et les magazines people).

D'accord, je comprend mieux. Mais plus personnellement, nous ne regardons pas trop la TNT, donc je me projette moins. Mais il y a quand même une nouvelle génération de "c'est pas sorcier" sur la TNT. Quand à E=M6, ça n'a jamais été très poussé à mon sens. Il y a aussi la chaîne "c'est pas sorcier", mais non disponible sur la TNT. On la regarde de temps en temps, et il diffusent des infos provenant directement de laboratoires ou de chercheuses. Concernant les revues, je lisais Science et Vie quand j'étais jeune, et avec le temps, toutes les fabuleuses innovations qu'on verrait dans l'avenir d'après Science et Vie ne se sont pas produites. Il parait que ça ne s'est pas arrangé avec le temps. Après j'ai lu des revues plus poussées, plus spécialisées, et plus précises avec le temps, mais il faut voir qu'à ce moment, internet n'était pas vraiment démocratisé. Et une baisse du niveau général a été observé à partir de l'avènement des ordinateurs de poche. A partir de là, acheter une revue en kiosque est sans doute devenu moins intéressant, car en plus de payer, cela prenait du temps qu'on ne passait pas sur internet (devenu alors la nouvelle curiosité). Ajouté à cela que les applications sont conçues pour absorber (inutilement et illégalement) l'attention des usagers pour certains mineurs (illégal aussi), le modèle économique de la presse en générale a été fortement abîmé. Si on doit faire porter la responsabilité à certains parents et autres adultes, c'est de ne pas avoir eu assez d'esprit militant qui contrecarre cet état de faits. Culturellement, le militantisme est vu sans doute négativement (sans doute à raison dans certains cas) parce qu’il est perçu comme "l'action qui consiste à embêter le monde". Or si vous dites "je m'engage à m'abonner à un journal X ou Y scientifique parce que je ne souhaite pas que s'effondre une certaine curiosité scientifique, et alors que mon cerveau fainéant a plutôt envie d'écouter les 10 notifications par jour que mon ordinateur m'envoie pour détourner mon attention, ou d'écouter les 10 pub par demi-heure de ma TV", c'est du militantisme que de contrecarrer tout cela, sans qu'il embête son monde (bien au contraire). La définition de militantisme trouvée sur internet : "Le militantisme est une forme d'engagement collectif à une cause de nature morale, religieuse, sociale, politique, associative ou syndicale souvent en vue de protester contre ce qui est perçu comme une injustice. ". C'est là où je trouve que cet article va trop loin sur ce qu'il dit du militantisme en générale (et Étienne Klein n'a pas toujours raison à mon sens), même si je suis d'accord pour dire qu'il faut dénoncer certains militantismes en particulier. J'ai l'impression que tout ce qui ressemble à une auto-détermination culturelle est vue comme quelque chose "d'orienté" et de non "objectif", avec pour sous entendu de non "scientifique". C'est un comble, car certaines déclarations scientifiques historiques ont été réalisées dans une forme de militantisme. C'est même parfois un devoir. On cite souvent des comportements collectifs absurdes, et peu à peu, c'est comme s'il n'y avait que ces voix qui prenaient place dans la perception de la population, car même si c'est pour dénoncer certains abus, au final on s'identifie en opposition à ces collectifs (ce qui nous rend dépendant d'eux) et non par rapport à ses propres collectifs. Ajoutez à cela le traitement médiatique qui est fait des manifestations (pour faire court : 100.000 personnes manifestent -> 15 minutes sur une chaîne d'info un abris bus cassé), cela donne en permanence l'impression que la foule est stupide. Peu être qu'elle finira par le croire. De plus ça a sans doute arrangé certains que la population soit perçue comme plus bête qu'avant renforçant un certain pouvoir vertical, alors que pourtant, les expériences scientifique sur la démocratie directe, quand elles sont strictement encadrées, montrent au contraire que la population sais très bien ce qu'elle fait quand ce qu'elle fait compte. Et à titre personnel, je trouve que la convention citoyenne en est la preuve. Au final, tout ceci donne à mon avis de fortes inégalités dans l'éducation, où le plus des inégalités est du au suivi des parents (c'est pas pareil des parents qui emmènent leur enfant à la bibliothèque par rapport à des parents qui laissent leurs enfants devant la TV ou sur internet sans filtrer), et à un système éducatif qui semble vouloir accentuer les écarts (classe à deux niveaux par exemple). Voilà mon point de vue subjectif.

Le 13/04/2024 à 20h 06

La vulgarisation scientifique a atteint son sommet:
"La science c'est de la merde"

Pour moi, le problème des générations actuelles, c'est le manque de lectures, l'ultra consommation de vidéos qui ne expliquent moins que l'essentiel, le besoin de résultat immédiat.

Sans parler d'une ambiance différente: dans les années 70/80, on allait chez le médecin et on trouvait sciences et vie, les héros de bd étaient de Franquin, on digérait Barjavel/Herbert/Asimov

Dans les années 90, les revues c'était Capital, et l'influence américaine a été plus forte (avec en France une bonne contre influence japonaise)

Donc je pense qu'une génération a vénéré la science, les suivantes le capitalisme et les dernières un certains humanisme mal ficelé

je trouve ça exagéré de généraliser et d'essentialiser des générations entières sur la base de ce que vous pensez. C'est trop de liberté prise, même pour la liberté d'opinion.

Le 13/04/2024 à 17h 54

Je suis plutôt d'accord avec l'article. Un certain nombre d'idées issues de la vulgarisation scientifique étaient fausses au moment où je les entendais quand j'étais enfant/ado :
- nous n'utiliserions que 10% de notre cerveau avec en sous entendu qu'on pourrait être 10 fois plus performant (celle ci, je n'y ai jamais cru)
- on nous expliquait aussi que le cerveau était divisé en trois partie (reptilien, mamalien, et je sais plus le troisième), et que chaque partie correspondait à une étape de l'évolution de notre espèce. Ca serait complètement faux.
- pourtant il y aurait bien trois "cerveaux" que la science aurait "oublié" au début du 20ème siècle (à vérifier) : les neurones présents en nombre conséquent dans le système digestif (https://fr.wikipedia.org/wiki/Système_nerveux_entérique) et qui communiquent avec le cerveau, et aussi les neurones présents dans le cœur mais en plus faible nombre.
- l'idée que la sélection naturelle correspond à la loi du plus fort. Essayez de faire une simulation proie/prédateur/herbe simpliste sur ordinateur, et vous comprendrez que l'un à besoin de l'autre. D'une manière générale, la nature élabore beaucoup de stratégies, pas seulement des stratégies de domination.
- l'effet papillon : non les règles de la thermodynamique ne permettent pas à mon sens qu'un papillon à l'autre bout de la planète génère un ouragan ici. Un exemple plus réaliste serait ce qu'on voit dans "Destination finale", mais les probabilité qu'un enchaînement de causalité engendre une catastrophe sont, bien que possible, très improbable. Je dirais que la première partie est complètement fausse, et la deuxième improbable.
- l'idée que seul un système nerveux permet le développement de "l'intelligence" chez les espèces. Appartement, les plantes sont capables d'intelligence, y compris le blob qui n'est ni une plante, ni un animal, et qui développe pourtant des comportements intelligents.
- L'idée qu'il n'est pas possible de dépasser la vitesse de la lumière. C'est toujours le cas et non démenti, et ça a toujours été observé, mais l'idée qui peut être fausse qu'on m'avait donné est que en conséquence, nous ne pourrions probablement jamais aller dans un autre système solaire étant donné que le plus proche serait à 50 année/lumière (à moins d'être assez motivé (fou ?) pour envoyer une civilisation dans un vaisseau pendant peut être 200 ans au moins). Pourtant j'ai découvert le concept du moteur d'Alcubierre il y a quelques années qui permet très théoriquement et très hypothétiquement d'avoir les mêmes effets qu'un voyage supraluminique sans pour autant dépasser formellement la vitesse de la lumière : https://fr.wikipedia.org/wiki/Métrique_d'Alcubierre . Bien entendu, c'est plus une expérience de pensée qu'autre chose, mais disons que ce qu'on m'avait expliqué d'impossible ne l'était pas de façon aussi sûre. Pour faire court, c'est le moteur de distorsion de Startrek.
- etc.

Au final, je ne pense pas qu'on puisse éviter de "mal comprendre" un sujet, et même en tant qu'expert d'ailleurs. Donc je part du principe que la connaissance est vivante et elle évolue dans chaque individu. Je pense que c'est plutôt ça qu'il faut défendre dans la transmission de la connaissance si vous voulez défendre la Science. Si vous transmettez l'idée qu'on ne doit pas se tromper en science, j'ai plutôt l'impression que ça ne donnera pas envie de s'y intéresser et que ce sera perçu comme élitiste. Mais je peux me tromper.

Le 13/04/2024 à 21h 22

Tant mieux et c'est encourageant. Vous utilisez Magisk (par exemple pour une application bancaire) ou cela marche "nativement" ?

Ça fonctionne nativement depuis l'installation de AppLounge.

Le 13/04/2024 à 18h 03

Malheureusement non, mon téléphone est compatible /e/OS (y compris par leur installateur) mais l'application refuse de fonctionner ("puce non sécurisée", je cite de mémoire) et je ne suis pas le seul à être dans ce cas (il y a un fil dédié sur le forum de /e/OS). Pour d'autres, ça coince à d'autres étapes.
On en revient au reproche initial : il n'y a aucune clarté sur les pré requis.

Ok. Sur le miens (FairPhone 4), cela fonctionne.

Le 13/04/2024 à 12h 06

Perso, j’aime bien avoir le plein controle de mon matériel … donc mon tel est rooté. Es-ce accepté ?

Je ne sais pas @mimoza. Je ne root pas mon téléphone.

Le 13/04/2024 à 12h 05

N'importe quelle distribution dont le code est basée sur une version open source d'Android et qui est elle-même open source. Sauf erreur, Lineage OS et /e/OS remplissent ces deux critères. GraphenOS également.

Ok. Dans ce cas, l'app fonctionne sur AppLounge de E/OS, mais peut être qu'il faut avoir un téléphone qui soit officiellement compatible E/OS.

Le 12/04/2024 à 21h 23

Que l'application soit disponible sur F-DROID ou autre ne change rien au coeur de l'affaire : sans bidouiller, il n'est pas possible de l'installer sur un téléphone doté d'une version libre d'Androïd (c'est sans doute le même problème qu'avec bon nombre d'applications bancaire qui vérifient que l'OS est "sécurisé", c'est à dire un androïd "officiel" et si je dis "sans doute" c'est parce qu'en fait on n'en sait rien, à part "Androïd 8 minimum", aucune spécification n'est donnée par cette application, ce qui fait parti du problème !).

Qu'est qu'une distribution libre d'Android selon vous ? Lineage OS ? E/OS ?

Le 12/04/2024 à 16h 25

Mais on n'a pas le code source de l'application France identité, il me semble et l'APK n'est pas directement téléchargeable.
Au vu des commentaires, l'application a encore des défauts et ne fonctionne pas sur tous les téléphones.

C'est vrai que je n'avais pas pensé au côté open source du code. Vous avez raison de le préciser. Cela dit, comme Android fonctionne comme un conteneur d'applications qui les isole, ça me pose moins de problèmes habituellement tant que la source est relativement fiable, et même si j'admets volontiers que ce n'est en rien une garantie d'une absence exploitation d'une faille du téléphone. Après, une application, ça s'audite, y compris quand le code source est fermé, y compris en monitorant ce qui entre et sort de l'application ou en désassemblant le code. Et une app comme celle ci sera à mon avis auditée à un moment où à un autre, mais je peux me tromper d'autant qu'il peut y avoir des contraintes légales. De plus, Je viens de regarder, "Identité Numérique" ne propose pas non plus son code source. Quand on a plus ou moins pas le choix (ce qui est mon cas), je préfère du coup encore France Identité (même si rien n'est définitif). Concernant le téléchargement de l'APK, je suis sûr qu'il est possible de récupérer l'APK d'une façon ou d'une autre, même si j'avoue qu'il aurait été mieux de pouvoir le récupérer de manière officielle. Toutefois, ce dernier est disponible sur plusieurs "magasin d'application".

Le 12/04/2024 à 13h 04

@Mimoza : L'application "France Identité" sera probablement proposée en plus d'"Identité Numérique" sur France Connect +. Pour l'instant la version "stable" ne le propose pas, mais la version de "test" (non proposée à tout le monde) permet de certifier son identité à la mairie, via les données biométriques contenues sur sa carte d'identité. Une fois cela en place (si ça aboutit), il sera possible de s'identifier avec France Connect + comme avec l'application "Identité Numérique". D'après ce que j'ai compris, "France Identité" a une politique plus autonome, car 1. elle est développée par l'Etat et non par La Poste, 2. Elle fonctionne très bien sans avoir besoin d'un compte Google ni sans passer par "Play Store" (pour l'instant en tout cas) et 3. Elle est notée 9/10 par Exodus Privacy contre 5/10 pour "Identité Numerique". En revanche, pour "France Identité", il faut avoir le dernier format de carte d'identité pour qu'elle fonctionne.

Le 27/03/2024 à 10h 13

Par exemple, si vous supprimez "monespacesante", l'état connaît toujours votre pass vacinal. Comme dit dans l'article, l'état cré un nombre conséquent de fiches.

Autre exemple (et d'autres), toujours sur le Covid : https://www.lepoint.fr/societe/secret-medical-consentement-du-patient-toutes-les-digues-ont-cede-13-05-2020-2375278_23.php

Autre exemple dans la fonction publique : « VIII.-Nonobstant toutes dispositions contraires, peuvent être communiqués, sur leur demande, aux services administratifs placés auprès de l'autorité à laquelle appartient le pouvoir de décision et dont les agents sont tenus au secret professionnel, les seuls renseignements médicaux ou pièces médicales dont la production est indispensable pour l'examen des droits définis par le présent article. » Article 7 - https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042565176

Autre exemple ici : https://www.cdm44.org/un-patient-peut-il-demander-la-suppression-de-certains-elements-de-son-dossier-medical-ij
"La CNIL considère que la demande d’un patient que soient effacées des données de son dossier médical ne peut être satisfaite si ces données inscrites dans le dossier ne sont ni inexactes, ni incomplètes, ni équivoques, ni périmées et que leur collecte, utilisation, communication ou conservation sont conformes à la loi. "

On pourra toujours rétorquer que c'est pour faire des contrôles "légitimes", mais alors il faut bien admettre que le secret médical ne tient pas toujours quand il y a des enjeux.
Il y a encore d'autres exemples et je vais pas tous les citer, et les choses pourront encore évoluer. Je ne cherche pas à dire que c'est tout noir. Je dis juste que le secret médical est relatif, et il l'est de plus en plus.

J'oubliais aussi le fichage politique via le système de santé : https://www.whatsupdoc-lemag.fr/article/wud-sassocie-aux-100-medecins-engages-contre-le-fichage-des-patients-dans-si-vic . Je ne le connaissais même pas celui là.

Le 27/03/2024 à 09h 38

Dès réception du mail de la création à intervenir de mon compte, j'ai fait opposition et reçu une attestation.
Pour ceux dont la création a eu lieu, et qui ignoraient pouvoir s'y opposer, la suppression est possible.
Du coup, vu les cgu sur monespacesante.fr/cgu, je me pose des questions sur la pertinence de ton pavé.

"3.3 Opposition à la création de « Mon espace santé »

Si l’Usager ne souhaite pas que Mon espace santé soit créé pour lui ou son enfant mineur, ou le majeur qu’il représente, il peut exercer son droit d’opposition durant un délai de six semaines à compter de l’envoi de l'e-mail ou du courrier d’invitation.

A l’expiration de ce délais, l’Usager peut demander la clôture de son profil Mon espace santé (cf. paragraphe 3.5.2.f Clôturer Mon espace santé)."

Pas de compte monespacesanté, Aucune des tracasseries dont tu fais état.
L'usager lambda n'est pas au courant.
Quand bien même il le serait, ça lui en touche une sans faire bouger l'autre.
Et les usagers avertis, et préoccupés par ça, ont des leviers pour s'y opposer.

Après, je dois tout communiquer manuellement lors de mes prises en charge, mais c'est le prix à payer.
Et ça ne me change pas d'avant, donc je n'y vois aucun problème.

Par exemple, si vous supprimez "monespacesante", l'état connaît toujours votre pass vacinal. Comme dit dans l'article, l'état cré un nombre conséquent de fiches.

Autre exemple (et d'autres), toujours sur le Covid : https://www.lepoint.fr/societe/secret-medical-consentement-du-patient-toutes-les-digues-ont-cede-13-05-2020-2375278_23.php

Autre exemple dans la fonction publique : « VIII.-Nonobstant toutes dispositions contraires, peuvent être communiqués, sur leur demande, aux services administratifs placés auprès de l'autorité à laquelle appartient le pouvoir de décision et dont les agents sont tenus au secret professionnel, les seuls renseignements médicaux ou pièces médicales dont la production est indispensable pour l'examen des droits définis par le présent article. » Article 7 - https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042565176

Autre exemple ici : https://www.cdm44.org/un-patient-peut-il-demander-la-suppression-de-certains-elements-de-son-dossier-medical-ij
"La CNIL considère que la demande d’un patient que soient effacées des données de son dossier médical ne peut être satisfaite si ces données inscrites dans le dossier ne sont ni inexactes, ni incomplètes, ni équivoques, ni périmées et que leur collecte, utilisation, communication ou conservation sont conformes à la loi. "

On pourra toujours rétorquer que c'est pour faire des contrôles "légitimes", mais alors il faut bien admettre que le secret médical ne tient pas toujours quand il y a des enjeux.
Il y a encore d'autres exemples et je vais pas tous les citer, et les choses pourront encore évoluer. Je ne cherche pas à dire que c'est tout noir. Je dis juste que le secret médical est relatif, et il l'est de plus en plus.

Le 27/03/2024 à 09h 35

Dès réception du mail de la création à intervenir de mon compte, j'ai fait opposition et reçu une attestation.
Pour ceux dont la création a eu lieu, et qui ignoraient pouvoir s'y opposer, la suppression est possible.
Du coup, vu les cgu sur monespacesante.fr/cgu, je me pose des questions sur la pertinence de ton pavé.

"3.3 Opposition à la création de « Mon espace santé »

Si l’Usager ne souhaite pas que Mon espace santé soit créé pour lui ou son enfant mineur, ou le majeur qu’il représente, il peut exercer son droit d’opposition durant un délai de six semaines à compter de l’envoi de l'e-mail ou du courrier d’invitation.

A l’expiration de ce délais, l’Usager peut demander la clôture de son profil Mon espace santé (cf. paragraphe 3.5.2.f Clôturer Mon espace santé)."

Pas de compte monespacesanté, Aucune des tracasseries dont tu fais état.
L'usager lambda n'est pas au courant.
Quand bien même il le serait, ça lui en touche une sans faire bouger l'autre.
Et les usagers avertis, et préoccupés par ça, ont des leviers pour s'y opposer.

Après, je dois tout communiquer manuellement lors de mes prises en charge, mais c'est le prix à payer.
Et ça ne me change pas d'avant, donc je n'y vois aucun problème.

J'ai bien précisé qu'il ne s'agissait pas de "monespacesante", mais d'une application médicale interne à côté de "monespacesante".

Le 26/03/2024 à 23h 12

Et que dire du "secret médical", où le fichier médical peut être partagé et est surtout rendu disponible via un système informatique interne non visible sur "monespacesanté" à tout médecin qui a sa carte (si j'ai bien compris), moyennant une promesse que chacun des médecins de France n'utiliseront pas ces données en dehors de votre consentement, et certes ajouté d'une menace de condamnation en cas d'abus par ces derniers. Je ne sais pas combien il y a de médecins en France, mais ça à doit être suffisant pour se demander s'il existe de la corruption sur ce sujet. Une procédure d'auto-contrôle interne est promise, mais comme il y a secret médical, c'est impossible d'évaluer son efficacité depuis l'extérieur (oui c'est paradoxal). Je me rappel à ce propos du pass vacinnal du Président qui avait fuité. Le médecin en question avait été condamné, mais 1. c'est parce que tout le monde l'a su, et 2. tout le monde n'est pas le président pour faire valoir ses droits au même niveau. La CNIL indique par ailleurs que les données ne peuvent être supprimées par le patient à moins qu'elles soient fausses (A ce propos, allez convaincre un médecin qu'un confrère a tord), et le comble, c'est que ces données ne sont pas accessibles facilement aux patients car ils doivent en faire la demande formelle, selon une procédure non informatisée (Tient donc).

Le 15/03/2024 à 11h 36

Mais c'est pour cela que wikipédia se base sur des sources, pour ne pas dépendre des auteurs (c'est d'ailleurs plus un éditeur qu'un auteur. sur wikipédia c'est appelé un contributeur ou un rédacteur et le travail inédit est interdit).
Ce qui importe, c'est la qualité de la source, pas celle du rédacteur.
Donc toute information sur wikipédia est normalement "signée" (par la source).

Et même pour les cas où il n'y a pas consensus, une page wikipédia doit normalement indiquer les différentes opinions (toujours en se basant sur des sources).

Concernant les sources, il y a les sources que l'on cite et les sources que l'on ne cite pas. Ce n'est absolument pas neutre. L'objectivité elle même n'existe pas en science. On parle plutôt de processus objectivant, et ce processus inclus les commités de relecture. Il n'y en a pas dans Wikipédia (la communauté ne compte pas à mes yeux comme commité de relecture, car cette communauté est interne au fonctionnement de Wikipédia, et dépend de ses règles internes). D'autre part, pour faire un bon état de l'art, il faut passer plusieurs années à lire pas mal de choses, pour éventuellement être capable de rédiger quelque chose d'équilibré. Là, le fait que les auteurices pris⋅e⋅s individuellement ne maîtrisent en théorie qu'une partie de l'article ne permet pas un travail si bon. Maintenant est-ce qu'on peut en demander plus à une encyclopédie, qu'elle soit collective ou non ? Je pense que non. Mais concernant les sources, leur choix peut être orienté. Et comme c'est toujours orienté, le fait qu'il n'y ait pas de signature en bas de l'article me pose problème. Donc il faut prendre une encyclopédie pour ce qu'elle est.

Le 15/03/2024 à 11h 27

Un wiki est un outil collaboratif. Wikipedia est une œuvre collective. Le but recherché n'est pas le même qu'avec un blog personnel. Cela-dit, c'est clair que le gros inconvénient de Wikipedia, et ce qui en fait sa force, est d'être modifiable à souhait et sans auteurs·ices précis (pour une œuvre qui se base sur des sources, c'est un comble).

Si le but est de s'informer ou de se construire une base de connaissances, je ne recommande pas Wikipédia. Dans le monde professionnel, je prendrais ça pour l'incompétence. Le fait que l’œuvre soit collective ou non n'entre absolument pas en ligne de compte pour moi.

Le 14/03/2024 à 23h 48

Je trouve pas que le projet Wikipedia était si prometteur que ça. On ne valide pas la connaissance par le vote. Pour moi, c'est une très mauvaise façon de voir les choses. C'est comme voter pour savoir si un médicament est bon ou pas. Vous pouvez toujours voter si vous voulez, mais je ne vous suivrez pas. A partir de là, ce n'est pas si intéressant. Éventuellement, on peut citer une définition générale qui tente l'équilibre, mais je vois plus Wikipedia comme un outils descriptif qui décrit une liste de choses. Je trouve plus intéressant une culture du blog, car le blog est signé et donc personnalisé (même par un pseudo, c'est déjà ça), le blog respecte ses propres règles, ce qui est plus libre en soit, et ne cherche pas l’hégémonie par nature, ce qui est plus démocratique. Il ne se prétend pas neutre ou objectif (sauf mention contraire) ce qui est plus honnête, mais aussi à mon sens plus instructif, car une information qui se "prétend sans biais, neutre et objective" tend plus à faire baisser l'esprit critique (l'esprit critique, ce n'est pas forcément critiquer), et donc cela fait s'écarter d'une acquisition progressive et constructive des connaissances, qui ne sont pas froides et que nous faisons vivre. Le blog est distribué, donc personne ne lit le même blog, ce qui rend possible une société plus riche et donc moins uniforme, car si les connaissances acquises sont imparfaitement acquises par les un⋅e⋅s et les autres, elles ne sont pas acquises de la même façon par les un⋅e⋅s et les autres. Lors des rencontres, les discutions n'en sont que plus riches. Enfin, en termes sociaux, le blog est plus humain qu'une encyclopédie froide. Dans la mesure où cette dernière cherche en creux une connaissance ultime, il parait logique que chacun tente d'y planter son drapeau (pourquoi laisser l'autre tout dire à sa place ?). Et donc, in fine, le dialogues n'en sont plus, et les tranchés se creusent. Enfin, s'il y avait plus de blogs, peut être que les moteurs de recherche s'en sortirait mieux aujourd'hui ?

Le 02/02/2024 à 01h 16

Personnellement, je la trouve très bien cette offre. J'ai actuellement la freebox delta. J'ai Netflix en Full HD, Disney+ en 4K, et Prime en 4K. SI je passe à l'ultra, j'ai la même chose. Bien sûr, il faut payer plus pour pas avoir Netflix et Disney avec Pub. Mais au final, j'y gagne largement quand même si on compare le prix des abo pris séparément. Et j'aurais jamais prix les abo séparément vu que je vois pas tant de chose que ça, mais je picore un peu partout. En plus, avec cette nouvelle offre, je peux emporter le wifi/4G en vacance, ce qui nous permet de passer de deux forfait mobile à 20Go (7€/mois) vers 2 forfait mobile à 5Go (5€/mois). Rajouté à ça, la box consommant (théoriquement) moins, je gagne aussi 24€/an en électricité. En plus de ça, j'ai Canal+ en direct (intéressant pour la culture française), et Universal+, le tout pour 2€/mois en moins dans mes conditions. Après, il me faudra un temps pour amortir les 49€ migration (2 ans). Concernant le 8Gb/s, ça peut coûter très cher de convertir tout son matériel pour en profiter. En revanche, si vous branchez une carte wifi 7 sur votre portable, pour 30 à 40€, vous pouvez atteindre les 6Gb/s (théoriques). C'est plus un gadget qu'autre chose par contre. J'aurais été beaucoup plus impressionné si on avait du 1Gbs/s symétrique garanti. Concernant le peering, je trouve qu'il n'y a plus de problème par rapport à avant. Mais au niveau matériel, même le wifi 7 avec répéteur coûte beaucoup moins cher par rapport à un achat d'une borne wifi.

Je vois quand même plusieurs inconvénients :
- Si le wifi 7 marche aussi bien que le wifi 6E sur la delta où j'avais uniquement du wifi 6 qui fonctionnait, on aura peut être du 6e sur le wifi 7
- impossible de revenir en arrière chez free pour une offre moins fournie. Il faut partir de chez eux chez un concurrent pour revenir à une offre plus basse (ou convaincre la hotline éventuellement).

Donc, c'est une bonne offre je trouve.
Après ça dépend des besoins. Mais free sais aussi faire du "pas cher" avec des offres à 30€/mois. Si on compare à d'autres pays, ça reste très peu cher, surtout avec une ipv4 fixe.

Le 16/11/2023 à 12h 17

J’ai déjà fait des simulations pour des panneaux thermiques dans le nord, et si l’été ça peut chauffer l’eau chaude, j’ai conclu que l’hiver, ça ne servait à rien vu qu’il faisait tout gris tout le long de l’hiver par chez nous. Limite, les panneaux PV produisent plus d’énergie malgrès leur faible rendement.


Le 16/11/2023 à 06h 26

Je voulais dire “plus neutre” qu’un site commercial. Je ne parlais du lien donné dans l’article.


Le 15/11/2023 à 22h 59

Si vous souhaitez faire une estimation d’une future installation PV selon l’orientation de votre toit, sa pente, la quantité de la puissance installée, le type des panneaux, et votre position en Europe, il y a ce simulateur de parlement européen de disponible : https://re.jrc.ec.europa.eu/pvg_tools/fr/



Ça sera sans doute plus neutre qu’autre chose.


Le 15/11/2023 à 22h 52


gg40 a dit:


J’ai déjà vu cette remarque sur les forum d’énergie solaire… Mais je reste tenté de prendre plus de puissance pour faire tourner des machines durant la journée. Effet psychologique certainement car effectivement, la rentabilité sera plus dure/longue à atteindre :D




J’ai installé moi même 6kwc (mais avec batterie), et je suis à 76% d’autoconsommation depuis janvier.
Le tout est rentabilisé sur 13 ans, mais sans batterie, le rendement aurait été atteint beaucoup plus vite. Lorsque j’avais 3.6 Kw, le rendement était atteint sur 16 ans.



Après, on charge aussi la batterie de la voiture électrique la journée (pendant 6 mois), vu nous nous sommes débrouillés pour travailler partiellement en télétravail. Bien sûr, une grosse batterie électrique ne sera pas écologique. 20-30Kw de batterie pour une voiture, c’est bien. Et pour les vacances, il reste la location ou autres solutions connues.



Le surplus, je le donne à Urban Solar Energy qui me le redonne plus tard quand j’en ai besoin (concept de la batterie virtuelle). Ca porte le Kwh redonné à 5 centimes environ au lieu de 22 centimes (car il faut payer le transport tout de même). Mais vu que l’abonnement est plus cher, ça rapporte un peu au final, mais pas beaucoup, sauf si on injecte beaucoup. Je n’ai pas le droit de vendre à prix subventionné à EDF vu que ce n’est pas un pro qui a fait l’installation, mais moi même.



Quant à la durée des panneaux solaires, les miens sont garantis à plus 80% de capacité au bout de 25 ans. Certains sont garantis jusqu’à 30 ans. Certains micro-onduleurs sont garantie 20 ans, et même certains onduleurs centraux peuvent être garantis 20 ans, même s’il sont réputés plus fragiles que les micro-onduleurs. Mes batteries sont garanties à 6000 cycles. Théoriquement, elle attendront leur seuil de rendement (pas de beaucoup). Pour les onduleurs et les batteries, je serait étonné que ça dépasse 20 ans. Pour les panneaux, d’après ce que j’ai lu, ça ne m’étonnerais pas du tout qu’ils durent 40 ans.