votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 14/07/2016 à 05h 56







Uther a écrit :



Tu fais une fixation sur le bound checking,







Sauf que si personne n’accordait d’importance à ce critère, cela fait belle lurette que plus personne n’utiliserait C/C++.



Parce que du C “memory safe”, ça fait bien longtemps que ça existe, ça s’appelle Java ou C#.





mais ce qu’un aspect de la sécurité mémoire qui est un problème bien plus complexe. Et à par dans certains types de calcul particuliers, c’est très loin d’être un problème qui plombe les performances des langages “memory safe”.





Félicitation, c’est pile poile l’argument magique… pour irriter la communauté C/C++.



Parce que ça fait juste depuis que Java existe que les programmeurs C/C++ se font rabâcher cet argument par les vendeurs de langage “memory safe”.



Au bout d’un moment, ça devient lassant quoi…





Il faut voir que dans les langages modernes, la plupart du temps les accès aux buffers se font par itérateur, ce qui permet de garantir que l’on ne fait pas de dépassement. Les accès direct à un index d’un buffer ne sont plus si courants que ça.





Si un programmeur choisit d’utiliser C/C++, c’est justement parce qu’il estime être dans un cas de figure ou la différence compte. Sinon, ça fait longtemps qu’il aurait fait un autre choix.



De nos jours, ceux qui utilisent C/C++ ne le font pas par hasard.





Mais pour les quelque cas particuliers ou on a besoin de faire beaucoup de calcul sur des index précis,  on peut utiliser on peut utiliser un bloc unsafe pour faire un get_unchecked(idx) . Donc il n’y a pas de raison que l’amateur de performance ne trouve pas son bonheur.





Avec C++, tu peux aussi rajouter du bound checking partout ou ça te fait plaisir.



Le fait d’être “memory safe” par défaut, ou “memory unsafe” par défaut, c’est une question de philosophie.



C/C++, c’est le choix de la performance par défaut, c’est un état d’esprit.



Préférer la sécurité, c’est un autre état d’esprit.



Le débat dure depuis des décennies, tu ne mettra jamais les deux camps d’accord…





Des erreurs mémoires en en trouve toujours à la pelle même dans les applications C++ plus modernes, y compris celles qui ont pourtant des moyens dédiés a la sécurités. Il suffit de regarder les bulletins de sécurité de Microsft, Mozilla, Google, … pour s’en convaincre.





En utilisant des classes bien maturées pour manipuler la mémoire, on ne créé pas d’erreurs de ce genre. <img data-src=" />



Bien sûr, pour faire du C/C++, il vaut mieux disposer de programmeurs d’expérience qui ont des bibliothèques de code bien validées, qui ont le temps de soigner la qualité, de choisir la bonne architecture de code, de faire les tests qui s’imposent.





Et même si c’est moins facile a exploiter qu’a une époque, la grandes majorité des failles graves récentes exploitées a grande échelle sont des failles liées a des erreurs mémoires.





Le bruit médiatique d’une faille est une chose, son exploitation dans la vraie réalité en est une autre.



Au quotidien de l’exploitation de serveurs, on trouve plus souvent des script kiddies qui exploitent les nombreuses failles dans les softs PHP courants que des hackers top niveau qui attaquent par un obscure dépassement de mémoire tampon.



Avec le temps, il est prévisible que toutes les failles majeures présentes dans les couches basses des Os finiront par être expurgées. Et cela sans compter la R&D qui apporte toujours plus de sécurité au code natif. L’avantage, c’est que les performances resteront.

Si on utilisait des langages “memory safe” pour tout, on aurait aussi d’autres inconvénients : on abandonnerait d’emblée les performances dans les couches basses et tous les softs d’un système auraient à le subir.



Depuis le temps que les langages bound checkés existent, ce n’est pas un hasard si les programmeurs d’Os n’ont pas fait ce choix.



Bien sûr, il est évident qu’a l’inverse tous les programmes n’ont pas forcément intérêt à être programmé en C/C++.





Sauf que en C++ le langage est par défaut “unsafe”. Pour sécuriser ton code tu es obligé d’utiliser des outils supplémentaires avec le risque de les oublier ou mal employer.



  Rust est par défaut "safe", généralement sans aucun impact sur les performances mais permet quand même d'utiliser des blocs "unsafe", a tes risques et périls, pour les rares cas ou on ne peut pas faire autrement.







Encore une fois c’est une question de philosophie.



Ceux qui ont choisi C/C++, c’est parce qu’ils adhèrent à la philosophie du “unsafe par défaut”.



Sinon, ils utiliseraient déjà C# ou Java…





Personne n’a dit ça et surtout pas les auteur de Rust. Rust prétend amener la sécurité mémoire rien de plus. Il ne prétend bien évidement pas empêcher toutes les erreurs de logique.



  Il n’empêche que supprimer d’emblée toute une famille de failles de sécurité graves qui peut apparaître presque partout  dans un programme, c'est un gain de sécurité énorme.







Faut t’il privilégier la sécurité ou les performances ? Ce débat est beaucoup plus vieux que beaucoup l’imaginent puisqu’il remonte presque aux premiers langages de programmation. Il ne sera vraisemblablement jamais tranché. Les deux types de langage ont toujours coexisté, il y a de bons arguments dans les deux camps. Et tout le monde a raison et tort à la fois.



Dans la pratique, ça dépends du besoin et de l’importance de l’importance relative des performances sur la vitesse.



Mais ce qu’il faut comprendre, c’est qu’un langage est soit dans un camp, soit dans l’autre. Il faut juste pas se tromper de cible dans le marketing.





La encore, tu te méprend sur les intentions du langages. La seule restriction imposée par Rust est que l’on ne peut pas modifier une variable depuis deux threads différents ce qui est manifestement une erreur. Mais on est libre d’utiliser le modèle de son choix pour résoudre le problème(la lib standard en propose les solutions classiques : Mutex, Arc, …) et d’en inventer de nouveaux.





Justement, la moindre évocation du mot “restriction” provoque des crises d’allergie graves et des réactions dangereuses chez les programmeurs C/C++.



Les programmeurs C/C++ sont par nature des programmeurs chevronnés qui savent exactement ce qu’ils font et qui ne veulent SURTOUT PAS d’un langage qui leur impose la moindre contrainte “pour leur bien” ou qui leur dise “tu ne doit pas faire ceci ou cela”. Ces gens ne veulent pas d’un compilateur qui veut leur apprendre leur métier ou les empêcher de faire des constructions inhabituelles.



Le fait de ne pas pouvoir modifier une variable depuis deux threads différent est manifestement un choix qui va dans le sens d’éviter des problèmes, pas de maximiser la performance. Ce n’est pas forcément une erreur pour un langage. C’est juste que ce genre de choix est aux antipodes de la philosophie de C/C++. C’est typiquement le genre de choix que les partisans de C/C++ détestent mais que les amateurs de Java ou C# adorent.



Vouloir “vendre” un langage avec plein de sécurités à un programmeur C/C++, c’est un peu comme de vouloir vendre un régime végétarien à un amateur de viande grillée. Vous pouvez toujours essayer, mais… on vous aura prévenu <img data-src=" />


Le 13/07/2016 à 17h 05

Je trouve ce langage intéressant à plus d’un titre, mais je pense qu’il y a une grave erreur de communication dans l’affaire.



Je pense que certains arguments ne vont d’ailleurs pas manquer d’irriter les aficionados de C/C++.





le langage s’oriente très clairement vers ceux qui manipulent habituellement le C ou le C++, dont il veut garder les performances tout en apportant aux développeurs des éléments de langage de plus haut niveau.







Rust étant notamment memory safe,





Sauf que ces deux caractéristiques sont complètement contradictoires.



Ceux qui utilisent C/C++ de nos jours, c’est JUSTEMENT parce qu’ils veulent un langage SANS bound checking pour avoir de meilleures performances et un maximum de contrôle.



Il faut réaliser que le bound checking est bien l’une des caractéristique clivante qui sépare les camps des langages entre des langages comme C# ou Java d’un côté et C/C++ de l’autre.



Visiblement, Rust ne se positionne pas dans le même camp que C/C++…





De nombreuses failles ont été exploitées de cette manière, en exploitant simplement des dépassements de mémoire tampon et autres types de faille.





Sauf qu’aujourd’hui, il faut relativiser…



D’abord, avec toutes les techno de protection du code natif qui ont été implémentées ces dernières années comme le DEP ou l’ASLR ou encore les protections de pile, l’exploitation de ce genre de faille n’est pas du tout facile.



Ensuite, les problèmes de dépassement de mémoire tampon étaient principalement le fait de vieux code écrit en “vieux c” quand on manipulait des buffers et des chaines avec des pointeurs presque à chaque ligne de code. Dans ce genre de programmation, on pouvait commettre une erreur lourde de conséquence presque à chaque ligne.



Enfin, c’est devenu beaucoup plus sécurisé en C++ moderne correctement écrit car les manipulations de la mémoire passent logiquement par des classes à des endroits restreints et centralisés qu’il est beaucoup plus facile de contrôler. Il est même relativement trivial d’implémenter du bound checking quand on le désire.



Au passage, implémenter un modèle de tableau avec bound checking en C/C++ est un exercice de niveau débutant.





le parseur MP4 était un bon candidat pour un premier composant en Rust.





Les utilisateurs de C/C++ utilisent ce langage car ils sont plutôt partisan d’un code bien relu, audité et stabilisé. Pour eux, le bound checking, c’est la voie de la facilité parce qu’il aura toujours un coût en matière de performance.



D’ailleurs, comme on peut le constater tous les jours avec des langages comme PHP le bound checking n’est pas non plus une recette miracle contre les failles qui permettrait pour autant de s’abstenir de sécuriser et relire son code.





(Les fonctionnalités multithread de rust)





La encore, en proposant un modèle robuste et prêt à l’emploi, Rust s’inscrit dans une logique très différente de C/C++ et va plutôt dans le sens de C# ou Java.



La philosophie en C/C++ est complètement à l’opposée : donner le maximum de souplesse au langage pour permettre d’implémenter le modèle de son choix plutôt que de proposer un modèle précis prêt à l’emploi.



IMHO, je pense que Rust pourrait être un bon concurrent de C# ou Java plutôt que de C/C++.

Le 12/07/2016 à 16h 15







tanguy_k a écrit :



TypeScript est très chouette, l’essayer c’est l’adopter !







Langage avec structures dynamiques, ça ne sera jamais performant.



Avec ce type de langage, un compilateur est devant trop d’inconnues. Il n’a pas assez d’informations pour cadrer le contexte et optimiser efficacement.



Mais bon, comme pour toutes les modes en informatique, on en reviendra.


Le 12/07/2016 à 06h 06







Faith a écrit :



Un peu comme le contenu des livres, quoi…







Sauf qu’un livre, c’est juste du papier imprimé. Une tablette, c’est un ordinateur bridé.



Dans d’autres pays, ils achètent plutôt des Netbooks ou des Raspberry PI. Des choix mois chers et beaucoup plus polyvalents.



Le 11/07/2016 à 18h 50







kwak-kwak a écrit :



Donc les personnes qui soutiennent que les chemtrails existent ont raison, car elles sont moins riche que les compagnies aériennes et le gouvernement.

(idem pour à peu près n’importe quelle théorie complotiste ? )

Parce que c’est ce que tu soutiens : il y a un complot mondial des compagnies de téléphones, des gouvernements et des scientifiques pour empêcher ou étouffer (sans effet Streissand) toute publication scientifique sur l’impact sanitaire des ondes dont les études épidémiologiques sur ces 70 dernières années.







Sauf que ce raisonnement est complètement erroné et pour tout dire aux antipodes de ma pensée.



Ce raisonnement que tu tiens, c’est hélas ce qu’on obtient typiquement par des déductions manichéennes.



Dans la vie, rien ne t’oblige à choisir entre naïveté totale et paranoïa extrême. La sagesse est dans l’équilibre et la nuance.





Ou alors on a eu un énorme coup de manque de bol, on utilise une gamme d’onde nocive seulement depuis 35 ans (GSM =&gt; 1982), que le truc est tellement mauvais qu’il va tous nous tuer qu’il faut s’en préoccuper, mais pas assez pour affoler les compteurs épidémiologiques des organismes de santé.





Le problème, c’est que personne ici ne possédait un GSM en 1982. Au début des années 90, seul une toute petite minorité possédait un radiocom 2000. Quand j’ai eu mon premier GSM au milieu des années 90 nous étions une minorité.



Cela dit, ça s’est rapidement démocratisé. Mais pendant longtemps, les communications ont couté cher. Il n’y avait pas de forfait illimité qui permettait à un ado de classe moyenne de passer plusieurs heures par jour pendu à son GSM…



Dire qu’on aurait 35 ans de recul, c’est quand même très optimiste. C’est plutôt 15 ans dans la réalité…



Et sans doute encore moins si l’on considère les usages très intensifs.





Par contre, les autres produits intégré dans notre société depuis 35 ans ne méritent pas la même attention, ni même le changement des habitudes alimentaires, la mode et l’usage massif des produits “naturels” pour tout et n’importe quoi.





Quoi, la naturel c’est pas bon, on m’aurait menti ? <img data-src=" />



http://www.egaliteetreconciliation.fr/Merde-d-Artiste-contenu-net-30-gr-conserve…





Non mon argumentation se base sur un axiome : La méthode scientifique est la meilleure méthode connue à ce jour pour prouver la vérité d’un fait.



Donc oui, il y a d’un coté les personnes qui acceptent de faire vérifier par la méthode scientifique. Celles-là j’ai plutôt tendance à leur accorder du crédit à priori et tient pour acquis leurs déclarations quand elles sont prouvées scientifiquement… jusqu’à preuve du contraire.



Et il y a des personnes qui refusent de soumettre à leur affirmation par la méthode scientifique (voir même s’y opposent). Celles-là j’ai plutôt un a priori négatif à leur sujet, et j’attends la publication scientifique qui affirme ou infirme leur affirmation pour forger mon avis avant. Et dans 99% des cas ces personnes disent des conneries, donc ça ne mérite même pas que l’on s’attarde sur leur sujet, c’est vraiment du temps de perdu. Alors certes, à force de dires des conneries, parfois ces ont raisons par accident mais trier le vrai du faux est une perte immense de temps, quand plein de monde à plein de chose ultra intéressant à dire.



Quand aux personnes qui prétendent avoir soumis leur affirmation à la méthode scientifique et pour lesquelles il a été démontré scientifiquement qu’elles ont menti… Celles là je ne comprends même pas qu’on leur accorde la moindre oreille.





Malheureusement, la méthode scientifique ne fera pas de miracle quand on est face à des choses qui ne sont pas prouvables.



En particulier, le corps humain est beaucoup trop complexe pour qu’il soit possible de prouver de manière certaine et absolue l’innocuité de quelque chose.



Et les preuves de mes dires sont facile à trouver : Malgré des études très sérieuses pour s’assurer de l’innocuité des médicaments, certains médicaments dangereux passent à travers les études.



Bref, prêter à la science et à la méthode scientifique des capacités dépassant la réalité, c’est rentrer dans le domaine de la croyance religieuse.



Il y a un proberbe qui dit “le mieux est parfois l’ennemi du bien” <img data-src=" />


Le 11/07/2016 à 17h 07







kwak-kwak a écrit :



Ce qui ne prouve rien du tout. Si tu prends tes sources exclusivement sur des sites de parti pris, tu pourras lire encore et encore la même chose durant des années.

J’ai démontré plus que la presse ment sur le rapport de l’ANSES lui faisant dire que “les ondes sont dangereuses” allant que ce n’est absolument pas ce qu’il dit. Tes sources fiables proviennent-elles de cette même presse ?







Je pense que tu ne comprends pas réellement ce que je dit.



Pourtant, l’ANSES ne dit rien de très différent. Ils n’ont pas affirmé que les ondes sont dangereuses… et moi non plus. Ce qu’il disent rejoint ma position et signifie grosso modo “on en sait pas encore assez, restez prudents”.





Cela fait des années qu je vois défiler les thèses sociales du FN, de Zemmour, FdeSouche, Soral, IPJ, égalité et réconciliation, etc (ouais je sais j’approche du Godwin), c’est donc que je dois les croire ?





Sauf qu’en matière d’extrémisme politique, on dispose justement du recul nécessaire pour avoir une idée du résultat simplement en ouvrant un bon livre d’histoire.





Tu pourrais tout autant tenir le même argument sur l’existence des géants, les chemtrails, les aliens qui construisent des pyramides, la Terre plate, la Terre creuse… Il y a un paquet “d’information” qui circule à ce sujet depuis pas mal de temps.





Il y aura toujours des gens à l’imagination débordante…





(pente glissante) Je ne vois pas en quoi une tablette serait pire pour apprendre l’informatique qu’un bouquin et un cahier en papier.





Peut être parce qu’apprendre l’informatique sans ordinateur avec juste un bouquin et un cahier, ça a toujours été une catastrophe.





Je ne vois pas en quoi la présence de tablettes dans les écoles provoqueraient du chômage*





A quoi sers un ignare en informatique dans une société pleine de robots et de babioles informatiques ?





Je vois pas en quoi la présence d’une tablette empêcherait l’application d’un enseignement informatique de qualité.





Parce que pour apprendre l’informatique, il faut un truc programmable et bidouillable, pas un minitel.





En bref ces choses sont décorélées: Certes l’absence de l’apprentissage de l’informatique risque d’amener à un retard technologique dans le domaine industriel (donc à un manque de richesse à gagner faute d’investissement en formation), mais la présence ou non de tablette n’intervient nullement dans l’histoire.





Tu oublie un détail, le but de l’école devrait être d’apprendre à créer.



Or la tablette n’est pas un outil de création mais de consommation.



Les contenus à destination des tablettes ne sont pas créés sur des tablettes mais sur des ordinateurs.







*Et je ne vois pas en quoi le chômage est un problème, sachant que le premier problème de l’humanité n’est pas de pouvoir absolument décrocher un job de merde facilement automatisable, mais de toucher suffisamment fric et d’avoir un peu de temps libre pour faire ce qui lui plait (genre jouer de la guitare, répondre à SR17 sur un forum, former des gens en informatique). Le problème n’est donc pas de pouvoir travailler, mais de bénéficier du partage des richesses. Aujourd’hui le travail est une contrepartie (un effort à fournir) pour bénéficier du partage des richesses mais rien n’interdit à l’avenir d’automatiser la création de richesse pour en partager les revenus par la suite (c’est le concept du revenu universel).





Tu prêches un convaincu.



Le problème, c’est que l’avènement d’une telle société suppose qu’il existe suffisamment qui comprennent ses paradigmes.



Tant que les règles de répartition de notre société ne changent pas, le chômage est un énorme problème, puisqu’on peut en mourir.



Or, pour changer nos règles, encore faut t’il que les gens comprennent ce qu’est le concept d’automatisme et de programme. Dans le cas contraire, ils continueront avec l’idée reçue que pour fabriquer des biens, il faudrait absolument des gens qui se lèvent tôt.





La mécanisation par exemple ne fut pas un vecteur de “chômage”, mais le vecteur d’une avancée sociale permettant, entre autre, de pouvoir abolir l’esclavage.

Mais bon on dévie du sujet.





La mécanisation a apporté les deux. Le chômage était un résultat prévisible… et prévu.





Tu sous-estimes largement le pouvoir des foules : dans le cas d’une secte par exemple seul le gourou gagne de l’argent, tous les autres sont volontaires, bénévoles et payent même le gourou.

Enfin, il y a énormément d’argent à se faire sur le marché de la peur, en se prétendant anti-système : Cf les blogs d’extrêmes droite ci-dessus.





Le paradoxe, c’est que les “anti système” font peur…



…donc Indirectement, ils peuvent se retrouver malgré eux à conforter le système <img data-src=" />


Le 11/07/2016 à 00h 03







kwak-kwak a écrit :



Source ? Quelle étude scientifique montre une différence significative d’effet sur le corps en fonction de la longueur d’onde utilisée, dans la gamme utilisée par nos appareils (entre 700 MHz et 2600 MHz) ?







Malheureusement, il est difficile de te résumer simplement des années d’informations que j’ai vu passer.



Et logiquement, comme dans tout domaine ou il y a une certaine complexité, si tu voulait te faire une idée de l’état des connaissances, il faudrait y consacrer au moins plusieurs mois de travail à plein temps.



Voir même quelques années de plus pour acquérir les connaissances médicales adéquates.





Et pas besoin de source pour comprendre qu’une tablette prends moins de place que 10 kg de bouquin dans le sac ?





Sauf qu’on devrait logiquement avoir des ambitions bien plus élevées avec le numérique que juste de remplacer les vieux bouquins papiers.



Avec les tablettes, on va encore former une génération d’ignares en informatique.



Oui, leur sacs seront légers, mais ils finiront au chômage…





Il n’a jamais été question de remplacer les cours d’informatique par une tablette. Mais le livre de maths, de biologie, de physique, d’histoire, de Français, etc…





Oui, on avait compris que l’informatique, ça n’existe toujours pas dans l’esprit de nos dirigeants.



Restons aux bonnes vieilles matières et faisons comme si l’informatique n’existait pas à l’heure ou ‘industrie du monde entier se tourne massivement vers l’automatisation.





Et donc parce qu’il se pourrait qu’un scientifique soit corrompu (et réussisse à corrompre toute tentative de reproduction de l’étude) il vaut vaut mieux écouter le premier charlatant débarqué avec des arguments improuvable et sorti du chapeau.

Ne crois-tu pas que les lobbies anti-ondes sont suffisamment puissant pour financer eux aussi leurs propres études ? (En l’occurrence, ces derniers ne pouvant rien prouver sur le plan scientifique, tous se replient comme toi, dans la thèse conspirationniste, c’est tellement plus commode).





Soyons logiques, à ce petit jeu, ceux qui ont toujours le plus de puissance de communication sont ceux qui gagnent de l’argent.



Mais cela ne signifie pas pour autant que les “conspirationnistes” soient plus objectifs.





étonnamment les gens qui trichent le plus avec la science (et se voient leurs études révoquer, à raison, pour malfaçon, malhonnête et résultats irreproductibles sont étroitement lié à la santé et le bien être).




  • Andrew Wakefield: Etude frauduleuse “démontrant” un lien entre vaccination et autisme. Il avait un produit à vendre.

  • Gilles Eric Séralini : Etude bidon “démontrant” les dangers des OGM. Résulats irreproductibles par plusieurs études indépendantes. Il a un livre à vendre, un “comité associatif” à faire valoir, et une entreprise para-pharmaceutique à faire vivre. Du coup il attaque n’importe qui le contredisant en diffamation… Comme les frères Bogdanov, ou Elisabeth Tessier.

  • Jacques Benveniste : Etude frauduleuse sur “la mémoire de l’eau” afin d’expliquer les causes du fonctionnement de l’homéopathie (alors que l’ensemble des études démontrent que l’homéopathie a autant d’effet… qu’un placebo). Il est financé par les laboratoires Boiron.





    Le problème, c’est que ta vision est encore simpliste car elle divise le monde de manière binaire en deux camps, les bons scientifiques et les mauvais charlatant. Tu comprendra avec le temps que c’est beaucoup plus compliqué que ça.





    C’est justement son rôle. Oui, quand quelqu’un fait une affirmation, il lui appartient de prouver ses dires.





    Sauf que la science n’est pas une baguette magique. Le meilleur scientifique du monde ne peut pas pour autant tout prouver.



    Étudie l’histoire de la science, tu verra combien de savoirs incomplets ont été tenu longtemps pour vérité absolue alors qu’on a fini par découvrir leur limite….



    Accorder à la science plus de capacité à prouver qu’elle ne le peut à un instant T, n’est ce pas une autre forme de charlatanisme ?





    Ici tu affirmes que les ondes tuent : cette hypothèse a été scientifiquement étudiée et il a été démontré qu’il n’y a aucune surmortalité due aux ondes, dans un bain d’onde au niveau des normes Européennes.





    Alors déjà, tu n’a absolument rien compris…



    Pour faire simple, je n’affirme strictement rien sur la mortalité des ondes.



    Je dit qu’on ne dispose pas d’assez de recul pour être affirmatif à 100% sur les effets des ondes, particulièrement à long terme.



    D’ailleurs, au passage, effet ne veut pas dire forcément mortalité.





    On ne montre jamais l’innocuité d’un produit, seulement l’absence d’effet notable. Après 70 ans à baigner dans les radio-emissions, aucun effet notable n’est présent sur la population.





    L’ennui, c’est que les ondes, c’est pas aussi simple.



    Par exemple, rien que dans la bande des UV, suivant la longueur d’onde, on trouve des effets assez différents.



    On croyait que la lumière visible était forcément sans danger jusqu’a ce qu’on découvre que la lumière bleue pouvait avoir des effets néfastes… sur le long terme.



    On a aussi découvert que certaines modulations en lumière visibles peuvent avoir des effets au point de faire “disjoncter” le cerveau <img data-src=" />



    L’histoire de la science est la pour montrer que l’on doit faire preuve d’humilité.





    Problème politique, pas scientifique. Les publications scientifiques démontrant et mesurant les dangers de l’amiante étaient bien présentes.





    Ce qui est certain, c’est qu’avec une approche binaire et manichéenne, tu ne peut rien comprendre au problème de l’amiante.



    On peut trouver des publications qui montrent que même l’eau peut être dangereuse dans certaines conditions.



    A l’inverse, si correctement manipulé avec les bons équipements, l’amiante peut ne présenter aucun danger.



    La ou les industriels ont complètement instrumentalisé les scientifiques, c’est qu’ils ont réussi à faire croire que des conditions de laboratoire pouvaient être transposées sur le chantier d’un bâtiment.





    Tous les articles trouvées sous Google sont bidon et une distortion de la réalité (Ce n’est pas parce que beaucoup de monde dit de la merde, qu’ils ont raisons. Cependant les gens qui ont de la merde à dire, le disnt sus plus fort). Un exemple une recherche d’articles de presses qui relate de l’étude de l’ANSES : Google actualité: Onde danger ANSES : tous les articles de presse semblent citer l’ANSES en disant que les radio fréquences sont dangereuses pour les enfants (Y compris de grands journaux comme Le Monde ou Libération”). Or tu as le rapport sous les yeux comme moi qui explique que l’ANSES ne peut en aucun cas dire si le problème vient des ondes ou de l’écran : L’ANSES parle d’un “effet possible” et je cite « Les effets observés sur le bien-être pourraient toutefois davantage être liés à l’usage des téléphones mobiles plutôt qu’aux radiofréquences qu’ils émettent ».

    La raison à cela est que titrer malhonnêtement “ANSES: les ondes tuent vos enfants” génère plus de visite que “ANSES: peut-être que les écrans sont pas géniaux pour nos gamins mais on n’est pas sur”.





    Qu’une bonne partie de la presse moderne fasse de la merde en barre, c’est une certitude. Mais quand bien même la presse transforme les incertitudes en new à clic, il y a quand même bien des controverses à la base.



    D’ailleurs, quand bien même il n’existerait aucune étude valable pour démontrer la nocivité des ondes, il faut réaliser que cela ne prouve pas pour autant leur innocuité.





    Tu me parles de malhonnêteté intellectuelle et tu cites le site web d’un lobby écologique.





    Bienvenu dans la réalité.



    Le web n’est pas un arbre ou les documents poussent par magie.



    Logiquement, quand on trouve un document sur le web, c’est que quelqu’un aura eu un intérêt à prendre sur son temps pour le publier.



    Et donc oui, forcément, la plupart des documents publiées le sont soit par intérêt, soit par idéologie.





    le PDF en lien dans l’article (qui n’est pas une publication scientifique) certifie par exemple que le VHF provoque des cancer et que les émetteurs TV sont invivables à proximité “maux de tête, problèmes gastriques, problèmes sanguins” Je plains les Parisiens…





    Au passage, quand on parle de science, même une publication scientifique n’est pas une preuve.



    La science est un domaine ou il faut du temps pour avoir de vraies certitudes.



    C’est déjà vrai quand on parle de morts, ça l’est bien plus encore quand on parle de troubles bénins comme des troubles de la concentration qui sont par définition très difficiles à mesurer.

    Rien que le protocole de mesure serait sujet à des controverses sans fin.





    Que les Emission entre 1 et 960 MHz (le GSM : c’est 800 MHz) de l’ordre de 1 millard de fois moins puissant que nos téléphones portables et emetteurs TV entrainent “Changes in electroencephalogram, loss of memory, inability to concentrate, irritability, apprehension.”

    Et 20 fois moins puissant que nos téléphones entre 1 et 30GHz : Electroencephalographic disorders;

    elevation of fasting blood glucose; elevation of serum beta-lipoproteins; elevation of cholesterol. . Comme tu le dis toi-même ci-dessous tu sais que c’est faux… En bref, il est impossible de faire la part du vrai et du faux dans les affirmations de cette étude.. C’est à jeter.

    Reporterre.net aurait fait preuve d’un minimum d’honnêteté, ils n’auraient pas publiée de conclusions là-dessus.





    La réalité, c’est que même une étude parfaitement construite dans la forme n’est pas forcément plus probante sur le fond.





    70 ans, c’est du court terme… D’accord, il est possible que les ondes provoquent des cancers,… … à partir de l’âge de 137 ans.



    Les scientifiques sont certains de l’innocuité des ondes, dans la limite des normes présentes qui prennent en compte une bonne marge par rapport aux niveaux à partir desquels on peut commencer à mesurer les effets.



    On a 70 ans de recul.





    Sauf qu’il y a énormément de cancer de nos jours et pas vraiment de certitudes sur leurs causes exactes.



    Et cela, sans parler des effets moins grave mais moins simples à mettre en lumière.



    Bien sûr, les facteurs de cancer et de troubles sont multiples. Rien ne prouve que les ondes sont impliquées.



    Mais rien ne dit non plus qu’on connait aussi bien le problème que tu semble le penser.





    On a 70 ans de recul.





    C’est beau de poser des présomptions totalement gratuites comme par exemple qu’avec le GSM et Wifi, aucun facteur ne changerait par rapport aux émetteurs radio/tv.



    Certes, les puissances du GSM sont moindres, mais avec le GSM, tu as l’émetteur à 1cm de ton cerveau.





    Non, il ne s’agit pas de recul scientifique mais de recul politique. Les publications scientifiques faisaient déjà état du problème depuis belle lurette.





    Oui, c’est facile, quand le scandale sanitaire arrive, ça met forcément en lumière les études qui allaient dans le bon sens. Après coup, ça parait évident.



    Mais logiquement, si les politiques n’ont pas pris la décision d’interdire à l’époque, c’est parce qu’ils étaient considérés comme trop “alarmistes”.





    Problème incomparable avec les ondes, puisqu’aucune publication, actuelle ne met en lumière un problème sanitaire latent.





    En est tu vraiment si certain ?





    Les ondes ne provoquent pas de cancer 70 ans plus tard.





    Et après, certains traitent les astrologues de charlatant.





    Source ? Cite moi un scandal sanitaire majeur qui ne s’est pas vu malgré un échantillon de 7 milliards d’individu ?





    Un petit exemple intéressant d’effet à long terme :fr.wikipedia.org WikipediaPour le reste, fait l’effort de chercher un peu, ce n’est vraiment pas ça qui manque.






Le 09/07/2016 à 22h 42







kwak-kwak a écrit :



Ce n’est pas comme si nous avons des émetteurs TV et radio émettant à donf dans sur les mêmes fréquences en plein centre ville (La tour Eiffel par exemple) depuis la fin de la seconde guerre mondiale…







Il me semble que les canaux de la TV originels n’étaient pas du tout dans cette bande de fréquence.



D’autre part, tout installateur Wifi pro te dira que suivant le type d’antenne, ce n’est pas forcément en dessous d’une antenne qu’on prends le plus d’ondes. Aussi étonnant que cela puisse te paraître, on ne reçoit quasiment rien en dessous de certaines antennes wifi.



Enfin, l’effet des ondes sur le corps peut varier du tout au tout suivant les fréquences.





Source ?





Pas besoin de source pour comprendre que les tablettes ne sont pas des outils de création.



Pas besoin d’être Einstein pour comprendre que ce n’est pas avec ces “minitels” que les jeunes apprendront l’informatique.





Cela n’a jamais empêcher d’établir des publications scientifiques. Les lobbies empêchent juste la prise en compte de ces publications dans le cadre de mesures politiques.





C’est bien plus compliqué que ça.



Les lobbys peuvent parfois payer des scientifiques et financer des études bidons dans le but de créer une espèce de cacophonie générale ou le politique ne sait plus du tout qui écouter.



Enfin, il faut mal connaitre la science pour croire que des études suffisent à mettre en lumière tous les phénomènes.



Par exemple, pour mettre un médicament sur le marché, il faut disposer d’études très sérieuses montrant son innocuité. Cela n’empêche pas que dans la réalité, certains médicaments ont été retiré du marché après plusieurs décennies sur la base d’effets secondaires graves qui n’ont pu être mis en évidence que sur le long terme.





Les études scientifiques sur la nocivité de l’amiante datent de 1960.





Et pourquoi n’a t’on rien fait ?



C’est assez simple, les industriels ont réussi à convaincre les politiques que (1) L’interdiction de l’amiante entraînerait des conséquences économiques majeures. (2) Qu’un usage dans les règles de l’art n’impliquait aucun risque majeur.





A ce jour aucune étude scientifique ne permet de définir la nocivité des ondes (dont notamment l’étude des populations vivant autour des plus gros émetteurs).





Sauf que le débat scientifique sur ce sujet semble beaucoup moins tranché que ce que tu affirme.



D’abord il me semble avoir entendu parler assez régulièrement de l’existence d’études qui disaient le contraire. Et il suffit de googler un peu pour s’en convaincre.



Exemple pris au hasard :https://reporterre.net/La-Nasa-sait-depuis-trente-ans-que



Pour l’instant, ce qui me parait établi, c’est que les usages des ondes dans les technologies grand public ne semblent pas générer de troubles majeurs(comprendre des millions de morts) à court terme sur la grande majorité de la population. Le reste n’est que spéculation hasardeuse, on ne peut pas affirmer sur des données que l’on n’a pas encore.



Si la communauté scientifique était vraiment unanime sur le sujet et pensait avoir 100% de certitudes sur l’innocuité, les recommandations et normes pour limiter l’exposition n’existeraient pas.



La science n’est pas une baguette magique. Un vrai scientifique sérieux te dira qu’on ne peut rien affirmer à 100% tant qu’on ne dispose pas du recul suffisant.





Sur le plan politique uniquement, pas sur le plan scientifique. En France l’amiante est reconnue comme une cause de maladie professionnelle depuis 1945.





Et pourquoi pensez vous qu’on a continué à l’utiliser ?



Le débat, c’est qu’on ne savait pas à quel point et dans quelles conditions cela pouvait être dangereux.





Et cela empêche une publication scientifique ?





C’est justement qu’il a fallu des décennies de recul scientifique sur les précautions prises à une époque pour comprendre qu’elles n’étaient pas suffisantes.



Quand les cancers de l’amiante peuvent apparaître 30 ans plus tard, il faut logiquement du temps pour savoir.





Dans tous les scandales sanitaires tu trouveras des études scientifiques alarmistes décrivant les effets du produit incriminé, ignorées par les politiques . A ce jour, l’ensemble des études scientifiques faites sur les ondes notent l’absence d’effet notable des ondes Wifi et GSM aux niveaux définis par les normes Européennes.





Pas toujours.



Dans certains cas, il n’y a absolument aucune étude alarmante avant qu’on ne dispose de données à long terme.



Et c’est bien parce que l’on manque justement de données à long terme, qu’on recommande logiquement de rester prudent.


Le 08/07/2016 à 23h 45







mmvik a écrit :



Un exemple parmi beaucoup :

http://www.silicon.fr/des-riverains-reclament-le-demontage-dantennes-relais-inac…







C’est un biais humain bien connu sous le nom d’effet placebo.



Le 08/07/2016 à 23h 17







mmvik a écrit :



Quoiqu’il en soit, malgré les nombreuses études scientifiques réalisées par les flippés de l’electro-sensibilité, il n’y a AUCUNE PREUVE que les ondes sont nuisibles. Et cet énième rapport le confirme. Malgré les titres alarmistes des journalistes.







Sur quoi se basent les études dont nous disposons aujourd’hui ? Des expérimentations, des statistiques à court terme et des recherches de pathologies lourdes.



Est ce que c’est rassurant ? Oui.



Est ce qu’on peut en tirer des certitudes absolues sur les effets à long terme ou sur les effets plus “bénins” ? Non.



Faut t’il rappeler que certaines causalités de cancer ont été établies par des statistiques à long terme et à grande échelle alors qu’elles étaient complètement passées au travers des études à court terme ?



Donc la sagesse est bien de dire qu’on peut utiliser ces technologies, mais tout en restant prudent pour limiter les expositions quand cela est possible.


Le 08/07/2016 à 22h 58







Faith a écrit :



Non. 

On a continué parce que c’était pas cher et pratique.







Logiquement, quand il y a de gros intérêts financiers, ça crée des lobbys qui œuvrent pour retarder au maximum la prise de conscience. Ce n’est pas un phénomène nouveau.





Et surtout parce que l’amiante utilisé dans le batiment n’est pas dangereux car il est stabilisé.

Il est dangereux quand les matériaux s’abîment.





C’est précisément parce que certains ont pensé cela qu’on a continué d’utiliser l’amiante.



Le problème, c’est qu’on a oublié qu’il fallait bien fabriquer les matériaux, les poser, les déposer et traiter les déchets…



Et l’on a oublié que pour des raisons de rentabilité, les entreprises n’utiliseraient pas toujours les méthodes recommandées ni les protections adéquates.





Mais même cela était connu de longue date.





Connu par qui ?



Dans tous les scandales sanitaires, tu retrouvera a peu près les mêmes ingrédients. Des gens qui savaient de longue date. Des politiques qui ne savent pas quoi décider entre les discours contradictoires des uns et des autres. Et des consommateurs finaux qui se disent que si c’est autorisé, c’est que ça ne présente pas de danger.


Le 08/07/2016 à 20h 54







Faith a écrit :



Ca fait 2000 ans qu’on sait que l’amiante est toxique.







Oui et non.



On le savait uniquement pour de fortes expositions.



Si on a continué d’utiliser l’amiante, c’est bien parce qu’on pensait qu’un usage raisonné ne posait pas de problème.



On ignorait que même de très faibles expositions pouvaient donner un cancer 30 ans après.


Le 08/07/2016 à 20h 50







millman42 a écrit :



Non c’est l’inverse en faite <img data-src=" />



La preuve la lumière (qui possèdent une longueurs d’onde très courte) ne passe pas à travers un mur opaque alors que les ondes radios (qui possèdent une longueur d’onde plus grande) le peuvent.







Sauf que les rayons X pénètrent plus que la lumière visible. Donc pas si simple…



Le 08/07/2016 à 20h 14







divide a écrit :



On a plus de 15 ans de recul sur l’usage massif des ondes gsm sur la population mondiale. C’est pas suffisant ?







Si l’on en juge par l’exemple de l’amiante, la réponse est non.



Pour avoir des certitudes, il faudra au moins 30 ans et idéalement entre 50 et 70 ans de surveillance statistique.


Le 08/07/2016 à 19h 54







mmvik a écrit :



C’est navrant de persister à argumenter sur de simples “croyances”.



Je t’invite à t’informer (micro ondes par exemple) :

http://www.canardwifi.com/2007/07/03/le-wi-fi-dangereux-pour-la-sante/



Les radioamateurs (modélisme, CB…) en rigolent :)







Le problème, c’est que ce n’est pas aussi simple. S’informer, oui, mais avec un minimum de compréhension de la démarche scientifique.



D’abord comprendre qu’en matière de science, il faut une multitude d’études convergentes pour établir une vérité. Même publiée par un organisme connu, une étude ne fait pas une vérité.



Or il s’avère qu’entre le fait que certains effets peuvent apparaître uniquement à long terme et le fait qu’il y a des intérêts financiers (qui brouillent les cartes en finançant des études bidons), il faudra plusieurs décennies pour avoir de vraies certitudes.



Cela est encore compliqué par le fait que les effets des radiofréquences peuvent varier avec les fréquences. D’ou le fait que les radioamateurs ne sont pas une meilleure référence que madame soleil.







Faith a écrit :



Méfaits du tabac connus depuis 1940. Et ceux de l’amiante depuis… … le premier siècle après JC.

Je ne sais pas si ces sont les clopes ou l’amiante qui tuent le plus l’esprit critique, mais certains semblent l’avoir perdu depuis longtemps.







Concernant l’amiante, on sait depuis longtemps que c’est dangereux. Mais on ne savait pas à quel point…



D’abord parce que les effets se manifestent à long terme et par des phénomènes complexes. Ensuite parce qu’un scientifique ne connaissait pas le niveau d’exposition de la population.



Il fallu la pratique et des morts pour comprendre que par exemple, une femme qui manipulait les bleus de travail contaminés de son mari pouvait être exposée au point d’attraper un cancer…



Enfin, entre les recommandations et ce qui était appliqué en pratique sur les chantiers, il y avait un monde.


Le 08/07/2016 à 19h 15

Le souci avec ce genre de recommandation, c’est que certains parents les appliqueront de manière paranoïaque en croyant bien faire au risque de faire de leurs enfants des “illettrés du numérique”.



A quoi bon préserver leur santé si c’est pour en faire des clochards à l’age adulte ?



Si les radiofréquences posent des problèmes, pourquoi ne pas recommander plutôt l’achat d’ordinateurs fixes reliés par câble ethernet plutôt que des tablettes ?

Le 11/07/2016 à 10h 21







Ricard a écrit :



Ils connaissaient pas Java à l’époque. Heureusement.<img data-src=" />







Malheureux, ne parle pas de Java, c’est déjà un truc de vieux.



Maintenant, ils ne connaissent plus que javascript.



Et dans le futur, ils feront tout en Scratch. <img data-src=" />


Le 09/07/2016 à 20h 33







Mimoza a écrit :



Sur la question d’arrêter de mettre une seconde revient en gros a savoir si l’on veut complètement se séparer du rythme naturel de la nature et passer celui des machines …

On a déjà le TAI (machine) et TU(nature), le temps UTC fait le lien entre les 2.



Ça fait peut être aussi chier les ricain que ce soit les bouffeur de grenouille qui gère ça …







Au contraire, ils sont très heureux que ce soit le contribuable français qui paye le service <img data-src=" />


Le 07/07/2016 à 18h 43







j-c_32 a écrit :



À propos de la prescription des délits, la loi actuelle a une faille béante lorsqu’on se retrouve sur internet.




Imaginons que je veuille publier quelque chose dont je sais pertinemment que ça sera condamnable.      

Je publie la page html sur le site bidule.org/machintruc/machintruc/aufondduweb/discretos.html sans la référencer nulle part.

La probabilité qu'elle soit remarquée est très faible, vu que le pagerank sera quasi nul. Pourtant, elle est et reste publique (je peux même interdire les moteurs de recherche avec le fichier robot.txt, car selon les partisans de bluetouff dans l'affaire bluetouff, "si c'est accessible d'une manière ou d'une autre, c'est public").

Après 3 mois, je ne change pas la page de place. Par contre, sur mon site à "gros tirage" qui voit passer des tas d'internautes et qui est bien référencé, j'ajoute un iframe, voir juste des liens + des citations partielles.






Du coup, ma page devient visible uniquement à ce moment-là, exactement comme si je l'avais écrite le jour même, tout en étant protégé par la prescription.      






C'est évident qu'une telle astuce n'est pas possible dans la presse papier: pour modifier la visibilité, on est obliger de republier comme nouveau papier, et donc, on remet le compteur de la prescription à zéro.      

 

Est-ce correct ? Qu'en pensez vous ?









Tu as raison sur le fait que les lois actuelles peuvent permettre quelques abus.



Mais ces élus ont t’ils seulement pris le temps de consulter des techniciens ?



Le problème, c’est que professionnels organisant des vraies campagnes de diffamation n’auront absolument aucune difficulté pour cacher leur adresse IP.



Ces loi vont donc rater leur cible tout en créant une insécurité juridique néfaste et dangereuse.



Cela rappelle Hadopi dont l’efficacité est à peu près nulle. N’importe quel professionnel de l’hôtellerie qui veut mettre à disposition un accès à internet vous dira tous les problèmes que ces lois ont amené….


Le 04/07/2016 à 01h 20







KP2 a écrit :



Ouais mais c’est pas si simple… A partir de quand tu considères qu’un firmware est un OS par exemple ?

Dans le cadre des appareils embarqués ou des objets connectés, tu veux faire la même chose ?







Par exemple, une distinction simple serait de dire qu’a partir du moment ou un firmware permet l’installation de logiciels vendus séparément, nous avons affaire à un Os.





Là non plus c’est pas si simple… Quand un constructeur qui insistent sur la sécurité et jure la main sur le coeur que cette sécurité ne peut être garantie que par un contrôle de leur part des applis qui sont installées. Tu lui dit quoi ?





Un constructeur automobile pourrait aussi jurer la main sur le coeur que la sécurité de ses moteurs dépends de l’usage de son essence.



Des fabricants d’électroménager pourraient affirmer que seul l’usage d’aliments “sécurisés”, de lessive “certifiée” serait garante de la sécurité des usagers.



On pourrait multiplier les exemples sans fin…





Ben ouais mais c’est pareil, coté sécurité, c’est quand même un sérieux problème…





Est ce que les Os libres qui sont parfaitement ouverts sont pour autant réputés dangereux ? Bien sûr que non.





Et si un constructeur propose un mobile ou toutes les applis installables sont développées uniquement par lui, tu vas le forcer quand même a proposer un SDK et accepter des applis d’editeurs tiers ?





Et pourquoi pas ?



Les consommateurs ont tout a gagner d’acheter plutôt des appareils ouverts.





Un peu flou comme mesure… difficilement démontable, ca veut dire quoi ? Aujourd’hui, aucun smartphone n’est réellement “facile” à démonter.





Comme le montre IFixit, certains appareils sont beaucoup plus faciles à démonter que d’autres.



Partant de la, il est tout à fait possible d’identifier des éléments tangibles qui expliquent ces différences et les traduire en règles.



Par exemple, Interdire l’utilisation de collage qui compliquent le remplacement d’élements tels que l’écran, la batterie ou la carte mère, c’est une définition suffisamment précise.





Pour les vis, même si Apple utilise des vis rares, ca reste des vis “standard” pour lesquelles on trouve des outils. Tu veux interdire certains types de vis ? Et les fabricants de vis, ils vont dire quoi ?





Il suffit de définir les types de visses homologuées pour cet usage.



On pourrait cependant laisser à un constructeur le droit d’utiliser une visserie particulière, mais à condition de distribuer dans les même points de vente l’outil adapté à un tarif raisonnable.





Pour moi, c’est facile de dire “on interdit ceci ou cela et tout ira mieux” mais dans l’informatique et l’electronique, il y a plein de situations pour les choses sont très difficiles à trancher et si tu legiferes trop et trop tot, tu peux littérallement tuer un marché sur lequel des entreprises francaises auraient pu faire des merveilles…





Je pense qu’au contraire, ce genre de législation peut favoriser les entreprises françaises.



Ces normes pourraient créer une certaine forme de protectionnisme et ainsi favoriser l’émergence de constructeurs nationaux.



Pousser des normes qui font l’intérêt du consommateur, c’est investir sur l’image de qualité à long terme de notre production.


Le 03/07/2016 à 20h 44







jinge a écrit :



….

Le seul soucis c’est que personne ne sait comment réguler ce marché, d’où le fait qu’il ne se passe rien.









La faute à des politiques qui sont complètement dépassés par la technologie et qui ont laissé des constructeurs s’arroger des droit hallucinants sur la vente de logiciels.



Jamais personne n’aurait toléré cela sur un marché traditionnel. Par exemple, le politique n’aurait jamais accepté qu’un constructeur automobile impose au consommateur d’acheter le carburant dans ses propres stations services.



Pour ma part, j’ai quelques idées sur la façon de réguler ce marché.



-Interdiction de lier matériel et Os : Les DRM matériels imposant l’usage d’un Os précis doivent être supprimés.

-Obligation de présenter au consommateur plusieurs choix de “stores” alternatifs à l’installation (comme pour les navigateurs).

-Interdiction d’empêcher l’installation d’applications “hors store”.

-Sur le plan matériel, Interdiction des éléments difficilement démontables, par exemple éléments collés ou de visserie avec des empreintes particulières.



Le fait d’avoir fait preuve de laxisme dans le monde de la technologique aboutit inéluctablement à des dérives qu’il faudra bien corriger tôt ou tard.


Le 03/07/2016 à 22h 45







x689thanatos a écrit :



@patch



ouaip…

Tu sais ce que ça va donner ce genre d’assistance à la conduite.

Exactement ce qui s’est passé ici. Combien de personnes resteront concentrées.



Et comme je l’ai dit précédemment, même pour les personnes qui sauront rester concentrées, cela veut dire qu’il faut jouer les moniteurs de conduite pour l’assistance à la conduite !



C’est moi ou il y a juste un énorme défaut de concept ^^‘.





/ personnellement lorsqu’il y a beaucoup de route je préfère conduire car je vois moins le temps qui passe. cela veut également dire que mon attention es totale sur la route. Ce qui n’es clairement pas le cas lorsque je suis passager / et même avec assistance, je doute de pouvoir rester concentré pendant 1-2 heures à fixer la route). Du coup, je suis définitivement contre ce système tel qu’il es présenté. Que ce soit pour moi ou pour les autres véhicules que je vais devoir côtoyer sur la route.







Il faut apprendre à lire entre les lignes. Il parait évident que le but à terme de ce genre de dispositif est de conduire à ta place et sans ton intervention.



C’est juste que tant qu’ils sont encore un peu “vert”, les constructeurs se couvrent juridiquement au maximum. N’oublions pas qu’aux USA on ne plaisante pas avec le risque juridique car les tribunaux n’y vont pas avec le dos de la cuillère pour accorder d’importants dommages et intérêts.



En gros, si tu laisse le calculateur conduire, c’est toi qui endossera le risque juridique.



Le 03/07/2016 à 21h 54







Eric_V a écrit :



“Ni le pilote automatique, ni le conducteur n’ont remarqué le flanc blanc de la remorque”

Et comment peuvent ils le savoir? ils l’ont interrogé? <img data-src=" />







Oui, il est hallucinant de lire autant de spéculations hasardeuses.



Dans ce genre de cas impliquant un mélange complexe de circonstances et de technologie, il faut typiquement des mois d’enquête pour connaitre les circonstances précises.



D’ailleurs, pour tout ceux qui font des spéculations sur ce forum, réalisez que vous ne savez même pas vraiment de quel type de capteurs sont équipés ces dispositifs.



Spéculer à partir de presque rien ne vous mènera nulle part.





Le 01/07/2016 à 20h 15







pv_le_worm a écrit :



Mettre en comparaison les Droits de l’Homme et le logiciel libre, c’est un peu avoir les chevilles qui enflent.



Puis justement, la liberté de faire “ce qu’on veut”, c’est aussi pouvoir faire le choix de choisir les solutions propriétaires.







Sauf qu’il serait bon de ne pas inverser les réalités.



Ceux qui contraignent les choix de l’utilisateur, ce sont les éditeurs du monde propriétaire, pas les libristes.



Même sur un Os libre comme Linux, les libristes ont fait le choix explicite de permettre les logiciels propriétaires.



Et pour ceux qui ne comprennent pas le parallèle entre les droits de l’homme et les logiciels libres, c’est exactement la même logique : Comme les droits de l’homme, la raison d’être des logiciels libres est de garantir certain nombre de droits et de libertés fondamentales pour les utilisateurs.





Gimp par exemple, par acquis de conscience je teste chaque version majeure. Résultat : Non, c’est juste pas possible.





A ma connaissance, le seul domaine ou l’usage de Gimp est effectivement problématique, c’est pour le travail à destination de l’imprimerie.





Je ne dis pas qu’il faut non plus dire non au libre (ma vie sans internet risquerait d’être assez triste :/), juste laisser chacun faire son choix et arrêter de dire “zOMG Micro$oft c’est que des voleurz, AdAUbe ça pue, ‘spèce de iPigeon Viendez vénérer le Pingouin ! EN PLUS CHEZ NOUS Y’A PAS DE VIRUS LOL”.





Objectivement, les logiciels libres apportent une solution évidente à beaucoup de problèmes graves dont se plaignent régulièrement les utilisateurs de logiciels propriétaires.



Plutôt que de vous plaindre (ce qui ne sers à rien), faites l’effort de changer…





A l’utilisation, je préfère Photoshop à Gimp, Microsoft Office à LibreOffice, certaines fonctionnalités, certains outils, n’étant juste pas disponible dans ces alternatives (Puis y’a la sensibilité à l’UI à prendre en considération).





Il va de soi qu’utiliser un logiciel différent implique de ne pas retrouver exactement les mêmes fonctionnalités.



Mais il ne faut pas oublier que cela peut être vrai dans les deux sens. On peut aussi gagner des fonctionnalités nouvelles.



Le vrai problème, c’est que beaucoup d’utilisateurs d’aujourd’hui n’ont jamais changé de logiciels de toute leur vie et ne savent pas comment faire. Il est normal qu’un test de quelque minute n’aboutisse à rien.



Le problème du passage Photoshop -&gt; Gimp est un grand classique. Car ces deux logiciels, malgré des ressemblances n’ont pas du tout la même logique de travail.



Le débat des fonctionnalités est d’ailleurs plutôt amusant quand on sait que 95% des utilisateurs n’utilisent pas 10% des fonctionnalités des suites bureautiques.



Et si une fonctionnalité vous manque vraiment sur un logiciel libre, n’oubliez pas que contrairement aux logiciels propriétaires, les logiciels libres vous appartiennent. Il ne tient qu’a vous de contribuer à leur amélioration en donnant votre temps et/ou votre argent.





Dans pas mal de domaines, l’open source n’a non plus pas du tout sa place pour diverses raisons (dans l’industrie par exemple où

presque tous les logiciels tournent sous Windows). Bref, le libre n’est pas la solution miracle à tout.





L’industrie est justement le premier domaine à utiliser les logiciels libres. Et tout particulièrement la nouvelle économie.



D’ailleurs, le fait de pouvoir customiser les logiciels est un avantage absolument déterminant pour l’industrie.





Ah ouais, comme l’AppStore d’OSX ?





Sauf que la ressemblance n’est qu’apparente.



Par exemple, les systèmes de paquet de Linux peuvent gérer simultanément de multiples dépôts. On peut ajouter le dépot particulier de son soft favori.





<img data-src=" /> Ensuite, le gestionnaire de paquets, n’a pas que des désavantages, soit, après que la mise à jour se fasse via le logiciel ou via un gestionnaire ça me fait le même effet personnellement, du moment que j’ai pas à retélécharger un binaire sur un site…





Encore une fois, il faut analyser le problème avec suffisamment de profondeur pour comprendre tous les problèmes que la mise à jour individualisée des softs peut poser.



Outre le problème des pop ups intempestifs, il y a également des problèmes de gros problèmes de sécurité potentiels.



Par exemple, les gestionnaires de paquets sous Linux sont des outils relativement avancés qui intègrent la vérification des signatures.



Si chaque éditeur doit programmer le sien, il y a fatalement des éditeurs qui feront au plus simple et qui se contenteront de télécharger le fichier et de l’installer. Il suffira alors à des hackers de pirater le serveur pour contaminer des milliers de machines…





Le 30/06/2016 à 19h 59







Etre_Libre a écrit :



Heureusement des logiciels libres savent gérer les mises à jour comme Firefox…







Ce n’est pas parce que certains le font que c’est pour autant la bonne solution.



Sous Windows, chaque logiciel doit gérer sa mises à jour. Sauf que c’est pénible à l’usage d’avoir tout ces pop ups de mise à jour qui apparaissent quand tu lance les logiciels.





LibreOffice est très bien sur Windows, mais c’est clair que les MAJ autos c’est mort pour le moment





Pour avoir utilisé les deux, je ne partage pas du tout ton avis.







pv_le_worm a écrit :



C’est sur que devoir changer d’environnement pour avoir les MàJ auto de son logiciel de traitement de texte c’est une super solution.







Il faut voir le problème avec plus de recul.



D’abord, le fait d’avoir chaque logiciel qui gère sa mise à jour, ça n’est pas du tout une bonne solution. La bonne solution, c’est la gestion par l’Os : d’un clic, tu met à jour ton système ET tes softs. Linux dispose de cette fonctionnalité.



Enfin, il faut être pragmatique : d’une manière logique, les libristes utilisent et développent sur des Os libres plutôt que sur des Os propriétaires. Les logiciels libres sont d’abord développé pour Linux. Les versions Windows sont des portages qui selon les softs sont plus ou moins bien gérés.







Le 29/06/2016 à 16h 57







matroska a écrit :



LibreOffice est disponible dans les versions suivantes :5.0.6 - 5.1.3 - 5.1.4 - LibreOffice est disponible dans les pré-versions suivantes :5.2.0





Personnellement je suis en 5.1.3. Quant à la fonction de mise à jour dans l’application cela n’est toujours pas d’actualité et il n’est pas possible de mettre à jour LO en passant par lui-même ou in-app update… Obligé de re-télécharger le msi et de tout réinstaller par dessus…



<img data-src=" />







Les logiciels libres sont programmés principalement par des gens qui bossent sur des Os libres. Et les Os libres gèrent l’update de tous les logiciels.



Par expérience, je dirais que le couple Windows + logiciels libres n’est qu’une solution transitoire pour la simple raison qu’ils fonctionnent généralement mieux sous Linux.







Maicka a écrit :



À quand l’auto update ? J’adore cette suite mais ça manque.







Idem, passez sous Linux…


Le 30/06/2016 à 22h 25

Attendez les gars, ne tirez pas de conclusions hâtives.



Le prix actuel est un prix d’introduction. En réalité, ce circuit de taille modeste ne leur coûte pas très cher. Dans quelques mois, le prix des cartes baissera certainement de manière forte.



Rien de difficile à prédire, cela fait juste des années qu’AMD utilise la même stratégie…


Le 30/06/2016 à 20h 06

Avant de pondre des lois qui vont coûter de l’argent, nos députés seraient bien avisés de consulter des experts en informatique embarquée.



Qu’est ce qui empêchera les voleurs de rendre la prise inopérante, d’y ajouter un petit module pour donner un numéro de série “non volé” ou de reprogrammer les calculateurs ?



Encore une mesure qui va coûter un maximum d’argent pour équiper les policiers en appareils de contrôle et qui sera très facilement contournée par les voleurs professionnels.



Voila comment on gaspille l’argent en France.

Le 29/06/2016 à 19h 35







Patch a écrit :



Là en effet, pas pareil, il y a eu carrément vice et mensonge à la base, t’as vraiment choppé le gros lot… Du même style qu’une fille qui a acheté un petit immeuble de 2 apparts (un T3 duplex et un studio) à côté de chez mes parents, le T3 a été loué par une mère avec son gosse, la grand-mère complètement tarée est arrivée par la suite et depuis ils n’ont plus versé un centime de loyer. Sachant qu’en plus la grand-mère tarée emmerde tout le quartier (elle a réussi à faire l’unanimité contre elle, même parmi les rares avec qui elle s’entendait à la base), et empêche le studio du rdc d’être loué (dès que qqu’un visite ou emménage, elle fait un max de bruit, arrose les gens à chaque passage, etc). Ca fait plus de 2 ans que les procédures judiciaires ont été entamées… Et la préfecture a promis seulement en mai de les expulser, durant la 2eme quinzaine de juin ou courant juillet…



Sur ce point on est d’accord!







Un certain nombre de gens n’ont pas les moyens de se loger. Et la rue, c’est la peine de mort.



Donc il est assez logique de voir un nombre croissant de gens truander pour y parvenir.



Mais il est évident que c’est une situation qui est profondément malsaine.



Car il est évident que la difficulté pour expulser contribue à la difficulté de se loger en rendant les propriétaires très prudents.



En échange d’un revenu citoyen (d’un montant suffisant pour permettre de se loger), il faudrait autoriser l’expulsion rapide des locataires qui ne payent pas.


Le 29/06/2016 à 17h 56







JoePike a écrit :



La clientèle a beaucoup changé pendant ces 35 ans de location et pas en bien .. la technologie …

En plus tu peux pas savoir que la personne touche des APL

Un mec qui se pointe avec une nana à l’agence avec son mec , des papiers et des certificats tout parfaits ,

même une caution quand on le demande

Sauf que photoshop avait fabriqué d’excellents justificatifs ,

Le tribunal a jugé qu’elle avait faux partout , condamnation des 3 (le faux copain et la caution) , ordre d’expulsion sauf que l’huissier qui a réussi à récupérer une partie du fric sur les comptes n’a pas obtenu de réponses de la préfecture pour le recour à la force publique

Il parait que l’état sera obligé de me dédommager pour ne pas avoir aider à faire exécuter les décisions du tribunal … la trève hivernale est finie depuis avril … et elle est toujours la

si ça se trouve l’état va me rendre riche <img data-src=" /> arrfff je déconne

en attendant je peux pas vendre



Mais bon les aides , les locations , la loi … c’est pas une science exacte

c’est pour ça que je pense que le truc universel serait une simplification extraordinaire ( ça ne changerait rien au cas particulier perso que je décrivais)



<img data-src=" />







La précarité engendre malheureusement de nombreux problèmes de société qui se répercutent à tous les étages de l’économie.



Un revenu citoyen mettra fin à ces situations délétères et par la même occasion à bon nombre de problèmes de délinquance.


Le 29/06/2016 à 17h 02







RDeluxe a écrit :



Oui, mais tu reviens directement aux mots “valeur” et “produire”.

Si on dégageait ces 2 mots, ça devient bien plus facile (cf la suite de mon poste).



Outre ça, je suis toujours estomaqué qu’on se concentre autant sur la “valeur”, la “production” de chacun sans se dire un seul instant que sur une terre de plus en plus riche on pourrait peut être nourrir et loger tout le monde sans causer un désastre mondial.







Tout à fait.



Mais je donne au sens de valeur et de production un sens beaucoup plus large que ce que l’économie marchande entends habituellement.



Par exemple, si le farniente produit du bonheur humain, alors le farniente est une production de valeur.



La limite de l’économie traditionnelle, c’est de compter la production de valeur uniquement par le comptage de l’argent rapporté. Ce qui n’a pas forcément de rapport avec la quantité de bonheur humain généré ou le bénéfice sociétal produit.







Le 29/06/2016 à 16h 48







heret a écrit :





Le principe de donner une récompense sans effort en contrepartie est extrêmement mauvais.









C’est surtout un énorme préjugé qui viens d’un autre age. La vérité c’est que vous n’en savez rien.



Avoir le droit de vivre à minima n’est pas sensé être une récompense. C’est juste un droit fondamental.



Parce que nous ne sommes plus à l’époque ou l’humanité peinait à produire sa nourriture.



Les millions de chomeurs, il n’y a pas de travail à leur donner. Et ils ont exactement le même droit a une vie digne que n’importe quel autre citoyen.



Enfin, beaucoup de gens pensent qu’en l’absence de contrainte les gens cessent de produire et de faire des choses utiles. De nombreux exemples (celui des retraités en premier lieu) montrent qu’il n’en est rien…



Le 29/06/2016 à 16h 23







RDeluxe a écrit :



Certains parlent de lock l’argent avant les 18 ans, ou de commencer à le toucher qu’à 1012 etc.

L’idée derrière ça reste de permettre à un(e) jeune de faire des études sans le poids économique derrière. Je soulignais juste que c’est du tout uniquement destiné à “s’émanciper du travail pénible”, ça peut aussi être pour booster la vie artistique, associative, etc. Et faire des études, découvrir le monde (et on manque cruellement de ça en ce moment!)

 

Le soucis c’est que qui fait le distinguo entre activée “reconnue produtrice de valeur” ou non ? L’exemple que je citais plus haut sur l’ado qui fait la fiesta est assez caricatural mais montre bien le soucis.



Production de valeur oui, mais on a tous des avis différents sur ce qui a de la valeur. Certaines personnes critiquent les dépenses culturelles Française, moi je les applaudis. Certains pensent que l’éducation ça coute trop cher, que les associations c’est nuls, etc.



Je suis plus pour le parti pris de se libérer complètement de cette domination de la logique de “production”. Il faut changer le vocabulaire, pas essayer de changer le sens de mot déjà lourds de sens (travail, production …).



Parler d’apport ou de participation à la société par exemple, pour sortir du schéma travail/production.







C’est bien pour cette raison qu’il faut laisser les gens décider de ce qu’ils veulent produire comme valeur et non décider à leur place.



Malheureusement, le système marchand réduit la définition de la production de valeur de manière extrêmement restrictive.



Dans ce système capitaliste, si vous produisez des milliers de tonnes de merdouilles en plastique qui iront à la poubelle quelques jours ou quelques mois, vous êtes déclaré utile.



Mais si vous produisez de la culture, que vous programmez des logiciels libres, que vous vous occupez de personnes agées dans votre famille ou que vous tondez votre pelouse, vous êtes rangé dans la catégorie “parasites improductifs” alors que ce que vous produisez peut s’avérer plus utile au bonheur de la société que ce que l’industrie produit.



Avec l’automatisation et la robotisation, les économies modernes couvrent largement les besoins de base de tous. Et c’est la raison du chômage de masse.



Il est grand temps de changer de système et d’instaurer un revenu universel. C’est par ailleurs le seul moyen de rentrer pleinement dans l’économie et la production moderne sans susciter de l’opposition sociale.





Le 29/06/2016 à 17h 12

Voila un exemple sur lequel nos élus devraient légiférer.



Tout contenu numérique débloqué devrait être fourni à vie. Dans le cas ou la fourniture s’arrête, le code source doit être fourni à la communauté et l’oeuvre passerait automatiquement dans le domaine public. Dans le cas contraire, le prix payé augmenté d’un préjudice doit être intégralement remboursé à l’ensemble des acheteurs.

Le 28/06/2016 à 20h 07







jeje07bis a écrit :





Armstrong est passé au travers des contrôles, sauf en 1999 de mémoire. Ce n’est pas les contrôles qui l’ont fait tomber vers 2013-2014, c’est plusieurs témoignages et ensuite il a avoué de lui même.

Les contrôles sont des passoires et les médecins arrivent à les contourner.







De toute façon, le futur du dopage est certainement au dopage génétique entre autres modifications chirurgicales.



Donc c’est une cause perdue d’avance.



De tout façon quoi qu’on fasse, le sport professionnel est perverti par l’argent. Même sans dopage, cela n’engendre rien de bon.



Pour moi, il n’y a que le sport amateur qui vaille : des millions de gens qui font du sport pour garder la forme et garder un corps sain.



Le sport au niveau professionnel, même sans dopage, ça détruit le corps.



On médiatise les médailles, mais on se garde bien de parler des lésions des anciens champions.


Le 28/06/2016 à 19h 29







ActionFighter a écrit :



Pourquoi les instances organisatrices ne fournissent pas les vélos juste avant la course ? Plus de différence sur le matériel, donc elle se fera uniquement sur les performances, et ça évitera la triche technologique.







Tout simplement parce que le vélo a toujours été aussi un sport mécanique ou le réglage et la qualité du vélo compte.



Et il y aurait des risques médicaux : Un simple changement de marque de type, ou de pédales peut engendrer une tendinite qui peut mettre fin à une saison sportive.


Le 27/06/2016 à 22h 40







ludo0851 a écrit :



<img data-src=" />

Les Experts c’est : tu filmes le peloton depuis un helico et en zoomant tu vois le moteur caché dans le cadre de profil







Oui, c’est facile, il suffit de l’image d’une caméra basse définition, ils agrandissent un pixel 1000 fois (<img data-src=" />) et le tour est joué <img data-src=" />



Le 27/06/2016 à 21h 53







Mihashi a écrit :



Certes, mais ça reste le seul moyen de contrôler pendant la course et pas avant ou après (alors qu’ils changent 3 fois de vélos pendant…).

Pour les faux positifs, c’est pas grave, ça donne juste des suspicions. C’est le démontage du vélo qui prouve la fraude.







Sauf que du coup, si on utilise cela comme méthode de recherche, on passera à côté de ceux qui ont trouvé la parade.



Même le démontage n’est pas forcément la méthode idéale pour la simple raison que dans un vélo tout ne se démonte pas.



De toute façon, il est inutile de se fatiguer parce que la guerre contre la triche est perdue d’avance : le prochain coup, c’est le dopage par modification génétique.



Vous voulez du sport propre ? Et bien éteignez votre télévision et enfilez votre jogging.



Le 27/06/2016 à 20h 58







Mihashi a écrit :



Non, c’est très possible. Le cadre étant très léger sa température varie beaucoup (plusieurs degrés certainement) et rapidement en fonction des conditions (soleil, vent, etc..), alors que le moteur, batteries sont massifs et leur température change donc peu et lentement. Ils seront donc très visibles.



Et l’avantage que je vois de l’infrarouge par rapport aux mesures magnétique, c’est la rapidité de la mesure. Une simple image du vélo suffit, c’est fait dans la seconde. Alors qu’il faut au moins une minute par vélo pour le scanner avec les mesures magnétiques.





Et au passage (pas pour toi, Chamaloxxx), les caméras thermiques, ça n’existe pas, ce sont des caméras infrarouges.







En technique, rien n’est jamais simple.



Par exemple, les matériaux à faible émissivité existent. Et il y a probablement des moyens de camouflages efficaces : Les militaires ont fait beaucoup de R&D pour cacher les tuyères des avions.



De l’autre côté, un roulement neuf avec de la graisse encore visqueuse et une peinture de cadre très émissive pourrait faire des faux positifs.



Certains emplacements comme les jantes pourraient faire des bons candidats, ils peuvent être chaud naturellement au moindre coup de frein.


Le 27/06/2016 à 20h 47







Takoon a écrit :



Le plus édifiant étant l’omission du caractère non motorisé de l’équipement dans la compétition jusqu’à récemment.







Oui, c’est la meilleure ça. Un coureur aurait pu se pointer sur une moto et gagner la course en toute légalité. <img data-src=" />



Remarque, au moins le dopage mécanique, c’est pas nocif pour la santé…


Le 28/06/2016 à 19h 11







Citan666 a écrit :



Hélas si mon interprétation est parfaitement correcte.



 Tu as très fortement induit que le PC était la seule plate-forme de jeu valable...









Ce qui n’est pas du tout la même chose.



Tu prétendait que j’aurais dit que le vrai jeu se résumait aux FPS.





Omettant sciemment “quelques éléments mineurs”…





Dommage que les arguments en faveur des consoles se résument justement à des éléments mineurs <img data-src=" />







  • Le nombre de jeux exclusifs vraiment bons sur consoles (même si, par chance pour nous, ce nombre tend à se réduire).





    Sauf que l’inverse est aussi vrai, il y a beaucoup de jeux PC qui n’existent pas sur console. Sans parler des mods.



    Et les mods, à moins de passer à côté de cette révolution, c’est ce qui fait l’intérêt de beaucoup de jeux.





  • La sous-représentation de certains genres sur PC par rapport aux consoles (là aussi, depuis que les éditeurs ont pigé que le PC était un gros marché, ça tend à évoluer dans le bon sens, mais il reste du taff) : RPG jap, jeux de course, jeux de sport, party-games…





    Si certains genres sont moins représentés sur PC, c’est logiquement parce que les joueurs y sont plus matures et donc peu demandeurs de certains genres très superficiels (typiquement le jeu de course grand public plein d’effet “waouh” avec une profondeur quasi nulle et lassant au bout de 3 minutes).



    Et même si les RPG japs sont assez cantonnés aux consoles, ce n’est pas comme si le PC était pauvre en RPG de toutes sortes.





  • La qualité aléatoire des anciennes exclusivités consoles portées sur PC.





    Quelques portages ratés ne compensent absolument pas le fait que les jeux sont meilleur graphiquement sur PC grâce aux capacités bien plus élevés de ces derniers et que les commandes mieux adaptées a certains genres permettent un bien meilleur plaisir de jeu.





  • Le support aléatoire du clavier / souris.





    Gné ?





    Bref, dire qu’un vrai joueur ne peut avoir autre chose qu’un PC (donc en creux, ceux qui jouent sur console ne sont pas des vrais joueurs) est une ineptie totale. Et c’est un joueur PC qui te le dit ! <img data-src=" />





    En tout cas, un vrai joueur ne passera pas à côté de la grande révolution de ces dernières années : les mods écrits par la communauté et qui donnent une autre dimension à beaucoup de jeux.

     



    PS : “ordinateur meilleur techniquement qu’une console”. Oui c’est sûr qu’en fonction du moment où tu fais la comparaison, et si tu ne mets pas de contraintes de budget, tu peux avoir un matériel bien plus puissant qu’une console en termes de puissance brute de calcul.





    Contraintes de budget ? C’est oublier que les jeux consoles sont plus chers.



    Et vu que la plupart des gens ont aussi un PC, faire le bon calcul est très simple : PC bas de gamme + console = Prix d’un bon PC de jeu. <img data-src=" />





    Sauf que derrière tu as whatmille trucs qui te pourrissent les perfs. Là où un console exploite quasi-100% de sa capacité réelle de calcul vu que tout (OS et jeux) est conçu spécifiquement pour elle, donc optimisé de bout en bout.





    Je t’engage à apprendre la programmation pour comprendre pourquoi c’est une vieille légende. Aujourd’hui, le vrai codage à bas niveau, ça ne se pratique plus vraiment parce que ça coûte trop cher.

    En revanche, ce que permet l’uniformité du parc console, c’est de proposer d’emblée des réglages adaptés à la console et quelques optimisations dédiées à l’architecture.

    Mais cela ne compense pas la différence énorme de puissance qui fait qu’au final le PC propose de bien meilleures graphismes, des textures plus fines et une résolution plus élevée.



    Et si on veut parler d’optimisation, le PC offre une optimisation bien plus importante pour l’expérience de jeu : des interfaces de commande adaptées à chaque type de jeu la ou la console se contente du PAD.





    Donc, dire ça en soi sans un cadre de comparaison bien défini, c’est tout aussi inepte que le point précédent. Désolé ! <img data-src=" />





    Tu défends juste l’indéfendable.



    La réalité, c’est que la console, c’est un produit grand public qui offre un univers de jeu simplifié et fermé.



    Par définition, un joueur passionné ne s’en contentera pas.


Le 28/06/2016 à 17h 57







Dr.Wily a écrit :



C’est vraiment ne pas connaitre l’histoire du jeu vidéo que de dire cela. Donc, à mettre sur ta méconnaissance de ce domaine. Après tout on est sur PCi.







Je pense que je la connait bien mieux que vous. Je jouait déjà quand la plupart d’entre vous n’étiez pas nés.









Le 27/06/2016 à 22h 34







Citan666 a écrit :



Très beau troll à double face ;)




  • côté face, le classique, histoire d’inciter les joueurs console à réagir à la provoc.

  • côté pile, l’auto-ridiculisation histoire de rétablir la balance (parce que résumer le “vrai jeu” à “FPS”, j’avoue c’est du haut niveau XD).

    <img data-src=" />







    Sauf que ton interprétation est fausse. Je n’ai pas du tout résumé le “vrai jeu” aux FPS, c’était juste un exemple qui montre l’ineptie d’une commande unique pour tous les types de jeux… entre autres inconvénients rédhibitoires.



    Mais ce que sait le vrai joueur, c’est qu’un ordinateur est techniquement meilleur qu’une console tout en étant plus polyvalent…


Le 27/06/2016 à 18h 34







CUlater a écrit :



@Kevin: espèce d’ayatollah du PC. Aller chercher le +11% dans le premier graph alors que les consoles dominent, faut vraiment le vouloir <img data-src=" />







Les consoles dominent uniquement le marché des “casual gammers” <img data-src=" />.



Ca ne viendrait pas à l’idée d’un vrai joueur d’avoir autre chose qu’un PC.



Parce que jouer a des FPS avec un pad <img data-src=" />


Le 28/06/2016 à 17h 41







kade a écrit :



C’est amusant je trouve :

je veux donner 1500€ à mon employé qui en touchera 1168€ et qui me coûtera 1704€ <img data-src=" />







Et t’a encore rien vu.



Sur ces sommes, l’état prélève encore beaucoup d’argents. Et je ne parle pas des impôts, mais des diverses taxes que tu payes indirectement sur les produits. TVA, TIPP, etc…

La plupart son payées directement par les entreprises et donc incluses dans le prix des produits. De cette façon, le consommateur paye de nombreuses taxes tout en ne se rendant compte de rien.



Le système de collecte français est organisé façon “saupoudrage”. Et ce n’est pas un hasard. De cette façon, la plupart des gens sont incapables de faire le total de ce qu’on leur prends.



Une grande partie du système de collecte de taxes est “caché” dans les entreprises, bien caché la ou l’employé lambda ne sera jamais mis au courant.



Quasiment, il n’y a qu’en devenant comptable, fiscaliste ou entrepreneur qu’on peut prendre conscience de tout ça.


Le 28/06/2016 à 17h 35







malock a écrit :



Tu chipotes rien du tout, c’est bien de cotisation dont il faut parler.

A ne les nommer que charges, ça fini par parler d’assistanat…. <img data-src=" />







Assistanat = mot péjoratif inventé par des communicants dans un but de propagande <img data-src=" />



Le 25/06/2016 à 19h 16

Sauf que vu la façon dont les lois deviennent progressivement liberticides en Europe et particulièrement en France, je ne suis pas certain qu’héberger ses données ici soit forcément toujours la meilleure solution.








Le 23/06/2016 à 16h 12



en cas de désaccord, c’est l’employeur qui aura le dernier mot. Il déterminera, seul, s’il convient de bloquer les mails de ses salariés durant certaines plages horaires, de former spécialement ses cadres managériaux… ou de ne rien faire de particulier.





Bienvenue dans un monde ou la protection des grandes entreprises et des actionnaires supplante les droits de l’homme.



Quand il s’agit de détruire les acquis sociaux, ils y vont dans les grandes largeurs. Mais quand il s’agit de faire des améliorations, on a droit à des mesures poudre-aux-yeux que le patronat peut appliquer selon son humeur…

Le 23/06/2016 à 15h 59

Développer le télétravail, mais vous n’y pensez pas…



On préfère interdire aux pauvres de venir dans les villes avec leurs vielles twingo pendant que les riches ont tous les droits de polluer avec leurs gros 4x4 flambants neufs.

Le 22/06/2016 à 18h 38







Fuinril a écrit :



Pour le nivellement par le bas, en terme de prog pure, c’est une évidence. Par contre les programmes font beaucoup plus de choses qu’il y a 30 ans. A quoi bon optimiser quand une upgrade matériel ne coute rien ?







Bof, il y a 30 ans, un programme gérait tout, y compris le matériel. C’était quasiment un Os à part entière.



Maintenant, les programmeurs se contentent d’appeler des fonctions FaitMoiUneAnimationTouteNaze() et de faire les fiers avec ça.





Au final les programmes actuels sont bien plus performant en terme de ROI, et ce manque d’optimisation ne pénalise personne à part les personnes qui aiment l’Art de la programmation (et qui se font rares).





Ouais, enfin faut voir l’expérience utilisateur, hein. Tout ces programmes qui rament, tout ces sites web bien lent.



Ouais, ya du ROI, ça coûte pas cher… et ça se voit <img data-src=" />



Mais quand tu veux un truc qui fonctionne bien….





D’où mon incompréhension totale quant à l’inclusion de la programmation dans le cursus scolaire. Des notions basiques comme le modèle OSI, savoir distinguer des masques de sous-réseaux, savoir ce qu’est un vLan, un VPN, un proxy, un DNS…. seraient infiniment plus utiles à nos chères têtes blondes pour leur avenir que d’avoir des bases d’algo qui concrètement leur seront totalement inutile tant les programmes mis à disposition sont abstraits





Comment tu veux parler de modèle OSI, de DNS ou de VPN si personne ne sait ce qu’est une donnée, un paquet de données ? Et bonne chance pour faire comprendre la notion de données sans travaux pratiques…



C’est justement parce que l’enseignement des choses ne se fait pas dans le bon ordre que les gens ne comprennent rien. C’est parce qu’on veut prendre des raccourcis pour faire des gens productifs.



Et pour les informaticiens qui pensent que ça les avantage de maintenir les gens dans l’ignorance, sachez que vous vous trompez complètement.



Comment voulez vous que des clients qui ont été formés à penser que tout se fait en informatique comme dans un tableur ou il suffit de cliquer pour obtenir un truc en 5 minutes acceptent de vous payer correctement pour écrire des programmes ? Faites les suer un peu devant un compilo, ils comprendront.