votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 01/05/2016 à 17h 44

Le problème du stockage, c’est que l’humanité confond activité et agitation inutile.



Avec le temps, 99,9% de notre création disparaîtra parce qu’objectivement, seule une très petite partie mérite de passer à la postérité.


Le 01/05/2016 à 17h 35







lossendae a écrit :



De maniere générale, tu n’aimes pas les languages dynamiques faiblement typés.







Cela n’a rien à voir avec le fait d’aimer ou de détester, mais simplement d’utiliser le bon outil pour le bon usage.



Techniquement parlant, les langages dynamiques et faiblement typés sont des langages prévus pour faire du petit script de manière rapide, pas pour faire des gros projets.

Au niveau vitesse d’exécution, ces langages ne peuvent pas être compilés efficacement et n’offrent donc pas des performances optimales.

Du point de vue gestion de projet, leurs caractéristiques apportent de lourds inconvénients et finalement peu d’avantages.





Mais quand bien même tu aurais raison, c’est une bonne choses ces languages de noob, ça donne du travail à BEAUCOUP de mondes.





Je ne vois pas pourquoi ces langages seraient “des langages de noob”.



Dans la pratique, ce n’est pas parce qu’ils sont faiblement typés qu’ils serait pour autant plus simple d’écrire de vrais programmes avec. C’est une illusion.



Quand à l’informatique “qui donne du travail à beaucoup de monde”, elle donne surtout le sentiment aux donneurs d’ordre que le logiciel n’est pas un investissement pérenne et durable et que la seule voie d’optimisation serait dans la pression sur les salaires.





C’est ùême une double chance dans le fond, ça te permet également d’avoir moins de concurrence sur ton poste. T’imagines l’angoisse  si tous la grande majorité des devs étaient aussi doués que toi ?





Certains peuvent voir les choses ainsi.



Mais pour ma part, je suis fier de mon métier et j’ai la notion du travail bien fait.



Je ne vois pas la multiplication des langages inutiles, des technologies redondantes ou la généralisation de mauvais paradigmes techniques comme un facteur d’amélioration du métier de programmeur, ni un facteur de progrès de la condition humaine.





En revanche, on ne peut rien faire pour tes commentaires un rien pédant qui se base sur “J’ai raison, vous avez tous torts parce que vous êtes incompétents”.  Un peu comme le chirurgien qui se ballade dans son cabinet et qui ne salue pas la secrétaire parce qu’elle est que secrétaire.

Niveau de compétences inversement proportionel au niveau d’humilité ? J’espere pour toi





Merci de ne pas déformer mes propos en m’attribuant des paroles je n’ai jamais tenu ni même pensé. <img data-src=" />



Quand au problème d’humilité, il n’est pas la ou tu le penses.



Une erreur très courante chez de nombreux de jeunes qui se voient intelligents, c’est de croire que leur intelligence suffirait à remplacer l’expérience…



Nous, ce qu’on voit, c’est que cette jeune communauté est en train de bâtir des cathédrales sur du sable. Eux, ne le savent pas encore.



Surtout, ils ne réalisent pas encore que de devoir jeter le travail de ses plus belles années à la poubelle, c’est une punition terrible. <img data-src=" />



Quand on est jeune, on croit que tout ce qu’on connait est la pour rester. Quand on est plus agé, on mesure à quel point le temps peut changer les choses.


Le 29/04/2016 à 17h 31







Zed-K a écrit :



Je me trompe peut être, mais l’impression que j’ai dans cette discussion… c’est que tout le monde a raison.

 

Chacun travaille sur des projets radicalement différents, aux besoins en terme de rapidité de développement et de temps de maintenance tout aussi différent.



Chaque point de vue/techno peut se défendre en fonction du type du projet sur lequel on bosse.



Pour caricaturer à l’extrême, on ne développera pas un système de train d’atterrissage en JS, tout comme on ne codera pas un site marchand en assembleur.







Je serais tenté de dire que tu as raison, chaque technologie ayant ses forces et faiblesses, ses usages et ses applications.



Le problème, c’est que de nos jours, ça ne se passe pas du tout comme ça dans la réalité.



A cause des principes liés au système commercial dont j’ai parlé plus haut, une technologie peut s’étendre bien au delà de son domaine de pertinence. Un peu comme le principe de peter dans le monde du travail.



Ce qui n’était au départ qu’un petit langage de script sans prétention pour navigateur écrit sur un coin de table et sans beaucoup de réflexion se retrouve progressivement utilisé dans des vraies applications toujours plus importantes, jusqu’à devenir même l’unique langage applicatif de certains os (comme Firefox Os).

Le comble, c’est de voir Javascript arriver dans l’embarqué alors que de toute évidence, ce langage est aux antipodes des qualités qu’un langage doit avoir pour cet usage.



Quand on observe ce phénomène, on se demande comment nous avons pu en arriver la.

La réponse est tristement simple : a cause du web, les programmeurs Javascript ont été formés à la chaine.



Il n’en faut pas plus pour que des entreprises commerciales se disent qu’elles feront du pognon en commercialisant des grille pains qui fonctionnent avec Javascript.

Dans le monde commercial, tout ce qui a du sens, c’est le nombre et les parts de marché. La qualité et la pertinence technique n’ont aucun sens pour les commerçants.



Voila comment de nos jours le marché fonctionne au détriment de la qualité et du bon usage des technologies.


Le 28/04/2016 à 20h 52







jojofoufou a écrit :



@sr17 Et l’overhead lié a la vtable, ca te fait pas faire des cauchemars ?







Au moins, c’est bien de poser des vraies questions <img data-src=" />



Et bien regarde à quoi sers la vtable, dans quel cas elle est utilisée (ou ne l’est pas) et surtout, de combien (et comment) se traduit cet overhead dans les cas ou il se produit.



Ou sont donc les raisons de faire des cauchemars ?


Le 28/04/2016 à 19h 52







Gundar a écrit :



Faut bien qu’Intel vende des proco en même temps <img data-src=" />







C’est clair… <img data-src=" />


Le 28/04/2016 à 19h 51







jojofoufou a écrit :



Okay, tu semble sûr de toi, du coup tu me conseilles quoi comme archi et comme techno pour un produit de gestion de flotte temps réel qui sera servi sur des clients mobile et sur du web ?







Je sais que ça fait un peu réponse de normand, mais ça dépends beaucoup des impératifs que tu vise d’emblée, du nombre de client que tu prévoit à moyenne échéance, des compétences que tu as sous la main et des détails de ton projet.



Une bonne évaluation ça tient compte de tout. Donc c’est difficile de te répondre comme ça sans risquer de t’induire en erreur.



Le 28/04/2016 à 19h 12







jojofoufou a écrit :



Cadeau:developers.google.com Googleet une fois que tu te sentira chaud tu pourra jeter un œil aux sources, ensuite tu pourra dire ce que tu veux 😂







Désolé de te décevoir, mais je connait bien tout ça.



Pour situer le contexte, nous sommes face à un compilateur jit très perfectionné et optimisé.



Mais ce que les néophytes comme toi ignorent tant ils sont impressionné par cette débauche de complexité qu’ils ne comprennent pas, c’est que la meilleure machine d’exécution du monde écrite par les meilleurs spécialistes ne fera pas de miracles avec un langage qui ne leur permet pas d’être optimal.



Par exemple, un langage fortement typé permet à un compilateur de n’avoir aucun doute sur le type d’une variable à l’exécution. Il peut donc optimiser mieux et d’emblée. Et surtout, se passer de truffer le code de vérifications incessantes à l’exécution qui ont un coût non négligeable.



Autre exemple édifiant, le document parle de la création des classes et de la façon dont les propriétés sont ajoutées dynamiquement avec tout l’overhead que la méthode suppose et que le document reconnait “It might seem inefficient to create a new hidden class whenever a property is added…”. C’est la qu’on tombe sur le cul. Franchement, quand on compare avec l’efficience de la gestion des objets en C++ et son overhead quasiment nul, la comparaison se passe de commentaire.



Bref, on voit bien que vous n’avez pas creusé le sujet…


Le 28/04/2016 à 18h 32







Munsh a écrit :



C’est chaud mec, t’es tellement coincé dans ton trip que tu as oublié qu’avant tout un logiciel c’est fait pour répondre au mieux à un besoin.



Jamais quelqu’un n’a dit que Javascript pouvait, ou même devrait, tout faire. Par contre, parfois on peut l’utiliser pour effectuer tel ou tel job. D’autres technos auraient aussi pu le faire, chacune ses forces et faiblesses, tu fais ton choix selon le cadre de ton projet. Y’a aucune réponse universelle.







Sauf que c’est grâce à ce mode de pensée typique du monde commercial qu’on se retrouve aujourd’hui avec une multiplication de langages médiocres qui ont chacun un champ d’action très réduit.



Et je ne suis pas d’accord avec toi. Je pense qu’un langage bien pensé peut s’avérer suffisamment universel pour convenir à la très grande majorité des besoins.



Si on prends l’exemple de PHP, le langage lui même n’a rien de très particulier. Ses quelques points forts peuvent parfaitement être ajoutés à n’importe quel langage. D’ailleurs, ce langage peut t’il seulement être qualifié de bonne réponse à la demande dans son champ d’application primaire quand on connait le peu d’optimisation de son moteur d’exécution ?



Mais le jour ou vous comprendrez que la multiplication des langages qu’on observe actuellement tiens bien moins de l’innovation que d’objectifs commerciaux d’entreprises qui espèrent une place au soleil, vous aurez fait un grand pas vers moins de naïveté.


Le 28/04/2016 à 18h 10







Munsh a écrit :



Et ça se sent, tes propos sur Node ressemble étonnamment à ces vieux qui jugent via ce qu’ils ont vu sur le JT de TF1 des sujets qu’ils ne connaissent absolument pas.







Ouais, le gros cliché quoi.



L’ennui, c’est qu’a côté de la majorité de vieux qui ne comprennent rien, il y a aussi une minorité de vieux dont c’est le métier depuis très longtemps.



Sauf qu’en informatique, les jeunes partent du principe qu’ils n’ont strictement rien à apprendre de leurs prédécesseurs, ce qui les conduit à refaire les mêmes conneries.



Ce que vous ignorez, c’est qu’une grande partie des paradigmes des langages de programmation ont été posé bien avant les années 80. Même la programmation orientée objet et la programmation concurrente.



Je pense que vous seriez très surpris en étudiant tout ce qui s’est déjà fait par le passé.



Au final, en croyant innover, beaucoup de gens ne font que réinventer la roue.


Le 28/04/2016 à 17h 48







jojofoufou a écrit :



Arrête tout de suite de t’enfoncer mec, t’as clairement aucune idée de comment fonctionne V8 et t’as probablement jamais entendu parler de la libUV 😂







Encore un exemple qui montre pourquoi ça ne sers vraiment à rien de discuter avec les fanboys javascript.



Ils ne comprennent strictement rien au fonctionnement à bas niveau, mais ils croient dur comme fer dans leur dieu tout puissant : le grand mythe du Fabuleux Compilateur Magique. Un outil développé par “une grande boite” et donc forcément merveilleux.



C’est un mythe selon lequel n’importe quel langage pourrait devenir aussi performant qu’un autre grâce a la grande magie d’un outil qui résoudrait tout les problèmes par magie.



Quand à moi qui a écrit plusieurs interpréteurs et compilateurs dans ma vie, ça me fait réellement marrer de voir autant d’obscurantisme.



Et au passage, avant d’essayer de faire la leçon à plus fort que toi, va juste voir par curiosité en quoi est écrite ta fabuleuse “libUV” ….



Ah ben merde alors, pourquoi ils ne l’ont même pas écrite dans ce merveilleux langage qu’est Javascript. C’est vraiment trop con ça… Moi qui croyait que Javascript pouvait tout faire <img data-src=" />



Le 28/04/2016 à 17h 22







youtpout978 a écrit :



Je ne pense pas que c’est ce qu’il a voulu dire, mais qu’avec des langages bas niveau tu comprendrai mieux comment la machine fonctionne et pourquoi les langages modernes sont parfois merdiques dans leur conception.







C’est exactement comme cela qu’il faut le comprendre.



Oui, l’étude des langages de “bas niveau”, c’est précisément ce qui permet de comprendre que les caractéristiques des langages de programmation peuvent influer directement sur leurs performances.



De la même façon, le fait de gérer de gros projets sur le très long terme (bien plus que 3 ans) permet de comprendre en quoi certains langages facilitent la vie dans ce cadre en apportant de la rigueur et de la structuration.



C’est avec le recul qu’on comprends que la facilité immédiate de certains langage se paye plus tard dans le projet…


Le 28/04/2016 à 16h 56







Plam a écrit :



La vrai question c’est comment est-ce possible d’être autant de mauvaise foi et pédant. Tu sais tout et tu as un avis parfaitement tranché, c’est qui est typique de quelqu’un qui ne sait même pas de quoi il parle.







Toujours le problème récurent en informatique ou les jeunes cultivent l’illusion qu’ils sont les maitres du monde. Mais quand ils réalisent qu’il y a des anciens qui en savent bien plus qu’eux, rien ne va plus…





Il y a des tonnes d’exemples de boîtes qui utilisent Node sur des gros projets. Et ça marche très bien. Paypal est une petite boîte qui recrute des CDD de 6 mois peut être ? Franchement, c’est même plus du troll à ce niveau.



Et pour parler de ce que je connais, ça fait 3 ans que je bosse sur un projet en Node. On est loin du stage. Et ça, c’est pas dans une grosse boîte où tu peux te planter, parce que c’est ma startup, pour un soft qu’on vend partout dans le monde.



Bref, tu as une vision biaisée de l’écosystème JS, probablement parce que tu n’y connais rien.





Mouais, toujours les mêmes argument à deux balles “si tu critiques, c’est que tu connait rien”.



Vu que j’était déjà programmeur quand beaucoup ici n’étaient pas né, ça me fait bien marrer.





“Il y a des tonnes d’exemples de boîtes qui utilisent Node sur des gros projets”.





Et que doit t’on en conclure ?



Un petit passage par la case “histoire de l’informatique” vous démontrera qu’on ne compte pas les impasses technologiques qui ont été utilisées un temps par beaucoup de monde.





Et pour parler de ce que je connais, ça fait 3 ans que je bosse sur un projet en Node. On est loin du stage. Et ça, c’est pas dans une grosse boîte où tu peux te planter, parce que c’est ma startup, pour un soft qu’on vend partout dans le monde.





Toutes les modes en informatique ont finalement la même cause : des gens qui voient une opportunité commerciale à investir dans une technologie naissante à un instant T. Mais à partir de ce moment la, ils vont avoir intérêt à pousser à fond cette technologie pour qu’un maximum de gens l’utilisent.



Une fois qu’on a compris la base de ce phénomène, on comprends pourquoi des produits médiocres ont eu de grand succès au mépris de toute considération technique.



Bill Gates explique parfaitement cela dans son livre “La route du futur” paru il y a très longtemps ou il expliquait comment un produit aussi médiocre que le PC avait réussi à tuer des concurrents bien meilleur sur le plan technique et comment les intérêts commerciaux ont poussé cette machine au détriment de toute autre considération.


Le 28/04/2016 à 14h 54







Plam a écrit :



Merci de relire avec le doigt. J’ai pas dit qu’il était très utilisé, j’ai dit « il peut être mal utilisé ».Tu trolles toujours autant, genre tout est mauvais dans le JS, c’est utilisé par des gens qui comprennent rien… C’est ton opinion, mais elle n’a pas l’air d’être basée sur une grande compréhension du langage ni de son environnement. Venant de ta part, ça ne m’étonne pas : parler de choses que tu ne connais pas en faisant des jugements à l’emporte pièce, du sr17 dans le texte.







Sauf que c’est la triste réalité.



La très grande majorité des programmeurs Javascript ou PHP n’ont jamais vraiment pratiqué en C ni en assembleur, ils ne comprennent rien à la façon dont un langage est interprété ou compilé ni à la façon dont une machine fonctionne à bas niveau.



Parce que s’ils le comprenaient, la simple évocation du mot “Javascript” provoquerait des vomissements immédiats.



Et au final, ils ne comprennent pas les problèmes sur le long terme parce que la vérité, c’est que leur stage ou leur CDD de 6 mois sera terminé bien avant que les mots “gestion d’un projet à long terme” aient la moindre signification pour eux.



Donc au fond, quoi de surprenant à ce qu’ils ne comprennent pas la médiocrité de ce qu’ils utilisent ?





C’est ton opinion, mais elle n’a pas l’air d’être basée sur une grande compréhension du langage ni de son environnement





C’est le genre d’argument qui montre a quel point il est inutile et vain de vouloir discuter avec des jeunes qui se croient des génies incompris alors qu’ils ne font que répéter des erreurs monumentales déjà commises par le passé. Comme l’ont dit d’autres sur ce thread, ils veulent réinventer la roue et même plutôt la roue carrée…



Parce que la vérité, c’est que Javascript est un petit langage sans ambition qui a été écrit sur un coin de table. Et plus on regarde les détails de ce langage, que ce soit sa définition ou son implémentation, plus ça fait peur…


Le 28/04/2016 à 14h 32







jojofoufou a écrit :



En gros t’as toujours bossé sur de gros monolithes mal architecturés et tu prends ton cas pour une généralité ?







Bah quand tu sera vraiment confronté au problème, tu comprendra que le mythe de l’architecture parfaite issue de l’analyse descendante du “grand génie”, ça n’existe que dans les rêves de jeunes programmeurs pas encore déniaisés…



Le 28/04/2016 à 14h 01







youtpout978 a écrit :



En même temps PHP aussi c’est de la merde, en plus si t’utilise le combo JS+PHP+MYSQl tu tien là le combo gagnant de plus grosses bouses inventé dans le monde du développement <img data-src=" /> (semi-troll)







Si seulement c’était un troll…



Le pire, c’est que beaucoup de programmeurs ne se rendent même pas compte à quel point tout ça est techniquement mauvais…. et de plus en plus mauvais.



Et quand il y a d’énormes problèmes à la base, au lieu de changer de base, ils pondent juste des couches d’abstraction pour encapsuler la merde.



Peut être que c’est le triste résultat d’un mode de formation ou l’on s’arrête au strict minimum pour pisser du code.



Et le pire, c’est que ce n’est même pas la peine d’essayer de discuter avec eux, la plupart des programmeurs n’ont aucune compréhension des “rouages” internes des outils qu’ils utilisent. Pas la peine d’essayer de leur expliquer comment est stockée une variable en PHP. Tout ce que vous direz se heurtera au mur de la “Funitude” dans laquelle ils sont plongés et les objectifs à court terme qu’on leur fixe pendant leur CDD.



Le 28/04/2016 à 13h 48







cyp a écrit :



C’est tout de même un peux le pourquoi du comment…

 Si node.js à du succès c’est entre autre parce qu’il à rendu accessible des technos qui n’était (et sont souvent encore) qu’a l’état de POC boiteux dans d’autres langages (à commencer évidemment par websocket).

 Pour le reste on a le droit de ne pas aimer (JS j’ai jamais été fan non plus) mais ça serait idiot de  nier les avancées qu’il procure.

Quand au problématique de déploiement et autres, avec les outils actuels et un minimum de bonnes pratiques ça reste assez anecdotique. C’est devenu tellement facile de packager tout son système et ses dépendances autour de son applicatifs et de le tester/versionner/dupliquer massivement avant toute utilisation que la question ne se pose plus vraiment.







Des programmeurs qui se ruent en masse sur une techno sous prétexte qu’elle offre les derniers gadgets kikoolol du moment, j’ai du voir ça des dizaines de fois. Mais la mode, ça finit toujours par passer. Et les programmeurs qui passent d’une techno à l’autre finissent toujours par se fatiguer et quitter le métier, que ce soit par le haut ou par le bas.







Plam a écrit :



Lol, ces vieux trolls ici.



Comme n’importe quel outil, il peut être mal utilisé. Par contre, sinon, c’est une très bonne techno. Je dis ça en connaissance de cause : je bosse dessus depuis 2013, et franchement, c’est très chouette.



Même former des nouveaux dessus se fait bien. Il faut comprendre comment ça marche, la boucle d’événements, les flux etc. C’est très flexible et puissant.



Et je l’utilise pas pour un petit projet perso, c’est en prod chez des milliers de clients.







PHP est utilisé bien plus massivement que NodeJs. Est ce une preuve de qualité ?



Pourtant, PHP possède de nombreux défaut en plus d’un moteur d’exécution vraiment peu optimisé.







jojofoufou a écrit :



Effectivement ! Je n’ai jamais dis le contraire, ni dénigré aucune techno, je pratique un peu de tout, Swift, Java, Kotlin, Go, Node, C, PHP, Scala, Rust…  

Je dis simplement que Node.js à énormément de potentiel, que c’est clairement ma techno de choix pour du la majorité des services web que je dev, et qu’il ne faut clairement pas écouter les 2-3 gugus qui prétendent jouir de la science infuse.







Du potentiel ?



Franchement, Le langage est mauvais, le paradigme de base est mauvais.



A partir de ce moment la, le seul potentiel de ce truc, c’est d’être une perte de temps et une voie sans issue de plus. Une mode de plus qui passera comme elle est venue…







Anakior a écrit :



C’est clair… Pfiou la bande de troll dis donc.



Node est une bonne techno. Elle a ces défauts mais comme toutes les technos utilisés. Il y a beaucoup d’applications stables aujourd’hui qui sont fait sous node et qui marche très bien et souvent plus rapidement qu’une même application sous php.







Vu le machin peu optimisé qui sers de moteur d’exécution à PHP, c’était vraiment pas dur…



Mais si votre critère, c’est la rapidité d’exécution, il y a vraiment mieux que ces deux bousins.





Alors, certes, on peut faire tout et n’importe quoi avec Node mais c’est pareil avec n’importe quoi d’autres.



Personnellement, je suis dev PHP, Symfony 2, angular et je tate du nodejs pour des projets annexes. Je le trouve très interessant justement par rapport à ces technos et bien sur ils se couplent très bien avec un angular.





En même temps, comparer de la daube avec de la daube…



Les programmeurs moderne manquent de compréhension du fonctionnement interne des langages et du fonctionnement à bas niveau des ordinateurs, c’est la raison pour laquelle ils peuvent utiliser quotidiennement des outils qui sont techniquement mauvais.





Et quitte à faire crier certains, je m’amuse bien plus avec un petit couple angular / node, qu’avec du Symfony ce qui ne me fait pas dire que ce dernier n’a pas de grosses qualités sur bien d’autres points.





Oui, c’est très amusant dans la phase “je met 3 gadgets à l’écran et je m’amuse avec”.



Par contre, quand il faudra rentrer dans le côté plus “chiant” de l’informatique, comme maintenir de très gros projets sur une période importante avec une énorme base de code et à débusquer toutes sortes de bugs, préparez vous à vivre des moments beaucoup moins fun…





La base c’est quand même de rester flexible et ne pas rester sur ces acquis non?





Si je faisais la liste de tous les langages et environnements que j’ai pu voir passer dans ma vie, vous seriez terrifiés. La plupart des informaticiens n’y ont d’ailleurs pas survécu.



Le 28/04/2016 à 00h 25







jojofoufou a écrit :



Cool ton avis, il me semble quand même que tu as oublié d’y glisser des faits concrets ou des arguments valables 🙃







Parce que raisonnablement, il faudrait passer des heures, voir des jours de discussion pour vous faire entrevoir les justifications de conclusions qui sont le fruit d’années de métier.



Un avis, c’est déjà une information précieuse qu’il faut savoir apprécier comme tel. <img data-src=" />


Le 27/04/2016 à 18h 02







jojofoufou a écrit :



Très très bon ce thread, une avalanche de vomi, avec une majorité de gens qui n’ont jamais touché a la techno 😂









Pour ceux qui ont connu de vrais langages, plus on y touche, plus on vomit…. c’est normal docteur ?



Programmer en javascript, pour un programmeur, ça donne juste l’impression de manger de la viande de zombie après avoir goutté à la gastronomie.



Et dire qu’on avait cru toucher le fond avec PHP…



Du coup, je me demande ce qu’ils vont bien encore pouvoir nous inventer dans le futur…


Le 27/04/2016 à 17h 45







jojofoufou a écrit :



Très très bon ce thread, allez, une avalanche de vomi, avec une majorité de gens qui n’ont jamais touché a la techno 😂



Je sors le classique Stackshare&#160http://stackshare.io/nodejs pour vous rappeler que Node est utilisé en prod sur de gros services chez: 9gag, Netflix, Uber,  Medium, DuckDuckGo, Viadeo, Lendix, Chauffeur Privé et j’en passe…



Concernant les SysOps frustrés… je partage votre frustration, ne pas avoir su prendre le virage DevOps, et ne plus servir a grand chose, c’est forcément inquiétant.







Le PC fut certainement l’un des ordinateurs les plus médiocre jamais conçu. Cela n’a pourtant pas empêché de très grandes entreprises de l’acheter… et des milliers de programmeurs de subir son horrible mode segmenté pendant de longues années…



Des experts ont expliqué cela par un phénomène amusant : un produit médiocre permet à de nombreuses sociétés de vivre en fournissant des solutions pour combler ses tares. En retour, ces sociétés ont intérêt à parler de ces produit médiocre, ce qui crée une mode.


Le 27/04/2016 à 16h 31









ValCapri a écrit :



@KP2 et @Kako78 :   

C’est pareil sur tous les gestionnaires de dépendances (Maven, Bower, NPM, Composer, NuGet,…), il faut utiliser les librairies maintenue et/ou les forker. Sur GitHub, il y pléthore de repository abandonné aussi. 



C’est pareil dans les App Store et Google Play, le nombre d’apps n’ont mis à jour est impressionnant. Certes, c’est désolant, et il faudrait penser de temps à autres penser à mettre cela dans des archives.  



Concernant NodeJS, c’est pas mal du tout, un cauchemar pour les SysAdmins? Pourquoi? On a une version LTS si on veut ou la version courante/stable. Le tout est gérable via les paquets des distributions du moins pour le monde Linux. C’est possible de le monitorer et de voir les logs. Je ne vois pas en quoi, NodeJS est pire que PHP, Java et autres, à ce niveau là.







Peut être parce que ce truc improbable arrive à commettre l’exploit de combiner presque toutes les tares qu’on peut trouver dans d’autre langages…. en y rajoutant les siennes.



Bref, si j’avais du imaginer dans mes cauchemars les plus fous ce qui aurait pu s’approcher du pire environnement de programmation jamais inventé, ça ressemblerait certainement à ça.



Et pour ceux qui arrivent encore à trouver ça bien parce qu’ils sont jeunes, rendez vous dans quelques années quand vous aurez perdu tous vos cheveux devant des projets impossibles à maintenir parce que la moitié des bibliothèques qui les composeront auront été abandonnées et remplacées par de nouveaux trucs à la mode.



Le 21/04/2016 à 13h 42







linkin623 a écrit :



<img data-src=" />



C’est surtout l’intérêt de ceux qui votent et décident. Le bien commun et autre truc de hippies ça n’existe dans notre monde…







Beaucoup considèrent la démocratie comme le système parfait.



Mais si l’on n’y prends pas garde, la démocratie peut facilement se transformer en dictature de la majorité.



Par exemple, dans une démocratie 51% des citoyens peuvent décider de réduire en esclavage une classe sociale minoritaire.



Le système démocratique donne l’illusion que toute décision est moralement justifiée dès lors qu’elle emporte l’avis de la majorité.



En réalité, sur le plan moral, il faudrait également considérer à quel point une mesure peut nuire à des catégories de personnes et cela sans considération du nombre.



Ce n’est pas parce qu’on est plus nombreux à avoir tort que cela donne pour autant raison.


Le 11/04/2016 à 22h 42







XMalek a écrit :



Ca dépend des domaines réellement et si le dev “basique” (aka très répandu) est bien sur linux dès que tu touches du système ou de l’ui ca devient un cauchemars si tu veux faire un truc qui sort de l’ordinaire.







Je ne suis vraiment pas d’accord.



Pour ceux qui font VRAIMENT de la programmation système, le simple fait d’avoir les sources de l’Os est un énorme avantage.



Sous Linux, tout peut être étudié et personnalisé, depuis le noyau jusqu’a l’UI en passant par les drivers pour la simple raison que toutes les sources sont disponibles.



Vouloir comparer les deux Os à ce niveau, c’est juste du troll.



Enfin, c’est peut être une question de préférences, mais je trouve le système Linux bien mieux foutu.





et après pour le distribuer l’autre partie du cauchemars commence avec les dépendances.





Sauf qu’en pratique, non. C’est même tout l’inverse.



Les gestionnaires de paquets rendent la gestion des dépendances bien plus simples au quotidien. Et le système de paquets sources permettent facilement l’adaptation sur différents systèmes.



Les vraies complexité de dépendances, ça existe au niveau d’un système parce qu’il y aura toujours quelques programmes très complexes qui vont avoir des besoins très particuliers. Mais pour 99% des logiciels qu’un programmeur peut écrire, c’est surtout une source de simplification.





Windows avec son système de packets (oui nuget npm bower, y a aussi des trucs pour gérer les paquets sur windows et même du non propriétaire) local au dev et / ou projet est pour cela beaucoup plus souple et beaucoup beaucoup moins contraignant pour l’utilisateur qui ne dépend que de deux choses les drivers et l’install du projet qui emporte ses propres paquets.





Sauf que ces systèmes n’ont pas du tout la même vocation qu’un gestionnaire de paquets qui officie au niveau global.





Pour moi linux est tombé dans un cercle vicieux avec les paquets et leur dépendances complexes voir même souvent buggué si plusieurs versions d’un même outil est installé en même temps.





D’abord, les problèmes de dépendance sur Linux, c’est relativement marginal au quotidien pour un programmeur.



Ensuite, le choix d’un système de dépendances sous Linux, ce n’est pas pour rien : il y a un vrai bénéfice à réduire la duplication de bibliothèques. C’est la raison pour laquelle un environnement Linux est aujourd’hui bien plus léger que Windows.



De plus, il y a aujourd’hui des projets, notamment chez Ubuntu pour résoudre les inconvénients résiduels du système.





si plusieurs versions d’un même outil est installé en même temps.





Pour être franc, je trouve qu’aucun de ces deux Os n’excellent en la matière.





Windows avec du powershell + c# tu peux actuellement tout faire en ligne de commande (même des trucs très limites…).





Sauf que sous Linux, tu peux faire du scripting avec absolument tout ce que tu veux.



Et globalement, la logique unixienne organisée autour de quelques grands principes comme par exemple “tout est fichier” rends le scripting beaucoup plus facile et puissant.



Quand on programme les deux systèmes, on ressent rapidement que Linux descend d’un Os mainframe vraiment pensé pour faire des choses puissantes alors que la descendance “grand public” de Windows se fait clairement sentir.



Une autre différence que l’on ressent fortement entre les systèmes “priopriétaires” et un système libre comme Linux, c’est que les premiers sont orientés autour des outils et langages voulu par leur éditeur alors qu’un système comme Linux est beaucoup plus agnostique avec une logique “faites ce que vous voulez avec le langage ou l’outil qui vous convient le mieux”.


Le 11/04/2016 à 21h 14

Voila un article qui me déçoit tellement que que j’ai pris la décision limiter dorénavant mes interventions sur ce site et partir commenter ailleurs. Vous allez voir que même un vieux peut changer ses habitudes…



Pondre un article aussi long pour conclure que le manque de succès de Linux dans le desktop serait causé par des problèmes visuels et globalement par le fait que les éditeurs propriétaires auraient de plus gros moyens pour peaufiner leurs interfaces, ça me laisse vraiment sur le cul. Que de préjugés simplistes.



Si vous connaissiez le libre, vous sauriez que justement, le nombre de contributeur finit par aboutir à des moyens tellement énormes qu’aucun éditeur propriétaire ne peut consacrer l’équivalent. Linux a déjà balayé tous les Unix propriétaires qui rapportaient de l’or en barre aux plus gros éditeurs de la planète.



La vraie réalité que les informaticiens comme moi connaissent bien, c’est que la plupart des gens n’ont jamais seulement essayé Linux. Ils n’ont donc jamais pu se demander si le “visuel” pourrait leur plaire ou non. D’ailleurs l’argument parait risible quand on connait la diversité des bureaux Linux.



D’ailleurs, êtes vous encore naïfs au point de croire que c’est les qualités d’un produit qui font son succès dans le grand public ?



La vraie réalité, c’est que depuis des décennies, les contrats OEM de Microsoft aboutissent à la pré-installation de Windows sur toute nouvelle machine. Demandez vous pourquoi les gens iraient s’embêter à installer autre chose alors qu’ils ne savent même pas installer un Os…



Le jour ou les autorités feront la même chose que dans le domaine des navigateurs, c’est à dire rétablir une vraie liberté de choix à l’achat entre plusieurs Os, nous verrons les parts de marché de Linux décoller et celles de Windows s’écraser. Mais pas avant…



Et sachez cher Vincent que pour ma part, chaque fois que je repasse sous Windows, je trouve ça moche, lourd, lent et pas du tout ergonomique. Je n’ai pas aimé les choix de Microsoft en matière d’interface après Windows XP. Chacun pourra dire que c’est une question de gout. Mais justement, Linux en a pour tous les goûts et l’on ne peut vraiment pas en dire autant de Windows.

Le 11/04/2016 à 20h 39







Xarkam a écrit :



Alors je pense que ton argumentaire est un petit peu fallacieux.

Un dev ne passe pas à linux par ce qu’il a compris que ca lui irait mieux.



Un dev, il lui faut son environnement et il s’en tape de l’os.  L’os sera choisi en fonction de ce qu’il dois faire comme app. (tu vas coder sur mac si tu dev pour ios)



Si je ne fait que du gtk, alors oui linux sera mieux que windows.

Pour du qt, windows fonctionne à merveille. Nulle besoin d’être sous linux. 



En fait, avec le temps, on peu tout coder sous windows aussi bien (et parfois mieux) qu’avec linux.



Pour la suite de ton argumentaire, tu t’égare avec vi et cette vision qu’il faut utiliser le moins possible la souris.

Et oui ma main va souvent sur la souris. Je dev des app web (ou lourdes) et il faut bien que je teste le rendu. Je pense qu’avec un clavier t’aura un peu de mal et perdre bien plus de temps.



J’utilise principalement les ide jetbrains et avec, tout est centré sur l’utilisation du clavier.



Je pense que tu as une très grande méconnaissance de windows. On n’est plus à l’époque de xp/vista. Depuis MS nous à sorti powershell avec lequel tu peux faire bien plus que ce que tu ferais en bash.

En fait il faudrait coder en python sous linux pour obtenir ce que permet de faire powershell, car ce dernier accède aux api .NET.



D’ailleurs avec ps 3.0, ils ont mis un alias nommé wget pour faire des téléchargements :)







Pas du tout d’accord…



Tout développeur qui as travaillé un jour sur Linux connait bien sa supériorité dans ce domaine.



Rien que les gestionnaires de paquets et les sources facilement disponibles, ça facilite la vie de manière incroyable.



Windows, dès que vous sortez du développement bien balisé autour des outils “propriétaires” ça devient rapidement la galère.



Ce n’est pas pour rien que Linux est autant prisé chez les pro…


Le 08/04/2016 à 18h 15







OlivierJ a écrit :



T’as tellement posté que je vais juste répondre à quelques trucs <img data-src=" /> .

1 : ça ne se passe pas comme ça, il y av[quote:5641142:OlivierJ]T’as tellement posté que je vais juste répondre à quelques trucs <img data-src=" /> .

1 : ça ne se passe pas comme ça, il y avait un cadre légal qui l’empêchait. L’administration s’adapte, lentement mais elle le fait. Je le vois d’autant mieux (adaptation + lenteur) que ça fait quelques décennies que je le vois.







On ne peut pas nier certains progrès, mais de manière objective, dans le public l’évolution est beaucoup trop lente.



Quand des évolutions sont envisagées, c’est parce qu’un besoin est déjà criant depuis de nombreuses années. Et il faut ensuite encore des années pour voir les choses changer à une vitesse d’escargot.



La différence avec le privé, c’est que dans le privé, on est proactif, on anticipe les besoins. Dans le public on attends d’avoir des problèmes pour agir… et encore.



Pourtant, je connait des gens qui ont de bonnes idées dans le public. Mais leur motivation se heurte invariablement a un système hiérarchique pesant qui étouffe toute initiative.





2 : de vraies lois ? réglementer les réseaux ? Mais il y a des lois et les réseaux sont réglementés, on ne va pas encore en rajouter. Et l’ARCEP a un rôle très positif pour le coup, il est utile lui comme organisme de régulation (cf Free par exemple, rien que ça)





Cela fait plus de 10 ans qu’on attends une vraie loi sur la neutralité du net.



Oui, parce que que dans ce pays, on croule sous les règlement à la con. Mais paradoxalement, il manque toujours les règles nécessaires.



Les lois sur les réseaux, oui, il y en a eu une palanquée pour protéger tout ce que le monde compte d’“ayant droits”. Toujours la même obsession mortifère de protéger la vieille économie qui vit de la rente au détriment de l’économie nouvelle de l’innovation.



Résultat de ce manque de pragmatisme, en France, monter un simple hotspot Wifi dans un hotel, c’est devenu compliqué et coûteux pour les exploitant. Tout cela grâce à toutes les belles loi “hadopi”, “Loppsi” & CO.



Bref, dans l’économie numérique, c’est comme pour le reste, les politiques naviguent à vue. Pas de plan, pas de stratégie à long terme. Rien de cohérent.





3 : DTC ? Plus sérieusement, je ne vais pas faire la liste, rien que ce site s’en fait l’écho régulièrement. J’ai également bossé sur ce sujet dans l’administration et les ministères.





Et bien justement, que fait t’on concrètement ?



La réalité, au delà des effets d’annonces, c’est qu’on va continuer de former les jeunes pendant des années sur du logiciel propriétaire et des environnement fermés et donc retarder d’autant le développement du logiciel libre en France.



Tout cela se traduira comme à l’accoutumée par des conséquences à long terme en terme de dépendances économiques aux produits américains que payeront les générations futures.



La encore, pas de plan, pas de stratégie…





Un peu “LOL” ta dernière phrase.





Dans quel sens il faut t’il interpréter ce “LOL” ?



Si tu doute de l’affirmation qu’un ordinateur dépasse de très loin la capacité de calcul numérique de tous les cerveaux réunis des français, il faut réaliser l’effrayante capacité de calcul d’un processeur moderne. Et encore, je parle juste des CPU, si on regarde les capacités des GPU, c’est encore plus effrayant.





Par ailleurs tu t’imagines qu’il y a 50 ans on calculait encore à la main ?





J’ai connu ce qu’il y avait avant, depuis les calculatrices mécaniques jusqu’au règles à calculer. Je repense encore aux caisses de supermarché bien bruyantes. Mais c’était lourd, lent et cher. Ca n’était pas du tout démocratisé. Et surtout, ça ne faisait pas de traitement de données automatique. Si tu prends l’exemple d’un site web de vente en ligne, ça remplace une palanquée de gens, depuis le vendeur en passant par une palanquée d’administratifs, l’impression de catalogue, le calcul des résultats et pour certains, le prévisionnel, la commande aux fournisseurs, etc, etc… tout ça automatiquement. Combien de gens remplacés ?



Sinon, je t’engage à regarder les documentaires qui existent sur le projet de la bombe nucléaire aux USA pendant la seconde guerre mondiale et tout le problème que posaient les calculs malgré l’utilisation de ce qu’il y avait de plus sophistiqué à l’époque.



Bref, la encore on peut parler d’évolution progressive. Car il ne faut pas oublier qu’a une certaine époque, les opérations de la comptabilité d’une entreprise étaient effectuées manuellement et vérifiées par… au moins 5 personnes.





Il y a moins de monde à l’usine (et aux champs) et beaucoup plus dans les bureaux (passage du secondaire au tertiaire).





Sauf que cette nouvelle économie a des caractéristiques économiques fondamentalement différente de l’ancienne et c’est ce que les politiques mal conseillés par des pseudo économistes d’un autre âge ne comprennent pas.



L’ancienne économie produisait essentiellement des biens de première nécessité que les gens étaient réellement obligés de consommer pour survivre.



La nouvelle économie produit au contraire une part très significative de produits et services que l’on peut qualifier de “non indispensables”. La redoutable conséquence, c’est que dès qu’on réduit les salaires, les consommateurs s’en passent. Cela produit une économie par nature très instable et encline au manque de croissance et à la récession.



Nous pouvons constater que les résultats des politiques d’austérité menées par les politiques donnent un résultat catastrophique et malheureusement conformes a la logique que j’ai énoncée.





On a plein de contrôleurs de gestion, de comptables, de contrôleurs qualité, etc. plein de postes plus ou moins administratifs.





Oui, en France nous avons sans aucun doute la crème de la crème en matière de lourdeur administrative. <img data-src=" />



Et pendant qu’ici on croule sous la diarrhée réglementaire…





Tu sais ici on est pas mal à avoir fait de la programmation. Perso je n’ai éliminé personne en programmant, et ça a même occupé du monde en plus de moi, chef de projet, responsable client, et j’en passe.





Nous vivons malheureusement dans un monde ou la majorité des gens n’ont absolument aucune conscience des conséquences globales de leur activité.



Et soyons honnêtes, dans le système productif actuel, les gens ne sont ni formés ni incités à réfléchir à ces questions…





T’es marrant avec ton plombier, mais figure-toi que j’en ai vu intervenir dans plusieurs types de maisons ou appartements, récents ou anciens. Les gains faramineux du plombier, du carreleur ou de l’électricien, sans parler du peintre, je les attends toujours. Rien que les tarifs et le temps que ça met pour la peinture…





Et bien je t’engage à étudier un peu l’histoire des métiers manuels et des différentes techniques. Tu comprendra qu’entre la façon dont les anciens travaillaient et la réalité moderne de ces métiers, il y a un gouffre phénoménal, abyssal. Bien sûr, tout cela dépends des métiers, mais globalement : L’outillage à évolué d’une façon incroyable, mais c’est aussi vrai pour les produits qui ont bénéficié d’énormes recherches et développement. La logique a également beaucoup évoluée : de métiers très qualifiés et bien payés ou l’on partait de matériaux bruts, on s’est orientée vers une logique de main d’oeuvre bon marché, de faible qualification et de pose de matériaux semi finis “à pose rapide”.



Quand au prix, il ne faut pas oublier que la taxation du travail a considérablement augmenté avec le temps dans notre beau pays.





En fait tu n’as pas compris la profondeur du problème, il n’y a pas de réponse à long terme.





Bien entendu.



Malheureusement, la réalité dans toute sa profondeur est bien plus déprimante encore…



fr.wikipedia.org WikipediaMais si cela peut te rassurer, notre espèce disparaîtra sans doute bien avant… <img data-src=" />





Le recyclage a beaucoup de limites (qu’il explique dans son bouquin et dans des conférences en ligne, cf par exemple Philippe Bihouix l’auteurhttps://www.youtube.com/watch?v=mqhC6uI8TUY il est ingénieur ). Il y a l’interaction entre énergie et métaux : il faut de l’énergie pour extraire le minerai, pour en extraire les métaux, et il faut des métaux pour produire de l’énergie à meilleur coût ou rendement, pour pouvoir utiliser de façon plus importante les renouvelables.





Bien entendu, son constat est vrai. Mais son raisonnement se base sur l’état de l’art actuel d’une industrie qui a suivi logiquement la voie qui était la plus facile à une période donnée.



Au final, on utilise le métal parce que c’est aujourd’hui le plus rentable, on n’a pas trop travaillé au recyclage parce que ça ne rapportait pas, beaucoup de machines ont un rendement médiocre parce que l’énergie était peu chère.



Ce qu’il dit rappelle un peu les prévisions sur le peak oil. On s’aperçoit en pratique que cela ne se passe pas du tout aujourd’hui comme certains l’avaient prédit avec les données d’une époque.





NB : l’obsolescence programmée n’existe pas, faut arrêter avec ça, on a déjà épuisé le sujet ici plusieurs fois.





Au contraire, je t’ai clairement démontré son existence avec des exemples concrets à l’appui.



Cela dit, je te crois de bonne foi. Je penses que tu manque simplement de bases au niveau pratique pour comprendre les exemples que j’avais donné.



Le fait est que la segmentation des savoirs et des cursus n’aide pas à la compréhension de certains phénomènes. Les profils de personnes capables de comprendre à la fois les problèmes théoriques et pratiques sont très rares.



En fait, comme beaucoup d’intellectuels purs, tu attends pour raisonner d’avoir des études sérieuses. C’est compréhensible. Le problème c’est qu’elles n’arriveront probablement jamais du fait de la nature improuvable d’une intentionnalité, du secret industriel et de l’énorme risque juridique.





Absolument pas… C’est lié au mode de vie qui a fait exploser la consommation d’énergie, tu dois savoir qu’un américain ne consomme pas comme un français (ça doit être 2 ou 3 fois plus), et un français pas comme un marocain, et ainsi de suite.

Quant au rendement des muscles humains, qu’est-ce que ça vient faire ici ?





A ton avis, à quoi est due cette consommation énergétique énorme dans le mode de vie moderne ?



Je te le donne en mille : les contraintes imposées par le monde du travail.



L’un des plus gros consommateur énergétique que l’homme ait jamais inventé s’appelle l’automobile. Et son usage sers principalement…. à se rendre au travail…



Au final, le rendement énergétique du travail humain est catastrophique non seulement en raison de l’empreinte écologique énorme de l’énergie fournie par le corps humain, mais également par toute la dépense énergétique nécessaire à la mise en oeuvre du concept de travail. Ne fut ce que le simple fait de le transporter coûte plus d’énergie que ce que l’homme peut produire dans sa journée.



Pour dire les choses clairement, notre monde occidental moderne doit cesser de produire de l’agitation inutile.



A noter d’ailleurs que si le mode de vie fait partie de l’équation, il faut réaliser que si l’on ne règle pas le problème de l’explosion démographique humaine, quel que soit le mode de vie, l’empreinte écologique de chaque homme ne pourra jamais être nulle. Adapter les modes de vie ne fera que retarder les problèmes. Mais seul le contrôle de la démographie peut les éviter.





Ça fait longtemps qu’on s’en pose. Jean-Marc Jancovici considère que la cause principale du chômage actuel, après avoir eu les 30 glorieuses, est lié au coût de l’énergie ; il n’est guère optimiste du coup sur la suite, vu qu’on n’aura plus de pétrole aussi bon marché (sauf baisse momentanée) qu’il ne l’a été depuis l’après-guerre.

 Tu peux aller directement lire la fin si tu veux :http://www.manicore.com/documentation/petrole/petrole_economie.html .





Non, non et non.



N’oublions pas qu’il fut une époque ou l’homme n’avait même pas encore découvert comment exploiter les ressources énergétiques de la terre…. et il y avait pourtant le plein emploi.



Oui, les ressources énergétique et les matière première posent bien évidement une limite à ce que l’homme peut produire(et donc la bonne utilisation de l’énergie compte), oui cela pose une limite (parmi d’autres) a l’utopie de la croissance illimitée. Mais c’est surtout l’automatisation qui a réduit le nombre d’homme nécessaires pour produire le minimum vital. Et c’est la vraie cause du chômage.



D’ailleurs quand on comprends a quel point la bonne utilisation de l’énergie est le nerf de la guerre, on comprends toute l’ineptie des politiques actuelles qui tendent à pousser des millions de chômeurs à prendre leur voiture(= gouffre énergétique) tous les jours pour chercher des emplois…. qui n’existent pas. <img data-src=" />



Je vais d’ailleurs revenir sur un point :





Je crains très fortement (d’après ce qu’on peut lire) qu’on ne voie jamais les voitures volantes et autres rêves pré-2000.





Il est probable que le futur soit plutôt au fait d’éviter de déplacer inutilement des millions de gens tous les matins.



Mais que fait t’on vraiment pour décentraliser le travail et inciter au télétravail ?



Que peut t’on espérer d’une “élite” qui ne voit que maintenant l’intérêt de fibrer le territoire ?



Passe encore qu’on ait fait l’erreur du Concorde à une époque. Mais a partir du choc pétrolier des années 70, les “élites” auraient du comprendre…





<img data-src=" />

“Ne serait-il” (il y a déjà un “t” à la fin de “serait”, pourquoi rajouter un “t”, et pourquoi “ t’ ” qui est une abréviation de “tu” ?)





Bonne question.


Le 07/04/2016 à 15h 09







OlivierJ a écrit :



Heu non, il y a eu volonté politique, contre l’administration, dans le cas de Bercy et du calculateur.

Et l’existence de la CADA fait suite à une volonté politique.







Ce qui est amusant, c’est qu’il faille une institution tierce pour en contraindre une autre avec un passage par la case tribunal pour que ça soit suivi d’effet. Un peu tortueux, non ?



En fait, si ça avait été une volonté politique claire et partagée par la classe politique, le ministre des finances aurait simplement donné des ordres… suivi d’effets.





Quelle envolée, mais je pense que tu fais erreur.

Déjà, rien que la volonté de fibrage généralisée,





En même temps, ça ne fait que 15 ans que le monde informatique poussait pour leur faire comprendre cette évidente nécessite <img data-src=" />





le rôle de l’ARCEP,





Ah, la France et ses centaines d’organismes…



Et pendant ce temps, on attends toujours de vrais lois pour réglementer les réseaux.





le fait de pousser au libre et à l’interopérabilité, et j’en passe.





Et elles sont ou les vraies mesures concrètes qui poussent au libre et à l’interopérabilité ?





Ça fait depuis plus de 100 ans qu’on nous prédit que l’automatisation va créer du chômage,





Sauf que finalement cette prédiction s’est bel et bien réalisée…



La montée en puissance de l’automatisation a été progressive. La mondialisation à catalysé la chute du système en poussant les salaires à la baisse, ce qu’il ne faut surtout pas faire dans une économie moderne ou l’indispensable représente une part toujours plus faible de la production.



Pourtant, par le passé, des gens comme Henry Ford avait bien compris cet écueil…





… par exemple pendant les 30 glorieuses on a beaucoup automatisé sans créer de chômage.





Rappelons quand même qu’après la guerre, il y avait tout le pays à reconstruire…



Le microprocesseur n’a commencé à se démocratiser qu’a la fin des année 70. Et il a fallu des années avant que les outils de CAO/DAO et les robots ne montent en puissance. Donc l’informatique n’a pas impacté les 30 glorieuses.



Entre une usine des années 60 et une usine moderne, il n’y a rien à voir.



Et si l’on voit disait tous les outils qui sont disponibles maintenant et qui n’existaient pas avant, sans même parler des coûts.



Par exemple, il y a 20 ans, on n’achetait pas un module accéléromètre pour seulement quelques euros et l’on ne mettait pas en oeuvre cette technologie avec aussi peu de compétences que maintenant.





Et le chômage actuel en France n’est pas causé par l’automatisation.





Sauf que ça c’est vite dit…



En fait, vous ne réalisez pas tous les gains de productivité à tous les niveaux que les ordinateurs ont apporté et tous les postes qu’ils ont supprimé.



Vous allez dans votre banque sans même réaliser qu’il y a bien moins de monde derrière les guichets qu’il y a 30 ou 40 ans.



vous achetez votre produit dans le supermarché sans réaliser que l’usine qui le produit utilise considérablement moins de monde qu’il y a 50 ans, que la centrale d’achat utilise beaucoup moins de monde pour gérer les produits, la comptabilité et les flux.



Savez vous seulement combien de personnes étaient employées à l’échelle du pays pour faire simplement des calculs ou comptabiliser ? Avez vous conscience qu’un seul ordinateur peut faire plus d’opérations mathématique par seconde que toute la population française ?



Dans tous les process, vous ne réalisez pas le nombre d’hommes qui ont été éliminés par l’informatique…



Moi je le sais parce que c’est mon métier et que j’ai l’age pour savoir combien de gens il y avait avant l’informatique pour faire tel ou tel travail.



Je sais quasiment combien de postes j’ai éliminé à chaque fois que j’ai écrit un programme…





Mon plombier, il met encore les mains dans les tuyaux et la flotte, et ça a peu de chance de changer.





Oui, ça c’est la vision de quelqu’un qui voit les métiers manuels de très loin.



Le plombier moderne, il colle juste à la va vite des tubes en plastique. Plus rien à voir avec le métier d’antan au niveau productivité…



Dans tous les métiers manuels(ou presque), le progrès a abouti à la création nouveaux produits qui permettent des gains de productivité absolument faramineux par rapport a la façon de pratiquer d’il y a 50 ans.





Et pour divers métiers que tu cites, je ne suis pas près d’aller me faire couper les cheveux par un robot,





Sauf que quand ça débarquera, que ça coupera aussi bien qu’un humain et pour 10 fois moins cher en 24h/24 et 7j sur 7, la plupart des gens n’hésiteront pas.





et il faudrait toujours des hommes pour s’occuper de tout ça.





Si on faisait la liste de tous les métiers que le progrès à déjà fait disparaître, vous comprendriez a quel point ce genre d’affirmation est péremptoire…





Et “nous les informaticiens”, on peut avoir des idées de robotisation, mais il y a loin entre la théorie et la pratique





Sauf que les sciences de l’automatisation progressent à un tel rythme que la possibilité d’automatiser des tâches extrêmement complexes est dorénavant une réalité concrète.



Qui pouvait seulement imaginer il y a 20 ans qu’on pourrait faire conduire une automobile à un robot ?



Même dans les champs, on voit l’automatisation débarquer…



Même nous les professionnels, on est impressionné de voir à quel point ça progresse vite.



Regarde simplement comment les progrès de l’IA surprennent en ce moment, tu comprendra pourquoi même nous les pro, on ne se hasardera plus à pronostiquer qu’automatiser une tache serait impossible.





De plus, on va être heurté par la raréfaction des métaux et des terres rares, dont l’électronique et l’informatique sont friandes, et je ne suis pas rassuré par les perspectives à long terme, dans 50 ans par exemple,





Cela pourrait être un vrai problème. Mais il y a déjà des réponses…



La première serait de recycler plus efficacement les composants électroniques.



La seconde, c’est de rationaliser leur usage par la standardisation des modules qui permet la réutilisation. Il faut luter à tout prix contre l’obsolescence programmée.



La troisième, c’est le fait qu’il existe de nombreux moyens de créer des matériaux semi conducteurs. Il est probable que dans 50 ans, on utilisera d’autres matériaux…



Conclusion : Ce n’est pas les idées qui manquent… en attendant la volonté politique.





sans parler du renchérissement du coût de l’énergie (cf le bouquin “l’âge du low tech” qui décrit tout ça très bien).





Ca tombe bien parce que l’homme est une machine très médiocre en terme de rendement énergétique.



Quand au “low tech”, aussi intéressant soit ce domaine, il faut bien comprendre que c’est un palliatif à des manques, pas une solution aux problèmes énergétiques.



Les solutions les plus efficientes sur le plan énergétique sont presque toujours du domaine du high tech, n’en déplaise aux écolo qui pensent (a tort) que le feu de bois dans la vieille cheminée, c’est naturel donc ce serait mieux.



Enfin rappelons que le problème de l’énergie est surtout lié à l’augmentation incontrôlée de la population humaine. Mais c’est un sujet que le monde politique n’ose visiblement pas aborder.





Je crains très fortement (d’après ce qu’on peut lire) qu’on ne voie jamais les voitures volantes et autres rêves pré-2000.





C’est bien possible en effet…





La télémédecine, ça implique des hommes des 2 côtés je te signale, dont des médecins.





Non, pas forcément.



Ca peut être une interface robotisée d’un côté. Et de l’autre, de simples employés assistés d’un système expert.



Qui dit que la médecine de masse du futur aura encore besoin d’autant de médecins ?



Comme dans tous les domaines, le cas courant et banal peut parfaitement être traité par des réponses standard et banales.



Simple question de temps avant que l’évolution des mentalités (et le trou de la sécu ?) ne fasse son oeuvre…





Si seulement le problème du chômage c’était ça…





Après 30 ans de mesures inefficaces contre la montée du chômage, ne serait t’il pas temps de se poser des questions ?



Quand on connait tous les gains de productivité que les technologies ont permis ces dernières années, on se demande combien de temps il faudra aux politiques pour réaliser que s’il y a autant de gens qui croupissent à Pole Emploi, c’est juste parce qu’on a plus besoin d’eux.



Et quand on voit que même les grandes boites qui produisent dans les pays à très bas coût de main d’oeuvre sont en train de mettre en place des plans robotique massifs (on parle de millions de robots) pour remplacer les humains…


Le 07/04/2016 à 10h 41







R0b0tnik a écrit :



D’accord mais tu t’appuies sur quoi pour faire une telle affirmation?

J’aurai eu tendance à dire la même chose mais si tu cherches open source dans un moteur de recherche les 20 premiers liens ou presque vont dans le sens de ce qui est écrit dans l’article Wikipedia cité dans mon commentaire précédent.

Je ne hurle pas que tu as tord mais sans aucune source pour appuyer tes propos cela me semble plus péremptoire et autoritaire qu’argumenté et me donne l’impression que tu n’as pas pris le temps de consulter les liens cités.







Si tu veux vraiment comprendre l’histoire et trouver de vraies sources, il te faudra creuser. Parce que c’est une très très longue histoire avec une guerre de communication entre plusieurs mouvements qui s’opposent depuis des années et même de la récupération et du lobbying de la part de grands éditeurs propriétaires qui avaient intérêt à profiter de la confusion. Comme le souligne ragoutoutou, l’Open Source est une sorte de contre mouvement.



Mais pour démêler le vrai du faux, il faut garder à l’esprit que ce qui prévaut, c’est ce que dirait un tribunal en terme de définition légale.

Or, le terme “Open Source” n’a absolument aucune autre définition légale que le sens des mots qui le composent. Car rappelons qu’un page wikipedia n’a pas la moindre valeur légale, pas plus que la définition que peut en donner tel ou tel mouvement qui en assure la promotion.



En pratique, n’importe qui peut qualifier un logiciel propriétaire d’Open Source tant qu’il ne contrevient pas au sens des mots et c’est tout le problème de ce terme très flou.



D’ailleurs pour comprendre pourquoi ce terme est utilisé, il faut savoir qu’en langue anglaise, il n’y a pas de terme aussi précis et clair que les mots “logiciel libre” que nous avons en Français.


Le 07/04/2016 à 09h 04







R0b0tnik a écrit :



Tu as des sources pour appuyer tes propos?

Parce que je suis plutôt d’accord avec Luckz et diverses sources tendent à le confirmer.

Par ex emple :

https://fr.wikipedia.org/wiki/Open_source

https://opensource.org/osd-annotated



Le sens premier et brut des mots n’est pas toujours le bon. ;-)







Non, il a raison.



“Open Source” est un terme vague qui ne signifie rien de plus que le fait de pouvoir lire le code source. Cela peut désigner aussi bien un logiciel libre qu’un logiciel propriétaire.



Le terme “Open Source” n’implique absolument pas qu’un logiciel soit libre ni qu’on ait le droit de l’utiliser, de le modifier et le redistribuer.


Le 06/04/2016 à 16h 53







OlivierJ a écrit :



Un autre que moi a utilement rappelé (il y a une page ou 2) que pas mal de choses biens se passaient aussi au niveau numérique, rien que cette ouverture dont il est question. On peut aussi décider de regarder le verre à moitié plein voire un peu plus.







Sauf que si je ne m’abuse, l’ouverture dont il est question ne doit rien à une décision politique. C’est une victoire juridique “imprévue” qui en est à l’origine.



Et le problème n’est pas que les politiques ne font rien pour le numérique, mais bien plus grave : qu’ils ne comprennent rien, ce qui affecte lourdement les décisions stratégiques de notre pays.





Heu, LOL ?

Tu veux dire, pas depuis les canuts à Lyon qui manifestaient contre les métiers à tisser vers 1830 ?

fr.wikipedia.org WikipediaLes problèmes liés à l’automatisation ne sont effectivement pas nouveaux.



Mais entre les prémices du problème, le stade actuel et surtout, ce qui sera dans quelques années, il y a un monde.





Oh oui au moins, mon coiffeur et mon épicier disent pareil, sans parler de mon garagiste, mon restaurateur, mon boulanger et mon barman <img data-src=" /> .

(je précise que je suis ironique, en mentionnant des professions qui ne risquent pas d’être remplacées par des machines, et j’oubliais mon plombier, mon facteur et mon médecin ainsi que les infirmières)





Des professions qui ne seront pas touchées par l’automatisation ?



Et bien toi, tu va tomber de haut dans quelques temps. <img data-src=" />



Parce que nous les informaticiens, nous savons déjà comment remédier à (presque) tous ces emplois qui refusent de mourir <img data-src=" />



Tien, voila pour ton boulanger qui sera remplacé par un distributeur-cuiseur de pain automatisé…



http://www.lepopulaire.fr/limousin/actualite/departement/correze/2015/07/14/corr…



Les japonais travaillent sur des robots capable de couper les cheveux .



Ton épicier, s’il n’est pas déjà mort à cause de la grande distribution aura aussi son distributeur automatique qui l’achèvera.



Dans quelques années, la plupart des restaurants d’entrée de gamme(soit la majorité) seront remplacés par des automatismes et des distributeurs. Et pour ceux qui pensent que ce sera dégueulasse, regardez ce qu’on trouve sur certaines stations d’autoroute en terme de distribution de nourriture automatisée et vous changerez rapidement d’avis.

Déjà, certains fast food viennent de remplacer toute la partie “prise de commande” par des bornes.



Ton plombier, je pourrais t’expliquer déjà en quoi le progrès a déjà modifié profondément son métier et comment il le modifiera encore à l’avenir.



D’une manière générale, l’automatisation fera sauter une bonne partie des métiers du bâtiment dans les décennies à venir. De nombreuses sociétés travaillent à l’impression 3D de bâtiment et à l’assemblage automatisée de bâtiments modulaires par des machines.



Routiers, postiers seront remplacés par des véhicules à conduite automatisée et des bornes de livraison de colis. Il y a déjà des travaux en ce sens.



La médecine ? T’as pas entendu parler de la télémédecine ? A terme, délocalisé en grande partie dans des centres en inde <img data-src=" />



Je pourrais également vous citer tous les métiers que l’automatisation et le progrès ont supprimés en 40 ans.



Bref, même s’il y aura toujours des emplois humain, l’automatisation en remplacera suffisamment pour qu’il y ait durablement des millions de chômeurs.


Le 06/04/2016 à 16h 18







Rozgann a écrit :



Faut pas non plus être totalement pessimiste… Là on parle de deux sénateurs qui protestent contre la publication du code source, mais au final le code a bien été publié et les codes sources ont bien été ajoutés à la liste des documents administratifs qui peuvent être communiqués.









Certes, au premier abord, il pourrait paraître que deux sénateurs qui s’égarent ce n’est pas bien grave.



Sauf qu’en matière de technologies, on réalise que le mal est bien plus profond.



Si vous regardez bien, vous comprendrez que c’est la presque majorité de la classe politique qui est dans l’incapacité quasi totale de faire la relation entre les progrès technologique et les conséquences sociétales, économiques et industrielle que cela engendre à grande échelle.



Leurs décisions sont toujours basées sur le “logiciel” du 19ième siècle…



Allez essayer de leur faire comprendre pourquoi la technologie est l’une des causes majeures du chômage de masse. De leur expliquer que leur vision économique va dans le mur pour la simple raisons que les travailleurs humains consomment plus d’énergie pour se rendre à leur travail… que ce qu’ils produisent en une journée.



Quel est la réponse du monde politique à ces problèmes ?



Le 06/04/2016 à 15h 46







OlivierJ a écrit :



Ce n’est pas faux mais heureusement on a des députés spécialisés dans le domaine, comme Lionel Tardy, Isabelle Attard et d’autres, et qui sont actifs sur les sujets numériques, souvent vigilants sur les amendements.







C’est vrai, et ces deux députés ont bien souvent des avis très pertinents, mais hélas insuffisamment écoutés.



Mais surtout, c’est une erreur de penser qu’il suffirait des se reposer sur un faible nombre de députés spécialisés. Les technologies sont en train de changer radicalement la société et l’économie et ce n’est pas une poignée de députés isolés et incompris qui pourront mener à eux seuls les débats de société et les changements radicaux nécessaires en s’opposant à une armée de députés conservateurs qui ne comprennent rien.



Dans la politique, les personnes issues du monde de la technologie sont complètement sous représentées. Au point que personne ne fait la relation entre le progrès technologique et le chômage de masse.



Et pour ceux qui pensent qu’on est au bout des changements induits par les NTIC, je peux vous dire que vous n’avez encore rien vu. Ce sont des millions d’emplois qui vont encore sauter dans les années qui viennent.


Le 06/04/2016 à 11h 49







OlivierJ a écrit :



En l’occurrence, sur le sujet de l’Open Source, ils sont totalement incompétents, c’est stupéfiant de lire ce qui a été cité dans l’article à notre époque.

Je sens que les habituels commentateurs de comptoir vont débarquer, en assimilant tous les parlementaires à ces 2 rigolos.







En même temps, sans céder à la tentation de faire des amalgames facile, vous êtes vous déjà demandé quel est le niveau de compréhension de nos élus en matière de nouvelles technologies ?



Par exemple, combien ont appris la programmation ?



Combien ont étudié les automatismes ?



Partant de la, comment voulez vous qu’ils comprennent les problèmes de chômage actuels et les enjeux de l’économie future ?



Le 06/04/2016 à 11h 16

Encore un exemple qui démontre que ceux qui ne comprennent pas la programmation raisonnent de manière complètement obsolète.



Les programmes sont au coeur de la future économie automatisée.



La France a raté son entrée dans l’informatisation, c’est la raison pour laquelle ce pays va dans le mur.



Décideurs, travailleurs et élus raisonnent de manière obsolète et appliquent des logiques complètement dépassés.


Le 06/04/2016 à 11h 05







ike a écrit :



Personnellement, je comprends parfaitement les réticences de l’état à ouvrir son code source. Si cela permet plus de transparence, cela ouvrent aussi plusieurs questions autour de l’analyse et des contournements que certains pourraient en faire.



Imaginer que l’on ouvre le code source d’une application permettant de traquer les “évasions fiscal”. La lecture du code permettrais de savoir comment contourner le logiciel. Et investir du temps et de l’argent pour certains dans l’étude de ces code source pourrait être rentable.

 

De la même façon certains système informatique pour des diverse raisons (budgétaires, politique, temporelle, …) ne sont pas forcément mis à jour (version de framework ancienne, …). Ouvrir le code source mettra en avant plus facilement les failles existante du système.



Il faut trouver un équilibre entre les deux.







Et tu crois que les fiscalistes qui s’occupent des multinationales n’ont pas trouvé depuis belle lurette des moyens d’obtenir ces infos ?



Le 04/04/2016 à 21h 36







MorK_ a écrit :



Pour le repose doigts, c’est très subjectif et je comprends que ça n’intéresse pas tout le monde, mais ça pourrait être un accessoire optionnel. Encore mieux, proposer le produit en deux partie: le cœur de la souris et différents modèles de coque selon les préférences ce qui permettrait d’avoir un modèle gaucher.



Et le repose doigt n’est pas pour se prélasser, mais parce que ce n’est pas très agréable d’avoir le petit doigt qui frotte le bureau toute la journée. C’est vrai que c’est un détail, mais sur un produit haut de gamme destiné à des gens qui ne veulent pas sentir de fil, c’est le genre d’attention que je recherche.







En jeu, une souris se contrôle plutôt avec les doigts. Donc le petit doigt ne frotte pas mais se pose à intervalle régulier sur le bureau pour participer au mouvement. C’est aussi très utile en graphisme quand on veut un contrôle très précis pour bouger la souris d’un seul pixel.



Mais je te rejoins sur l’idée qu’une souris a ce prix devrait proposer des options pour s’adapter à tous les besoins.





Ma MX revolution durait 3 jours en usage intensif sans problème, la G700 peine à tenir la journée. Je suis infographiste, ma souris est autant sollicitée que si je faisais plus de 8h de FPS par jours du coup ça devient gênant. Si c’était techniquement impossible de faire mieux, je ne dirais rien, mais en lui mettant deux piles AA au lieu d’une seule, le problème ne se posait pas.



C’est ça qui me déçoit. La MX Revolution était un très bon produit mais depuis, les mecs se sont juste touchés sur les benchs du capteur tout en négligeant le reste.





Il ne faut pas oublier qu’il y a des souris bureautique qui durent des mois avec une seule AA.

Mais la G700 est avant tout une souris étudiée pour les joueur. Cela signifie qu’on veut des performances dans le suivi, des macro et pas d’algo d’économie d’énergie qui induisent latence et imprécision. Il faut un processeur puissant et qui ne passe jamais en “veille” : Cela se paye logiquement par une consommation très élevée.

Si on mettait deux batteries “AA”, la masse de la souris augmenterait d’autant et serait trop lourde.



Si ta souris peine à tenir la journée, c’est que tu as gardé la batterie d’origine et qu’elle doit être usée. Un pack de 2 batteries GP 2600 ou 2700, ça vaut moins de 10€ et ça tient sans problème 2 grosses journées pour une seule batterie.



Et si vraiment tu ne veux pas t’emmerder avec l’autonomie, tu fais comme moi : j’ai pris un pack de 4 NIMH et un chargeur externe capable de charger les batteries individuellement(très important). Quand la batterie est épuisée, tu la change (ça prends moins de 15 secondes sur la G700).

En pratique je met ma souris en charge le soir. Si j’oublie c’est pas grave parce que ça tiens une journée de plus. Et si jamais j’oublie deux fois de suite, j’ai mes batteries supplémentaires et mon chargeur externe capable de recharger une batteries NIMH AA en 2 heures.


Le 02/04/2016 à 21h 49







MorK_ a écrit :



Je ne comprends pas Logitech. Depuis la Mx revolution, il n’y a eu aucune evolution vraiment intéressante.



Ma G700 qui la remplace a plus de boutons qui sont programmables mais une moins bonne autonomie, une finition en retrait, une molette a débrayage manuel (la honte) et a été remplacée par la G700S qui n’apporte rien de plus mais qui passe de 70€ à plus de 100€.



Et maintenant la G900, moins ergonomique car ambidextre, moins de boutons programmables et horriblement chère pour des performances qui ne sont exploitables que par un petit pourcentage de la population.



Pendant ce temps, des améliorations simples comme un repose doigts de l’autre côté comme l’a déjà le pouce n’ont jamais vu le jour.







En même temps, pour ma part les repose doigts me gênent vraiment pour sniper, donc je ne suis pas fan. Le jeu, ça n’est pas de la bureautique ou les doigts se prélassent sur des supports. Mais je te rejoins sur le fait que la G900 ne semble pas avoir été suffisamment pensée.



Pour ma part, le prix horriblement cher supposerait au minimum que la souris puisse durer au moins 7 ou 8 ans. Mais pour atteindre cette durée de vie avec certitude, il faut pouvoir remplacer des pièces. Et déjà, avec une batterie “non standard” pour moi c’est catégoriquement non.



Quand à l’autonomie de la G700, ça n’a jamais été un problème, même pour un usage à longueur de journée. Il suffit juste de comprendre qu’il faut la mettre en charge la nuit. Avec une batterie GP 2700, elle tient même sans faillir 2 journée complètes.



Mais c’est vrai que le nécessaire pour bien l’utiliser n’était pas fourni avec la G700 et malgré la simplicité du problème, tous les utilisateurs n’ont visiblement pas compris ce qu’il fallait avoir. Dans l’idéal, il faut se procurer en plus de la souris un chargeur 5V pour smartphone et un pack de batteries NIMH 2500ma.


Le 01/04/2016 à 19h 35







data_gh0st a écrit :



Marrant, me semblait que les “pro” utilisaient des souris à capteurs optiques pour un meilleur contrôle ( Zowie, Logitech g400, certaines Razer). Mais pas de souris avec 1200dpi, des leds, et un clavier integré.







Sauf que les critères des pro ne sont pas forcément valables pour les non pro. Ce que font les pro n’est pas toujours un modèle à suivre pour l’amateur.



Exemple type : En compétition, l’utilisation d’une souris sans fil serait à la merci d’un simple brouilleur activé par l’adversaire au bon moment. Cela suffit à expliquer pourquoi les pro privilégient les souris filaire.



Mais il est évident que ce critère n’a plus du tout de sens pour un joueur qui ne fait pas de vraies compétitions ou qui se limite à des compétitions “pour le fun”.


Le 01/04/2016 à 19h 19







MasterDav a écrit :



Tu parles d’une remplaçante, 3 boutons en moins et une batterie inamovible, youpi banane.







C’est clair que c’est juste un énorme retour en arrière.



Vu la consommation énorme de ce genre de souris et la faible autonomie qui s’ensuit, les batteries standard de la G700 permettaient d’acheter un pack de batteries standard pour un prix modique pour pouvoir les changer quand elles sont épuisées… ou quand elles sont mortes.



La G900 est trop chère sachant qu’au bout d’un moment, le problème du remplacement de sa batterie se posera.







Tohrnoriac a écrit :



j’ai toujours la G700 aussi, qui marche encore très bien, sauf la batterie que j’ai dû niquer en la laissant branchée tout le temps (c’est pas super grave au pire <img data-src=" />)







Bah, dans n’importe quel hypermarché tu trouvera des batteries NIMH 2700ma/h standard qui non seulement fonctionneront très bien avec ta G700, mais en plus augmenteront sensiblement l’autonomie par rapport à l’origine.







AmonituX a écrit :



Ahh la G700 dispose enfin d’un remplaçante, bon elle a juste 100€ de plus mais sinon tout va bien, merci logitech, en espérant que les problèmes des clics soit enfin résolu avec leurs nouveaux switch







Effectivement, sur la G700, les contacts des Microswitchs utilisés ont tendance à s’oxyder ce qui cause des problèmes de rebond au bout d’un moment(chez moi seulement quelques mois…). Ils auraient pu au moins utiliser des contacts a pastille nickelée pour un produit vendu à ce prix.



Cela dit, il faut savoir que ça peut se dépanner sans trop de difficultés et sans devoir remplacer quoi que ce soit.


Le 28/03/2016 à 18h 16







Konrad a écrit :



Ben oui, je suis capable de comprendre les choses quand elles sont clairement exprimées. Je comprends tout à fait que tout n’est pas parfait sous Linux, il y a des choses à améliorer. Notamment les défauts des systèmes de paquets exprimés par Rozgan, et les solutions qu’il a proposées, me paraissent justifiées. Je n’ai rien à redire là-dessus, tu noteras que je ne l’ai pas contresdit, lui. Si c’est sur ce sujet-là que tu veux embrayer, alors vas-y, expose ton point de vue. Mais jusqu’ici, tu as surtout sorti de grosses affirmations gratuites qui n’ont pas grand chose à voir avec ce sujet.







Sauf que les autres ont convenu des problèmes que j’ai soulevé et se sont engagés dans un dialogue très constructif contrairement à toi qui t’est perdu en discours fleuves de contradiction stériles et de mauvaise foi.





Oui, j’ai beaucoup de mal à comprendre tes affirmations gratuites. Je ne vois pas le « bon sens » dans tes paroles, parce que tes affirmations me paraissent totalement injustifiées, exagérées, et fausses.





Il est absolument impossible que tu comprenne ce que j’ai dit parce que tu as abordé la discussion avec un état d’esprit de fanboy agressif fermé à toute compréhension.



Au lieu de chercher à comprendre mes propos, tu les a justement déformé pour les rendre absurdes, exagérés et faux. Toute compréhension n’était alors plus possible car tu ne perçoit plus que l’absurdité… que tu as toi même créée.



J’aimerais te poser une simple question : penses tu sincèrement qu’a ton age, on peut vraiment tout comprendre ?



Penses tu vraiment que c’est aux autres de faire tous les efforts pour que TU comprennes ?





Relis tes phrases en pesant bien chaque mot :



« les logiciels mettent souvent des mois à passer du producteur au consommateur. »



FAUX. Je veux bien entendre que les gestionnaires de paquets ne sont pas parfaits, mais les mises à jour qui mettent des mois n’en font pas partie. Au contraire, dans la plupart des distributions, les mises à jour arrivent en quelques jours. N’importe quel utilisateur Linux te dira qu’il a accès sans difficulté aux dernières versions de la plupart de ses logiciels.



Alors si tu trouves vraiment que ta phrase est vraie, il va falloir me sortir des statistiques d’usage et de mises à jour des paquets, des données solides pour le montrer. Ou alors, précise de quels logiciels en particulier tu veux parler : peut-être qu’un paquet en particulier t’a posé problème. Mais dire que « les logiciels mettent souvent des mois », comme si c’était une généralité, c’est faux.



Et ne dis pas que c’est moi qui ai mal interprété tes propos : au contraire je les prends tout à fait au pied de la lettre. Maintenant vas-y, donne une source montrant véritablement que les paquets mettent « souvent des mois » à être mis à jour. Ou alors, reconnais que tu as dit quelque chose de faux.



« Va expliquer à ton gamin qu’il doit recompiler son jeu pour avoir sa maj. »



FAUX. Donne-moi le nom d’un seul jeu, UN SEUL, qui nécessite d’être recompilé pour être mis à jour.



Là encore tu dis que j’interprète mal tes propos, mais non : c’est un exemple que tu as donné, maintenant vas-y continue sur cet exemple, donne des noms de jeux qui doivent être recompilés. Ou alors, reconnais que tu as dit quelque chose de faux.





Comme on dit, il n’y a pas pire aveugle que celui qui ne veut pas voir, mais à ce stade de négation des réalités, ça devient carrément triste… ou hilarant.



A quoi servent les distro “rolling release” ? Les projets d’ubuntu ? Et tout ce dont a parlé Rozgann ? Mystère et boule de gomme…. puisque selon toi le problème n’existe pas. Ces gens doivent certainement être des idiots qui ont du temps à perdre à vouloir résoudre un problème qui n’existe pas . <img data-src=" />



Tiens, cadeau, je vais te donner un lien écrit par l’un des gars qu’a cité Rozgann plus haut :



http://0pointer.net/blog/revisiting-how-we-put-together-linux-systems.html



Je cites :



“Upstream software vendors are fully dependent on downstream distributions to package their stuff. It’s the downstream distribution that decides on schedules, packaging details, and how to handle support. Often upstream vendors want much faster release cycles then the downstream distributions follow.”



Mais bien sûr, il n’y a pas de problème, circulez, il n’y a rien à voir <img data-src=" />



Honnêtement, tu compte nous faire perdre encore beaucoup de temps avec tes trolls ?





Oh s’il te plaît, ne te compare pas à eux, tu n’es pas du tout de leur trempe hein <img data-src=" />





Ah oui, j’oubliais qu’un jeune comme toi est tellement intelligent et instruit qu’il sait déjà tout sur tout… ce qui lui permet de juger le monde entier.





Torvalds a son franc-parler, mais il reconnaît la valeur du travail. Il a déjà dit que le respect, ça n’est pas un dû, ça se mérite. Torvalds n’a jamais dit « je suis un pro alors je sais de quoi je parle ».





Sauf que je ne suis pas seulement un pro, j’ai aussi plusieurs décennies de travail de plus que toi derrière moi et un énorme travail de contribution au libre. Alors le travail, tu reviendra nous en parler dans quelques décennies, quand tu aura mené quelques gros projets… et que tu aura compris que j’avais raison. <img data-src=" />



Mais surtout, il y a un argument qui n’est pas acceptable, c’est de justifier ta chasse aux critiques par l’argument du “respect”. Or, c’est un point de vue qu’on retrouve fréquemment…. dans les religions.



Cette façon de penser, c’est juste du sectarisme qui ne respect pas le droit d’existence d’un point de vue différent ni la libre expression de la critique.



Et c’est particulièrement a éviter dans le libre parce que c’est un vieux cliché qui colle un peu à la peau du mouvement.





Toi tu sors des phrases fausses, et tu dis que ce sont les autres les trolls. Ce n’est pas du franc-parler, c’est juste un niveau de mauvaise foi incroyable.



Et si tu crois que l’âge donne forcément raison… Je dirais juste que Brassens n’était pas de cet avis.





Tu sais, dans la vie, il y a des constantes. Par exemple, le fait que les gens réalisent toujours avec l’age que dans leur jeunesse, ils ne comprenaient pas grand chose. Et que dans la plupart des cas, c’est la sagesse qui avait raison.



Les jeunes qui progressent le plus, c’est ceux a qui ont a réussi a faire comprendre qu’ils ont des limites et des choses à apprendre et qui du coup, ouvrent leurs oreilles pour apprendre au lieu d’ouvrir leur bouche pour essayer de faire la leçon a plus expérimenté qu’eux.



Hélas, en supprimant le service militaire, on a supprimé la formation dont le rôle était justement de vous permettre de comprendre vos limites et d’apprendre l’humilité.



Et dans l’informatique, le fait que les vieux n’y comprennent généralement pas grand chose amplifie le problème et donne aux jeunes l’illusion d’être des dieux qui savent tout.



Manque de bol, les anciens qui ont commencé l’informatique il y a très très longtemps et qui vous surclassent complètement en terme de connaissances et d’expérience, même en informatique, il y en a <img data-src=" />


Le 27/03/2016 à 19h 54







Konrad a écrit :



Au final, je pense qu’on est tous les deux d’accord pour dire qu’il y a des problèmes, et que des solutions seront développées à l’avenir.







Ah, enfin….





La différence, c’est que moi je trouve que ce sont des problèmes qui ne sont pas si graves, et qui ne sont pas paralysants. La plupart des logiciels parviennent assez vite dans toutes les distributions majeures, ça n’empêche pas les gens d’utiliser Linux,





Toi tu trouves que….



Je pense que tout viens justement de la différence entre nous.



Toi, tu est dans le profil du jeune passionné comme beaucoup des volontaires qui s’impliquent dans le fonctionnement du libre par idéalisme et passion. (Attention à ne pas mal interpréter, je n’ai rien contre les passionnés).



Pour le passionné, le temps passé à bidouiller n’a aucune importance parce que c’est juste un passe temps.



Les résultats obtenus non plus, puisque c’est une passion et une forme de défi personnel.



Qu’un logiciel mette des mois avant de rentrer dans les dépôts ou pour qu’une maj d’une application arrive à l’utilisateur n’a rien de problématique : quand on est passionné, le temps n’a aucune importance, on fait avec ce qu’on a… et on est content.



Qu’il faille bidouiller des heures le cas échéant pour installer une version plus récente d’un logiciel, ce n’est pas grave parce que bidouiller, c’est ce que le passionné recherche pour occuper son temps.



On voit par toutes les solutions que tu as suggéré dans tes réponses que tu ne considère pas cela comme un problème.



On voit également que tu ne comprends absolument pas le fait qu’on puisse critiquer : par définition, dans un monde de passion et de volontariat, il n’y a ni objectifs, ni critiques : juste des potes qui tuent le temps ensemble.



Moi, au contraire, je suis un professionnel. J’ai des exigences de résultat, de délai, de performances. Le temps perdu signifie de l’argent perdu.



Contrairement au passionné, pour les pro et le monde du business, le facteur temps est absolument primordial. Avoir un système stable ET des logiciels à jour est primordial.



C’est pourquoi moi j’ai conscience de la gravité de certains problème pour les entreprises, les éditeurs de logiciels, mais également le grand public (qui ne sait pas bidouiller et ne veut pas bidouiller).



Je réalise que mon tort, c’est juste de perdre mon temps à discuter avec quelqu’un qui n’est tout simplement pas parvenu à un stade dans les métiers de l’informatique ou il peut comprendre ce que je dit.





et les gestionnaires de paquets permettent quand même déjà de mettre tout à jour très facilement, du noyau jusqu’aux applis haut niveau. J’ai du respect pour les développeurs et pour leur travail. Il y a des améliorations à apporter, mais les systèmes en place sont déjà bons.





Nous avons déjà discuté de tout cela. Et comme on dit, le temps, c’est de l’argent.





Toi tu utilises des expressions comme « obsolète », « les logiciels mettent des mois à arriver ». Comme argument, tu dis qu’un gamin doit recompiler son jeu à chaque mise à jour. Du fait que d’autres solutions sont possibles, ça te fait cracher sur l’existant : ce qui existe est obsolète, les développeurs ne comprennent rien, et il n’y a aucune distribution qui soit satisfaisante, il faudrait tout jeter.





Encore une fois, avec une telle façon d’interpréter les choses, c’est absolument impossible de comprendre.



Je résume nos échanges :



Moi : “Il faudrait revoir la conception de notre pneu qui est complètement dépassée parce que la concurrence est en train de proposer beaucoup mieux : la forme de nos rainures est complètement obsolète, ce n’est pas idéal pour la tenue de route par temps de pluie.”.



Toi : “Tu oses critiquer la voiture, tu dit que c’est une merde qui est bonne pour la casse”.



Moi : “Euh, non, ce n’est pas comme ça qu’il fallait le comprendre”.



Toi : “Tu as utilisé le mot ‘obsolète’, c’est caricatural.”



Moi: “Non, c’est juste le terme qui convient pour qualifier parfaitement la situation”.





Alors, je te laisse relire tes propres messages, et considérer qui utilise des expression caricaturales pour exprimer son point de vue. Je n’ai pas besoin de caricaturer tes propos : tu le fais toi-même. Tu n’as pas su exprimer ton point de vue de manière calme et posée, tu as tout de suite fait dans l’exagération :





Je suis un pro, j’utilise les mots appropriés pour appeler un chat un chat. Quand quelque chose est obsolète, je dit que c’est obsolète.



Mais si un minimum de franc parle te choques, alors un bon conseil, ne va JAMAIS dans ta vie discuter avec Linus Torvalds, Richard Stallman ou Theo de Raadt sur un sujet important.



Quand tu aura leur age, tu comprendra que les ronds de jambe pour flatter les égo, c’est juste une perte de temps.





« Dans le libre, il y a un modèle complètement dépassé qui fait que les logiciels mettent souvent des mois à passer du producteur au consommateur. »



« les développeurs du libre se cassent le cul à sortir des maj souvent si la plupart des distributions n’en tirent pas partie »



« Va expliquer à ton gamin qu’il doit recompiler son jeu pour avoir sa maj. »





Si tu as autant de mal à comprendre dans le bon sens des paroles aussi évidentes et triviales, je pense qu’il vaut mieux laisser tomber.





Viens me dire qu’un tel discours sur TOUT le libre, ce n’est pas caricatural… <img data-src=" />





C’est surtout ton interprétation qui est complètement caricaturale.





En fait je vois bien ce qui transpire à travers ton discours : tu es un développeur, et c’est TON logiciel qui a sans doute du mal à arriver jusqu’aux utilisateurs, sur certaines distribs. Et du coup tu généralise en disant que TOUS les logiciels mettent des mois à passer, sur toutes les distribs, et tu craches ton venin sur les mainteneurs des ditribs. Si c’est le cas, tu confonds ton expérience personnelle avec l’expérience de la plupart des utilisateurs. Tu prends ton cas pour une généralité et ça t’aveugle.

Si tu avais déjà diffusé des logiciels dans le libre, tu saurait que ce n’est pas un problème. Le seul truc, c’est qu’il ne faut pas être pressé.



À côté de ça, Rozgan a effectivement exprimé des choses clairement, sans utiliser de termes exagérés comme « obsolète », ni prétendre que « tout met des mois », ni dire qu’il faut recompiler à chaque mises à jour. Tu vois la différence ?? <img data-src=" />





Je vois que tu as encore du troll en stock <img data-src=" />


Le 26/03/2016 à 23h 32







Konrad a écrit :



Je rappelle ton message d’origine :

Seriously ?? « souvent des mois » ?? Comme ça, sans distinction ? Genre, la plupart des logiciels ont des versions anciennes dans toutes les distributions ? Et c’est moi qui trolle ?



Mais sérieusement, est-ce que les systèmes en place méritent tout ce qu’en dit sr17 ? Il dit que tout est « obsolète », que les solutions actuelles mettent des mois à distribuer le moindre paquet, qu’il faut tout recompiler à la moindre mises à jour… Tu as lu ses messages ci-dessus ? Son discours est franchement très exagéré, et fait davantage penser à un discours de hater qu’à autre chose.







Vu comment tu t’obstines à comprendre les propos de manière complètement caricaturale, je peux te dire que tu n’est malheureusement pas près de comprendre ce que je dit.



Au final, cela ne me surprends pas tellement que tu puisse confondre un libriste de longue date avec un “hater” fanboy apple.



Ton erreur, c’est juste de te braquer d’emblée dans le conflit et de ne plus en sortir, ce qui t’empêche de comprendre et d’échanger de manière constructive. <img data-src=" />



Perdre du temps en niant des problèmes évident, c’est autant d’énergie qu’on ne consacre pas à échanger sur l’état de la situation et les initiatives intéressantes pour les résoudre.



A ce titre, j’ai trouvé les informations données par Rozgann plus haut vraiment très intéressantes.


Le 26/03/2016 à 18h 25







Konrad a écrit :



Mais c’est quoi, le problème ? Un problème pour qui ?



La plupart des gens (Michu ou gamins qui jouent comme tu dis) qui utilisent des distros Linux (par ex. Ubuntu ou Linux Mint) se satisfont très bien des versions des logiciels qu’il y a dessus. Il y a LibreOffice 5, Firefox 45, VLC 2.2.1… KDE 4 est à jour, KDE 5 est disponible, Gnome 3 aussi… Steam est à jour, et tous les jeux qui vont avec… Les pilotes nVidia, AMD ou Intel aussi… Il y a déjà les dernières versions de tous ces logiciels !! <img data-src=" />



Pour ces gens-là il n’y a pas de problème : ils ont déjà les dernières versions de tous les logiciels qu’ils utilisent, et ça se met à jour tout seul !! Tu veux quoi de plus là parce que je ne vois pas ?!



Encore une fois il va falloir que tu précise un peu quels logiciels précisément mettent « des mois » à arriver sur ces distributions hein, parce que là j’ai plus l’impression qu’on parle de ton ressentiment que de choses concrètes.









Mais arrête avec tes arguments en carton… Aucun gamin n’a besoin de recompiler son jeu sous Linux hein, je ne sais pas d’où tu sors des exemples pareils, mais c’est complètement farfelu <img data-src=" />



Encore une fois sous Ubuntu ou Mint (utilisés par la majorité des joueurs), tous les jeux libres sont dispo dans leurs dernières versions : OpenArena, 0 A.D. (bien qu’il soit encore en alpha)… Ça ne met pas « des mois », ils sont déjà bel et bien là !



C’est d’autant plus vrai aujourd’hui avec Steam, puisque c’est Steam lui-même qui s’occupe des mises à jour des jeux… Là encore la disponibilité est immédiate.



Quant aux jeux propriétaires qui ne sont ni dans les dépôts, ni sous Steam, l’utilisateur a juste à télécharger la dernière version en .deb ou .rpm et à l’installer, comme sous Windows.



Là encore, il va falloir préciser quels jeux doivent être recompilés à chaque mise à jour hein, vas-y j’attends une liste. <img data-src=" />









Où ai-je dit qu’il fallait ajouter « tous les dépôts tiers qui viennent » ? Tu as besoin de déformer mes propos pour te donner raison ? <img data-src=" />



Quand je parle d’ajouter des dépôts tiers, je parle bien sûr des dépôts officiels mis en place par les éditeurs des logiciels. Par exemple Opera a mis en place des dépôts, ce sont évidemment ces dépôts-là qu’il faut ajouter.



Si un éditeur de jeu proposait un dépôt pour Debian par exemple, il serait facile d’ajouter ce dépôt et le jeu se mettrait à jour tout seul. Si un éditeur veut vraiment viser Linux, il peut faire ça (ou alors proposer son jeu sous Steam, qui est aussi une sorte de dépôt tiers finalement).



Bien sûr qu’il faut éviter d’ajouter des dépôts de sources inconnus comme certains le font sous Android, c’est une aberration niveau sécurité… Mais les dépôts officiels mis en place par les gros éditeurs, ça ne pose pas de problème.







Je te souhaite de comprendre un jour que de passer ton temps sur les forums juste pour faire de la contradiction avec des arguments très mal réfléchis et de mauvaise foi, c’est juste de la perte de temps.



Dire que la plupart des gens se satisfont des versions qu’il y a dans leur distro, franchement, c’est risible.



Même si c’est vrai pour une partie de la population, Linux doit t’il se contenter d’être un Os juste pour les casual users peu exigeants qui utilisent l’informatique en dilettante ? Pour ma part, j’ai une idée plus ambitieuse du logiciel libre…



Le fait que tu me réponde “regarde, la distribution xxx elle a tel logiciel à jour” démontre juste que tu ne comprends même pas le problème posé. Ce que l’utilisateur veut, ce n’est pas des distributions qui ont chacune leurs avantages contrebalancés chacune par de gros inconvénients. Ce que l’utilisateur veut, c’est des distro qui combinent au maximum les avantages. Si tu avais seulement réfléchi un peu sur tous nos échanges, tu comprendrait que ça n’existe pas encore.

D’autres que toi ici ont compris ce que je veux dire et mènent une discussion constructive au lieu de troller.



Enfin, tu parles de Steam sans même réaliser que ça confirme tous mes arguments : le monde propriétaire offre ce que le libre n’offre pas. En l’occurrence, Steam a créé un outil plus adapté aux besoins du marché et des utilisateurs que ce que les organisations libres ont fait.



Mais cela a un prix : des contrats, un système propriétaire, un store fermé et des logiciels non libres. N’est ce pas tout ce que le monde du libre voulait éviter ?



Bref, quand je te lis, je vois bien que tu ne comprends rien et que tu ne cherche pas à le faire.



Donc tu m’excusera, mais j’ai des choses bien plus utiles à faire que de perdre mon temps à troller inutilement avec toi. J’ai une amélioration d’un logiciel libre à terminer.


Le 25/03/2016 à 21h 01







saladiste a écrit :



Je sais bien, j’utilise Gentoo (nue vraie, pas avec genkernel <img data-src=" />).

Ce problème est résolu (dans portage) avec un système de “slots”.



Je parlais plus d’un programme de transpilation des fichiers ebuilds vers le fichier permettant de générer un rpm par exemple.







Tout à fait.



En fait, je verrais bien un système ou les programmeurs placeraient eux même des sortes de paquets sources “universels” dans un dépot central et ou toutes les distributions viendraient se servir en convertissant vers leur propre format.



La sécurité du système serait assuré à la fois par un minimum d’administratif pour s’assurer de l’identité des personnes, un contrat pour pouvoir attaquer en justice toute personne qui mettrait des malwares/spywares et des volontaires qui consacreraient essentiellement leur temps au contrôle plutôt qu’au packaging.



Il pourrait y avoir un système technique pour rendre les backport automatiques en intégrant automatiquement les bibliothèques nécéssaires.



Un système d’information des programmeurs conseillerait l’usage des versions de bibliothèques pour une période donnée afin d’éviter la multiplication des versions de bibliothèques sur un même système.


Le 25/03/2016 à 20h 54







Konrad a écrit :



Sous Windows, un programme embarque souvent beaucoup de bibliothèques (dll) dont il dépend. Cela évite les problèmes de dépendance (si une bibliothèque est manquante ou trop vieille sur le système, pas grave, le programme en embarque une copie), ça fait en sorte que « ça marche », mais au prix d’un poids plus lourd.



Le but des distributions GNU/Linux est d’éviter au maximum d’avoir une réplique de chaque bibliothèque pour chaque programme. Cela limite au max la taille des programmes, mais du coup il faut faire vachement gaffe aux dépendances. Cela implique aussi qu’il peut être plus difficile d’installer une version donnée d’un programme (par ex. une version plus à jour), car cela risque de poser des problèmes de dépendances.



Mais sous GNU/Linux aussi il est bien sûr possible de compiler un programme en statique, de sorte qu’il embarque ses propres bibliothèques. Certains développeurs font ça, notamment pour le jeux vidéos, mais aussi par exemple pour Steam ou Opera. Bref les développeurs peuvent tout à fait faire en sorte que « ça marche » sous Linux comme sous Windows : proposer un dépôt (ou un binaire statique en .deb, .rpm ou .sh à télécharger), et ça marchera sans prise de tête.



Bref là encore il ne faut pas croire que les choses sont figées et que certains trucs sont impossible sous Linux…







Quand tu compile tes logiciels, tu t’aperçoit que dans la très grande majorité des cas, il n’y a pas le moindre problème de dépendance.



Contrairement au propriétaire, dans le libre, on pars des sources, ce qui est suffisant dans la très grande majorité des cas à adapter le soft à la version de la bibliothèque qui est présente sur le système.



En fait, le problème viens bêtement que dans le libre, tu as d’un côté un programmeur qui fait des softs, de l’autre des personnes qui les packagent. Et les volontaires surchargés qui s’occupent du packaging c’est le goulet d’étranglement du système.



Dans le propriétaire, c’est le programmeur qui se préoccupe de faire tourner son soft sur telle ou telle plateforme, ça réduit beaucoup les délais.



Le 25/03/2016 à 20h 19







Konrad a écrit :



Tu es encore là-dessus ? <img data-src=" />







C’est un problème essentiel pour les utilisateurs. Ca reviens systématiquement.





Contrairement aux logiciels propriétaires, la plupart des logiciels libres suivent une politique de « release early, release often ».





Pas plus que beaucoup de logiciels propriétaires de nos jours.



Pour un jeu vidéo propriétaire à la mode auquel je joue beaucoup, les développeurs sortent une maj par semaine.



Et d’ailleurs, tu peux me dire à quoi ça sers que les développeurs du libre se cassent le cul à sortir des maj souvent si la plupart des distributions n’en tirent pas partie ?



En tant que développeur, quand tu te tapes des utilisateurs qui pleurent sur des bugs que tu as réglés depuis plusieurs mois, ça fait chier.





Après tu as raison, il faut que ça soit intégré dans les distributions. Mais vu que toutes les distros n’ont pas la même politique ni les mêmes délais, c’est stupide de faire des généralités comme tu les fais <img data-src=" />





Parce qu’en réfléchissant un peu, tu comprendrait que le problème n’est pas du tout une question de politique.



Les distributions n’ont pas choisi sciemment d’avoir ces problèmes. Ils découlent a la fois des modes d’organisations traditionnels du monde libre, des contraintes de packaging, de soucis de sécurité et de certains problèmes techniques.



Et plutôt que de me critiquer, si tu penses vraiment que tout cela est un choix, je te conseille de t’impliquer dans l’organisation d’une distribution Linux. Tu comprendra mieux de quoi je parles.





D’autres distributions ont des cycles bien plus rapides, comme Gentoo ou Arch par exemple qui vont très vite intégrer les dernières versions de tous les logiciels, de l’ordre d’une semaine. Ce ne sont donc pas « des mois » comme tu le prétends.





Je t’ai déjà répondu sur le fait que les distributions Gentoo et Arch ne sont pas non plus l’idéal parce qu’elles ont d’autres soucis.





Et enfin si tu tiens vraiment à avoir les toutes dernières versions des logiciels, c’est toujours possible sur n’importe quelle distribution à travers trois solutions : (1) ajouter un dépôt tiers, (2) télécharger le binaire et l’installer (en .rpm, .deb etc.), ou (3) cloner le GIT et compiler toi-même.





J’ai déjà répondu à tout cela dans l’autre topic. Tu me fait perdre mon temps.



Tous les libristes connaissent les solutions que tu viens d’évoquer… et leurs redoutables travers.



Va expliquer à ton gamin qu’il doit recompiler son jeu pour avoir sa maj.



Quand à ajouter tous les dépôts tiers qui viennent, c’est juste une catastrophe en terme de sécurité. Un conseil déplorable qu’il ne faudrait jamais donner.





Bref arrête d’asséner que « sous Linux tout met des mois à arriver », car ce n’est pas du tout une généralité. À chacun de choisir une distribution qui suit un cycle qui lui convient.





Moi qui croyait que les fanboys Apple étaient les pires…


Le 25/03/2016 à 19h 19







saladiste a écrit :



Je me demande si il n’est pas judicieux de créer un programme unifié permettant de produire des paquets pour toute distribution à partir d’un unique fichier. On pourrait ainsi confier cette tâche aux développeurs eux-même et aux distributions de maintenir le système de traduction.







Cela me parait une excellente idée…


Le 28/03/2016 à 00h 52







zeldomar a écrit :



Pourquoi vouloir à tout prix fibrer les campagnes?

….







Parce qu’internet a une telle importance économique et culturelle aujourd’hui que si on ne fibre pas les campagnes, on va créer une différence culturelle abyssale entre les jeunes de villes et ceux des campagnes.



Tout cela se traduira de manière très importante dans les chances de réussite.









Le 27/03/2016 à 20h 24







Guinnness a écrit :



Ah mais les boites privées elles peuvent bien faire ce qui leur chante sur leurs fonds propres je m’en contrefout en revanche ici ce dont il est question c’est de lever une énième taxe pour financer avec de l’argent public l’équipement de zones que les opérateurs privés refusent d’équiper eux mêmes parceque c’est pas assez rentable pour eux, sauf que une fois le fibrage en place c’est eux qui en récupéreront l’exploitation et qu’ils ne se gêneront pas pour se faire des couilles en or grâce à un réseau payé par le contribuable.



Comme d’habitude depuis plusieurs décennies peut importe le bord politique supposé des escrocs au pouvoir la devise est toujours la même : nationaliser les pertes et privatiser les bénéfices.





De mon point de vue les réseaux télécom d’un pays sont une ressource stratégique qui devrait impérativement rester du domaine du service public, privatiser ça c’est une des plus grosse connerie que nos politocards ai jamais faite, surtout que vu la rentabilité du secteur ça aurait fait rentrer des montagnes d’argent dans les caisses de l’état, comme les autoroutes d’ailleurs (à condition que ça ne soit pas gérer par un/des énarque(s) : eux tu leur file le Sahara 6 mois plus tard ils importent du sable …)







Clairement, il y a des fois ou la religion des ayatollah du tout privé tourne au grand ridicule.



L’intérêt d’avoir de la concurrence dans certains domaines, ça ne fait aucun doute.



En revanche, il est évident qu’il n’est pas possible de tirer 4 autoroutes parallèles pour qu’il y ait de la concurrence. Ca serait clairement du grand gaspillage inutile que le consommateur payerait par une énorme augmentation des couts.



Dans tous les domaines qui supposent des infrastructures gigantesques qui ne peuvent être doublées ou triplées de manière réaliste, le modèle privé a toujours été catastrophique.


Le 26/03/2016 à 23h 48

En même temps, ils parlent d’une taxe pour financer le fibrage du territoire.



Mais bon, je pense que toutes ces taxes saupoudrées, c’est une mauvaise logique parce que ça coûte très cher en frais de gestion de mettre en place ce genre de taxe particulière.



Mieux vaudrait mettre ce financement sur des taxes existantes comme les impôts ou la TVA.

Le 26/03/2016 à 18h 46







SebGF a écrit :



En relisant ce passage, c’est là qu’on voit qu’on ne pourra pas avoir de VRAIE intelligence artificielle.

Cortana est un assistant conçu pour comprendre et répondre à des questions potentiellement complexes. Elle n’est en aucun cas capable de tenir une conversation.



Tay a été conçu (tel que je l’ai compris) pour apprendre des échanges auxquels elle participe et être capable de formuler des opinions. Si derrière on doit la brider pour lui interdire de penser ce qui est socialement inacceptable de penser, ça ne sera jamais une IA mais une vulgaire Cortana qui fait ce qu’on lui demande.



C’est le risque des IA, on ne peut pas demander de développer une intelligence, et que celle-ci pense comme la société veut qu’elle pense. Qu’elle soit orientée dans son éducation et son échelle de valeur par ses concepteurs est normal (c’est comme éduquer un gosse). Mais il est nécessaire qu’elle s’émancipe et apprenne à forger ses propres idées pour qu’on puisse la qualifier “d’intelligence”.

Quitte à ce que ça fâche.







Totalement d’accord avec toi.



Le fait même qu’on puisse réagir au retrait d’une AI en concluant presque qu’elle aurait besoin d’un petit module de censure devrait vraiment nous inciter à nous poser des questions sur nous même.



Je crois qu’on est tous en train de s’habituer doucement mais surement à accepter la censure…