votre avatar

KP2

est avec nous depuis le 15 mars 2006 ❤️

5589 commentaires

Le 31/08/2016 à 19h 15







Akhagé a écrit :



Je suis partagé entre le fait que ça soit une bonne chose en soi, mais aussi que dans le même temps ça reste l’imposition d’une nouvelle norme qui vient encore complexifier…







Et bien, tu remplaces le cuivre par la fibre et ca revient au même…


Le 31/08/2016 à 13h 08







Zulgrib a écrit :



Docker c’est la connerie pour déployer des applications avec ses dépendances au lieu d’utiliser les binaires systèmes à jours pour les dites dépendances histoire de se taper définitivement une vieille version de OpenSLL ou tout autre librairie critique, j’ai bon ?







<img data-src=" />



Sauf qu’en vrai, les 2 concepts ont chacun des avantages et des inconvénients qui les rendent aussi désirables l’un que l’autre


Le 30/08/2016 à 16h 24







tiny_naxos a écrit :



On va se marrer quand le téléchargement ou jeu en réseau de l’un va faire des macroblocs énormes sur l’IPTV de l’autre <img data-src=" />







Ca n’arrivera pas car absolument personne n’a interet a ce que ca arrive…


Le 30/08/2016 à 16h 23







Crillus a écrit :



En l’occurrence j’aurais plutôt tendance à penser l’inverse, la neutralité pure et parfaite existe bien au niveau technologique : une trame acheminée de bout en bout sans autre surveillance que son intégrité.







Bien sur que ca existe, je dis juste que ca n’a pas de sens techniquement. Et quand on parle de priorisation, on parle effectivement de QoS et des classes de service.



Le problème dans tout ce bordel est que la QoS réseau est extrêmement mal comprise. On croit que le flux priorisé possède une partie du tuyau pour lui tout seul comme les pompiers avec la voie d’urgence alors que ce n’est pas ça qu’il se passe. Un flux priorisé ne fait que permettre à ses paquets de “passer devant” comme un fast pass chez Disney mais ça fait pas de la magie non plus… si le tuyau est saturé, le tuyau est saturé, point barre. Priorisation ou pas.



Le gros souci dans la volonté de casser la neutralité du net, c’est surtout le contrôle du débit. L’allocation de débit maximal en fonction d’accords commerciaux est une vraie gageure.

Mais même si ce n’est pas censé exister aujourd’hui, les opérateurs peuvent déjà jouer plus ou moins avec la capacité des liens de peering pour “simuler” ce genre de chose. On l’a bien vu avec la guéguerre Free vs Youtube…

Et la dessus, j’ai l’impression que le BEREC va donner des directives assez claires… mais je me trompe peut etre.


Le 30/08/2016 à 14h 57







jaffalibre a écrit :



j’ai quand même l’impression que les opérateurs ont gagnés. Ils peuvent faire du zero rating, et des differences de débit selon les flux.

De ce que je comprends, demain les utilisateurs auront le choix entre les gros qui ne sont pas débités de leurs forfait et les petits qui seront décomptés, entre les gros qui seront dans les flux “prioritaire” et les autres.



Je vois pas en quoi c’est une victoire (ou alors une victoire à la pyrrhus) des consommateurs.







Non, je pense qu’il faut voir les “portes ouvertes” à la priorisation et le controle du débit de certains flux pour les usages légitimes comme la TV, le téléphone et d’autres trucs du genre.

La neutralité pure et parfaite n’a pas de sens techniquement mais il faut surtout se prémunir du risque de casser la neutralité du réseau pour des raisons commerciales.

Et je pense que ce point en particulier est clairement controlé.


Le 30/08/2016 à 14h 53

Je me surprends à de plus en plus croire que c’est l’Europe, malgré sa démocratie pour le moins particulière et sa technocratie effroyable, qui peut nous “sauver” des politiques nationales complètement débiles et gangrénées par le copinage et les petits intérêts particuliers pour ne pas dire la corruption…

Le 23/08/2016 à 21h 04







matroska a écrit :



J’entendais par-là le “déplacement” financier dans un autre pays de l’UE. Ce qui est d’ailleurs le principal motif du départ de Netflix de notre pays…



<img data-src=" />







Ils se sont toujours debrouillés pour contourner le fisc donc y’a pas vraiment de “deplacement” financier étant donné qu’il n’ont jamais laché un kopeck ici…


Le 23/08/2016 à 14h 47







matroska a écrit :



Merci qui ?







Pour un bureau avec 1 DG, 2 marketeux et 1 commercial, c’est pas la mort, hein…


Le 20/08/2016 à 08h 14







patos a écrit :



Le plus lourd, c’estce que tu dois réapprendre car tu n’as rien que tu connais.

Pour moi qui suit un admin Windows, je suis heureux de pouvoir avoir un shell Powershell pour mes 4 serveurs Linux (dont mon VPN). Ce sera également plus pratique pour invoquer une session distante depuis un serveur, et ainsi faire les tâches presque de la même manière de partout.

Ca permettra aussi de scripter du Exchange et donc du Exchange Online de Office 365 depuis Linux, ainsi que du Azure AD.



C’est une sacré bonne nouvelle, et c’est très loin d’être un coup d’épée dans l’eau.







A mon avis, rien de ce que tu cites et qui serait très cool ne sera dispo à court ou moyen terme… Il faudrait que MS libére ses libs système et les porte sous Linux aussi et je doute que ça arrive rapidement


Le 19/08/2016 à 15h 29







brazomyna a écrit :



C’est évidemment loin d’être deux managers en totale opposition ; il ne faut déjà pas oublier que si Nadella est là où il est maintenant, c’est qu’il a forcément reçu l’aval de Ballmer.







Les entreprises sont rarement une pyramide parfaite ou la tête dirigé absolument tout et tout le monde… Il y a souvent des guerres internes avec des centres de décisions qui peuvent être divisés.

Je suis pratiquement sûr que MS a vraiment connu une période de split-brain avec un Ballmer qui perdait du terrain et un Nadella qui en gagnait de plus en plus…

Je suis désolé mais même si Nadella est un produit MS, il reste tellement différent de Ballmer dans sa façon de faire que je les trouve vraiment en opposition contrairement à toi.

La patte de Nadella à marqué toutes les divisions où il est passé : Le mec passe dans la division serveurs et ils pondent Azure, il passe dans Office et MS lance Office365…

Ballmer faisait quoi avant ? Il changeait de marque tous les ans (qui se rappelle de l’époque ou tout s’appelait “.net” puis “live” puis …) et revoyait la politique tarifaire pour les pros encore plus souvent. Et tout ça, sans s’arrêter de balancer des campagnes de pub débiles pour chier sur la tête de Linux et du Libre en général… Et côté technique, innovations, etc il faisait quoi ? Rien…

Bref, Ballmer se comportait comme un commercial d’une boîte dont les produits se vendent trop facilement : il s’occupait juste à bouger des curseurs dans ses tableaux excel pour optimiser les gains en oubliant de s’occuper de l’avenir. Et il a faillit foutre MS par terre avec ses conneries…


Le 19/08/2016 à 15h 08







tazvld a écrit :



Disons que la logique binaire n’est pas exclusive à MS, c’était la logique de la Silicon Valley des années 70-80 voir 90. Et justement, MS a tiré son épingle du jeu en offrant un peu de liberté, en ne limitant pas leur OS au seuls ordinateurs IBM, mais à tous les compatibles PC.

Il suffit de regarder du coté d’Apple pour voir ce genre de politique toujours en application dans sa forme pratiquement la plus brute (contrôle de A à Z de l’environnement aussi bien matériel que logiciel).







MS a “libéré ” le matériel en quelque sorte… A l’époque, l’OS était un accessoire (ou quasi), c’était le matos qui comptait et c’est sur le matos que toute l’attention se portait. MS a été celui qui a su créer le virage vers l’OS.. Le matos s’est normalisé et c’est l’OS qui est devenu le centre d’attention…

Par contre, MS (et Ballmer surtout) n’a pas su prendre le virage de l’open source. Le Libre a créé un virage équivalent ou l’OS (et la plupart des composants de base) se normalisait et l’attention devait se porter sur les softs (ou services) qu’on y fait tourner dessus. MS, dont la moitié du revenu reposait sur un OS à très mal réagit en voyant que les OS ne valaient plus rien.

Un nouveau virage a été passé depuis qq temps déjà ou les softs ne comptent plus mais ce sont les données qui comptent… Et ça, Les GAFA l’ont bien compris. Le Libre, lui, n’est qu’un outil dans tout cela et MS est en train d’essayer de redresser la barre pour éviter de louper ce virage… C’est pas encore gagné pour eux mais Nadella est sur la bonne voie en tout cas.



Apple, dans tout ça, est une espèce d’ovni… D’ailleurs, son histoire à montré qu’il a eu de sérieux creux dans son business model donc le fait de garder son modèle complètement intégré de haut en bas n’a pas toujours été adapté au besoin du moment.







arno53 a écrit :



L’anachronisme de Ballmer c’est aussi le lancement de Windows Azure (ex-Microsoft Azure), d’Office365 et le développement des apps Office sous iOS et Android.







Mouais… Moi, j’aimerais bien savoir dans quelle mesure Ballmer a été acteur de ces lancements… On ne saura jamais ce qu’il s’est passé en interne mais je suis prêt à mettre ma main au feu que Ballmer a tenté d’une façon ou d’une autre de retarder ces projets voire de les faire capoter.

Faut pas oublier qu’il a été foutu dehors, il s’est pas mis en retraite avec les félicitations du conseil d’administration (ou alors juste pour l’image).

Il y a une période où Nadella prenait de plus en plus de place au sein de MS et on voyait clairement un split-brain. Je pense que les projets innovants de cette époque étaient déjà des bébés de près ou de loin de Nadella et son crew et non de Ballmer…


Le 19/08/2016 à 09h 02







wpayen a écrit :



C’est impressionnant le virage à 180° pris par Microsoft depuis plusieurs années.







Nadella a toujours été qqn de bien plus “ouvert” et avec une reflexion plus long terme que Ballmer. Ballmer est un commercial : il pousse a mort ce qui se vend bien. Autrement dit, il a poussé a mort Office et Windows en combattant tres durement tout ce qui pouvait leur nuire d’une facon ou d’une autre.

Nadella a compris que MS ne peut pas gagner contre Linux et l’OpenSource et il a compris aussi que ce ne sont meme pas des concurrents/ennemis en fait. Il faut juste adapter sa strategie au lieu de s’epuiser financierement et au niveau de l’image a essayer de les discrediter inutilement.



Resultat, depuis le depart de Ballmer, Nadella transforme completement MS avec une vision bien plus moderne et intelligente de l’avenir. Et ca se voit car MS revient sur le devant de la scene au lieu de se transformer en vieux mamouth sans interet comme IBM…







CryoGen a écrit :



Et puis powershell c’est aussi un ensemble d’extension pour piloter les serveurs Windows ou certains solutions Microsoft comme Exchange. Du coup tu pourrais les administrer depuis un Linux ou MacOs sans soucis (pour les solutions de monitoring c’est plutôt pratique aussi du coup)







A mon avis, sans les libs systeme de windows, rien de tout cela ne sera possible depuis linux a mon avis…

C’est comme si tu fournissais Bash sans les milliers de commandes GNU (et autres) qui font les briques…


Le 12/08/2016 à 17h 18

Moi, j’dis que si des boîtes comme ca proposent aussi cher pour des 0-days sur ces softs , c’est qu’il doit pas y en avoir des masses sur le marché…

Par contre, 60K$ pour une faille dans Flash, c’est carrément un bon plan <img data-src=" />

Le 11/08/2016 à 09h 52

Si, je crois bien aussi…



Cette histoire pue l’arnaque à 10km mais c’est tellement facile d’accuser et condamner qqn pour agression sexuelle que c’est super pratique à utiliser pour discréditer qqn qui a une image publique…

Le 06/08/2016 à 18h 12







127.0.0.1 a écrit :



Je pense qu’avant les “gros” films reflétaient la vision du réalisateur avec tout ce que ca pouvait comporter d’innovant, cheap, personnel, barré, ennuyant, wtf, nul a chier, …



Aujourd’hui, ces mêmes gros films reflètent la vision du studio de production avec tout ce que ca comporte de calibré, ciblé, étudié, policé, attendu, marketé, …







Ca a toujours été comme ça… L’expression “Yes men” ne date pas d’hier…

C’est juste qu’on a de plus en plus rarement une petite perle avec un scénar original et une réal qui déchire…


Le 06/08/2016 à 18h 11

J’ai vu ce film et je sui déçu mais à un point pas possible… C’est le rythme qui est dégueulasse surtout.

C’est haché, avec des longueurs régulièrement et des blagues qui tombent à complètement à plat…

Vraiment triste. En fait, la bande annonce est 10x mieux que le film. On dirait qu’ils ont pris la BA et ont comblé les trous avec du chiant.



Margot Robbie est pas mal mais c’est carrément pas suffisant. Dommage, y’avait vraiment un truc génial à faire avec ce perso.

Le 05/08/2016 à 10h 15







t-la a écrit :



Ce serait pas mal que les navigateurs ne viennent pas interférer avec le contenu ou la structure des sites.

Ils n’ont qu’à rediriger les noms de domaines non déposés vers d’autres tant qu’on y est…







Certains FAI le font deja avec leur DNS menteur…


Le 05/08/2016 à 09h 33

Je pense que c’est vraiment une mauvaise idee… Une 404 doit rester une 404. Le navigateur n’a pas à aller recuperer du contenu je-sais-pas-ou pour combler les trous.

Le 04/08/2016 à 15h 26







micdubs a écrit :



Question bête, debian 8 embarque la version 2.4.10 d’Apache, elle ne sera donc jamais mise à jour ?

Merci par avance pour la réponse <img data-src=" />







Debian retroporte les MAJ de sécurité. Par contre, ca restera officiellement un apache 2.4.10 d’un point de vue fonctionnel


Le 04/08/2016 à 11h 11







Stel a écrit :



J’ai toujours eu du mal à trouver de l’utilité quand le navigateur fait la même chose, je suppose que c’est pour garder les mdp en cas de changement de machine ?







Le problème est que le chiffrement des mots de passe du navigateur est un peu pourri ET le mot de passe est récupérable en clair si tu utilises un profil par défaut.

Le seul moyen pour que ce soit vraiment sécurisé est d’avoir un profil protégé par un mot de passe perso qui t’est demandé à chaque ouverture de ton navigateur.


Le 04/08/2016 à 10h 36







Niktareum a écrit :



J’ai des stratégies basé sur du mnémotechnique avec plusieurs niveaux en fonction des services, de plus la plupart des mes mdp sont basé sur des trucs générés aléatoirement que j’ai réussi a retenir, ça évite les recherche sur les trucs bateaux perso.

Et hormis la bdd du service qui stocke le mot de passe du dit service, il n’y a aucune trace de mes mdp que ce soit dans un fichier info ou écrit qqpart.



Après me reproche pas de faire mieux que certains autres hein.







Non, c’est vachement bien mais ce qui me gène avec la mnemotechnique, c’est que qqn de ton entourage peut le retrouver… et la grosse majorité des “piratages” (ou vols de comptes) proviennent justement de l’entourage…

Le reste provient de sites avec de la sécurité pourrie qui se font piqués leur base et il suffit d’avoir 2 ou 3 bases pour retrouver la mnemotechnique.


Le 04/08/2016 à 10h 16

Perso, j’ai 1Password mais j’utiliserai jamais leur offre d’hébergement. J’ai préféré 1Password a LastPass justement pour être sur d’avoir mes pass en local, c’est pas pour passer à l’hebergement 2 ans plus tard…

Le 04/08/2016 à 10h 15







Niktareum a écrit :



Gestion perso du bouzin, rien de plus sûr !







Et tu fais comment ? 2 ou 3 mots de passes differents pour tous tes comptes ou un vulgaire fichier texte sur ta machine ?


Le 03/08/2016 à 14h 44







ActionFighter a écrit :



Ben on est d’accord en fait <img data-src=" />.







D’après ce que tu dis, j’ai quand même pas trop l’impression…







ActionFighter a écrit :



C’est juste ce doute qu’il faut garder. Ça fait malheureusement un peu trollesque de devoir le rappeler, mais c’est justement grâce à ce doute que le science a pu avancer.







Oui mais le doute est tellement faible, tellement minuscule, ça ne sert plus à rien de s’en préoccuper à un certain moment.



Regarde, il y a toujours un risque de faire un faux-pas dans un escalier et mourir avec une mauvaise chute. Va-t-on interdire les escaliers pour autant partout alors que c’est une solution tellement pratique et économique de passer d’un étage à l’autre ?

Le problème des OEM est équivalent : va-ton interdire un secteur économique entier et des centaines de solutions technologiques apportant beaucoup de facilités à plein de gens pour un risque infinitésimal ?



Rien sur cette Terre n’est 100% sûr pour l’Homme. Rien. Même l’oxygène ou l’eau alors qu’ils sont des composants indispensables à notre survie. Va-t-on s’interdire toute évolution technique à cause d’un risque quasiment inexistant alors que sur d’autres sujets (pesticides, nucléaire, OGM, etc), nous prenons des risques monstrueux pour nous et notre environnement ?


Le 03/08/2016 à 14h 35







IhazHedont a écrit :



Je suis d’accord, sur le papier un routeur wifi ne pourrait jamais ioniser l’air, mais pourquoi ne pas chercher sur la piste de l’accumulation d’ondes basses puissances ?







En fait, je crois qu’aujourd’hui, on a plus vraiment besoin de faire des études trop grosses, la réalité suffit…

Ca fait combien de temps qu’on baigne dans des OEM d’origine technologiques ? 70 ou 80 ans au minimum

Combien de temps qu’on baigne dans des OEM liées au téléphone mobile ? 25 ans environ



Il suffit d’observer les hausses de maladies quelconques (ou même de gêne) qu’on ne peut expliquer par aucun autre phénomène. Si c’était si grave, je pense que ça ferait longtemps qu’on aurait mis un doigt dessus.



Je rappelle qu’il n’y a encore pas si longtemps, les robins des toits nous promettaient encore des cancers généralisés à toute la population dans 25 ans… sauf que ça faisait facilement 20 ans que les ondes mobiles touchaient tout le monde. 5 ans plus tard, il se passe quoi à ce niveau ? Que dalle…


Le 03/08/2016 à 14h 27







ActionFighter a écrit :



Par contre, aucune étude ne prouve à l’heure actuelle l’innocuité des ondes électromagnétiques.

he







Comme déjà dit, impossible de prouver que qqch n’existe pas. Par contre, on peut réduire fortement les chances qu’il existe.

De plus, les OEM sont toutes dangereuses à partir d’un certain seuil. C’est pas nouveau. Le micro-onde est là pour le prouver.

La question est de savoir à partir de quel seuil ça pose un problème (sans même parler de maladie). Or aujourd’hui, on sait que les niveaux actuels du wifi (100mW max) et mobile (1W max) n’ont pas d’effets mesurables.







ActionFighter a écrit :



je me prononce juste en faveur de la reconnaissance du processus scientifique qui induit qu’en l’état actuel des choses, il est impossible de lier l’HSEM aux ondes tout comme il est impossible de nier toute corrélation.







Tu mets les 2 possibilités sur le même plan alors que c’est faux.



Pour être honnête, avec les études déjà réalisées, il faut dire ceci :

Il y a de très fortes chances que l’electro-sensibilité n’est pas liée aux ondes et de très faibles chances qu’une corrélation existe.


Le 03/08/2016 à 14h 18







ActionFighter a écrit :



Oui, et en l’état actuel des connaissances, s’il est impossible de relier les symptômes de l’EHS aux ondes, il n’est toujours prouvé que cette relation n’existe pas.







Il est impossible de prouver que qqch n’existe pas. Et un bon scientifique dira toujours qu’il ne trouve rien en rappelant la marge d’erreur de ses résultats.



Sinon, je crois que ca ferait longtemps qu’on en aurait fini avec la religion…


Le 03/08/2016 à 11h 20







2show7 a écrit :



A moins que ne soit ton dernier commentaire (“…sujette à caution”)







huh ?


Le 03/08/2016 à 11h 16







wpayen a écrit :



D’où mon “ça dépends d’un traitement médical approprié” et non d’une remise en question de la 4G.







Tout à fait.

Le problème aujourd’hui est qu’on parle toujours d’“electro-sensibilité” alors que le coté “electro” du problème n’a aucun rapport…


Le 03/08/2016 à 11h 07







dematbreizh a écrit :



en tout cas, tout le monde ici est d’accord sur un point essentiel: ce n’est pas une étude de plus qui changera quoi que ce soit.







Non, je ne suis pas trop d’accord… On a effectivement une chiée d’études il nous manque quand même des études de qualité reconnues par tous.



Les robins des toits sont des champions pour dénicher des daubes d’études réalisées n’importe comment mais que personne sauf de vrais spécialistes sont en mesure de démontrer les failles de raisonnements ou la méthodo moisie…

Et surtout pour 100 études, y’en a 5 qui concluent sur des effets (alors que ceux-ci restent dans la marge d’erreur de l’étude) et ils vont faire un foin pas possible avec.


Le 03/08/2016 à 11h 02







wpayen a écrit :



Mais la personne qui se réclame “électro-sensible”, tu lui dis quoi ?







Personnellement, je pense qu’il ne faut pas remettre en cause les symptômes. Par contre, la cause est sérieusement sujette à caution…


Le 03/08/2016 à 10h 58







IhazHedont a écrit :



Why not ?

C’est déjà fortement déconseillé de vivre sous une ligne haute tension.







Mais je crois que personne ne remet en cause la dangerosité de certains niveaux de seuils d’ondes. On sait très bien que 500W d’ondes à 2,4GHz ne sont bons pour personne…

De la même façon que la puissance des lignes à haute tension génère des ondes d’une puissance qui n’ont absolument rien à voir avec les gsm et les routeurs wifi.



Donc effectivement, dire que c’est dangereux de vivre sous une ligne à haute tension est tout à fait compatible avec le fait de dire que le wifi et les ondes mobiles n’ont aucun effet sur les hommes… parce que les niveaux de puissance n’ont aucun rapport.


Le 03/08/2016 à 10h 37







Pictou a écrit :



Ils ont quand même conclu qu’il ne pouvait pas pourtant exclure le risque, les données ne devaient pas être aussi simple à lire pour pouvoir faire des conclusions tranchées.







Oui, parce que l’etude en question se focalisait essentiellement sur les cancers et moins sur le reste… Et les problèmes chroniques ont été beaucoup moins vérifiés. Néanmoins, les mecs sont pas cons, si ils avaient détecté une variation statistique importante à ce niveau, ils auraient poussés sur ce point…



Et faut pas oublier que ce sont des scientifiques, comme on ne peut pas prouver que qqch n’existe pas, les mecs restent toujours prudent en disant qu’on ne peut pas exclure un risque minime (qui peut être vraiment très très très minime)


Le 03/08/2016 à 10h 16







cassoulet a écrit :



Dans les années 20 on croyait aux vertus bienfaisantes de la radioactivité, arguments scientifiques et rationnels à la clé Sirop au radium

Aujourdhui, on en a une trouille bleue.







On en a pas une trouille si bleue que ca puisqu’on l’utilise dans les hopitaux. C’est juste qu’il faut bien connaitre les effets biologiques pour determiner les seuils acceptables. A partir de là, on mets les moyens et les procédures en oeuvre et roule ma poule…







cassoulet a écrit :



La recherche clinique c’est mon job, l’effet placebo/nocebo je connais, les effets (réels) inattendus aussi. Si on veut explorer l’electrosensibilité ca sera très long, très difficile et très cher. C’est tout ce que j’en pense.







Vu l’extreme faiblesse des cas concernés, est ce qu’on mettra autant d’argent ? Par sur… Je sens qu’on a pas fini de troller la dessus.


Le 03/08/2016 à 10h 10







jeje07bis a écrit :



des pseudos études sur 5  ou 10 ans, c’est du vent.







Je sais pas si tu es au courant mais sur une population soumise aux même problème “biologique”, les effets n’arrivent pas systématiquement au même moment. Certains rencontrent les effets très vite et d’autres beaucoup plus tard.

Ainsi statistiquement, t’as pas besoin d’une étude de 20 ans pour détecter un phénomène qui mettra 20 ans à arriver sur la majorité des concernés. Tout simplement car y’en aura déjà eu un certain nombre qui seront détectables au bout de 2 ans ou 5 ans et qui feront sauter les stats.



Dans le cadre des études sur les ondes, il y a deja eu une étude de 10 ou 12 ans à l’échelle européene (Interphone) . C’est absolument gigantesque… Si il y avait eu qqch a detecter, ça se serait largement vu sur cette étude.


Le 03/08/2016 à 09h 45







Pictou a écrit :



Quelqu’un a-t-il une preuve que l’électro-sensibilité n’existe pas et comment cela a été “prouvé”?



On parle quand même d’un phénomène qui agit insinueusement, c’est pas une lame qui va venir te couper le bras…







D’après ce que j’en sais, il semblerait que les “electro-sensibles” existent vraiment. Ces gens souffrent réellement et ont des manifestations physiques indéniables.

Par contre, on a jamais réussi à faire le lien avec les ondes… Donc est-ce une maladie mentale ? Est-ce une maladie psychosomatique ? lié un phénomène réel autre ?



Que les ondes ne soient pas la cause, c’est une chose mais ça n’empeche pas qu’on peut s’interesser à comment les soulager. Y’a un paquet de maladie donc on ne connait pas vraiment la cause ou dont la cause n’a rien de “physique” qu’on traite quand meme… pourquoi pas celle-ci ?


Le 03/08/2016 à 09h 40







jeje07bis a écrit :



si on reprend l’histoire, on s’aperçoit que plein de trucs étaient soi disant inoffensif : l’amiante, les pesticides, la cigarette (des pubs TV dans les années 50 vantaient les bienfaits de la cigarette….)







Sauf que dans les exemples que tu cites, les etudes scientifiques sur le sujet ont toujours demontré depuis le debut qu’elles ont ete réalisées que c’etait dangereux.

Donc soit les pubs etaient faites avant les etudes, soit c’etait du réel mensonge assumé. Pour l’amiante, par exemple, on connait son implication sur la santé depuis la fin du 19e siecle. Le fameux scandale de l’amiante est lié à un mensonge d’état et à l’absence de volonté de légirferer sur le sujet pendant des décennies, pas au fait qu’on a “découvert” sa dangerosité…



Le 02/08/2016 à 15h 26







darkbeast a écrit :



ouais donc pour un célibataire sans enfant, que ça soit prélevé à la source ou au mois ça sera kiff kiff







Y’a pas de raison que ça change, si ?


Le 02/08/2016 à 08h 28







sr17 a écrit :



C’est beau de rêver. Mais les réalités du monde informatique sont la.

Tu parle de passion, mais pour l’industrie, un codeur, c’est juste un consommable comme un autre.







Mec, sors de ta SSII… tu m’as foutu le bourdon pour la journée avec ton commentaire…







sr17 a écrit :



Quand il voudra avoir une vie de famille, qu’il aura du mal à se former et qu’il codera moins vite… c’est une simple question de temps avant qu’on le pousse doucement mais sûrement vers la sortie pour le remplacer par un “jeune passionné”.







Y’a pas que les grosses SSII qui emploient en France. Pour avoir travaillé essentiellement chez des clients finaux, les mecs en postes sont justement des seniors. Et ca se passe très bien pour eux.

Y’en a beaucoup aussi qui deviennent freelances et qui peuvent justement appuyer sur cette experience pour se vendre (c’est mon cas). Et ça se passe très bien aussi pour peu qu’on essaye pas de se vendre au rabais en essayant de concurrencer les SSII justement…







sr17 a écrit :



L’expérience ? Il ne faut pas rêver, au dela de l’expérience de base, ce que veut le gros du marché c’est du codeur “à pas cher”. L’erreur courante pour un codeur, c’est de se croire indispensable.







Ca change… mais, idem, il faut lever la tête et regarder ce qu’il se fait ailleurs pour le voir.







sr17 a écrit :



Sinon, dans les domaines ou l’on recherche l’expérience et les codeurs top niveau, le problème, c’est justement qu’on ne veut pas des gars qui codent moyennement dans 50 langages “à la mode”, mais plutôt des gars qui savent coder au top dans un seul.







Je crois qu’en fait, t’as rien compris à ce que je raconte depuis le début ou tu fais semblant de pas comprendre pour nous balancer ton pseudo réalisme de mec aigri par son boulot qu’il n’aime plus…



Je dis pas qu’il faut connaitre et maitriser 20 (et pas 50) langages en même temps. Je dis que tout au long d’une carriere (soit une 40 aine d’années), il me parait normal pour un dev d’avoir travaillé et maitrisé successivement une 20aine de langages au moins. Pour peu qu’il se tienne un peu à la page (sans pour autant sauter sur la moindre nouveauté à la con qui sort sur github).







sr17 a écrit :



Coder dans le langage de son choix, ça fait aussi partie de cette liberté.







Et tu vas obliger Apple à supporter des langages de dev dont il ne veut pas ? Ca n’a aucun sens… Si tu veux pas coder pour Apple avec les langages qu’il te propose, le fait pas. Et voilà.







sr17 a écrit :



Libre entreprise ne signifie pas pour autant absence de toute régulation.

Sinon ta voiture roulerait avec de l’essence de la marque du constructeur depuis belle lurette.







Tu te la joues “je suis un vieux de la vieille” mais t’as visiblement pas connu l’époque IBM… Ni même l’époque de la micro informatique qui a suivi avec l’essor de Commodore, Atari, Sinclair, Oric, etc qui avaient chacun leur propre architecture CPU, leur propre langage (et un seul) et leur propre environnement de développement (et un seul).

Même sous Windows, pour faire certains types de développements, tu es obligé de passer par les libs MS voire par les langages MS. Alors ou est la liberté en vrai ?







sr17 a écrit :



Pourtant, c’est grâce à ce réalisme (que tu appelle du pessimisme) que j’ai eu la chance de comprendre assez jeune comment durer.

Et quand on connait les vrais réalités du marché et la terrifiante naïveté des jeunes qui sont en face prêts à se faire bouffer, c’est difficile de ne pas être cynique.

Le problème, c’est que tu ne vois pas les choses comme le ferait un employeur professionnel.



Plus tu avancera en age, plus tu cumulera les inconvénients de manière inéluctable : Enfants, famille, perte de passion, diminution de la capacité d’apprentissage, diminution de la motivation.







Comme je le disais, les enfants et la famille, ce ne sont que des délais, pas des blocages. Et le nombre d’informaticiens s’accroissant, le nombre de mecs avec des enfants va nécessairement augmenter fortement et les même les SSII sont obligées de faire avec et changer leur manière de voir les choses. L’industrie “vieillit” naturellement…

Quand à la “perte de passion, diminution de la capacité d’apprentissage, diminution de la motivation”, j’ai envie de dire que c’est ton problème personnel. C’est pas lié à l’âge… Franchement, change de boulot, tu dois être déprimant, pas étonnant que tu te sentes en danger.









divide a écrit :



C’est horrible, à vous lire j’ai l’impression que vous bossez tous en SSII et que la plupart des projets sur lesquels vous bossez se résume à pisser du code pour quelqu’un d’autre sans avoir pu prendre part à la conception ni même au thème du projet.







Ben, y’en a 1 ou 2 dans ce cas ici visiblement… mais y’a d’autres voies possibles…


Le 01/08/2016 à 22h 13







Z-os a écrit :



Personnellement, 36 pour moi, c’est plus une lassitude de n”apprendre ‘que’ de l’informatique.







Moi, ce que je trouve cool avec l’informatique, c’est le coté “transversal” du métier. Donc si l’informatique pour l’informatique te lasse, tu peux aller vers un secteur qui te branche et faire de l’informatique pour ce secteur là en particulier. Et y’a des informaticiens qui montent tellement en compétence fonctionnelle qu’ils sont même plus calés que les métiers eux-même qui utilisent les softs. Je l’ai observé un paquet de fois.



Bah, ça arrive a tout le monde d’avoir des coups de mou ou des envies différentes. C’est normal et même plutôt sain.

On a tous des phases ou on fait des choses juste pour l’alimentaire pendant une période. C’est pas propre à l’informatique…

Après, faut voir comment arranger les choses. Soit il faut patienter un peu qu’un nouveau projet interessant arrive ou alors il faut provoquer le changement. C’est à chacun de décider mais il ne faut pas attendre trop longtemps sinon on devient fou…


Le 01/08/2016 à 21h 31







sr17 a écrit :



Le jour ou tu aura des enfants, que tu ne pourra plus passer tes week ends à te former sur ton temps libre gratuitement, les employeurs te considéreront comme un mauvais développeur.







Hum… j’ai pas dit qu’il fallait tout savoir sur tout mais se mettre à jour régulièrement (genre tous les 2 ou 3 ans), c’est le lot de tous les gens qui ont un métier un temps soit peu technique et qualifié…







sr17 a écrit :



Ceux qui survivent à long terme, c’est justement ceux qui évitent de se disperser dans l’apprentissage de dizaines de langages et d’environnements.







20 ou meme 30 langages maitrisés sur une carrière, c’est pas grand chose…









sr17 a écrit :



Tout à fait. Et ce que les jeunes développeurs ignorent, c’est qu’avec le temps, le cerveau n’apprends plus aussi facilement.







C’est quoi ce discours de vieux con moisi ?

Sérieusement, même si on apprend moins vite (et pas à cause du cerveau, probablement plutot à cause de la lassitude), l’expérience compense largement. Comme disait un autre, on a pas besoin de tout découvrir à chaque nouveau langage puisqu’on maitrise les concepts et l’algo. Et on sait bien mieux chercher les infos manquantes…







sr17 a écrit :



Cette multiplication des langages et des plateformes est une vraie catastrophe pour la profession. Mais les jeunes s’en rendront compte plus tard, quand ils devront se recycler et qu’il faudra apprendre toujours et encore de nouvelles choses inutiles “à la mode”.







Je crois que tu t’es planté de metier si tu bosses dans l’informatique. C’est pas nouveau et ce n’est pas prêt de s’arreter…







sr17 a écrit :



De toute façon, un développeur vieillissant ne peut pas se contenter de suivre la mode. S’il cherche à continuer d’apprendre tout ce qui sors comme un jeune, il ne sera pas performant. Et les entreprises le savent.

S’il y a un métier qui est une belle arnaque sur le long terme, c’est bien celui de développeur.







Non, c’est faux.

Déjà, il n’y a aucune raison de tout apprendre. Même un jeune aujourd’hui ne maitrise pas à la fois le C++, des langages web (php, js, css, etc) un langage pour une plateforme mobile, un langage pour les developpements pro (.net, java). Un jeune connait 2 ou 3 langages qu’il a vu a l’ecole et apprend le(s) langage(s) qui ser(ven)t au type de developpement qu’il doit effectuer lors de ses 1eres missions. Ensuite, il apprend ce qu’il lui servira en fonction de ses gouts au fur et a mesure.

Y’a aucune raison qu’un dev en fin de carriere fonctionne differemment… Le seul problème est que les devs en fin de carriere, y’en a pas des masses aujourd’hui donc le recul sur le sujet est faible.







sr17 a écrit :



Sauf que ça n’est pas réaliste de faire ça pendant 40 ans. Du moins pas dans les conditions de marché d’aujourd’hui. De nos jours, la condition pour durer, c’est d’être performant.







Vive l’optimisme…

C’est sur qu’aujourd’hui, il ne fait pas très bon d’etre un “vieux” dev au bord de la retraite. Mais pour en avoir vu qq’uns, c’est en partie parce qu’ils ont été mal formés durant leur carriere voire pas formés du tout. Pas facile d’evoluer correctement dans ces conditions surtout quand on est une sorte d’ovni dans une boite…



Par contre, les generations suivantes sont bien mieux formées, plus “passionnées”, mieux utilisées surtout. De toute façon, il sera inévitable que dans les 20 ou 30 années qui viennent, le nombre de “vieux” devs va augmenter en fleche. Aussi vite que le nombre de devs sur le marché a augmenté ses 20 dernieres années.







sr17 a écrit :



Il y a de multiples stratégies pour gérer une fin de carrière pour un programmeur.







Celle de se confire et s’enterrer dans une vieille techno que plus personne ne veut n’est pas la bonne, c’est certain.

Y’a qu’a voir le sort des flasheurs aujourd’hui. Y’en a encore qui n’ont pas fait le saut du HTML5 ou des langages natifs mobiles et les mecs ont une carriere en train de pourrir alors qu’ils n’ont même pas encore 40 ans…







sr17 a écrit :



Mais il ne faut pas se leurrer, plus haut dans la hiérarchie, il y a moins de place qu’en bas.

Et sortir de la technique signifie aussi être en compétition avec d’autres cursus.

Avec toutes les écoles qui pondent du diplomés a la chaîne en ce moment dans tous les domaines, la compétition pour les postes de management promet d’être féroce. Pas sûr que ce soit un choix réaliste dans le futur…







Le problème est que tu as une vision de l’évolution complètement linéaire et formatée par les SSII française ou la seule issue possible pour un bon technicien est de devenir un (mauvais) manager…

Cette vision a toujours été idiote à mon avis. Et même les SSII sont en train de changer cela.

Les américains voient les choses différemment avec 2 “lignes” d’évolution de carrière parallèles : l’expertise et le management. Ainsi un bon tech peut continuer a faire du bon boulot en devenant de plus en plus expert. Et un manager de monter dans la hierarchie.

Les ponts de l’un a l’autre existent evidemment mais on est pas obligé de quitter la technique pour evoluer correctement et c’est une bonne chose.







sr17 a écrit :



Moi je pense que des développeurs qui passent leur temps à changer de langage et d’environnement seront toujours médiocres dans tout.







OK donc si je resume ton point de vue : il faut pas trop en apprendre et l’avenir est bouché pour un dev.

Donc a 35 ans, faut se trouver un autre métier ? Ben ouais mais si on aime pas apprendre de nouvelles choses, on va faire comment pour se reconvertir ?



Tu résous ce paradoxe comment ?







sr17 a écrit :



Si les développeurs étaient intelligents, ils iraient voir des politiques et demanderaient l’interdiction de vente de tout OS qui pousse vers l’utilisation d’un unique langage.







Mouarf ! Et la liberté d’entreprendre ?



Enfin bref, tu me fais plus l’effet d’un mec qui n’est pas très heureux dans son boulot (voire même dans son métier) et qui est très pessimiste. Tu vois beaucoup de choses en noir et tu as l’air de te sentir dépassé ou de ne pas tarder à l’être…

Franchement, il faut se faire confiance et changer de job (voire de métier) si ça va pas. L’excuse des enfants ou du prêt de la maison n’est pas un empêchement, ce sont juste des contraintes de temps à prendre en compte dans le projet. Crois-moi, je sais de quoi je parle…


Le 01/08/2016 à 16h 50







Gigatoaster a écrit :



De toute façon à part faire des copier/coller, ça ne sert pas à grand chose un dev, d’autant plus vrai qu’il y a de plus en plus d’outils pour leur mâcher le travail. Et ils sont toujours incapables de sortir des apps sans bugs! Et après ils blâment le marketing ou les commerciaux! Ils ne manquent pas de toupet.







J’estime avoir un certain savoir-faire dans l’art de troller les dév mais là, c’est du haut niveau <img data-src=" />


Le 01/08/2016 à 16h 48







Cashiderme a écrit :



Quelqu’un spécialisé en moteur  3D sera plus à l’aise en C++ qu’en python, celui qui utilise le moteur fera plutôt du script, le mec de l’IA à son truc à lui, un dev web sera plutot sur du PHP ou .Net, un autre dans l’automatisme aura son truc obscur aussi, etc.







Ouais, c’est que j’appelle “choisir la techno la plus adaptée au besoin”









Cashiderme a écrit :



Et puis changer brutalement ca arrive, de plus en plus souvent même, mais tu regardes les spécificités du nouveau langage en fonction de ce que tu dois en faire , pas la peine de te retaper un cours complet pour être éfficace non plus. Et plus tu accumules d’experience, plus vite tu sais ou chercher aussi.







Exactement, c’est pour ça qu’un bon dév monte très vite en compétence sur un autre langage et, au final, ça ne devient plus qu’une syntaxe parmi d’autres…

Il est bien souvent plus compliqué de maitriser un framework qu’un nouveau langage…


Le 01/08/2016 à 16h 17







Cashiderme a écrit :



Je pense au contraire qu’un dev dont c’est le métier “dur” va se concentrer sur peu de langages, mais plus à fond







Avec une telle stratégie, il faut sérieusement bien choisir les qq langages en question pour pas finir à 40 ans dans un stage de reconversion de pôle emploi…



Devenir expert sur un langage donné, il faut combien de temps ? 3 ans de pratique quotidienne environ ?

Et comme n’importe quel bon dev ou presque touche 2 ou 3 langages en parallèle, En 40 ans de carrière, ça laisse le temps d’en voir un paquet…



Devenir expert sur qq technos spécifiques est une manière d’envisager les choses mais il faut pas se gourer car plus on avance et plus c’est dur de changer. A la rigueur, si on veut se focaliser sur qq chose, il vaut largement mieux viser un domaine fonctionnel et laisser tomber la technique à terme, c’est plus sûr.



Le 01/08/2016 à 16h 07







Arkeen a écrit :



L’évolution de l’informatique ne devrait dépendre des OS et des solutions propriétaires.







Pourquoi ?

L’évolution de l’informatique est darwinienne. Les solutions les plus adaptées à leur milieu survivent et les autres disparaissent naturellement. Le coté “Libre” d’une techno facilite grandement sa diffusion mais ce n’est pas suffisant (ni même nécessaire) pour assurer sa survie… de la même façon que la qualité technique ou conceptuelle d’une techno n’est ni nécessaire ni suffisant (sinon, des PHP, MySQL ou Javascript n’auraient jamais émergé ou encore des horreurs sans nom comme XML devraient malheureusement avoir envahi le moindre recoin informatique)


Le 01/08/2016 à 16h 00







nekogami a écrit :



Plus 5-10 que 15-20 je pense.







Je suis admin système et je travaille déjà quotidiennement avec plus de 10 langages alors j’imagine assez facilement qu’un dev à plein temps va aller bien au delà. A vrai dire, je pense avoir largement sous-estimé le chiffre en parlant de 15-20…


Le 01/08/2016 à 15h 58







saladiste a écrit :



Il est préférable de ne pas programmer 50 fois la même chose. <img data-src=" />

Bon développeur ou mauvais développeur.







Ca dépend pour quoi et combien de temps ça met pour redévelopper un truc… Il est assez régulièrement plus simple et moins couteux de refaire un truc from scratch dans un nouveau langage que maintenir un vieux bousin complexe.

Ca dépend d’énormément de facteurs mais c’est pas un choix débile, loin de là.







saladiste a écrit :



Il existe un langage formidable appelé C++. Au lieu de fournir une solution simple à son problème de bibliothèques (typiquement fournir un équivalent à cpan), les gens réinventent (mal) la roue.







Bof… C++ n’est pas la solution universelle. D’ailleurs, tout ceux qui ont cru qu’une solution universelle pouvait exister se sont vite pris qq désillusions dans la face. Y’a qu’à regarder Java par exemple…



La question n’est pas de savoir si un truc est capable de faire le job, la question est de savoir ce qui est le plus adapté au besoin. Or, le besoin, il n’est pas que technique. Le besoin, il peut toucher le niveau de compétence des dév engagés sur le projet, leur background technique, leurs préférences (oui, ça aussi ça compte), le budget alloué, les délais, etc

Or, maitriser le C++ fait peut-être badass auprès des copains mais c’est pas le langage le plus pratique du monde quand on parle de développement moderne, rapide et efficace. Surtout quand on veut faire de la petite appli mobile sans prétention le soir/WE après le boulot ou pour les agences qui produisent des “one shots” marketing…



Quand on me dit “XXXX peut le faire” sans plus d’analyse de la situation, ça me fait tout de suite aux mecs qui utilisent Excel pour tout et n’importe quoi. Oui, Excel aussi peut faire plein de trucs mais est ce que c’est le meilleur outil à chaque fois pour autant ?


Le 01/08/2016 à 15h 24







sr17 a écrit :



C’est un avis personnel, mais je trouve que chaque constructeur qui veut faire son propre langage associé à son os, c’est une très mauvaise chose pour les programmeurs.







Pourquoi ? les programmeurs ne seraient-ils pas capables d’évoluer ?

Personnellement, je pense qu’il n’y a que les mauvais développeurs qui pleurnichent pour ça, les autres savent bien que l’informatique n’arrete pas d’évoluer et les langages avec elle.

Un dév aura facilement à apprendre 15 ou 20 langages différents pendant sa carrière, il vaut mieux s’y habituer dès le début et se focaliser sur l’algo et les concepts plutôt que sur la syntaxe


Le 27/07/2016 à 07h 46

#fear

Le 26/07/2016 à 10h 31







zabu64 a écrit :



Trop de pubs dans Society… :(







Bof, je viens de compter 12 pages de pubs pour 82 pages de contenu dans le dernier numéro… C’est un ratio qui est loin d’etre degueulasse.

Et c’est un des rares magazine de société ou tu peux avoir des papiers de 8-10 pages sur un seul sujet.