votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 04/03/2017 à 23h 02









ldesnogu a écrit :



Tu preches un convaincu pour les petites incivilites.



Quand je parlais des decerebres qui roulent trop vite en zone dangereuse, je pense a tous ces cretins qui se trainent sur les routes sinueuses et n’hesitent pas a rouler a 70 km/h des qu’ils entrent dans une agglomeration.







Estime toi heureux, moi, c’est 50 dès que je rentre en agglomération. <img data-src=" />



Et oui, je m’entraîne pour concourir au championnat du monde de la voiture bouchon, mais papy rené me bat encore <img data-src=" />


Le 04/03/2017 à 20h 29







athlon64 a écrit :



Tu serais surpris malheureusement <img data-src=" />







Il y aura toujours quelques inconscients capables des pires bêtises.



Mais si vous croyez que votre papy ira vous dire les conneries qu’il a pu faire dans sa jeunesse…


Le 04/03/2017 à 19h 37







choukky a écrit :



On en a tous fait étant jeune et ça continuera pour les jeunesses à venir, le tout est d’arriver à maîtriser son comportement au volant. Bon après, il y en a qui mettent plus de temps à s’assagir… <img data-src=" />







Il n’est pas certain qu’il y ait tant de jeunes que ça qui se permettent encore de conduire bourré vu les sanctions encourues actuellement.



Les moins qu’on puisse dire c’est que ça rigole pas. Rien à voir avec le passé.



Déjà, tu prends 6 points en moins sur le permis, autant dire annulation du permis pendant la première année de la période probatoire.



Ensuite, c’est tribunal à coup sûr avec période de retrait de permis.



Ensuite, tu est normalement obligé de prévenir ton assurance. Et tu peux te faire jeter et galerer/payer cher pour en retrouver une…



Le 04/03/2017 à 19h 19







choukky a écrit :



Les médicaments et l’alcool sont légalisés et pourtant on ne croise pas à tous les coins de rue des chauffards intoxiqués à ces produits. Fume un splif, ça te détendra mais n’abuse pas car ça pourrait entretenir ta psychose. <img data-src=" />







Il y a même pire, des millions de français sont sous anti-depresseurs, tranquilisants et autres calmants.



En théorie, ils ne devraient pas conduire en prenant de telles substances. Mais comme on les oblige à travailler…



Le 04/03/2017 à 19h 01







gavroche69 a écrit :





Il m’est arrivé de nuit de me retrouver derrière un mec qui se traînait à 4050 (route limitée à 90) et qui freinait à mort à la moindre courbe, de plus il restait en plein phares en se foutant des voitures qui arrivaient en face. Ces voitures faisaient bien sûr des appels de phares et moi derrière j’en prenais plein la gueule…

La route étant assez sinueuse je ne pouvais pas raisonnablement doubler et j’ai du supporter pendant de nombreux kilomètres cet abruti qui n’aurait jamais du avoir le droit de conduire…

Mais c’est sûr, lui ne sera jamais flashé et devait sûrement se considérer comme un conducteur irréprochable…

Oui, la peur au volant est aussi très dangereuse mais elle n’est pas mesurable…









Un jour, tu sera vieux, tu verra moins bien et tes réflexes deviendront plus lents.



Tu pourra peut être arrêter de conduire si tu le peux. Mais la situation de certaines personnes âgées les oblige parfois à devoir conduire. Ce n’est pas toujours un choix.



Donc peut être qu’un jour tu comprendra que les quelques minutes que tu as perdu n’étaient pas le plus important. Que finalement, tu as ragé en te stressant tout seul pour rien. <img data-src=" />











Le 04/03/2017 à 18h 33







matroska a écrit :



En parlant de sécurité routière, il ne faut absolument pas que le cannabis doit légalisé. Sinon ça sera la porte ouverte à toutes les dérives… Les gens consommeront et conduiront dans des états lamentables, défoncés au volant… Bref, encore pire que de nos jours alors que c’est interdit…







Le fait que ce soit interdit n’empêche nullement les gens d’en consommer et de conduire défoncés au volant dans des états lamentables.



Le fait de légaliser le cannabis n’empêche pas de l’interdire au volant assorti d’un retrait de permis dissuasif, comme pour l’alcool.







Le 04/03/2017 à 18h 27



qui estime que le but de cette privatisation est que « les véhicules tournent le plus de temps possible, afin de verbaliser un maximum d’usagers ! ».





Ou d’augmenter le nombre de personnes qui sont salariées par l’état tout en faisant croire qu’on diminue le nombre de fonctionnaires. <img data-src=" />

Le 04/03/2017 à 22h 48







x689thanatos a écrit :





Apres pour le problème physiques, dés qu’il s(agit de taches répétitives, le problème sera la. On va fournir des nouveaux périphériques de saisie, un nouveau bureau une nouvelle chaise… Mais dans le temps, je ne suis pas convaincu que cela résolve vraiment les problèmes.







Ayant plusieurs décennies d’expérience en la matière, je peux te certifier que l’ergonomie change réellement beaucoup de choses en terme de fatigue et d’apparition de problèmes médicaux.



D’ailleurs, dans les grandes entreprises, les comité d’hygiène et de sécurité sont de plus en plus attentifs à ces problèmes. On n’installe plus un poste de travail informatique n’importe comment…



Dans le temps, on peut imaginer que les normes seront de plus en plus sévères et que les employeurs qui ne soigneront pas cet aspect s’exposeront juridiquement en cas de problème médical.


Le 04/03/2017 à 22h 34







x689thanatos a écrit :



Au risque de te décevoir, la majeure partie des utilisateurs ne veulent pas mettre les mains dedans. Ils achètent un appareil et ça doit rouler direct dés que le bouton power es pressé.

AMHA les os de ce genre sont appropriés à leurs usages.



Et parfois j’ai l’impression qu’osx a déja pris ce chemin et que windows tant vers ca également.







Quand les premier smartphones ont débarqué, leurs possibilité matérielles étaient limitées et beaucoup de gens n’avaient jamais touché à un ordinateur.



Avec le temps, les utilisateurs qui veulent des performances, de vrais logiciels et une convergence avec les ordinateurs seront de plus en plus nombreux. Et le matos qui est de plus en plus puissant ne peut s’exprimer au mieux avec ces Os.



D’ailleurs, contrairement aux idées reçues, Linux n’est pas plus compliqué à utiliser qu’Android et iOs.



La légende des difficultés liés à Linux viens largement du fait que Linux est un os de “seconde installation”.



La préinstallation faisant logiquement disparaitre ces difficultés.


Le 04/03/2017 à 19h 56







Ramiel the Arbiter a écrit :



… En plus, si le futur c’est des OS comme Android ou iOS, alors je suis pas sûr que c’est une bonne chose. D’ailleurs, j’attends toujours un vrai GNU/Linux mobile. Mais quand on voit où en est Canonical avec son Ubuntu …







A terme, Android et iOS ont toutes les chances de disparaître.



Et cela pour une raison simple : ces Os sont trop limités.



Ils sont trop fermés et imposent trop de contraintes sur les technologies qui peuvent tourner dessus.



Mon pronostic pour le futur sur le mobile, même si cela mettra du temps : Linux.



Le 04/03/2017 à 19h 46







jeje07bis a écrit :



Ne sois pas trop sur de toi..

Ça peut évoluer très vite.



Et on se dirige vers du mobile : smartphone, tablettes. Donc vers Android / ios.

L’age d’or de windows est plus ou moins derrière. En tout cas le marché évolue vers le mobile.







C’est beau de croire que les entreprises voudront travailler avec des machines sans clavier ni souris, avec des écrans riquiqui, des Os simplifiés et des applications limitées…



Vu ce que coûte l’heure de travail, ça n’a aucun intérêt de faire l’économie d’un vrai ordinateur.



Et je ne parle même pas des soucis avec les troubles musculo squelettiques et de la vue qui découleraient de l’abus d’usage de ces périphériques mobiles. Parce que’en entreprise, il y a l’inspection du travail… et les procès coûtent cher.



La mode du “post PC” passera comme toutes les autres modes…


Le 04/03/2017 à 21h 50







legalize a écrit :



C’est ton droit d’en vouloir pour ton argent, mais faut pas pleuré qu’intel augmente ses prix, a la sortie des 2600 k le proco était a 240 euros et le 2500 k a 180190 euros. Maintenant les proco de même gamme on pris 100150 euros de plus et font pas énormement plus pour autant. Même tabac avec nvidia qui ce touchent sur ses prix, faut pas oublier que là ou on a deux société bien différent qui ont chacun leurs marché (intel/nvidia) de l’autre leurs seuls conccurents est sur les deux marchés donc fatalement. Mais c’est bien continué, quand AMD aura sauté grace a votre sublime logique, qu’intel et nvidia aura le monopole, vous paierez vos cg/cpu le double du prix actuel :)



Perso mon 2600k me suffit encore amplement pour joué, ma 290 aussi. Mais quand je changerai ce sera au coup de coeur, mais je vu les tarif actuel je sais chez qui je me dirigerai …







C’est très louable, mais d’un autre côté je dirais qu’il est illusoire de croire que quelques consommateurs vont changer grand chose à cela.



C’est un problème qui viens de ce système de capitalisme mondialisé qui tends à engendrer des monopoles.



Par le passé, les autorités de régulation intervenaient. Mais depuis la “mondialisation” qui n’est autre qu’une guerre mondiale économique, plus personne ne le fait.


Le 04/03/2017 à 21h 15







IMPulsion a écrit :



T’es entrain de nous expliquer qu’un G4560 à 70€ fait aussi bien qu’un i7 6900k à 1200€ ?







Toi, t’a pas fumé assez de moquette <img data-src=" />


Le 03/03/2017 à 21h 09







OlivierJ a écrit :



J’allais te répondre, mais quelqu’un l’a fait ici :

(PS : et j’ai lu vos échanges après, mais je maintiens : ce qui est consommé par le processeur, en W, est ce qui est dissipé par le processeur, et donc le refroidissement à appliquer dépend directement de la consommation (max) du CPU) (bon on va pas se battre hein <img data-src=" /> ) .

<img data-src=" />







Le TDP semble avoir été conçu pour répondre à problème de logistique industrielle.



Si tu as un processeur qui dissipe 58,8W et un autre qui dissipe 62,9W, ça n’est pas forcément rentable de fabriquer deux dispositifs de refroidissement différents. Tu crée une “classe 65W” qui regroupe toutes les déclinaisons de processeurs qui fonctionneront avec un même dispositif de refroidissement conçu pour dissiper un maximum de 65W.


Le 03/03/2017 à 19h 03







kantfredo a écrit :



Donc en gros tout le monde trouve incroyable que AMD arrive enfin a s’aligner sur la génération de processeur Intel qui a maintenant 6 ans ? (et qui n’a presque pas évoluer depuis un i7 2600k tien les R7 1700 ….).







Toi, tu ne sais pas du tout lire les benchs.



Regardons les chiffres publiés par Hardware.fr :http://www.hardware.fr/articles/956-21/indices-performance.html



Sur la moyenne applicative, le R7 1800X est 2,12 fois plus rapide que le 2600k alors que le i7 7700k n’est qu’a 1,56 fois.



Sur la moyenne jeux, le R7 1800x est 1,10 fois plus rapide que le 2600k, mais le i7 7700k n’est qu’a 1,37 fois.



L’offre est déjà intéressante, mais comme le souligne Hardware.fr, l’architecture a encore beaucoup de potentiel d’amélioration.





Personne ne se dit qu’Intel attendais ça depuis longtemps, a engrangé des centaines de milliards ces dernières années et va donner le coup de grâce a AMD quand il va annoncé sa nouvelle génération de processeur gardé bien au chaud ?





Si Intel avait voulu éliminer AMD, ils auraient pu le faire depuis très longtemps.



Si au lieu de faire de la marge, Intel avait pratiqué des prix agressifs, AMD serait tombé depuis quelques années.



Mais Intel ne veut pas tuer AMD parce qu’ils ont besoin d’eux. La vraie menace pour Intel n’est pas AMD.



Demandez vous comment AMD en est venu à fabriquer des processeurs x86 et vous comprendrez peut être une partie des raisons.



Pour le reste, est ce que la nouvelle architecture d’Intel sera une révolution, arriveront t’ils à tirer beaucoup plus de puissance qu’actuellement ? Ce n’est pas impossible, mais a ce stade rien n’est certain. Il n’est plus si facile d’améliorer l’IPC que par le passé…





la comparaison en oubliant l’absence de partie GPU dans le SOC on en parle ?





C’était intelligent de la part d’AMD de ne pas gaspiller des transistors et donc de l’argent pour un GPU intégré que la plupart des utilisateurs de ce segment de marché n’utiliseront jamais.





Pour moi cette sortie de processeur est la mort d’AMD, ils arrivent tout juste a s’aligner alors que pour tenir les prochaines années il fallait qu’il sortent bien mieux qu’intel.





D’un autre côté, AMD sait faire mieux qu’Intel en terme de GPU. Pour les APU, ça compte.





bref, le monopole est plus que jamais d’actualité.





Oui, ce n’est pas AMD qui mettra en péril le monopole d’Intel… et intel le sait.



Même du temps ou le K8 défonçait le P4 prescott, AMD vendait beaucoup moins qu’Intel.



Ce que les profanes ignorent, c’est qu’il ne suffit pas de faire le meilleur produit. Ce qui compte, c’est la puissance commerciale qui est fonction de la puissance financière.


Le 03/03/2017 à 18h 28







kantfredo a écrit :



simplement en temps que particulier, j’achète un i7 2600k a 150-200€ aujourd’hui, une bonne mobo de cette génération a moins de 50€ …







Non.



Le prix moyen en occaz d’une bonne mobo de cette génération, c’est beaucoup plus cher.





Si AMD est obligé d’augmenter le nombre de cœurs c’est simplement un aveu d’échec, a nombre de cœur équivalent ils sont moins bon que Intel …





Intel garde effectivement un avantage en terme d’IPC. Mais il n’a plus rien à voir avec celui qu’on pouvait constater par le passé.



On peut imaginer qu’avec le potentiel d’amélioration de la plateforme Zen et le fait qu’Intel n’arrive plus à augmenter l’IPC, les deux constructeurs finiront a terme par atteindre des résultats plus ou moins équivalents.



Et si AMD se bat en mettant plus de coeurs pour compenser leur léger désavantage, c’est tout bénef pour les consommateurs qui y gagnent réellement en puissante totale.





Si demain intel augmente le nombre de cœurs de ses processeur, ca va piquer. et c’est ce qui se dessine avec l’arrivé des pentium 2c/4t.

Ca laisse imaginer de futur I3 4c/4T et I5 4C/8T …





Intel n’aura sans doute pas trop de mal à faire des offres compétitives… sauf qu’ils devront baisser leurs marges… et c’est tant mieux.





Le 04/03/2017 à 18h 19







uzak a écrit :



J’ai rien compris <img data-src=" />

C’est quoi cette histoire de retour ? Faut payer le retour du taxi aussi ?







Par définition, un client paye toujours les frais inhérents au sercice qu’il consomme. <img data-src=" />



La seule manière de ne pas payer les trajets à vide… est de permettre au taxi d’avoir des moyens de les éviter.



Le 04/03/2017 à 18h 03







manu0086 a écrit :



Et tu continues à fond les ballons dans la mauvaise foi… je te laisse dans tes délires ^^







Vous avez le droit de ne pas partager mon avis. Mais il faut éviter les propos irrespectueux.



Parce que dans la vie, personne n’est assuré de posséder la vérité. <img data-src=" />





Heetch n’a rien d’une bonne startup, leur idée de base est illégale… et pas seulement en France hein, mêmes aux USA. Tu souhaites une anarchie libérale, c’est cool… ou pas.





Ce qui est légal ou pas, ce sont des gens qui l’ont décidé. Et comme par hasard, les entreprises de la nouvelle économie sont souvent ennuyées…



Ce que fait la France est précisément ce que veut le monde du grand capitalisme.



Contrairement aux idées reçues, les plus grands exploiteurs de la planète préfèrent les pays blindés de législations qui nettoient la concurrence. Des pays ou les gens ont peu de perspectives d’emploi pour échapper aux exploiteurs.



Les gens ignorent que le lobbying d’intérêts financiers a poussé beaucoup de réglementations.



Parce qu’empêcher ceux qui n’ont pas de capital de travailler, c’est aussi l’une des méthode capitaliste pour faire de l’argent.


Le 03/03/2017 à 23h 59







manu0086 a écrit :



Quelle mauvaise foi!



Si tu veux monter une startup, peu importe où, tu dois respecter les lois en vigueur…







Sauf que dans d’autres pays, les “loi en vigueur” ne sont pas quasi-systématiquement défavorable à la nouvelle économie.



En France, montez un nouveau concept qui fait concurrence aux entreprises de l’ancienne économie et dans 6 mois, vous aurez une loi contre vous qui vous obligera à fermer boutique.



Les politiques considèrent visiblement que tout le monde n’a pas les même droits à gagner de l’argent…



Conclusion : Gagnez du temps et de l’argent, n’innovez pas en France, ne montez pas votre boite ici…





C’est la nouvelle économie de faire travailler au noir les particuliers ? lol





On parle d’une plateforme de covoiturage.



Devrait t’on interdire Ebay et Airbnb sous prétexte que des particuliers pourraient y gagner de l’argent sans le déclarer ?



Le statut professionnel empêche t’il pour autant les “oubli” de déclaration ?



Par définition, le changement pose toujours de nouveaux problèmes. Mais c’est tellement plus facile de trouver des prétextes pour interdire plutôt que de travailler pour s’adapter…


Le 03/03/2017 à 19h 51

Dans ce pays, on veut interdire à la nouvelle économie de faire de la concurrence à l’ancienne.



On dit aux jeunes “montez des startup, innovez”.



Sauf que de l’autre côté, on multiplie les législations, les taxes et les embûches pour leur prendre leur argent et les couler pour qu’ils ne fassent pas de l’ombre aux activités de l’ancienne économie.



On ne modernisera jamais rien dans ce pays.



Mon conseil si vous voulez monter une entreprise, faites le ailleurs.

Le 03/03/2017 à 19h 41







OlivierJ a écrit :



Le point de l’article de Jancovici c’est que si c’est un lobby, il est bien faible, surtout comparé à toutes les autres industries ; et que c’est pas la peine de brandir ça comme “excuse” comme si un puissant lobby tout méchant obligeait l’État français à produire de l’électricité avec du nucléaire, hors de toute rationalité.







Ce n’est pas ce que j’ai dit.



Ce que je veux dire, c’est que les lobbys, qu’ils soient pro ou anti, ne font que brouiller un débat qui est déjà assez compliqué comme ça.



Il faut réaliser qu’il sera impossible de continuer à gérer une technologie comme le nucléaire si les français ont le sentiment que le débat n’est pas suffisamment clair. Et d’un autre côté, il ne suffira pas de claquer dans les doigts pour tourner la page de cette technologie.



Pour ce qui est de la rationalité, il faut réaliser que ce n’est pas simple. Un choix n’est jamais complètement rationnel quand les différents chemins possibles ne sont pas complètement connus par avance. Par exemple, l’intérêt des énergies “renouvelables” dépendra beaucoup de ce que la R&D parviendra à découvrir dans les prochaines années. Qui peut prétendre le savoir ?


Le 02/03/2017 à 19h 21







OlivierJ a écrit :



Sur ce supposé gros lobby du nucléaire en France, cette litanie régulièrement entendue, invoquée comme une divinité, une saine lecture :

“Discussion autour de quelques idées reçues sur le nucléaire civil”https://jancovici.com/transition-energetique/nucleaire/quelques-idees-recues-nuc…



Oui c’est assez long, et ça aborde énormément d’aspect, dont celui de Tchernobyl, mais tu peux sauter à :



Question/affirmation : “Le « lobby » du nucléaire n’est pas transparent ni démocratique”



Cette affirmation correspond à une certaine réalité, mais les choses sont, encore une fois, moins simples qu’il n’y paraît.



D’abord, le « lobby » du nucléaire ne ressemble pas à un « lobby » habituel, comme, par exemple, celui de la chimie, des constructeurs d’automobiles ou de l’agriculture céréalière, car, contrairement aux cas de figure précités, ou les constituants du « lobby » sont des entreprises privées, l’essentiel des acteurs du nucléaire civil sont des administrations (CEA), ou des entreprises publiques (EDF, Areva). Evidemment, si, pour des raisons qui m’échappent encore du reste, Areva et EDF sont « privatisées », cet argument deviendra caduc ! Il y aura alors bien un « lobby nucléaire ».



[…] Il n’y a donc pas de « lobby » nucléaire au sens où cette expression s’emploie habituellement. Il existe par contre, de manière incontestable, une technostructure, composée de fonctionnaires ayant un esprit de corps certain. Mais cet esprit de corps existe aussi à la SNCF ou chez les médecins : faut-il supprimer les trains parce que nous ne supportons pas « l’esprit de corps » des cheminots et les grèves qui en découlent parfois ? Faut-il supprimer les soins pour éradiquer « l’esprit de corps » des médecins qui en sont chargés ?







Si je résume la question “comment sait t’on qu’il existe un lobby pro nucléaire”.



Concrètement il y a un certain nombre d’industriels et de salariés qui ont des intérêts économiques dans ce secteur. C’est par définition un lobby.



Un lobby n’est pas nécessairement privé. Les profs, les fonctionnaires des impôts, les infirmières forment autant de lobbys qu’il y a de groupe humain qui ont des intérêts convergents. Et chaque groupe d’intérêt humain tente de défendre ce qu’elle pense être ses intérêts.



Les politique sont censés faire un minimum la part des choses et comprendre que par définition, chaque lobby va tenter de défendre ses intérêts.


Le 02/03/2017 à 18h 58







OlivierJ a écrit :



Affectée, c’est pas très précis. Et si, la nature se porte assez bien, loin du tableau noir qu’on pouvait imaginer, moi compris. C’est une surprise pour la majeure partie des observateurs.

NB : tu sais, je lis les articles que je relaie. En entier.







Justement, à quoi peut t’on dire que la nature se porte bien ou pas ?



Dans les égouts, il y a des proliférations de rats et d’insectes. Peut t’on dire pour autant que c’est un milieu naturel sain ?



Et concernant la radioactivité, même si Tchernobyl a apporté de nombreux enseignements utiles, on savait déjà depuis longtemps qu’a moins de recevoir de très hautes doses, elle ne tue pas instantanément.



Même si l’étude de la nature à Tchernobyl peut surprendre par certains aspect, il ne faut pas pour autant passer d’un raisonnement manichéen “noir” à un raisonnement manichéen “blanc”.



Ce n’est pas parce que des meutes de loup qui ne vivent que quelques années survivent assez longtemps pour se reproduire et proliférer que pour autant un homme pourrait y vivre 80 ans avec un taux de décès par cancer acceptable.





Ça dépend de la quantité des rejets, des vents ce jour-là, et de la proximité avec une grande ville. Ça aurait tendance à faire comme au Japon et à Tchernobyl : condamner une zone relativement petite à l’échelle du pays. C’est dur pour ceux qui vont devoir quitter la zone, mais ça ne révolutionne pas le pays (pas plus que l’Ukraine ou le Japon).





Déjà, ce qu’il faut savoir, c’est que la zone de contamination d’une telle catastrophe ne se limite pas à la zone d’exclusion. La zone d’exclusion est la petite surface sur laquelle la contamination de l’environnement est telle que la radioactivité directe est trop importante pour pouvoir juste y séjourner longtemps, donc y vivre.



Mais les terres agricoles peuvent être contaminés sur une surface autrement plus importante comme le montre les cartes de contamination de tchernobyl.



Si l’on joue de malchance avec la météo avec des vents changeants, des précipitations et des rejets sur plusieurs jours, c’est l’ensemble du pays qui peut être contaminé dans le pire des cas.



Il est évident que même dans un cas favorable, un pays aussi agricole que la France verrait son économie et sa capacité à survivre en autarcie fortement endommagée.



Ce jour la, nous aurions le choix entre importer de la nourriture ou laisser notre population consommer de la nourriture plus ou moins contaminée.


Le 02/03/2017 à 18h 15







OlivierJ a écrit :



1)J’étais en France aussi et largement en âge d’écouter la radio et la télévision en parler (et on en a beaucoup parlé), et comprendre le sujet.




  1. quel déficit d’information ? J’ai posté au moins 2 articles qui montre que l’information était là (et qui rappelle que les retombées radioactives étaient bien supérieures dans les pays à l’est, ce qui est logique étant donné les vents à ce moment-là).







    Ce que tu ne réalise pas, c’est que la majeure partie des classes populaires ne lit pas les journaux et ne comprends rien aux explications scientifiques longues et complexes.



    Ce à quoi beaucoup de français se sont fié, c’est le ton rassurant des propos tenu à la télé par les commentateurs, les journaliste et ceux qui représentaient les autorités. Et cela sans même en comprendre les détails.



    Qu’on puisse dire que ceux qui avaient accès à de bonnes sources d’information et (surtout) le niveau intellectuel nécessaire pour en tirer de bonnes conclusions étaient correctement informés, on peut en convenir.



    Cet incident résume un peu le drame français : le fossé d’incompréhension qui sépare les classes populaires des élites politiques et intellectuelles.





  2. Les légumes du jardin ne posaient aucun problème dans la majeure partie de la France, et je me rappelle bien que dans l’Est de la France, où il y a eu un peu plus de retombées, il y a eu un moratoire pendant quelque temps sur certains aliments (végétaux ou lait, pas sûr), par précaution, mais rien de grave.





    Justement, les mesures prises par la France ont été très insuffisantes, que ce soit pour prévenir les gens des dangers ou dans l’interdiction des aliments potentiellement contaminés.



    D’ailleurs, nos voisins européens ont eu des réactions autrement plus poussées. Rien que ce contraste est le signe évident d’une anomalie.



    Même si l’on sait qu’il existe des lobbys anti nucléaires qui ne manquent pas d’arguments fallacieux et partisans, le problème, c’est qu’il existe en face un lobbys pro nucléaire dont les arguments sont tout aussi spécieux.



    Alors que d’une manière générale, j’ai toujours pensé que le nucléaire était un bon choix pour la France, le fait même que les politiciens français n’ont jamais su faire la part des choses entre les arguments spécieux de ces deux lobbys opposés tends à me convaincre de plus en plus que nous ne sommes pas capables de gérer correctement de telles technologies et que ceux qui prônent la sortie ont peut être raison. Pour me convaincre du contraire, il faudrait que la classe politique montre un vrai changement d’attitude.





  3. Parler de “pluie contaminée”, ou de radioactivité, ça ne veut rien dire en soi, ce qui compte c’est le taux de radioactivité. Il ne faut pas oublier que tout est radioactif, et toi aussi. Cf ce superbe diagramme par exemple, qui montre les ordres de grandeurhttps://xkcd.com/radiation/ .





    C’est amusant de constater que tu est toi même mal informé malgré l’abondante littérature scientifique à disposition du public aujourd’hui.



    Non, ce qui compte si l’on ne se situe pas à proximité de l’incident, ce n’est pas le “taux” de radioactivité. Du moins pas en France ou celui ci est demeuré trop faible pour être une source de danger.



    Le grand danger, c’est d’ingérer des particules radioactives.



    Celles ci restant dans le corps humain peuvent être dangereuses malgré une radioactivité très faible à cause des mécanismes suivants.



    -Par proximité : les rayonnements s’atténuent énormément avec la distance, la proximité au niveau moléculaire renforce notablement leur effet. Pour comprendre cet effet, il suffit d’approcher une lampe de son oeil. En dessous d’une certaine distance, même une lampe de puissance modeste peut endommager la vision.



    -Par exposition à long terme : Une élément radioactif piégé dans le corps humain peut irradier les cellules voisines pendant plusieurs décennies. La longue durée de vie de l’homme est un facteur aggravant…


Le 02/03/2017 à 16h 47







OlivierJ a écrit :



<img data-src=" />

Quant on voit comment la nature se porte bien autour de Tchernobyl, en particulier grâce à l’absence de l’homme (ce qui a été montré dans divers articles et reportages), effectivement on peut se demander.

Cet article donne des détails sur la situation, certains animaux se portent mieux que d’autres, la surprise étant que les grands mammifères, normalement les plus sensibles à la radioactivité (à l’inverse par ex des fourmis capable de supporter beaucoup), se portent plutôt bien, au contraire des oiseaux : https://www.lesechos.fr/19/04/2016/lesechos.fr/021852246907_tchernobyl—les-ani… .







Dire que la nature se porte bien la bas, c’est est une vision complètement biaisée et lénifiante, pas une réalité scientifique objective.



D’ailleurs, ce n’est pas ce que dit l’article que tu cites. Je crois que tu ne l’as pas bien lu. Il précise bien que la durée de vie des animaux est affectée.



Sachant que l’humain est plus affecté par les effets à long terme de la radioactivité que les animaux sauvages du fait de sa durée de vie beaucoup plus longue, il n’y a rien la dedans qui contredise le fait que ces zones sont devenues impropres à la vie humaine pour très longtemps.



Un tel incident en France, compte tenue de la densité de population serait de toute évidence une catastrophe d’une gravité extrême. Et notre économie en serait affectée à très long terme.


Le 02/03/2017 à 00h 05







DahoodG4 a écrit :



L’artiste sans salaire, il vit du mécénat. Si quelqu’un croit en lui ou apprécie son boulot, il sera financé, et remboursera par des œuvres si elles sont bonnes, et se fera du beurre s’il a un public en marge.

Ce système était très bon, et comme je disais, engendrait une sélection naturelle.



Et effectivement, un artiste qui vit dans l’opulence, perds toute créativité, et surtout toute motivation a bouger son cul et produire de l’oeuvre.







La pression pour produire et l’art sont deux choses incompatibles. Par définition une oeuvre est terminée quand elle est terminée.



Une oeuvre qui sors prématurément est une oeuvre bâclée. Autrement dit du pseudo art, de la daube commerciale.



Il y a une différence entre s’agiter et produire quelque chose de bon.



Hélas, l’art n’échappe pas au délire productiviste du moment. L’illusion de croire qu’on atteindra le paradis en produisant vite et beaucoup.



Sauf que l’essentiel de la production artistique termine lamentablement dans les poubelles parce qu’objectivement, le gros de la production est juste de la merde… et une gigantesque perte d’énergie et de temps.



Si l’humanité partageait déjà tout l’art de qualité produit jusqu’à maintenant, il y aurait de quoi occuper le restant de l’existence des peuples. A quoi bon continuer de favoriser la production “industrielle” d’art sans intérêt ?



Parce que la motivation des pseudo artistes, c’est de gagner leur vie, pas d’apporter quelque chose. Cet état d’esprit, c’est juste la voie de la médiocrité…


Le 01/03/2017 à 19h 50







OlivierJ a écrit :



C’est une idée reçue, ça a été tellement ressassé par certains qu’on a fini par y croire, et puis ça fait bien de faire comme si les autorités avaient été si bêtes ou mauvaises, on a sûrement l’impression d’être plus intelligent, le côté “on ne me la fait pas à moi”.



Mais les faits sont contre, j’ai un autre article si tu veux des détails.



[…]dans un traitement médiatique moins engorgé qu’aujourd’hui, mais déjà cacophonique, deux petites phrases, par deux journalistes. L’un, finissant un reportage à Strasbourg et constatant la différence d’ambiance entre la France et l’Allemagne, conclut : “tout se passe comme si le nuage s’était arrêté sur le Rhin” (en parlant bien de l’ambiance). L’autre, une présentatrice météo, dans UN bulletin, parlera du fait que l’anticyclone des Acores nous protège, en plaçant sur sa carte un “stop” malheureux à la frontière.



Dès le lendemain, quand le nuage passe en France, la couverture médiatique le mentionne, les autorités nucléaires livrent leurs mesures.



Mais le mal fut fait. La mémoire collective est créée.



Le fonde l’affaire est classique. Il en apprend beaucoup sur les mécanismes de formation de l’opinion, et des mythes qui font notre mémoire collective. Et ils enseignent beaucoup d’humilité aux consultants en communication : un dessin malheureux de présentatrice météo, une séquence de quelques minutes, qui révèle et fixe un sentiment profond de mépris du peuple par ses élites peut suffire à créer une mémoire hyper durable, un sentiment majeur et définitif, profondément difficile à déminer.



Tiré deweb.archive.org Archive.org://www.meilcour.fr/general/le-mythe-du-nuage-de-tchernobyl.html .







Aujourd’hui, beaucoup de gens racontent des choses. Mais je ne suis pas jeune et j’était en France à cette époque. Je lisais la presse et regardait les journaux télévisés.



Logiquement, si les gens ont gardé ce souvenir, c’est bien parce qu’a l’époque ils n’ont pas pris conscience du danger. Des gens continuaient à consommer les légumes du jardin.



Je suis originaire de l’est et dans ma famille, personne ne savait que les pluies qui se sont abattues étaient contaminées. Et elles ne l’ont pas su avant longtemps…



Il est évident qu’en France il y a eu un déficit d’information et de précautions, particulièrement quand on compare avec les pays voisins.


Le 01/03/2017 à 19h 27







Mihashi a écrit :



Sauf que dans ce cas, ce n’est pas la capacité à faire de l’argent qui fait que les œuvres se vendent de millions, mais parce qu’elles sont utilisées comme moyen de spéculation. Ce qui n’aurait pas été possible (au du moins aussi rentable) du vivant de l’artiste, celui-ci pouvant créer de nouvelles œuvres causant alors une déflation.







Vrai.



Il paraîtrait cependant que certains n’étaient pas complètement dépourvus de talent.


Le 01/03/2017 à 19h 24







OlivierJ a écrit :



Il n’en reste pas moins que c’est relativement propre, et on peut même le comprendre quand on fait malheureusement partie de la partie évacuée à l’Est de la centrale de Daïchi.







Ouais, c’est relativement propre… jusqu’au jour ou ça pète en rependant partout l’une des pire saleté imaginable qui rends les terres impropres à l’usage pendant des siècles…



Si demain de grandes surfaces de nos terres cultivables se retrouvaient contaminées, on ne peut pas prétendre que ça ne serait pas un problème.



Et comme on le constate au japon, les réalités économiques font qu’en pareil cas il est quasiment impossible de préserver vraiment la population de la contamination.





On n’est pas obligé de croire la propagande des anti-nucléaires, qui sont rarement bien crédibles à l’analyse.





Je suis totalement d’accord.



Mais en même temps, il faut réaliser que la propagande est des deux côtés.



Ceux qui prétendent que tout est maîtrisé ne sont pas forcément plus crédible que ceux qui prétendent que tout serait danger.


Le 01/03/2017 à 19h 12







darkbeast a écrit :



ouais mais je suis contre le tout gratuit









2show7 a écrit :



tout pareil







Et vous avez tort.



Pour avoir vécu en province et a une autre époque, je peux vous dire le bonheur que l’on vit dans un contexte ou tout n’est pas affaire de pognon.







picatrix a écrit :



Non, un artiste doit crever de faim.

S’il ne connait pas une période bohème, il ne sera pas créatif et ne produira que des oeuvres mineures, c’est bien connu.

Donc pour le bien de la culture et de la qualité de la production artistique nationale il faut sous-payer les artistes.







C’est une idée reçue.



Un artiste n’a certainement pas besoin d’être riche, mais la vraie réalité, c’est que s’il n’a pas au moins le minimum pour manger et survivre, il ne produira rien du tout.







OlivierJ a écrit :



Wahou, la palme du commentaire le plus débile de la journée, probablement.







Merci, ça manquait vraiment à mon palmarès. <img data-src=" />





Jamais il n’a été écrit que le nuage s’était arrêté à la frontière. Jamais. […][/i]





A l’époque je me souviens assez bien de ce que l’on disait partout, que le nuage n’avait pas atteint la France <img data-src=" />



On pourra toujours mettre en cause mon audition, mais d’après les témoignage, je ne suis pas le seul…


Le 01/03/2017 à 16h 41







DahoodG4 a écrit :



Quelqu’un qui cherche à exercer son art, point.

Sous entendu, qui ne cherche pas à en vivre.

Cependant avec du talent on peut en vivre, et inversemen tsans talent ou simplement étant avare de pépètes on serait à la rue, une vraie sélection naturelle. <img data-src=" />







Ce qu’il ne faut pas oublier, c’est qu’un artiste doit manger comme tout le monde. Il ne cherche pas forcément l’opulence, mais il doit pouvoir vivre pour exercer son art.



Par contre, le talent et la capacité à faire de l’argent sont deux choses différentes. J’en veux pour preuve que beaucoup d’artistes sont morts dans le dénuement le plus total. Ce qui n’empêche pas certaines de leurs oeuvres de se vendre aujourd’hui des millions.



Bref, on fera bien plus pour le sort des artistes avec un revenu citoyen qu’avec des droits de propriété “capitalistes” qui engraissent majoritairement les multinationales et leurs actionnaires.


Le 01/03/2017 à 16h 35







darkbeast a écrit :



ben moi je pense que les droits d’auteurs reste mais pas plus de 20 ans ou la mort de l’artiste par exemple







Si l’on garde les droits d’auteurs, on maintient tout ce système qui se gave sur le dos des artistes et qui fait du lobbying à grande échelle pour SES intérêts et non ceux des artistes et de la culture. <img data-src=" />



Les artistes en ont t’ils vraiment un besoin vital ?



Déjà, comme dit précédemment, ce système ne profite qu’a une petite minorité d’entre eux. Mais même pour cette minorité, ce n’est pas du tout l’unique source de leurs revenus.


Le 01/03/2017 à 16h 19







Ricard a écrit :



Ma femme s’est fait enlevé la thyroïde hier. Le chirurgien lui a dit que pourtant, le nuage s’est arrêté à la frontière et qu’il ne comprenait donc pas pourquoi depuis 5 ans le nombre de cancer de la thyroïde avait presque doublé…<img data-src=" />







Il y a eu un cas dans ma famille. Une personne qui habite dans une zone particulièrement touchée.



C’est clairement pathétique de voir les autorités françaises nier à ce point leurs erreurs depuis 30 ans.



Mais bon, le vrai problème concernant notre parc nucléaire, c’est que nous n’avons pas les moyens de démanteler nos centrales. Nous n’avons même plus les moyens économiques de les arrêter.



On oublie d’ailleurs qu’il a fallu du temps et l’aide internationale pour aider les ukrainiens à arrêter les réacteurs restants de tchernobyl et pour sécuriser le site.



Les écolos sont gentils, mais ils mettent la charrue avant les beufs. Tant qu’on ne sortira pas de ce système de mondialisation qui nous paupérise, on ne pourra rien changer à nos choix énergétiques.





Le 01/03/2017 à 16h 09







athlon64 a écrit :



Ce qu’on oublie aussi c’est que le nucléaire de base avait pour but de fournir de l’armement, pas de produire de l’énergie qui n’était qu’un plus par rapport au but premier. Ce qui a conduit a peut être choisir de mauvais combustibles







C’est exactement ce qui s’est passé.



D’ailleurs, même au sein des technologies nucléaires, les besoins militaires ont engendré des choix qui ne sont pas les meilleurs pour le nucléaire civil.



Les spécialistes savent qu’au sein des technologies nucléaires, il existait des voies moins dangereuses…


Le 01/03/2017 à 15h 59







Ectoplasm a écrit :



Comment définir un vrai artiste ?







Un vrai artiste, c’est quelqu’un qui se lève le matin en pensant à ce qu’il va faire pour faire progresser son art, pas comment il fera des millions de brousoufs en vendant de la soupe musicale insipide et bien marketée.



Les multinationales de la culture-pognon appauvrissent la culture humaine parce qu’elles servent aux masses ce qu’elles sont prêtes à entendre. Le rôle de la vraie culture c’est d’ouvrir l’esprit des gens, pas de leur servir les clichés qui collent à leurs idées reçues.



Le 01/03/2017 à 15h 50







Krogoth a écrit :



Peut être parcequ’il y a débat et que la majorité des gens comprend bien que le nucléaire est une energie relativement propre?







Va dire ça aux japonais <img data-src=" />



Et en réalité, non, le débat n’existe pas dans la mesure ou les choix économiques ultra libéraux imposés par l’Europe amènent notre économie vers la faillite. Dans ce contexte nous n’aurons jamais d’autre choix que de continuer à faire tourner des réacteurs toujours plus vétustes jusqu’à ce que l’un deux nous pète à la gueule.



Le 01/03/2017 à 15h 34

Pour ma part, je pense qu’il faut abroger les droit d’auteurs pour passer à l’ère de la culture libre.



Je pars du constat que ce système de droit d’auteur ne fonctionne pas : les artistes qui vivent de ces droits sont une toute petite minorité. Pire, beaucoup d’artistes payent dans l’exercice de leur métier pour engraisser ces quelques privilégiés.



L’instauration d’un revenu citoyen sera bien plus utile pour la majorité des vrais artistes que ce système de droits d’auteur complètement dépassé.

Le 01/03/2017 à 18h 47







Okki a écrit :



Sauf que les arguments avancés par Canonical, c’était du gros bullshit



Mir, un serveur d’affichage de trop ?



Bon, ok, ça peut virer un peu complotiste, mais parfois je me demande si l’idée derrière Mir, Unity et ses API et autres projets Ubuntu, ce n’est pas de proposer de nouveaux projets libres, mais plutôt de faire de l’Ubuntu comparable au Embrace, extend and extinguish du Microsoft d’il y a quelques années.



Est-ce que des développeurs qui s’appuieraient majoritairement sur Ubuntu et ses technologies proposeront des applications qui tourneront tout aussi bien (avec le même degré d’intégration) sur les autres distros ?



Dans le changelog de la dernière beta de Skype, on peut lire « Unity launcher now shows the number of unread conversations ». C’est propre à Unity ? Il n’y a pas un standard Freedesktop pour obtenir le même résultat sur toutes les distros ?







C’est une question que l’on peut légitimement se poser.



Mais dans le libre, une telle stratégie peut être aussi à double tranchant.



Si ce qu’ils font n’apporte au final rien de bon et n’est pas interopérable, ce sont eux qui risquent de s’isoler.



C’est encore plus vrai parce qu’Ubuntu n’est pas dans une position comparable à celle de Microsoft. Ils ont beau être la distro la plus connue, les geeks qui ont fait leur succès en étant les prescripteurs peuvent détruire cette position en très peu de temps. <img data-src=" />



Il peut toujours y avoir de bonnes raisons à ne pas faire comme tout le monde. Mais il ne faut pas se voiler la face, si cela ne procure pas d’avantage, le couperet tombera toujours au bout du chemin.



Mais si on devait se méfier de la stratégie d’Ubuntu, je dirais que le point sur lequel il faut vraiment prendre garde, c’est surtout de ne pas les laisser s’approprier le modèle de la distribution de logiciels. C’est cette vraie faiblesse du modèle Linux qui pourrait être exploitée. Et Snappy peut être interprété comme un signe très inquiétant qui devrait inciter les autres distro à bouger rapidement. <img data-src=" />


Le 01/03/2017 à 18h 20







kisame a écrit :



Le problème c’est que stable et sécurisé c’est pas forcémment compatible avec la dernière version.









C’est une idée souvent entendu mais… c’est en partie faux.



En fait, ce n’est pas aussi simple en pratique.



Remplacer un version dépassée et complètement boguée d’un logiciel fourni par une distribution Linux par une “nightly” franchement compilée qui fonctionnait beaucoup mieux, cela m’est arrivé plus d’une fois.



En tant que développeur, je peux vous expliquer le problème.



Un développeur bien organisé travaille en alternant les phases d’amélioration fonctionnelle et les phases de stabilisation. Ce n’est pas parce qu’un code est vieux qu’il est plus stable, mais parce qu’il est issu d’une phase de stabilisation dirigée par les développeurs.



L’ennui, c’est que les distributions Linux ont une organisation ou ce n’est pas le développeur qui décide de la version à intégrer.



-Un packageur d’une distribution qui est volontaire n’a pas toujours le temps de bien suivre l’actualité d’un logiciel pour savoir quelles versions sont plus stables que d’autres. Ce n’est pas forcément la meilleure version qui se retrouve intégrée au “freeze” de la stable d’une distro.



-Les développeurs qui ne reçoivent pas directement les retours des utilisateurs ne prennent pas conscience qu’il faut absolument créer des versions “bien stabilisées”. Et les deadlines de “freeze” des différentes distributions ne correspondent pas toujours à ses cycles de développement.



Bref, l’amélioration de la stabilité des logiciels des distributions ne peut être améliorée que par une meilleure concertation avec les développeurs des logiciels.



Comme on peut le voir sur les store propriétaires (hélas), ce sont bien les développeurs même des logiciels qui sont à même de gérer le mieux le problème.


Le 01/03/2017 à 18h 01







SebGF a écrit :



Yep tout à fait d’accord, parler de “libre” et imposer des contraintes en permanence, c’est toute la délicieuse contradiction permanente qui entoure ce domaine.



Alors la meilleure chose à faire, c’est de faire ce qu’on veut et laisser les râleurs être libres de râler. <img data-src=" />







Tout à fait.



Il faut d’ailleurs réaliser que ce sont souvent les mécontents qui font progresser les choses.


Le 01/03/2017 à 17h 43







tanguy_k a écrit :



Esperons que ca prenne et que les distribs s’y mettent (j’y crois pas mais bon) . Pour l’instant y’a une douzaine d’applis dispo :  http://flatpak.org/apps.html







Le problème, c’est qu’il ne suffit pas de résoudre le problème d’un point de vue technique. C’est un problème beaucoup plus complexe.



Si on résume le problème des systèmes Linux “historiques”, la façon d’intégrer les logiciels des distributions historiques a été élaboré à l’époque ou les logiciels ne dépassaient pas quelques milliers et ou Linux était un système de geek ou l’on packageait les logiciels entre volontaires. Dans le contexte de la passion et des applications serveur, la rapidité des mises à jour fonctionnelles n’étaient pas primordiales.



Avec l’expansion de Linux, on entre aujourd’hui dans une nouvelle ère, celle du marché et de l’usage desktop professionnel. Potentiellement des centaines de milliers de logiciels (Les store de l’iPhone et d’Android dépassent allègrement le million) qui doivent pouvoir être constamment à jour. Et la, il est évident que les “organisations historiques” autant que les outils ne sont plus adaptés pour gérer cela.



Le problème, c’est que les réponses de la communauté Libre a ce problème ne sont pour l’instant pas bonnes.



D’un côté il y a ceux qui nient le problème. Le fait de dire qu’on peut toujours installer un logiciel venant d’un site web est une mauvaise réponse. Sur le plan de la sécurité, c’est inacceptable. Et aujourd’hui, autant les utilisateurs que les éditeurs veulent des dépots centralisés pour des raisons pratiques, commerciales tout autant que des considérations de sécurité. Dépot = possibilité de signaler un malware.



Ensuite, il y a ceux qui font des choses, mais qui apportent autant de problèmes que de solutions : La création de “dépots” utilisateurs ou tout le monde peut publier sans que l’on puisse identifier facilement ce qui viens des auteurs officiels d’un logiciels, du bricolo du dimanche ou d’un créateur de malware ne me paraissent pas être une réponse pertinente.


Le 01/03/2017 à 17h 13







SebGF a écrit :



En même temps Shuttleworth travaillait sur Debian avant, ça explique le choix <img data-src=" />



Simplement ce que je trouve regrettable, c’est qu’Ubuntu est la distrib qu’on aime détester alors qu’elle a eu un apport non négligeable sur le desktop. (et perso je suis dessus depuis la première version et saute de LTS en LTS … Voire risque de sauter pour la prochaine LTS directe)

Qu’elle soit critiquée est normal, comme tu dis c’est ce qui permet de grandir. Mais j’ai plus l’impression qu’elle est régulièrement attaquée que critiquée…



Surtout que leur cible actuellement est loin d’être sur le desktop mais plutôt de devenir un acteur crédible dans le domaine du service (cloud) et du serveur. La partie mobile j’en parle pas, pour l’instant l’encéphalogramme semble très plat bien qu’ils aient annoncé quelques trucs dernièrement dont un portable sous une version plus orientée utilisateurs finaux que devs/enthousiastes.



Bref, Canonical est un des acteurs du domaine … Et si on l’aime pas, on a l’avantage du choix, contrairement aux menottes de la “concurrence”.







Clairement.



Mais Ubuntu est un acteur qui a fait de très grandes choses pour le libre tout autant que des choix plus discutables, il n’est pas étonnant qu’ils soient autant adulés que critiqués. Mais nous sommes d’accord que l’avantage du choix est une excellente chose.



D’ailleurs, si je considère que la critique est bonne, je pense également que certaines critiques qu’on entends trop souvent dans le libre sont mauvaises.



Par exemple, beaucoup de gens critiquent les initiatives en disant qu’il vaut mieux contribuer aux idées des autres plutôt que de développer les siennes. Et ça c’est c’est du fascisme intellectuel.



D’abord il faut comprendre que Libre, ça veut dire Libre.



Par exemple, si Ubuntu préfère développer Mir que contribuer à Wayland, qui peut prétendre par avance quel projet sera le plus brillant ?



On peut tout a fait critiquer leur façon de le faire, mais cela n’a pas de sens de critiquer le fait de le faire.


Le 28/02/2017 à 18h 18







tpeg5stan a écrit :



Tu as testé les distributions basées sur archlinux ? C’est quasiment toujours la dernière version disponible dans les paquets. (Je suis sous antergos, là).



Et je suis bien d’accord que les mises à jour tardives sont une plaie pour ubuntu, avec des PPA à bidouiller de partout :/







Justement, c’est un des défaut du modèle hérité de Debian.



Ca fonctionne bien pour les serveurs, mais pour le desktop, c’est un modèle dépassé.



Cela dit, je pense aussi que le modèle d’Archlinux a ses défauts aussi.



Mais c’est normal, le monde évolue et il faudra du temps pour trouver le bon modèle.


Le 28/02/2017 à 18h 16







SebGF a écrit :



Un potentiel gâché qui a servi de base à de très nombreux fork, donc prendre sans ne rien donner… Ubuntu est devenu une distrib “de base” (au sens : énormément dérivée) comme le sont Debian et Red Hat par exemple.



C’est la puissance du libre à ce niveau-là, ne pas avoir à dépendre d’un acteur unique.



Accessoirement, Ubuntu n’a aucun monopole.







Le problème, c’est qu’ubuntu prends la base de debian. Au total, ça fait beaucoup de distro qui sont toutes basées sur debian.



Reprendre n’est pas critiquable, bien au contraire. Mais quand trop de monde reprends la même base, tout le monde reprends aussi les mêmes défauts sans se poser de question.



Je suis de ceux qui pensent que le système d’intégration des logiciels de Debian est dépassé, mais c’est un long débat.


Le 28/02/2017 à 18h 10







Okki a écrit :



Sans aller jusque là, c’est juste triste de constater qu’avec tous leurs moyens, ils n’apportent strictement au desktop Linux. S’il n’y avait pas Red Hat, ils n’auraient plus grand chose de nouveau à proposer.



L’autre souci étant leur monopole injustifié. On entend toujours parler que d’Ubuntu par-ci, Ubuntu par-là, alors qu’encore une fois, ils représentent le degré zéro de l’innovation, se contentant de prendre sans jamais rien donner en retour.



Même s’ils sont dans leur droit, je ne peux m’empêcher de penser que cette distribution, malgré son potentiel monstre et tous les espoirs qu’on avait pu placer en elle, n’aura été qu’un grand gâchis.







Ce qu’Ubuntu a apporté, c’est une distro conviviale, facile à installer parce qu’elle ne s’interdit pas les drivers non libres.



Cette facilité, c’est ce qui fait que beaucoup de Linuxiens se sont mis à conseiller cette distribution aux débutants.



Pour le reste, je pense que comme beaucoup d’autres distributions, il y a des choses qui peuvent être critiquées. Et n’en déplaise à beaucoup, la critique est une bonne chose parce qu’elle fait progresser.







Le 28/02/2017 à 16h 39







dvr-x a écrit :



Merci à vous deux.

Il faudrait que je me trouve une façon de réinstaller simplement sans avoir à tout reconfig en fait ! Le truc que je prends jamais le temps de faire et du coup, je perds deux plomb à chaque réinstallation…

  <img data-src=" />







Si tu veux pas t’emmerder, quelques conseils :



-N’installe que des LTS.

-Créer deux partitions qui serviront alternativement pour installer le nouveau système tout en gardant l’ancien un certain temps au cas ou. Ca permet de réinstaller quand on a le temps et sans stress.

-Crée un scripts pour installer tes applications et configurer certains logiciels.



Le 28/02/2017 à 16h 24







dvr-x a écrit :



Ok Merci, par contre, qu’est ce qu’il fait qu’une version sera LTS ou non ? Il y a un critère ? Ou c’est juste tous les tant de temps, ils sortent une LTS. 

 

Oui, erreur de ma part, je pensais à la 16.04, que j’ai réinstallé d’ailleurs actuellement.







Les LTS sortent tous les 2 ans, en avril les années paires.



Donc tu as 10.04, 12.04, 14.04, 16.04 et la prochaine sera la 18.04





On peut migrer d’une 16.10 a une 17.04 sans réinstallation ?





Par expérience, mieux vaut réinstaller.





Le 27/02/2017 à 22h 53







Pr. Thibault a écrit :





Il est bien connu que la majorité des applications grand public, à commencer par les jeux vidéos, exploitent très mal le multicore au-delà de 2 à 4 cœurs pour l’instant.







Ce n’est pas qu’ils l’exploitent très mal. C’est qu’ils ne cherchent pas à l’exploiter.



Pas de vrai 8 cœur abordable jusqu’à maintenant = pas de marché.





Je suis donc très curieux de voir les premiers benchmarks détaillés et indépendants pour voir ce que donnent réellement ces CPU AMD vs les CPU Intel de prix équivalents pour un usage grand public. Même si en perfs brutes multicores les CPU d’AMD impressionnent, je pense que ça va être la douche froide pour les perfs en usage réel compte tenu du fait que peu d’applications parviennent à exploiter pleinement le multicore.





A chaque changement technologique, on a eu droit aux mêmes discours.



Quand le Pentium 4 est sorti, beaucoup disaient que le P3 le mieux cadencé était un meilleur choix, plus performant.



Quand les core 2 sont sorti, beaucoup disaient que le Duo était un meilleur choix que le Quad.



Sauf qu’on achète une machine pour plusieurs années. Et ce qui est vrai sur l’instant ne le reste pas toujours dans le temps.





Quant à l’argument “les applications s’adapteront et les développeurs seront incités à prendre en charge le multicore”, ça fait des années que les quad core existent et la plupart des jeux n’arrivent toujours pas à exploiter pleinement 4 cœurs,





Détrompe toi, il y a quantité de choses qu’un éditeur de jeu peut faire avec des coeurs de CPU sans trop se fatiguer : Gestion physique, Parallélisation du rendu pour ne citer que les plus courants.



Le problème, c’est que le CPU touche plus au gameplay que le GPU et qu’il est difficile de concevoir un jeu pour un CPU 8 cores qui tournera correctement avec seulement 2.



Les éditeurs sont logiquement obligés de tenir compte du fait que d’un côté les CPU 8 coeurs sont inexistants sur le marché grand public et que de l’autre, Intel vends encore des cargaisons entières de dual cores, dont certains estampillés “core i7” (pour les portables).





donc à mon avis il va encore s’écouler un certain temps avant que les applications grand public exploitent pleinement 8 cœurs d’autant plus que le marché PC grand public n’est plus ce qu’il était (aujourd’hui la croissance pour les développeurs se trouve sur le marché de la mobilité et principalement des smartphones, plus sur le marché PC desktop). Sans compter que nombre de gamers jouent pendant des années à des jeux déjà sortis qui exploitent mal le multicore et ne les supporteront jamais correctement (une fois que le jeu est codé, on a jamais vu un studio sortir une nouvelle version du jeu exploitant mieux le multicore, j’imagine que c’est un truc qui se réfléchit dès les débuts du développement du jeu et qui ne se corrige pas en une simple MAJ).





Si on se fie au passé, il y a toujours un décalage logique entre la sortie d’une technologie et son exploitation.



Mais pour avoir l’expérience du passé, je dirais qu’il est probable qu’un 8 coeurs pourra durer plus longtemps qu’un 4. Dans 4 ou 5 ans, ce qui n’est pas exploité aujourd’hui le sera très certainement.





Bref, vivement les premiers vrais benchmarks exhaustifs et indépendants, parce que l’agitation des fanboys commence à devenir un peu fatiguant…





Pour ma part, mon dernier processeur AMD fut le vénérable Athlon 64 3000+. On fait mieux comme fanboy.



Si je devais changer de machine aujourd’hui, je considérerais très sérieusement les Rizen (Parce que 4 coeurs, c’est dépassé). Mais sans toutefois me ruer dessus. Je laisse toujours les early adopters essuyer les premiers bugs éventuels.



On peut toujours critiquer les fanboys, mais heureusement qu’ils seront la pour acheter les produits et les tester pour nous. <img data-src=" />


Le 27/02/2017 à 20h 10







janick25 a écrit :



c’est de beaux tarif, mais bon 8 coeurs ….en tant qu’ utilisateurs lamba, t’en fais quoi???

déja que sur mon ancien i7 4790 j’utilisais tout les core uniquement pour de l’encodage et encore.









Je te répondrait qu’il faut que toi et tes copains achetiez des proco à 8 coeurs pour que nous les programmeur puissions commencer à envisager de sortir des logiciels grands publics (jeux, etc) qui les exploitent.



Rappelez vous que la situation était similaire lors de l’arrivée des processeurs à double coeurs. Il y a toujours au départ un problème de la poule et de l’oeuf…


Le 27/02/2017 à 19h 50







Adakite a écrit :



C’est plus compliqué. Le multi-core est une solution au rabais de ce qui existait à l’époque des 1ers dual-core (et même d’une certaine manière du premier Pentium HT) dans les stations UNIX multi-socket. Une quad-core n’est pas équivalent à 4 CPU mono-core. Le scaling en OpenMP et/ou MPI ne sont pas aussi bon. Le gain est financier et énergétique essentiellement.







Entre des systèmes très haut de gamme “sans concession” et des systèmes grand public, il est normal de trouver quelques économies d’ordre pragmatique.



Par exemple, dans un système multi core grand public, la bande passante mémoire n’est pas toujours suffisante pour alimenter tous les coeurs dans des cas de figure particulièrement extrêmes.



Mais il y a aussi des problèmes qu’il faut gérer en multi core qu’on ne trouve pas dans certaines architectures parallèles qui peuvent être de simples juxtapositions d’unités mono cores, par exemple la syncro des données en cache.



Pas de secret, l’architecture idéale pour faire tourner un jeu vidéo multithreadé qui suppose de nombreuses interactions entre les threads et de simples calculs scientifiques totalement découpés n’est pas forcément la même.



Cela étant dit, je trouve qu’au moins sur les benchs publiés, le Ryzen semble “scaller” assez bien :http://www.pcworld.com/article/3172555/computers/amd-ryzen-benchmark-preview-ryz…





Donc il ne suffit pas d’avoir une appli (ou un code, je pense plutot a des applis de calcul) soit mal optimisée. La réalité c’est que c’est encore et toujours le GHz le roi,





Pour être précis, c’est la fréquence multipliée par l’IPC.



Mais il y a effectivement certains types de programme pour lesquels la “puissance sur un coeur” restera un facteur important, c’est pourquoi le gain d’IPC des Ryzen était une amélioration primordiale.



Mais cela ne doit pas masquer le fait qu’un nombre croissant d’application savent tirer partie de la puissance parallélisée. Cela n’est donc pas un facteur sans importance.





car en plus, même sur du multi-cpu bien huilé, la part du code réellement parallélisée n’est pas à 100% loin de la.





Cela dépends fortement du type de programme. Certains cas de figure sont à 100% de parallélisation très facilement tandis que d’autres en sont vraiment très loin.





Donc en dehors des applications de calculs scientifiques (que je développe au quotidien en HPC) et quelques applis métiers type encodage, ou traitement images lourds, l’apport d’un 8 core dans un PC n’est pas encore très clair.





Il faut comprendre que sur le marché grand public, personne ne va investir dans la création de programmes sur un parc matériel inexistant.



Sur le marché du jeu vidéo, de nombreux programmeurs sauront très bien quoi faire de 8 coeurs et même de 16 ou de 32. Encore faut t’il qu’un parc existe pour qu’un éditeur soit en position d’investir.



Je me rappelle du temps ou tout le monde disait qu’un dual core ne servait à rien pour le jeu vidéo. Le temps à montré qu’aujourd’hui, il n’y a plus guère de moteur de jeu qui tourne correctement sur un mono core.





Chez moi, je suis passé d’une thinkstation 16 cores (deux Xeons 6-cores) a un PC mono-socket avec un i7 7700 (4-cores, donc) et que ce soit sous Steam, en navigation web, application “office” etc. j’ai un gain énorme.





C’est assez logique. Sur un faible nombre de coeurs, le i7 est supérieur.



Mais il ne faut pas oublier que la parallélisation des logiciels évolue rapidement. Même les browser web évoluent vers l’utilisation du multi core…





Seul mes codes OpenMP/MPI tournent moins vite (et encore ca dépend de la taille des échanges de données a effectuer). Bref, c’est plus subtile.





C’est effectivement très subtil.



Le problème de la programmation parallèle avec des solutions de haut niveau “prêt à l’emploi”, c’est qu’on peut se retrouver facilement a générer des goulets d’étranglement sans comprendre très bien pourquoi.

Et de nombreux autres facteurs interviennent, rien que le kernel de l’OS par exemple.