votre avatar

HarmattanBlow

est avec nous depuis le 21 juin 2007 ❤️

5048 commentaires

Le 18/08/2014 à 13h 31


  • Combien de municipalités le faisaient déjà sans avoir demandé à la CNIL ?



    • Combien de municipalités continueront à le faire après la décision de la CNIL ?

    • Depuis quand la police nationale en fait-elle autant ?

    • A quand une loi pour réaffirmer “le droit de la police à protéger” ?






      ActionFighter a écrit :

      Le salaire qui descend, c’est en France ça




      Non, c’est plutôt aux USA. Et ça avait commencé plusieurs années avant la crise pour la moitié des actifs.


Le 18/08/2014 à 12h 56







Neliger a écrit :



Oui au vote électronique, mais non à l’incompétence technique.





C’est un paradoxe : pour soutenir un vote électronique anonyme il faut de toute façon être incompétent.

<img data-src=" />



Le gouvernement nous démontre simplement une fois de plus le pire du pire de ce qui peut être fait en matière de vote électronique. A l’évidence le vote électronique doit être selon eux une chose dangereuse qu’il est nécessaire de pouvoir trafiquer.







dadal a écrit :



Y’a une solution toute simple pour que tout le monde puisse vérifier les votes électronique.

A la fin, on publie (site + bdd) tout les votes avec une clé anonyme pour chaque votant.





Ce sont des pseudonymes et donc tu as levé le secret du vote pour l’état. Mais l’état est alors le seul à pouvoir contrôler l’absence de faux votes ou de votes par des robots. Cela n’est pas acceptable, d’autres doivent avoir ces fichiers et réaliser des sondages a posteriori pour s’assurer que les votants sont bien des humains, notamment du fait du risque d’exploitation des personnes qui ne votent jamais ou ne vérifient jamais leur vote.



On en revient toujours au même problème : pas de vote électronique sans levée de l’anonymat. La seule bonne solution c’est de publier les listes avec nom, adresse et vote (publiquement ou à plusieurs associations et partis). Ce qui n’est acceptable que pour une forme supérieure de démocratie, pas pour la farce que nous avons aujourd’hui. Et encore : on a le problème des pressions et achats de voix, il faudra conserver un scrutin papier pour les grandes occasions.



Enfin il faudra trouver un système pour traiter les centaines de milliers de personnes qui viendront crier à la fraude qu’il y ait eu fraude ou non, qu’il s’agisse de mémoire défaillante, de malades mentaux, de mécontents du résultat ou d’authentiques fraudes.







cpasfaux a écrit :



Tout d’abord, il faut que le vote soit géré par une autorité entièrement indépendante.





Remplaçons le centre par un autre centre, il ne pourra que mieux fonctionner que le centre actuel. Ça tombe sous le sens.

;)


Le 15/08/2014 à 16h 09







pinkyrose a écrit :



Eh oui, l’argent ne va pas dans les poches habituelles…





Bien sûr que si : celles de la big company.


Le 15/08/2014 à 10h 51







NEVdD a écrit :



Le gouvernement, ce gros blob visqueux qui empêche toute émancipation du citoyen me dégoute. <img data-src=" />





Es-tu milliardaire, expert en armes à feu ou en combat à mains nues ?



Non ? Et bien tu peux être content qu’il y ait un état plutôt qu’une milice armée dont tu ne ferais pas partie qui te réduirait en esclavage, ou un seigneur féodal qui ferait de toi son serf.



Certains oublient un peu vite quelles franges de la société promeuvent les idées libertariennes qu’ils ont si bien adoptées.


Le 14/08/2014 à 16h 40







killer63 a écrit :



et va falloir 6 ans pour former les agents ???





C’est surtout que tout grand compte a de nombreuses solutions propriétaires qui s’appuient sur Office. Cela peut être des feuilles Excel très sophistiquées avec des macros incompatibles, des solutions externes d’analyse consommant des données venant d’Access ou Excel, des solutions de mailing pilotant automatiquement Word ou intergissant avec lui, etc. Et, ça, oui, ça va demander des années de migration.


Le 14/08/2014 à 16h 33







Tkop a écrit :



Mais il est réglé par l’Ipv6





Non, rien à voir.


Le 14/08/2014 à 15h 53







PinoTM a écrit :



Petite question de la part de quelqu’un qui n’est pas très calé en réseau <img data-src=" />

L’IPV6 va-t-il régler ce genre de problèmes ?

On aura toujours besoin de tables de routages non ?





Ce problème n’est de toute façon pas causé par IPv4.


Le 14/08/2014 à 11h 34







Alucard63 a écrit :



Internet est un international, il répond donc au droit de chaque pays. Point barre.



Quand les multinationales françaises font de l’optimisation fiscale à l’étranger c’est pareil: elles répondent au lois locales, ni plus ni moins.



Il n’y donc pas de zone de non droit, il y a simplement différent droits et pas de frontières.<img data-src=" />









ActionFighter a écrit :



Alucard63 a répondu <img data-src=" />





D’une part j’avais précisé “du point de vue de la justice française”.



Ensuite, le droit de quels autres pays ? Celui de pays qui n’ont pas les moyens d’entretenir un système judiciaire et policier digne de ce nom ? Celui de pays où le seul droit qui vaille c’est celui du plus fort ? Celui de pays notoirement connus comme plateforme de services pour la criminalité avec dix mafieux au mètre carré ? Celui de pays connus pour traiter de façon outrancièrement différente les entreprises étrangères et dont les décisions dépendent du climat politique ou de pots-de-vins (ce que la justice française ne soutiendra pas) ?



L’expression “zone de non-droit” n’est pas abusive, que ce soit à propos de la finance ou d’Internet.


Le 13/08/2014 à 17h 29







ActionFighter a écrit :



Encore une belle preuve qu’Internet est une zone de non-droit qu’il faut civiliser <img data-src=" />





Tu es sarcastique mais il suffit de voir le nombre de sites dédiés en toute impunité au piratage depuis des années pour voir que, oui, Internet est en grande partie une zone de non-droit.



Certes Tweeter supprime les “blagues” “chambre à gaz”, Google se soumet au droit çà l’oubli et on a fait fermer un ou deux sites de piratage suffisamment idiots pour être hébergés en France. Mais c’est l’exception plutôt que la norme.



Internet est bel et bien une zone de non-droit du pont de vue de la justice française. Sauf pour les sites hébergés dans l’EU et ceux des multinationales.



Nos représentants disent souvent des âneries mais pour le coup ce sont les trolls qui ont tort.


Le 13/08/2014 à 10h 25

Je ne comprends même pas cet attrait pour Amazon. Franchement, vous avez regardé leur site web ? C’est laid, c’est fouillis, c’est bourré de pseudo-avis de lecteurs, de pubs pour des services annexes, etc. Et ils paient des taxes ridicules, ce qui nous oblige à payer davantage d’impôts de notre côté, tout en mettant en œuvre les pratiques de ressources humaines les plus dures qui soient.



Bref, j’espère que leur stratégie de dumping déficitaire leur restera en travers de la gorge et se retournera contre eux.

Le 11/08/2014 à 15h 49







tAran a écrit :



J’ai bien envie de me faire un safari spatial tiens <img data-src=" />





Alors tu as le choix entre :




  • Le voyage de deux heures à seulement 100k€, comprenant quelques passages de 10s en apesanteur, et une vue depuis l’espace, certes, mais avec la Terre en très gros plan vu qu’en fait tu n’es qu’à quelques kilomètres d’altitude.

  • Le vrai voyage sur la station internationale, pour seulement deux milliards.


Le 08/08/2014 à 16h 29







Leynas a écrit :



le verbe “constater” que l’on emploie depuis le début n’a pas sa signification purement juridique





On s’en cogne. Le contexte de la discussion était la capacité des ayant-droits à prouver l’infraction et le seul sens qui importait était celui pertinent dans ce contexte.





De plus, l’interpellation n’est pas hors-sujet puisque tu l’avais mentionnée plus tôt (mais si, souviens-toi de l’agent de sécurité). Au bout d’un moment je me demande si tu ne le ferais pas exprès.



J’y avais songé mais c’était un détail du débat et qui ne remettait pas en cause l’argumentaire de fond, je n’ai donc pas cru que tu répondais sur ce point.





Mais si tu tiens à ne vouloir être très rigoureux sur le terme “constater”, même après tes absurdes confusions entre une propriété intellectuelle et une propriété matérielle (notamment vol/contrefaçon)



Je n’ai jamais insisté pour être rigoureux sur quoi que ce soit, je ne suis pas juriste et je n’ai cure de tes ergotages.





le constat d’une infraction peut très bien être fait par des agents assermentés par le CNC, qui ne sont donc pas des OPJ ou APJ, mais aussi d’agents de sociétés civiles de perception des droits comme la SACEM (société civile mais tout de même une entreprise privée) dirigée notamment par des auteurs, ou la SCPP dont le président n’est autre que le PDG d’Universal Music France, Pascal Nègre.

C’est d’ailleurs sur ces constats que les mêmes organismes peuvent saisir la Commission de Protection des Droits, pièces apportées au dossier alors composé qui pourra éventuellement être transmis à un juge en vue de condamner un abonné pour négligence caractérisée. Je te laisse faire un tour du côté du CPI (notamment L331-2 mais je te conseille de lire un peu plus que ça).



Ça par contre c’est intéressant. Merci.



En revanche je ne connais pas les statuts du CNC ou de la SACEM et il faudrait vérifier s’ils auraient le droit de réaliser des poursuites, surtout à une échelle significative, et ce que cela impliquerait pour leur budget et les perceptions qu’ils redistribuent aux ayant-droits.



Accessoirement je maintiens que de toute façon il appartient à l’état de lutter contre toute forme de délinquance. Et au vu de la loi le piratage en est une forme, que l’on soit d’accord ou non. Je suis tout à fait opposé à toute privatisation des responsabilités de l’état et de la justice et de la sécurité en particulier.





Et si tu penses que ce n’est pas possible que cela arrive en France à cause de la décision du Conseil Constitutionnel qui a refusé d’accorder la possibilité d’ordonner la suspension de l’abonnement Internet à la CPD pour préserver la liberté d’expression, note que cela n’empêche pas actuellement un FAI de résilier un contrat d’abonnement pour violation des conditions d’utilisation de cet abonnement et qu’il peut donc y mettre une condition concernant le téléchargement illégal. Oui, c’est encore un élément qui explique la futilité de la HADOPI.



Entre “ce n’est pas impossible” et “donc y a qu’à et laisses-les se débrouiller” il y a une grande marge.



Accessoirement les États-Unis ne sont de toute façon pas un modèle duquel s’inspirer, tant parce que l’essence de leur système judiciaire diffère largement du nôtre, que parce que ce système judiciaire est une horreur sans nom (même si beaucoup de juristes auront des avis différents du fait de l’extrême importance - statut et rémunération - dont jouissent les juristes là-bas) que nous sommes malheureusement en train d’importer pièce par pièce.







RaoulC a écrit :



L’état fait son travail, évidemment.

Mais dans des dossiers pouvant être complexes comme dans ces cas de “contrefacon numérique” tu admettras que pour les ayants droits l’assistance d’un juriste est conseillée.





Oui, encore que le but est peut-être plus simplement d’ajouter des dommages civils aux poursuites afin de saler la note et de faire un exemple.



Parce que finalement, sur le plan technique, il y a une riche documentation technique française et américaine spécialement à destination des magistrats et, passé les premiers procès, les questions épineuses doivent déjà avoir été soulevées et répondues par d’autres.


Le 07/08/2014 à 20h 10







Ph11 a écrit :



WTF ?





Les droits d’auteurs sont une forme de propriété intellectuelle. Renseigne-toi.





Non, c’est grace au droit contractuel, qui permet de mettre des conditions lorsque tu procèdes à un échange.



Non, sinon c’est un contrat. Le terme licence se réfère spécifiquement au code de la propriété intellectuelle américain et il y a des différences significatives, notamment le fait qu’elle est à sens unique (l’autre partie n’a pas à l’accepter : la licence s’impose dès lors qu’elle est jointe au matériau). Voici pourquoi nombre de codes libres ont des mentions de copyright. Par exemple attribués à la Free Software Foundation ou à des auteurs individuels.



Certes dans certains pays, comme en France, nombre de licences sont définis comme des contrats. Mais ces contrats ne vendent pas un exemplaire physique mais un droit d’usage. Ce qui n’est possible que si l’on peut être propriétaire de quelque chose d’incorporel. Donc sous le régime du droit d’auteur.


Le 07/08/2014 à 19h 01







Ph11 a écrit :



Tu confonds d’abord droit d’auteur et royalties.





Je ne confonds rien, tu parlais de propriété intellectuelle en général. Sans propriété intellectuelle, pas de droits d’auteur par définition.





Si t’as vendu ton logiciel, tu perds ton contrôle dessus et ce que le gars en fait ne te concerne plus, mais tu peux passer un contrat stipulant qu’il ne peut pas le diffuser comme il veut. Et c’est ce qui se fait déjà, pour la 2e fois.



Mais si j’ai le droit d’imposer des conditions c’est uniquement grâce au droit d’auteur. Même les licences libres s’appuient sur le droit d’auteur pour imposer leurs conditions d’utilisation et de réutilisation.





Et si le secteur n’est plus rentable, tant pis, les gens passeront à autre chose. La kultuuuure n’est pas une fin en soi, personne n’a dit que l’abondance culturelle du XXe siècle était immuable



Oui enfin si ton but est de détruire l’abondance culturelle, annonce-le d’emblée. je préfère pour ma part une culture abondante et commerciale plutôt qu’une culture gratuite et pauvre. Je ne vois pas l’intérêt de rendre gratuit ce qui en serait détruit.





Je passe sur le reste, manque de temps.


Le 07/08/2014 à 17h 43







RaoulC a écrit :



Ensuite je suis désolé mais les frais de justice, d’avocat tout ca c’est au plaignant ou au coupable de les payer.





Tu n’as rien à payer pour que la justice poursuive le mec qui t’a volé et te restitue ton bien. Rien du tout. Tout relève d’un bout à l’autre de l’état, du constat légal aux poursuites et réparations.



En revanche tu peux en plus te constituer partie civile (ou quelque chose dans ce genre), par exemple pour demander la reconnaissance d’un préjudice moral. Et dans ce cas-là seulement ce sera à ta charge.



Mais fondamentalement la justice pénale est rendue sans ton intervention parce que l’état est le garant de la loi et possède le monopole de la justice et de la force.



Voilà pourquoi c’est à l’état d’entretenir un truc comme Hadopi, tout comme il entretient des brigades policières spécialisées sur tel ou tel domaine. Dès lors que le piratage est un délit, c’est de toute façon à l’état d’enquêter et de poursuivre les pirates, point barre.



Après le choix d’une autorité administrative plutôt que d’une brigade policière ou les propositions des uns et des autres c’est un sujet différent.







Leynas a écrit :



Sinon, pour notre ami HarmattanBlow qui pense que ce n’est qu’à l’État de constater les infractions en cours tellement il a le monopole légal, petite lecture :





L’article que tu cites concerne le droit d’interpellation, pas le droit de dresser un constat reconnaissable au procès. D’ailleurs si celui qui interpelle est ensuite incapable de prouver la culpabilité du suspect, ce dernier pourra se retourner contre lui.



Bref, tu es hors-sujet : le problème est celui de la preuve d’une part (bien souvent impossible à apporter par des tiers), et celui de la charge de la lutte pénale et de l’enquête.



Et la contrefaçon est bien un délit. Même si des dommages civils peuvent s’y ajouter.









Ph11 a écrit :



Ça ne changerait probablement pas grand chose pour la majorité des exploitations intellectuelles.





Bien sûr que si : les télévisions n’auraient rien à reverser aux producteurs. Les cinémas pourraient légalement se procurer des copies pirates et les diffuser sans rien reverser. N’importe quelle pub pourrait diffuser n’importe quel artiste sans rien lui reverser. Tous les systèmes basés sur la vente de copies seraient impossibles à tenir. Les seuls jeux possibles seraient ceux basés sur un serveur verrouillé, adieu le jeu hors-ligne.



Ca te paraît bien ? Ca te paraît juste ?



Tu affirmes que personne n’a été volé. Mais pourquoi les gens devraient-ils être autorisés à utiliser le boulot de SAP ou Dassault Systèmes sans rien leur reverser ? Pourquoi devraient-ils être autorisés à utiliser le boulot d’autrui sous prétexte qu’ils ont réussi à obtenir une copie sans payer (alors même que le contrat d’origine interdisait de faire des copies) ?



Si tout le monde pirate et que personne ne paie, personne n’a été volé ? Des types ont trimé pendant des années et tout le monde utilise leur boulot sans payer mais personne n’a été volé ? Ca te semble sensé ?



Je développe des logiciels. Je trime dur, plus dur que beaucoup. Pourquoi devrais-tu avoir le droit d’utiliser mon travail sans rien me filer ? Je ne suis pas ton esclave.


Le 07/08/2014 à 14h 02







Leynas a écrit :



As-tu déjà entendu parler de cet étonnant concept de “témoignage” ?



Leynas.





Oui, j’imagine bien une cour de justice condamner un type sur la base du témoignage du technicien d’Universal. As-tu déjà entendu parler de la présomption d’innocence ?



Le-mec-qui-signe-pas-vu-que-son-nom-est-déjà-écrit-deux-centimètres-à-gauche.







eliumnick a écrit :



Relis ce passage…





Essaie de relire l’ensemble. Ou allume ton cerveau.



Collecter des IP de pirates est facile. Je programme un bot pour ça en trois jours et j’ai un milliion d’IP deux semaines plus tard. Le problème n’est évidemment pas là.


Le 07/08/2014 à 13h 49







eliumnick a écrit :



Il parle de constat dans le sens réaliser, voir, pas dans le sens faire un constat d’huissier. Dans l’exemple que tu donnes, tu constates le cambriolage, puis tu appelles la police.





Non il parle de constat dans le genre de ceux qui peuvent être présentés à la justice pour servir de preuve. Puisque c’est son argument pour dire que ces sociétés privées pourraient faire le boulot eux-mêmes.


Le 07/08/2014 à 13h 41







Ph11 a écrit :



Il n’est pas question de faire justice soi même, mais de constater le délit. Et ce genre de constatation a toujours été à charge du plaignant.





Bien sûr que non, si jamais on me cambriole j’appelle la police et ce sont eux qui font le constat.



Le plaignant peut toutefois faire faire le constat lui-même mais seulement par le truchements d’intermédiaire privés assermentés par l’Etat - un autre monopole créé par la loi. Or un notaire n’assermentera jamais ton logiciel de reniflage de collectes d’IP donc celui-ci devrait assermenter chaque collecte une à une ce qui rendrait l’opération extraordinairement prohibitive. La faute, encore une fois, à une législation inadaptée.



L’Etat est garant de la loi, il jouit d’un monopole légal pour cela et c’est bien à lui de la faire appliquer. Comme il la fait appliquer pour n’importe quelle activité professionnelle.





Une propriété intellectuelle n’est pas la propriété. On ne peut pas étendre la même protection juridique à 2 concepts différents, même si on leur a attribué un nom similaire.

Pour qu’il y ait propriété, il faut que le propriétaire puisse établir un contrôle sur l’objet en question.



La propriété découle du travail ou du capital qui ont été consentis, pas d’un pouvoir de contrôle.



Par ailleurs le pouvoir de contrôle est encore une fois le monopole de l’état, au mieux peux-tu avoir recours à quelques mesures dissuasives et limitées.



Enfin peux-tu enfermer ton terrain ? Qu’est-ce qui en fait ta propriété sinon un bout de papier ? En quoi un bout de papier te conférant le droit d’exclusivité d’une oeuvre intellectuelle vaudrait moins qu’un bout de papier te conférant un droit d’exclusivité sur un terrain ?



Vas-tu me dire que n’importe quelle entreprise devrait avoir le droit d’exploiter gratuitement les logiciels de SAP ou Dassault Systèmes ? Que n’importe qui devrait pouvoir utiliser n’importe quelle musique ou film à des fins commerciales ? L’idée de restreindre la propriété à un objet physique est absurde au XXIème siècle, rends-toi compte ce que ça impliquerait.





Et je souligne que ces caméras et ces vigiles sont à charge du supermarché et non du contribuable. Finalement, tu contredis ton premier argument, parce que tu mélanges les principes de sécurisation et de justice.



Mais je mélange les deux parce que l’état a un monopole sur les deux. Les agents de sécurité n’ont pas le droit d’être armés, ils n’ont pas le droit d’interpeller et ils ne sont pas assermentés, leur parole ne vaut donc pas plus que n’importe quel témoin.


Le 07/08/2014 à 12h 25







RaoulC a écrit :



Donc c’est a NOS IMPOTS de payer les procès qu’il devraient intenter EUX contre les sites de téléchargement? Ils touchent des subventions, ils font passer tout ceux qui bossent dans le cinoche pour des intermittents (ya pas de petites économies), ils veulent qu’on leur paye les frais de procédures…





Et donc si tu te fais cambrioler, tu estimes que c’est à toi de payer des détectives privés et le coût d’un procès ?



Dans mes souvenirs l’état est le garant de la loi. Si tu penses vraiment que les sociétés privées devraient se faire justice elles-mêmes (donc en leur donnant les autorisations nécessaires - ce qu’elles n’ont pas aujourd’hui - et moins d’impôts à payer), alors méfies-toi de ce que tu désires.







FREDOM1989 a écrit :



Mais les “philosophes” et les gauchistes occidentaux de télévision ne voient dans la déclaration des droit de l’homme que les droits politique car cela ne risque pas de leur faire perdre de l’argent pour leurs yachts de 40m et leurs villas et cela permet de s’ingérer dans les affaire politique d’un pays récalcitrant afin d’y foutre le bordel ou d’y placer une marionnette et de le piller pour avoir le but ultime de l’homme voter même si on ne tient pas compte de son vote.





En général ceux qui râlent contre les bénéficiaires du RSA selon la ritournelle (légitime même si on ne partage pas leur avis) du “ah mais nous on bosse et ils profitent” ne sont pas le plus souvent à gauche.







roflmao a écrit :



“La propriété, c’est le vol.”



Alors vive l’appropriation! <img data-src=" />





Voici un flingue, je le pointe sur toi, file-moi tes biens sale voleur de propriétaire.

Toujours convaincu ?









risbo a écrit :



Non, le partage n’est pas un vol





Le partage des biens d’autrui, si.







sebcap26 a écrit :



D’ailleurs si je dis pas de bêtises c’est l’acte de partager qui est une contrefaçon. Télécharger sans partager (comme avec le direct download par exemple) n’est donc ni du vol, ni de la contrefaçon au regard de la loi.

Du coup je me demande même si c’est vraiment techniquement illégal.





Si je ne m’abuse ça a été considéré comme recel dans certains jugements.









flamwolf a écrit :



Mon supermarché n’est pas financé par l’impôt,

mon supermarché ne demande pas à tout savoir de ma vie privée et à surveiller mes communications pour éviter le vol,

mon supermarché est soumis à la concurrence si le produit que je désire est trop cher j’irais acheter le même chez un concurrent,

mon supermarché ne me traite pas de voleur à priori,

mon supermarché ne met pas de DRM ou d’autres moyens de limiter l’usage du produit dans ses paquets de nouilles,

mon supermarché ne va pas pleurer auprès de l’état à chaque vol pour la mise en place d’une police privée,

Et plus que tout mon supermarché ne fait de réflexion puante pour qu’on protège sa rente.





a) Ton supermarché bénéficie de citoyens éduqués par l’état, d’une protection policière, du réseau routier, etc. Tout le monde est contributeur et débiteur.



b) Ton supermarché déploie quantité de moyens de surveillance à des fins marketing.



c) Ton supermarché te fait surveiller par des vigiles et caméras, et utilise des anti-vols, dans l’hypothèse où tu serais un voleur.



d) Ton supermarché exige de l’état qu’il lutte efficacement contre les vols qu’il pourrait subir, ce qui est tout à fait normal puisque l’état a un monopole légal dans ce domaine et que lui seul a le droit d’agir.



Et toi, travailles-tu gratuitement pour autrui ?


Le 08/08/2014 à 14h 03

Cher monsieur.



Vous avez récemment eu la joie d’être contacté par nos services. Afin d’améliorer la qualité de celui-ci, veuillez nous renvoyer le questionnaire de douze pages ci-joint accompagné d’une dissertation de mille lignes évaluant cet entretien.

Le 08/08/2014 à 13h 58


  • Bonjour, votre période d’engagement est terminée et nous allons donc vous appeler huit fois par jour, y compris à 3h du matin. Si vous éteignez votre portable, nous viendrons vous démarcher à votre domicile. Si vous refusez de nous ouvrir nous crèveront vos pneus et nous attendrons que vous sortiez travailler. Et ainsi de suite jusqu’à ce que vous renouveliez votre contrat.





    • Euh…



    • Souhaitez-vous être inscrit sur la liste des clients à ne pas rappeler comme vous y autorise la loi ?



    • Ben, oui.



    • Bien, je fais donc semblant d’en prendre note et nous continuerons à vous harceler jusqu’à ce que vous vous soumettiez et présentiez votre numéro de carte bancaire en témoignage de votre reddition.


Le 08/08/2014 à 13h 08







KissFC a écrit :



Pas pour tout le monde.



fr.wikipedia.org Wikipedia





Renonçons à l’humour parce que 0.0001% de la population ne peut pas la comprendre (même si 10% de la population d’Internet est convaincue d’être un Asperger : génie incompris et difficultés sociales - diagnostic confirmé par Doctissimo).



Renonçons aussi aux couleurs, tiens, pensons aux daltoniens. Et à la musique, pour les sourds. Aux images, c’est discriminatoire envers les aveugles. Aux blagues graveleuses, ça heurte la sensibilité des plus jeunes. A la masturbation, par compassion pour les manchots. A la joie de vivre, par solidarité avec les cancéreux. Etc.


Le 08/08/2014 à 13h 05







CounterFragger a écrit :



Un retour aux valeurs du bon vieux temps, y’a que ça de vrai… <img data-src=" />





C’est un faux. Savoureux et connu mais faux. ;)


Le 07/08/2014 à 13h 21







metaphore54 a écrit :



Après Snowden le jouet des dirigeants pour l’utiliser comme chiffon rouge, le prochain sera quoi ? Je suis curieux de le savoir.





Snowden instrumentalisé par la CIA ? Et quel serait le but de cette manipulation ?


Le 07/08/2014 à 06h 36







Elooam a écrit :



Réaction de l’Europe:

“Arrêtez de nous espionner, ce n’est pas bien !”



Et la réponse des Etats-Unis:

“Promis jurer, on ne recommencera plus !”





Vraiment ? Dans mes souvenirs c’était plutôt :



Réaction de l’Europe :




  • Oui mais les Etats-Unis sont nos alliés et la surveillance de masse c’est pour notre bien, d’ailleurs on va signer un accord de coopération pour les y aider. Bon par contre Angela veut bien que vous espionniez ses citoyens mais pas elle.



    Réaction des USA :

  • Oui mais c’est pour le bien de l’Europe si on vous surveille. Et pour Angela elle pourra toujours se brosser, c’est pour son bien. Par contre on va faire semblant d’être un peu gêné et dire qu’on a été un poil trop loin, et lancer un super plan com’ pour vous faire croire que nos entreprises sont gentilles qu’on en a quelque chose à faire de vos droits de l’homme de merde, et qu’on ne surveille que vos métadonnées. USA first !


Le 06/08/2014 à 08h 52







glassman a écrit :



Belle preuve : un motard va s’adapter aux comportements des autres usagers (en fait, ce que vous ne comprenez pas, c’est que c’est une question de vie ou de mort pour lui, pas de tôle froissée…). Un automobiliste à tendance à attendre que les autres s’adaptent à son comportement (forcer les priorités, pas de cligno, rouler dans la file du milieu, etc…).





Ouais, et les noirs sont bien membrés, les juifs riches et les asiatiques fourbes.


Le 06/08/2014 à 08h 48







steinfield a écrit :



Si tu veux te faire plaisir, achète toi un gateau au chocolat.





Non mais tu as pensé au coût pour la collectivité ?! Entre les dépenses de santé et les émissions de CO2 pour la culture, le transport par bateau et la transformation, ta plaquette de chocolat est un tueur anarchiste qui ne dit pas son nom !



Si tu veux te faire plaisir, lis une blague carambar.



































<img data-src=" />


Le 04/08/2014 à 07h 03







RRMX a écrit :



Personne ne signera pour ça, sauf forcé. MPI, pthreads etc sont de simples hacks qui réutilisent les vieux languages inappropriés de par leur style. Je suis un grand aficionado de la programmation (mais surtout, comme tu l’as souligné plusieurs fois, de l’algorithmie) parallèle, cependant je ne me fais guère d’illusion sur l’évolution future des pratiques.





A vrai dire je ne pense pas que l’avenir sera aux langages fonctionnels (ni davantage à MPI et compères). Faisons le point de ce qu’ils apportent :



* Des sémantiques vectorielles telles que map/reduce basées sur une composition par fonctions. Mais de nos jours le moindre langage impératif s’en est doté (c# / c++ / java chronologiquement). Et si les langages fonctionnels ont souvent eu des sémantiques additionnelles, c’est aussi le cas de certains langages impératifs (async/await en c#)



* Un monde immuable (à des degrés divers selon les langages). Ce qui garantit l’isolation, qui est le trait vraiment nécessaire au parallélisme. Sauf que le peu d’avantages de l’immuabilité par rapport à l’isolation (pureté et donc composabilité, testabilité et analyse) est loin de compenser les pieds et les mains qu’il faut faire pour manipuler des états mutables qui demeurent indispensables (monades, codata, etc). A mon sens l’approche et son coût ne sont pas satisfaisants et on peut trouver mieux.



* A part ça les programmes impératifs et fonctionnels sont de toute façon équivalents : on passe du premier au second via un graphe de flux de contrôle (CFG) et une passe SSA (single static assignment). Le reste n’est donc qu’une affaire de vue de l’esprit.





Si j’avais à parier je dirais que l’avenir sera plutôt à un langage impératif qui sera doté de :

a) Sémantiques isolationnelles.

b) Sémantiques transactionnelles couvrant les états mutables explicitement marqués comme transactionnels.

c) Diverses sémantiques asynchrones à la Erlang ou à la C# : acteurs explicites ou implicites, appels asynchrones vers une thread pool avec spécification de continuations, etc.

d) Des sémantiques déclaratives et réactives.

e) Des sémantiques pour gérer des unités de calcul hétérogènes.



Je précise au passage qu’on n’a pas besoin à mes yeux d’auto-parallélisation. Laisser le dév spécifier quand paralléliser via des sémantiques simples et de haut-niveau (boucles parallèles, appels asynchrones, etc) est simple et efficace.



Enfin, oui, tout ça demandera du travail. Mais de toute façon le développement logiciel nécessite de réapprendre constamment.


Le 03/08/2014 à 19h 56







vampire7 a écrit :



Pour le SSL, sachant que la taille des paquets IP est au plus de 1500 octets, on est largement en-dessous du point où utiliser le GPU est rentable. Et même en chiffrement de fichier (pratique plus courante que tu sembles l’imaginer : il n’y a qu’à voir ce qu’il s’est passé avec la fin de TrueCrypt), il n’est pas rare d’avoir des requêtes de 4 Ko ou moins.





Si tu dois en tout et pour tout chiffrer quelque chose de tellement petit que le lancement d’un thread GPU n’en vaut pas la peine (puisque c’est presque le seul surcoût restant avec HSA), de toute façon c’est insignifiant.



SI en revanche ton problème est que tu dois traiter de nombreux paquets de 4ko, le GPU peut tout à fait s’en occuper et avec HSA tu dois pouvoir laisser un thread GPU en attente pour le réveiller à l’arrivée d’un paquet, après quoi il pompera tous les paquets en attente. Aucune différence avec le CPU (voir ci-dessous).





Bien souvent, le parallélisme massif n’est efficace que sur des grosses quantités de données. Pour le GPU, c’est facile à comprendre :




  • fonctions de synchronisation avec éventuellement réveil d’un thread (et donc chargement du contexte)

  • appel d’une API qui elle-même va adresser une requête au pilote

  • transfert des données de la RAM vers la VRAM

    Il n’y a que ce dernier point qui est résolu avec les APU. Étant donnés les temps d’exécution affolants des 2 premiers points, c’est peu, et du coup, intéressant seulement pour les grosses requêtes.



    Quelques petite remarques :

    * Attention à ne pas amalgamer APU et HSA. C’est l’architecture HSA qui supprime le troisième point, pas la vague appellation APU qui peut aussi bien désigner une simple superposition de CPU et GPU.



    * De toute façon les paquets réseaux ne sont pas traités par le thread réseau qui les réceptionne. Donc le changement de thread se produit aussi avec un traitement sur CPU.



    * Une bascule vers un autre thread n’entraîne pas forcément de changement de contexte : même inactif ce thread pouvait toujours occuper ce coeur, à moins qu’un autre thread n’en ait eu besoin pendant ce temps.



    * Reste uniquement le surcoût de l’appel au pilote (pas forcément nécessaire si celui-ci a tout compilé à la volée lors de la création du thread GPU) et le passage par PCIe pour l’envoi des commandes (même si ces commandes sont abrégées grâce à la mémoire partagée). Mais encore une fois, en simplifiant, peu importe le surcoût incontournable de la programmation parallèle quand tu as l’équivalent de 1k unités de calcul : ce surcoût est largement amorti.





    Au fait, comment as-tu utilisé les instructions SIMD la fois où tu as eu à le faire ? ASM ou intrinsics ?



    Asm. A vrai dire ne suis même pas sûr que les intrinsics correspondants existaient à l’époque. Et de toute façon les compilateurs étaient très mauvais dans leur gestion de ces instructions vectoriels il y a encore peu de temps, donc l’asm était la seule voie raisonnable.







    Nithril a écrit :



    Certain classes d’algorithmes sont tout simplement difficilement implémentable efficacement sur ce genre d’architecture.





    Comme je le disais plus haut, il ne faut pas confondre problèmes et algorithmes. Les algorithmes sont les solutions imaginées pour résoudre efficacement nos problèmes sur nos architectures séquentielles. Autrement dit ces algorithmes otn été conçus pour des architectures séquentielles. Et si certains de ces algorithmes ne sont pas parallélisables, ça ne veut pas dire qu’il n’existe pas d’algorithme paralléèle efficace pour résoudre le problème en question.



    Pour ma part je pense qu’il existe très peu de problèmes non-parallélisables. Mais je n’ai pas vu de travaux formels sur cette question. Si quelqu’un en connaît…



    Cependant je suis d’accord avec ta conclusion selon laquelle il faudra à la fois de la puissance parallèle et de la puissance séquentielle. Simplement je pense que la norme peut et doit être parallèle, même si je conçois que ça puisse sembler inimaginable au plus grand nombre aujourd’hui. Pourtant le chemin à faire au niveau des langages et technos n’est plus très long.







    paul161 a écrit :



    Déjà, un journaliste n’a pas à prendre parti comme on le voit trop souvent maintenant (des expressions comme “le cas le plus ahurissant” n’ont rien à faire dans un article de presse)





    Je ne suis pas d’accord, je ne considère pas qu’il s’agissait d’une prise de partie. Une liberté de ton, oui, mais celle-ci est acceptable vu les circonstances : le discours marketing d’AMD sent bel et bien le très réchauffé.


Le 03/08/2014 à 05h 21







vampire7 a écrit :



AES n’a pas été conçu pour être inefficace sur GPU. Tu ne serais pas en train de confondre avec scrypt ?





La façon dont j’avais réorganisé les quotes m’a fait croire que ta citation concernait Serpent.





En implémentation software de AES, mon i7 2600k crache dans les 900 Mo/s. Et des “dizaines de Gbps”, quand tu ramènes ça à des octets, ça fait tout de suite moins impressionnant…



Je trouve que des performances des dizaines de fois supérieures pour le GPU alors que le CPU s’est doté d’une nouvelle instruction pratiquement juste pour ce cas, c’est au contraire assez parlant.





Si tu veux comparer une machine avec plusieurs cartes graphiques, fais la comparaison avec une machine multi-CPU. Sinon, comme tu le dis, c’est incomparable, parce qu’il n’y a rien à comparer.



Oui enfin les types auraient pu choisir d’aligner des CPU (s’ils avaient été stupides). Ils ont au contraire aligné des GPU.


Le 02/08/2014 à 21h 55







Nithril a écrit :



Il ne faut pas non plus tomber dans l’exageration avec le “n’importe quel algorithme”. Une unité de traitement “GPU” est très loin d’être aussi polyvalent qu’un CPU.





Oui, même si c’est de moins en moins vrai.





La différence de puissance CPU/GPU se creuse à la même vitesse que les fondeurs ajoutent des unités de traitement. Rien de miraculeux à mon sens, cela reste du silicium…



Mais la loi de Moore EST miraculeuse… ;)

L’approche horizontale en profite (davantage d’unités de calcul), pas l’approche verticale.







vampire7 a écrit :



En comparaison, Serpent est au contraire bien plus complexe que AES ou Twofish, et même une version compacte prendrait entre 200 et 300 lignes de code.





Tiens en voici une sur moins de 100 lignes de code, dont un tiers seulement constitue la boucle d’exécution. Comme tous les algos c’est uen boucle compacte, un algorithme pur. Si tu peux accélérer une toute petite partie le résultat est tout de suite énorme. Sauf que dans la réalité ce genre de choses n’est pas l’application finale mais un sous-composant de l’application. Voilà ourquoi dans la réalité SSE2 et consorts sont quantité négligeable.





Tu pourras toujours dire que c’est à cause des transferts de données sur PCIe, que les APU d’AMD vont résoudre ça… Et je serai bien content qu’un jour ce soit le cas. Mais pour l’instant, quiconque a besoin de performance ne se penchera pas sur ce genre de puce.



Non, je t’ai dit et je te répète qu’un algorithme conçu expressément pour être inefficace sur GPU n’est pas représentatif. Ce qui est l’évidence même.





Quant aux perfs sur GPU, tu devrais peut-être jeter un œil ici. Et encore, si le gars avait disposé des instructions AES, son implémentation CUDA aurait été plus lente dans tous les cas.



Parce que le type utilise une antiquité (datant probablement d’avant le support des entiers sur CG) et que l’implémentation est sans doute mauvaise. Les implémentations modernes d’AES sur GPU crachent des dizaines de Gbps contre les quelques dizaines de Mbps sur CPU de ton lien. Aujourd’hui tous ceux qui font du déchiffrement de mdp en masse le font sur des boîtes à GPU contenant environ huit CG alignées. Les perfs sont tout simplement incomparables.


Le 02/08/2014 à 20h 11



Et je ne sais pas si t’es au courant, mais la crypto ne se résume pas au SSL…



Oui, je l’utilise aussi pour créer une certificat tous les six mois, pour hacher des fichiers par des procédés IO-bound, et pour créer des clés asymétriques en 15ms qui serviront ensuite à chiffrer des Go de données en SSL. Bref, non, il n’y a pas que SSL, mais il n’y a que ça qui compte. Et c’est encore une fois anecdotique.

Le 02/08/2014 à 20h 03







vampire7 a écrit :



Windows c’est marginal ? Pourquoi réclamer le SSE2 comme prérequis à Windows 8.1 si c’est juste pour 2 ou 3 bricoles isolées ?





Pourquoi pas ? Tous les CPU depuis des années supportent SSE2. Ce n’est pas le gain qui est décisif, mais le coût ridicule.





La cryptographie aussi n’a plus rien de marginal, et la majorité des librairies et applications actuellement maintenues dans ce domaine utilisent au moins des instructions SSE2.

Les jeux aussi c’est marginal ? Tu en connais beaucoup, des moteurs 3D récents qui n’utilisent pas la moindre instruction SIMD ?

La lecture de vidéo est marginale aussi ? FFmpeg, présent dans les principaux lecteurs actuels, utilise un grand nombre d’optimisations SIMD.



Par marginal j’entends en termes de performances gagnées. Oui, tous les jeux utilisent SSE2. Mais ils l’utilisent à un ou deux endroits. Sans SSE2 les performances des jeux n’en seraient pas grandement affectées parce qu’ils ne se résument pas à un algorithme particulier mais à une riche collection d’algos et de structures de données. Même chose pour les autres applis.



Ton exemple de Serpent sonne bien mais en réalité c’est un cas particulier parce que 99% du temps CPU doit être occupé par un code de 20 lignes, ce qui est exceptionnel. Et de toute façon les perfs restent inférieures à celles obtenues sur GPU, de très loin.





Quant au minage… Litecoin utilise scrypt avec comme paramètres N=1024, p=1, r=1. C’est ridicule, ça enlève tout l’intérêt de cette fonction qui a justement été conçue pour être pratiquement impossible à utiliser sur GPU.



Oui, une exception faîte exprès pour ça. Doit-on optimiser nos architectures matérielles pour ce genre d’artifices ?





Ben moi, plus j’y réfléchis, plus j’arrive à la conclusion inverse.

Tu crois que c’est juste de la flemme de la part des développeurs s’il y a autant d’applications qui, malgré leur besoin en performance, n’utilisent jamais plus de 2 ou 3 threads actifs ?



Ils ne le font pas parce que la programmation parallèle est aujourd’hui difficile et dangereuse, j’en sais quelque chose. Mais ça ne va pas durer, les sémantiques d’isolation, de flux asynchrones, d’acteurs et la mémoire transactionnelle arrivent en renforts, et avec elles un support intégré du GPU.



Dans quelques années la programmation concurrente sera dans bien des cas très accessible et sans grand risque. Et puisque la différence de puissance disponible entre CPU et GPU se creuse à vitesse exponentielle, il ne fait aucun doute que la demande sera là. Ceux qui ne pourront pas s’adapter finiront au chômage. Ou chefs de projet.



Quant à l’appli avec trois threads actifs, c’est un mauvais exemple : c’est soit une simple tâche de fond plutôt qu’une tentative d’utiliser tout le CPU, soit des jeux limités par d’anciens matériels ou d’anciennes version de DirectX. Les jeux de demain n’auront pas cette limite.


Le 02/08/2014 à 17h 27







vampire7 a écrit :



Dans ce cas, pourquoi suggérer “Et remplaçons les par mille pentium 2 et unités SIMD.” ?





Par SIMD je ne voulais pas dire trois instructions spécialisées pour effectuer telle ou telle opération très particulière, je me référais aux unités de calcul du GPU, capables d’effectuer n’importe quel algorithme en parallèle sur N jeux de données.





Windows 8.1 nécessite aujourd’hui le SSE2, et une grande partie des applications réclamant des performances en profite, comme la cryptographie, les applications de traitement de l’image, la vidéo, certains jeux…



Bien sûr. Mais ça reste marginal.





Bon nombre d’algos ne sont pas vectorisables à cause du fait que certains résultats intermédiaires sont utilisés comme indices de tableau (très fréquent en crypto). Et c’est justement le gros changement apporté par l’AVX2.



Formidable nouvelle pour les trois algorithmes de crypto qui en auront besoin. Je suis sûr que çà accélérera de 30% la partie crypto de la gestion du réseau qui elle-même représente 10% de la gestion du réseau, qui elle-même représente 5% de l’activité de navigation. Soit un fabuleux gain de 1,5%.



Ou le minage de… Ah, non, on mine sur GPU.





Tout n’est pas parallélisable



J’ai longtemps dit ça, et puis j’ai réalisé que c’était faux. Oh ! Il y a des algorithmes non-parallélisables, comme les parcours de listes chaînées, mais ces algorithmes sont les solutions imaginées pour résoudre efficacement sur nos archis séquentielles des problèmes qui, eux, sont parallélisables. Il suffit d’utiliser un autre algorithme.



Plus j’y réfléchis, plus j’ai l’impression que, si, on peut bel et bien trouver des algorithmes parallèles pour presque tous les problèmes.



Bien sûr nous devrons conserver quelques unités séquentielles rapides. Mais gaspiller autant de silicium pour si peu de gains alors que dans le même temps on pourrait avoir mille fois plus de puissance, c’est ridicule.





et même quand ça l’est, il faut tenir compte des coûts en temps d’exécution dus à la synchronisation des threads, des accès séquentiels à la RAM, etc. Dans certains cas, paralléliser peut même donner un résultat plus lent.



Oui, si tu as quatre cœurs. Pas si tu en as mille. Quand tu en as mille, tout change. Soudain les plus prohibitives des solutions deviennent très rentables, tant qu’elles sont échelonnables (scalable).



Bon, cela dit pour utiliser mille coeurs tu as intérêt à avoir une autre architecture mémoire justement. L’évolution joue au tic-tac entre matériel et logiciel.





Je ne connais par exemple aucun algo de hash permettant le moindre parallélisme sur un seul flux de données.



Je t’invite à chercher “block-based hasing” ou “Merkle tree”. A vrai dire ce sont des compositions de hash. Mais je te rejoins pour dire qu’on doit encore inventer nombre d’algos.


Le 02/08/2014 à 15h 31







Guinnness a écrit :



A la rigueur si j’étais méchant je dirais que dans l’optique de consoles “low cost” le choix d’AMD pour les CPU/GPU était parfaitement logique <img data-src=" />





Leur archi est positionnée sur la moyenne gamme, oui. Mais ils peuvent délivrer à prix comparable énormément plus de puissance que la concurrence une fois que les dévs auront optimisé leur code pour l’archi HSA.







vampire7 a écrit :



Tu devrais justement jeter un coup d’œil à ces “nouvelles instructions à la noix”. L’AVX2 apporté par Haswell devrait permettre un bon de performances aussi important que l’a permis le SSE2, grâce à des instructions qui étaient attendues depuis longtemps.





Ca fait plus de deux décennies que je programme et j’ai fait à peu près de tout. Y compris nombre d’applis où les performances étaient un vrai défi. Sais-tu combien de fois j’ai utilisé ces instructions SIMD ? Une fois. Une fois en plus de deux décennies. Ce fut la seule et unique fois où j’en ai eu besoin. A contrario la majeure partie de mes projets depuis plusieurs années incluent des systèmes massivement parallèles.



Alors, oui, cette unique fois-là c’était important. Pour les 0,1% de programmes qui font des calculs vectoriels par groupes de 4 ou 8 sur le CPU (de plus en plus rare), ça permet un joli gain. Mais autant dire que AVX2 me laisse complètement froid et que même dans dix ans ça n’aura qu’une utilité marginale.





A côté de ça, il y a les accès à la RAM qui continuent de se faire laborieusement en 64 bits par canal, d’où l’intérêt primordial de “ces caches démesurés”.



En fait les accès se font par 128 bits avec le dual channel et le cache est surtout là pour pallier la latence plutôt qu’un défaut de bande passante. Le problème c’est que malgré une multiplication par douze du cache, ces nouvelles instructions et des circuits beaucoup plus complexes, on n’a que ce facteur 3 sur les perfs. Parce que faire des pieds et des mains pour gratter les miettes n’empêche pas les rendements décroissants. Et ça ne va pas s’améliorer. Dans le même temps les performances parallèles ont été multipliées par 100. Alors quelle est la bonne direction ?





Tu n’as qu’à proposer ta super nouvelle architecture à AMD, je crois qu’ils en auraient bien besoin. <img data-src=" />



Je ne critiquais pas l’architecture d’AMD, au contraire puisque eux ont choisi une direction intelligente au lieu de se concentrer comme des boeufs sur les perfs mono-coeur.



Maintenant si en général l’industrie du CPU n’a pas (encore) pris la direction que je suggérais c’est parce que le couple industrie matérielle - industrie logicielle évolue leeeeeeentement. L’inertie est énorme. Et puis il suffit de regarder ce fil pour voir que les consommateurs ont une courte vue.


Le 02/08/2014 à 13h 41







David_L a écrit :



Ce que j’ai du mal à comprendre dans ton analyse, c’est que tu pars du principe qu’AMD est le seul à faire ce qu’ils appellent “APU”. M’enfin, qu’ils soient ceux qui se paluchent le plus au niveau marketing sur le sujet, soit. Mais ce n’est pas pour autant que ce sont les seuls à exploiter une partie CPU et GPU unifiée d’une manière ou d’une autre.





Je ne parle pas d’APU, je parle de l’architecture HSA. Et à ma connaissance ils sont les seuls à proposer quelque chose de genre, ou alors ils sont de très loin les plus avancés.



Parce que AMD ne s’est pas contenté de coller un CPU et un GPU ensemble, ils les ont fait fusionner. L’ensemble partage non seulement le même bloc mémoire physique mais, surtout, celle-ci se présente d’une façon unifiée au programmeur : mémoire virtuelle partagée entre CPU et GPU, modèle mémoire unifié (avec caches synchronisés entre coeurs CPU et GPU et transactions bien définies et normalisées). Je ne parle pas seulement d’API élégantes, je parle bel et bien d’une architecture physique sous-jacente qui n’existe nulle part ailleurs à ma connaissance. C’est une refonte complète de l’architecture d’un GPU, c’est aussi important que le passage à un pipeline programmable autrefois (quand les shaders furent introduits).



Et par ailleurs ces coeurs GPU sont de vraies unités généralistes avec changements de contexte (pour du vrai multithreading dynamique), la possibilité réaliser des appels systèmes depuis le GPU, de démarrer des threads sur le CPU ou d’autres threads sur le GPU, et enfin le même modèle de sécurité à base d’anneaux que nos CPU.



Ça n’est plus du GPGPU. Le GPGPU était un truc très spécialisé et rarement utilisable en pratique du fait des limitations existantes, notamment la lourdeur des échanges CPU GPU qui ruinait tout mais aussi l’impossibilité de réutiliser le code de l’application et le côté bancal avec l’absence d’un multitâches correct et le risque de sécurité. Là on s’oriente clairement vers des unités de calcul toujours spécialisées mais suffisamment généralistes et haut-niveau pour être largement utilisables au quotidien et depuis des langages standards. Ça n’a absolument plus rien à voir.







Mais je pense que dire que la stratégie actuelle d’AMD est bonne, c’est se voiler la face, et le niveau des perfs que leurs résultats montrent bien que c’est aussi vrai au niveau de la comm’ que sur le fond.



Je ne parle pas de stratégie commerciale ça ne m’intéresse pas, je parle en tant que dév. Quant aux perfs elles ne pouvaient pas être bonnes sur les applications existantes, le coût pour ces nouvelles fonctionnalités est trop grand. Mais les perfs seront excellentes sur les applis optimisées parce que cette architecture peut faire tourner des batteries d’algorithmes qui jusqu’à présent étaient inutilisables sur les architectures existantes. C’est là qu’est le potentiel de cette archi.





Avec un peu de chance, ça changera bientôt, et j’ai hâte de voir s’ils sont capables de ce renouveau



Et moi j’ai hâte de voir si l’industrie du logicielle est capable de supporter le renouveau déjà effectué.


Le 02/08/2014 à 12h 09







Nithril a écrit :



C’est la voie qu’AMD emprunte à defaut de pouvoir s’aligner sur Intel. Ce n’est pas en étant tout seul qu’ils arriveront à en faire une autoroute





Quand j’étais môme la puissance des CPU doublait tous les douze à dix-huit mois. Ces dernières années elle a doublé tous les cinq ans. Désormais elle va doubler tous les dix ans.



On continue à sa palucher sur des 12% d’augmentation au benchmark bidule avec le core i9 ou bien on tente autre chose ?



C’est du gaspillage de silicium, virons ces micro-optimisations silicophages, ces nouvelles instructions à la noix et ces caches démesurés. Et remplaçons les par mille pentium 2 et unités SIMD. Un an plus tard des boîtes comme MS et Google proposeront des langages et OS adaptés et deux ans plus tard on verra des applis dont les perfs crèveront les plafonds.



Ca fait dix ans que je n’ai pas acheté de CPU AMD, je ne suis pas un fanboy. Mais pour le coup ils ont pris de gros risques et innové. Sur le plan technique la direction est la bonne. Pendant ce temps Intel ne fait rien et des boîtes comme Google abandonnent le x86 dans certains datacenters.


Le 02/08/2014 à 07h 42







metaphore54 a écrit :



Peut être parce que le PDG n’a pas de boule de cristal ? Il est beaucoup plus facile de savoir une fois la bataille passée.



Mais je ne suis pas sûr qu’AMD à fait tant d’erreur.





Disons qu’ils ont fait tellement d’erreurs qu’ils ont remporté à la fois le marché de la X1 et celui de la PS4 avec leur architecture.



Oui il y a des déficits, oui les perfs sont décevantes sur les applications existantes, mais l’histoire ne s’arrête pas là. La voie que suit actuellement AMD est la seule voie possible pour accroître rapidement la puissance de calcul et ils ont deux trains d’avance en ce domaine.


Le 02/08/2014 à 03h 06







js2082 a écrit :



Bref, tant que les gens peuvent ouvrir des fenêtres sans que ça rame, ils le feront (et ils s’en serviront peu importe le nombre), quitte à mettre à genoux la plus puissante des machines du monde.





Plutôt que d’ouvrir davantage de fenêtres l’intérêt serait, pour prendre des exemples qui te parleront :



* Des programmes avec une UI encore plus sympatoche programmée en trois fois moins de temps grâce à des technos plus lourdes.



* Une reconnaissance vocale parfaite.



* Une correction grammaticale et orthographique parfaite dans ton traitement de texte, et même capable de deviner ton intention quand c’est nécessaire.



* Bob, donne-moi tous les arrêtés de la dernière décennies basés sur la loi bidule.




  • (ouverture d’une liste de 540 arrêts)

  • Bob, restreint la liste à celles ayant débouché sur une condamnation.



    * Bob, montre-moi toutes les photos de Jacqueline.

  • Je ne connais pas Jacqueline.

  • (en cliquant sur une photo) Bob, voici Jacqueline.

  • (ouverture d’une mosaïque de photos)



    Tout ça n’est pas de la SF, c’est quelque chose qui est en plein boom. Mais il faut de la puissance, plus de puissance !


Le 01/08/2014 à 16h 13







fraoch a écrit :



que valent ils ces APU ?





Sur le papier c’est du CPU bof mais c’est parce que l’architecture est tellement nouvelle qu’à peu près rien ne l’exploite. En revanche sur certains scénarios qui exploitent ces nouvelles capacités, cet APU écrase tout le reste.





niveau capacités graphiques, font ils tourner les jeux actuel de facons regardable ? de qualité X1/PS4 ?



Ils font tourner les jeux correctement et c’est une puce simlilaire qu’on trouve dans les X1/PS4. A vrai dire certains jeux optimisés pour X1/PS4 qui pourraient ne pas bien tourner sur de grosses bécanes pourraient être à l’aise sur cet APU.



Pour autant il faut bien voir que la raison d’être de cet APU c’est avant tout de fournir de la puissance de calcul au CPU, pas d’être un GPU de compét. Ca fait quand même un GPU honnête mais c’est pas le but.







DahoodG4 a écrit :



Serieux AMD faut se sortir les doigts la, ils ont vraiment rien dans les cartons, sa se sent a des kilometres, et a la place d’Intel j’aurai aussi rajouté 100Mhz, pourquoi vouloir boucler son sprint en 10sec, quand l’adversaire cours 40sec derriere, et en boitant… .





Attend, faut être un peu charitable : à prix égal les perfs ne sont pas à la ramasse et en attendant c’est une vraie architecture innovante qui va permettre d’avoir demain de vrais gains de puissance.







cyrano2 a écrit :



Je ne connais quasiment aucun logiciel en dehors des jeu, qui a besoin d’une carte GPU puissante (photoshop ? du traitement vidéo ?).





Il y en a beaucoup dans le domaine scientifique ou autres applis hautes performances (minage bitcoin, crypto, certaines indexations, etc). Mais tout ça est surtout du côté serveur.



Cela dit ça restait rare pour trois raisons qui sont en train de disparaître :

a) En règle générale il n’était pas rentable de déporter vers le GPU du fait du coût de transfert . Celui-ci n’existe plus sur les APU grâce à la mémoire partagée. Par exemple le ramasse-miettes va peut-être passer sur le GPU dans les années à venir.



b) Si tu crées aujourd’hui un programme avec OpenCL tu vas encore avoir plein de clients chez lesquels ça ne fonctionnera pas. Voire chez lesquels l’ordinateur plantera ! On avait le même pb avec l’accélération matérielle de l’affichage il y a encore peu de temps.



c) Les modèles de programmation sont encore spécifiques et limités. Mais c’est de moins en moins vrai : cette nouvelle architecture introduit un dataflow libre, une mémoire virtuelle, etc. Quel monde par rapport à il y a quelques années où le moindre branchement divisait les perfs par deux. A ce train là dans quelques années tu exécuteras ton code habituel sur le GPU (il faudra simplement garder une profondeur restreinte de pile et éviter les appels virtuels).







cyrano2 a écrit :



Ils ont multiplié les cores, mais quasiement aucun logiciel sait se servir de plus de 3 ou 4 cores.





Pas d’accord, tu penses aux jeux qui restent contraints par les capacités des anciens modèles de matériels et d’API et exécutent des tâches différentes sur chaque coeur. Mais à côté tu as plein de programmes qui ont fait l’effort de distribuer leurs calculs de façon homogène et ceux-là tirent aussi bien partie de 2 coeurs que de 16.



Pour ma part ça fait déjà plusieurs années que chaque fois que j’ai des opérations lourdes à mettre en œuvre je fais en sorte d’exploiter toute la bête. En général je fais des architectures capables d’exploiter des dizaines de coeurs.







cyrano2 a écrit :



Pour que les APU ait un quelconque intérêt, il faut que la partie shader soit exploitable facilement par n’importe qui.





Les shaders ? Mais on s’en cogne, c’est pas une bête graphique, le but est d’accroître la puissance de calcul du CPU.



Ou alors tu veux dire qu’il doit être facille de déporter des calculs vers la partie GPU ? Alors oui. Et si OpenCL n’est pas difficile à programmer, je suis d’accord pour dire qu’il y a encore des progrès à faire. Notamment, justement, l’abandon d’OpenCL car pour exploiter aisément la mémoire partagée il va aussi falloir partager le code.


Le 02/08/2014 à 03h 10







A33 a écrit :



Le JavaScript et les requêtes asynchrones ont toute leur part dans le Web 2.0, mais le Web 2.0 ne se résume pas du tout à ça. Le Web 2.0, c’est aussi la genèse dynamique des pages (grâce à PHP), les commentaires et la participation des utilisateurs.

Le PHP a permis tout ça, avec les blogs, les CMS et les forums. JavaScript n’est même pas indispensable, même si c’est un gros plus.



fr.wikipedia.org WikipediaPour ma part, je résume le Web 2.0 à tout ce qui nous a fait sortir du HTML statique.





On utilisait largement des pages dynamiques bien avant le web 2.0 et même avant que le terme soit inventé ! Et à cette époque php faisait déjà figure d’ancêtre.



Quant aux forums ils sont également très antérieurs au web 2.0.


Le 01/08/2014 à 16h 37







A33 a écrit :



On goûte aussi à l’unicode dans Python 3 depuis des années, et c’est très bon. <img data-src=" />





En fait tout le monde goûte à Unicode depuis vingt ans. Sauf PHP.

Je dis ça, je dis rien.







Mihashi a écrit :



Personnellement, ayant été obligé de coder en fortran77 pendant un moment, je trouve le php très agréable à utiliser <img data-src=" />





Et le SDF que je croise parfois apprécie le nouveau confort dont il jouit maintenant qu’il a trouvé un sac plastique à se mettre sur la tête lorsqu’il pleut. La preuve que le sac plastique est bien plus confortable que ne le disent ses détracteurs.







frederpe a écrit :



mouai le kiff fortran le premier langage programmation ou les devs qui l’exploitent doivent être pratiquants les jeux sado-maso et plus maso que sado <img data-src=" />





Et pourtant à une époque c’était un grand progrès. ^^


Le 01/08/2014 à 14h 22



Si ces petites phrases sentent le fake à plein le nez, la NAN est l’agence de presse nigériane officielle.



Le Nigéria connaît depuis plusieurs années des mouvements islamistes fondamentalistes qui ont officiellement instauré dans certains états (le Nigéria est un vaste pays avec une structure fédérale) les amputations des mains pour les voleurs, conformément à la Charia. Cette proposition n’est donc pas surprenante dans ce contexte, bien au contraire, elle est même parfaitement logique - dans ce contexte.





Des doigts en moins pour être payé rubis sur ongle.



<img data-src=" />

Le 01/08/2014 à 11h 28







dfiad77pro a écrit :



Hummm ça sens bon le WPF ça





Plus précisément le WPF skinné à la va-vite, oui. <img data-src=" />







frscot a écrit :



Y-a-t-il des inconvenients a avoir EMET d’installer sur son ordi?

(ou pourquoi ce n’est par default?)





Comme toujours c’est pour une question de compatibilité : l’activation/désactivation de certaines fonctionnalités empêchera le bon fonctionnement de certains composants ou sites. Difficile de dépanner ces problèmes pour le grand public (et même parfois pour les autres).


Le 31/07/2014 à 12h 05







fred131 a écrit :



Une liberté de parole qui a fait 6 millions de morts innocents et 40 millions dans la seconde guerre mondiale. La liberté de vivre de ces gens là compte moins que la liberté de parole d’un groupe d’assassins de masses ?



Il me semblait pourtant que ma liberté s’arrêtait là où commence celle des autres ?





Il n’a pas appelé à tuer qui que ce soit. Il n’a fait la propagande d’aucune idée. C’était un jeu sexuel en privé. En privé. En privé. En privé, bordel.



Et le cadre de la seconde guerre mondiale est d’ailleurs exploité par nombre de films pornos grand public, français, italiens ou américains, qui ne font pas l’apologie de quoi que ce soit et sont somme toute très banals. Et légaux, en dépit de leur caractère public et commercial. Ce qui est très bien ainsi. Et je ne parle même pas des hordes de films et jeux vidéos qui s’inscrivent dans la seconde guerre mondiale et n’ont absolument aucune autre vertu que de divertir. Bref, l’imagerie nazie a marqué et est aujourd’hui un objet de fascination, comme toutes les grandes horreurs avant elle. Les réactions observées sont donc d’autant plus hypocrites.





Quant à la répression de la parole, je ne suis pas sûr que ce soit un moyen efficace d’empêcher des horreurs. Je note d’ailleurs que de telles lois existaient dès le XIXème, ce qui n’a empêché ni l’affaire Dreyfus, ni le Pétainisme, ni la discrimination raciale des autochtones colonisés, ni beaucoup d’autres choses. A contrario c’est devenu aujourd’hui tout un cirque, on censure tout et n’importe quoi et on fait aujourd’hui d’abrutis haineux des martyrs à grands coups d’échos médiatiques.



Bref, autant dire que je ne suis pas sûr que l’on aurait assisté à trois génocides depuis 45 sans ces lois. Sans parler du fait que ces débordements racistes se sont produits dans des périodes de crises économique, politique et sociale et qu’il vaudrait peut-être mieux se concentrer sur ces causes véritables et ne pas se borner aux épiphénomènes, si tragiques soient-ils.


Le 31/07/2014 à 11h 50







fred131 a écrit :



En France ce mauvais goût est un délit Article R645-1





En public seulement. Dans le cas présent c’était une soirée privée.


Le 31/07/2014 à 10h 09







Vilainkrauko a écrit :



Ah d’accord, je comprend … même si c’est privé, c’est tout de même de très mauvais gout !





Fort heureusement le mauvais goût n’est plus, en règle générale, un délit. Apparemment cela déplaît à la majorité des commentateurs qui voudraient clouer au pilori ce mec et le lyncher en étalant sa vie privée au grand jour. Sans doute au motif qu’ils sont offensés par ses préférences sexuelles. Et peu importe s’il n’a fait de mal à personne.



Bravo, belle mentalité les gars. Et on se demande pourquoi à une époque on lynchait les homos, les juifs ou les communistes. Vous n’avez pas changé d’un poil.


Le 30/07/2014 à 09h 36







jpaul a écrit :



Bon, j’en remet une couche…





Comment oses-tu critiquer cette grande façon de faire de la politique à la française ?! Sache que c’est ainsi, sans rien connaître à aucun sujet et en formulant les exigences les plus incongrues, que depuis cinq décennies on plante avec superbe notre pays. Je connais bien peu de groupes sociaux capables de faire aussi bien avec autant de constance.


Le 30/07/2014 à 01h 56







127.0.0.1 a écrit :



“Wine Is Not European”





C’est sûr mais ça me fait mal de voir des vins vendus comme “Venzuelian Sancerre” et autres “Las Vegas Chablis”. Le fait est que Chablis et Sancerre sont des noms propres et, de facto et de jure, des marques publiques françaises que certaines entreprises étrangères pillent sans vergogne. L’Icann ne reconnaissant que les marques privées, ils ont choisi à tort de mépriser cette spécificité juridique française.



C’est en partie notre faute, nous aurions dû voir venir l’arnaque et la France aurait dû déposer ces AOC comme marques aux USA et les gérer au nom des viticulteurs français. Mais c’était à une autre époque et ce n’est plus possible aujourd’hui puisque certaines entreprises exploitant ces noms pourront revendiquer cette antériorité !


Le 28/07/2014 à 19h 52







Charly32 a écrit :



Attention, comparer CPU et GPU ne fait pas vraiment de sens. Ce serait comme comparer une F1 et un Camion sur la puissance de leur moteur :)



CPU x86 =&gt; architecture flexible et apte à traiter une grande variété de calculs

GPU =&gt; architecture dédiée à un seul (ou un nombre restreint) type de calculs (calculs fortement parallélisables).





Justement, non, cette vue des choses va être de moins en moins vraie.



Y a t-il des problèmes non-parallélisables ? Autrement dit des problèmes pour lesquels il n’existe aucun algorithme parallèle. Probablement pas (tout dépend de la définition de “problème” - une liste chaînée est un algorithme pas un problème, un problème intrinsèquement temporel n’est évidemment pas parallèle mais c’est du fait de signaux externes). Malheureusement je n’ai jamais trouvé de vraie réponse. Ce dont je suis sûr en revanche c’est que la quasi-totalité des problèmes est parallélisable.



Le seul problème c’est que paralléliser est difficile et soumis à erreur. Mais il y a des solutions pour ça : des langages dotés de sémantiques d’isolation, voire des langages encourageant l’isolation, des systèmes de mémoire transactionnelle (qui deviennent très rentables quand le bénéfice est de passer de 1 à 1k unités de calcul), etc. On n’est plus dans la situation où au mieux tu pouvait puiser dans un à trois coeurs en plus selon la machine de l’utilisateur, et en sacrifiant un peu de perfs par coeur pour assurer la synchronisation. On est désormais dans une situation où tu as cette énorme masse de puissance non-exploitée parce que, oui, tu peux paralléliser.



L’autre problème c’est que jusqu’à présent les GPU étaient limités. D’abord il fallait se coltiner le goulet d’étranglement du bus PCIe qui réduisait à néant l’intérêt de nombre d’algorithmes mais l’architecture HSA résout ce problème avec le partage de la mémoire (partage, pas segmentation) en exposant un modèle mémoire exploitable. Il y avait le problème du dataflow, mais ça c’est aussi c’est réglé. Il y avait le problème de la non-virtualisation de la mémoire, de l’absence d’ordonnancement logiciel, etc. Réglé. Il ne manque vraiment plus grand chose.



En revanche les GPU restent une architecture SIMD, oui. Mais on n’est plus à l’époque où le moindre branchement était intolérable. où les perfs s’effondraient dès lors que les données n’étaient pas gentiment alignées en bloc, où tu devais tout proprement mapper, etc. Ces archis SIMD sont désormais des bâtards. On en arrive au stade où tu vas pouvoir simplement prendre une grosse fonction de ton code normal et manipuler tes objets habituels sur le GPU comme tu le ferais sur N coeurs.





Et pour la liste Passmark, il consiste en quoi exactement ce benchmark? C’est quoi le résultat final? (un temps? un indice de performance? Pondéré de quelle manière?). Les test ont étés effectués avec la même version?



On s’en fout, j’ai filé ça à titre d’exemple pour avoir des ordres de grandeur. Si je voulais des chiffres sérieux je n’aurais pas pris la première réponse du moteur de recherche vu qu’elle a toutes les chances d’être biaisée. Ce qui importe c’est l’ordre de grandeur. Et dans la réalité je pense que les chiffres sont encore plus décevants.