votre avatar

kypd

est avec nous depuis le 12 avril 2006 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

661 commentaires

ExoMars  : l'atterrissage de Schiaparelli s'est déroulé suivant le plan... jusqu'à un  certain point

Le 20/10/2016 à 11h 14

5800 m/s de delta-V pour atterrir sur Mars en aéro-freinage !!

Moi je l’aurais pas tenté <img data-src=" />


Windows Server 2016 disponible en version finale pour les entreprises

Le 14/10/2016 à 13h 33

C’est pour ça qu’AMD est sorti du monde serveur en se ventant que son hyperthreading correspond à de vrai cores physiques ?


Pour Linus Torvalds, le x86 a encore de beaux jours devant lui face à ARM

Le 12/10/2016 à 18h 56

Pour être très terre à terre :

Par ce qu’il n’y a pas de produit !

Les tablettes même avec des accessoires clavier, souris, écran externalisés ne peuvent recevoir que des systèmes d’exploitation type “smartphone” qui ne répondent pas aux usages poste de travail.

C’est le sujet de l’article après tout, il n’y a pas de normalisation, il n’y a pas de marché avec des cartes mères pouvant recevoir des processeurs ARM divers, permettant d’installer une quantité de mémoire arbitraire, tout en offrant des entrées sorties performantes pour brancher des périphériques de stockages ou des modules réseau supplémentaires, le tout sans faire de bras d’honneur aux solutions libres (puisque windows ne tournera pas dessus…)

Je pense bien que les processeurs ARM derniers cri sont plus performants qu’un processeur Atom qui est une architecture abandonnée par Intel, mais au final même en extrapolant on ne peu pas comparer sans pouvoir reproduire un même usage sur chaque machine…


Si des produits “normalisés” font leur apparition on pourra peut être commencer à comparer, avec un usage commun, les performances, la consommation d’énergie, l’évolutivité, l’ouverture, la connectique et surtout le prix pour pouvoir se faire un avis pertinent sans juste partir sur des spéculations en fonction de l’affectif envers l’un des constructeurs.


Le 12/10/2016 à 18h 20

Ce qui revient à n’avoir aucun intérêt à venter MIPS ou POWER ou SPARC voir quoi que ce soit d’autre…

L’important c’est le produit final qui embarque aussi des particularités d’intégrations, de processus de fabrication, et d’environnement logiciel.

Aujourd’hui on s’en fou de savoir si un ARM avec des burnes pourrait être intéressant dans un “poste de travail”, il n’y a pas de produits à comparer et pas de plans annoncés par un industriel pour se lancer dans l’aventure, et même si on avait des produits à comparer on se pencherait plutôt sur l’environnement logiciel ainsi que les usages et limites qui découlent de chaque produit “fini”.


Le 12/10/2016 à 17h 50






cyrano2 a écrit :

Comme pour l’itanium ? Le x86 a quand même un avantage comparatif : le code binaire est très compact ce qui est un avantage pour les caches instructions, même par rapport à ARM thumb.



L’itanium c’est particuliers je dirais vu qu’ils partent un peu à contresens en voulant reléguer au compilateur l’ordonnancement et la prédiction de branchement (du moins en partie)

Je ne sais pas si ça pourrait avoir de l’avenir avec les technologies de compilation Just-in-Time, qui profilent en temps réel l’exécution du programme, mais en tout cas à l’époque où ça a été lancé la techno logicielle ne suivait pas du tout par rapport aux contraintes de l’architecture !




cyrano2 a écrit :

En fait, dans le domaine des cpu de 25 ou 40W, Intel est plus performant par W, que ARM. Le problème est quand intel à sorti des cpu dont la consommation en veille était celle full speed d’un arm (2W à l’époque).

Si ARM veut aller plus vite sans trop consommer, il faut inclure le controlleur DRAM dans leur pipeline, il faut un jeu d’instruction vectoriel standard qui ne change pas tout le temps: NEON ou pas(même syndrome que pour la fpu a une époque),  il faut des instructions spécialisés qui “poutrent” (AES, ….), bref plus de registres plus large, et un jeu d’instruction plus large, sinon il faut un paquet d’intelligence en HW pour aller plus vite.



Ma phrase est un peu mal tournée en parlant de rejoindre l’efficacité énergétique, mais oui c’est principalement mon propos, ARM est efficace dans des scénario à très bas TDP, mais il ne faut pas perdre de vu que les processeurs x86 récents sont tellement performants dans les gros TDP que l’efficacité énergétique est bien au dessus des processeurs ARM, et il est probable que si ARM devait atteindre les même performances (avec bcp de transistors supplémentaires) le processeur n’aurait plus rien des caractéristiques actuelles avec des conso de quelques Watts.



Le 12/10/2016 à 17h 11

En réalité il n’y a aucun problème avec les différentes architectures modernes des processeurs…

Que ce soit du SPARC, du MIPS, de l’ARM, du x86, du POWER ou autre, tout fonctionne, et se retrouve intégré dans les produits où chacun à ses avantages (embarqué, station de travail, serveur, HPC, laptop/desktop)

Discuter sur la meilleure ISA n’apporte rien, c’est comme les débats entre langages de programmations, il n’y a jamais de grand vainqueur on trouve du bon partout selon l’usage qu’on en fait…

Après les investissement des fondeurs et les développements plus ou moins abandonnées de certaines architectures font passer certains produits pour des “veaux”, mais disons que si tout le monde mettaient les même somme qu’Intel en R&D pour son architecture ils seraient plus ou moins au même niveau <img data-src=" />

Pour donner un exemple concret, ARM n’atteint pas les perfs du x86 pour être utilisé confortablement dans un laptop car pour atteindre ce niveau de performances il faudrait ajouter de grosses unités d’ordonnancement et de prédiction de branchement comme sur les architectures Intel et du coup se retrouver avec le même niveau d’efficacité énergétique…

Edit : Je répondais à






Commentaire_supprime a écrit :

À vous lire concernant ARM, j’en viens à me demander si un troisième larron ne pourrait pas nous faire un proco pour mobiles qui combine la performance énergétique des ARM et la versatilité des x86…



Le 12/10/2016 à 15h 00

Linux n’est pas un OS…

Les distributions / versions n’affichent vraiment pas de grande disparité dans leur gestion bas niveau mais plutôt dans leurs interfaces utilisateurs (que se soit en CLI ou en GUI).

Si tu n’arrives pas à maintenir un logiciel de façon agnostique à la distribution c’est que soit tu t’invente une expérience professionnelle bidon, soit tu n’a jamais maitrisé les principes de portabilité qui sont pourtant au centre des projets GNU…

La diversité des distribution GNU/Linux sont peut être un casse tête pour la maintenance d’un parc ou pour les habitudes d’un utilisateur, mais pour un développeur il n’y a aucun problème !


HDD de 2,5

Le 12/10/2016 à 18h 12






jb18v a écrit :

sauf qu’en informatique pour les disques durs on a toujours parlé en pouces, m’enfin si ça te fait plaisir <img data-src=" /> (ou les écrans d’ailleurs)



Surtout que c’est pas tant un problème d’unité impérial/SI que d’avoir juste un “code” pour le gabarit du truc.

D’ailleurs pour les écrans je commence à changer mes habitudes, autant quand on avait que quelques tailles en CRT (14”, 15”, 17”, 19”) ça correspondait encore à un simple type de produit (petit, moins petit, confortable, luxe…) autant maintenant avec les 27”, 28”, 30”+ en moniteur LCD, et les TV ou y a de tout jusqu’à devoir choisir entre une 48” ou une 55”, je me retrouve obligé de convertir en SI pour établir ce que ça représentera comme surface et comment l’aménager <img data-src=" />



41 condamnations depuis les origines de la Hadopi

Le 10/10/2016 à 15h 20

Il faut aussi prendre en compte toutes les nouvelles “Occupations”

Acheter de la Musique en CD n’est certainement plus dans la liste de priorités des férus de culture depuis un bon moment…

Les offres sur Internet au delà de commencer à fleurir légalement avec des conditions attrayantes permettent aussi un accès à une offre totalement gratuite et licite de part les modèles de certaines plateformes !

On peu faire une liste à la Prévert de tout ce qu’on peut faire de plus intéressant aujourd’hui que d’acheter une galette en plastique avec 60 min d’audio :




  • Plateformes de jeux vidéo du style “Steam” et consort, offrant de façon hebdomadaire des jeux complets à essayer, des promos avec des jeux pour une poignée d’euro voir des “bundle” avec plusieurs jeux et des goodies tjs pour trois fois rien et un catalogue bourrée de Freemium (perso j’ai investi 25E en 3 ans et je m’ennuie toujours pas !)

  • Radio sur Internet (des milliers, aucune idée sur la légalité de chacune…) épaulé par Youtube pour sélectionner ses morceaux voir peut être d’autres plateformes vidéo (parfois en zone grise vis à vis de comment a été uploadé le morceau)

  • Une palanquée de contenu type “Youtuber” / “Twitcher” avec des créations originales régulières, des émissions qui sont diffusés sur plusieurs canaux en plus d’une diffusion à la télévision, du crowdfunding qui donne lieu à des courts/longs métrages libres d’accès etc…

  • Machin Store / Play Truc pour les fana du smartphone avec toutes sortes de jeux et autres applications (magazines/news) en freemium voir complètement gratuites.

  • Diverses Fan Fictions ou Blogs Spécialisés (genre Odieux Connard) avec des publications régulières, en croisant quelques adresses peu de risque de manquer de lecture…

    Je ne parle même pas des plateformes “à la demande” du style de Netflix ou Deezer avec une somme forfaitaire pour profiter d’un catalogue assez correct…

    En tout cas pour mon cas je consomme d’abord ce qui est disponible gratuitement et légalement (Youtube/Radio), ensuite j’investis quelques sommes pour des contenus qui m’intéressent (en général jeux sur Steam ou DLC pour relancer la durée de vie d’un titre déjà acquis), pour les films c’est plus généralement des places au prix CE quand y a matière au cinéma, et enfin si je cherche un truc particuliers et qu’il n’y a pas d’offre “honnête” je pirate sans vergogne comme en ‘99 <img data-src=" /> (en direct download faut pas déconner…)


L'État de Washington accuse Valve de faciliter les jeux d'argent illégaux

Le 06/10/2016 à 15h 31

Si on prend le problème dans le bon sens on attaque les sites qui font des jeux d’argents illicites et pas le vendeur de couteau !


Le noyau Linux 4.8 disponible, nouveaux pilotes et sécurité au programme

Le 03/10/2016 à 18h 50

C’est pour ça que “j’emerge” en –oneshot pour ne pas le rentrer dans le @world <img data-src=" />


Le 03/10/2016 à 13h 32


emerge –sync && ACCEPT_KEYWORDS=“~amd64 ~x86” USE=“symlink” emerge -1av &gt;=sys-kernel/gentoo-sources-4.8.0


Avec une “vraie” distribution il n’y a pas de problème <img data-src=" />


Pokémon Go : les ayant droits de l’image veulent faire payer Niantic

Le 30/09/2016 à 09h 59

D’un autre coté les artistes qui “imposent” leurs “créations” sur l’espace public m’ont-ils demandé mon avis pour la pollution visuel de certaines de ces horreurs ?

Cette nouvelle réglementation de la Propriété Intellectuel pour la liberté de Panorama est à gerber et finira surement saucissonnée par les premières jurisprudences…

La vie tourne autour du pognon, quelqu’un qui anime un blog, publie des vidéo sur youtube, enrichit sa page de réseau social favori pourra toujours être accusé de faire de la promotion ou d’apporter des revenus à la plateforme qu’il utilise !

On a vraiment l’exemple même d’une loi “arbitraire” avec sa règle “vous pouvez… sauf si … !” et bien sur le “sauf si” est au doigt mouillé, qu’on fera appliquer seulement si on veut censurer au besoin…

Toujours aucune obligation pour les ayants droits de quelques domaines que ce soit d’indiquer CLAIREMENT à qui la propriété du bien culturel est attribuée et les droits y afférant… Cultivons l’ignorance et l’arbitraire pour faire ce qu’on veut !


Firefox : Mozilla corrigera demain une faille critique dans la gestion des certificats

Le 20/09/2016 à 08h 20

Bon c’est fini de raconter des conneries ?

Firefox n’a pas été sélectionné pour le pwn2own 2016 car il n’a pas eu d’évolution significative au niveau sécurité entre la précédente édition du concours et celle de 2016…

Ils n’allaient pas attaquer les même failles ? ça ne répond pas au besoin du concours !

Pour l’édition 2015 Firefox s’en était bien sorti devant IE 11 et à peine derrière Safari et Chrome…


iPhone (dé)verrouillé : le FBI attaqué sur l'achat d'une faille secrète

Le 20/09/2016 à 08h 07

Donc les autorités d’un pays financent des hackers et affaiblissent les infrastructures que des millions de gens utilisent tout les jours…

Faites ce que je dis pas ce que je fais !


Dématérialisation des bulletins de paie : nouvelles règles en vue à partir de 2017

Le 16/09/2016 à 09h 58

Donc chacun son NAS avec ses 2-3 disques redondants, plus sauvegardes distribuées, alimentés 2424 chez tout le monde ?

Pour remplacer une feuille de papier par mois ?

Un NAS ça a un cout énergétique (environ 20E par ans), les disques doivent être remplacés lors de pannes (5-6 ans de pérennité dans les conditions d’une habitation personnelle, espéreront du mieux avec les SSD…), l’alimentation / la carte mère finira aussi par lâcher (5 à 10 ans pour être généreux, mais les alims ça claque facilement quand même !)

Je m’auto-héberge depuis presque 10 ans et en faisant un calcul grossier ça me coute entre 10€ et 15€ par mois matériel et énergie compris…


Le 16/09/2016 à 09h 18

Il y a 50 ans… ça nous ramène en 1966 ! (Avant Unix Epoch…)

A-t-on la MOINDRE expérience sur la conservation de données sur une période aussi longue ?

Quel format est aussi pérenne ?

Qui peut affirmer qu’un PDF (ou autre…) sera toujours lisible dans 50 ans ?

Déjà je rigolerais au nez d’un prestataire qui me dit garantir des données sur une telle période (ou je m’étoufferais en voyant la facture), mais pour un particulier c’est impossible sans y dédier un budget matériel et humain conséquent !

Donc que la question du papier soit un problème écologique, ou pratique ou n’importe quoi, je veux bien, mais au moins ça reste abordable pour n’importe qui…


Le Quai d’Orsay incapable de dévoiler ses dépenses en logiciels, libres et propriétaires

Le 14/09/2016 à 07h 12

Non je suis désolé mais tu fais erreur…

L’argument du “cout” pour le libre n’a de sens que dans le cadre d’un usage personnel !

Une des première revendication du libre ce n’est pas d’être gratuit mais d’être ouvert, modifiable etc…

Certains logiciels libres ont une double licence dont une payante pour un usage professionnel, donc déjà on ne peut pas parler de gratuité.

De plus ce sont souvent loin d’être des solutions “clé en main” donc le cout se retrouve en parti dans l’emploi, prendre du logiciel libre sans prévoir une partie ressource humaine c’est faire fausse route !

Le principe c’est d’avoir le contrôle de son système d’information, maitriser le format des données, ne pas s’enfermer avec un fournisseur en particuliers, continuer à utiliser ses logiciels ou les faire évoluer au plus proches des besoins sans subir l’obsolescence des logiciels propriétaires…


Le 13/09/2016 à 06h 41






Kernelpanic69 a écrit :

(…)
Au contraire, ça a tout son sens, les coûts n’ont rien à voir. Cf le commentaire de aemond juste au dessus. 
Les DSI quantifient les coûts  induits quand à l’utilisation d’une solution par rapport à une autre. Que celle-ci soit libre ou non impacte forcément les budgets d’une manière différente. Alors oui, c’est dure à quantifier… oui ça demande du boulot…
Une fois de plus, à moins d’être dans une petite société, ces calculs sont indispensables; au risque de jeter l’argent par les fenêtres. Les DSI ne font pas une espèce de mélasse incompréhensible qu’ils présentent gentiment au CFO. La finance a toujours le dernier mot.



Les DSI ne qualifient “que dalle”, sur le terrain personne ne comprend la différence entre le Libre et le Proprio (le tout saupoudré d’un mauvais usage du terme “Open Source”), à part que dès fois y en a un qui est gratuit…

Pour l’instant je n’ai jamais vu un SI qui développe un support sur un produit Libre en interne ou qui personnalise ses produits (au delà de refaire un Package avec les chemins qui correspondent à la norme des socles systèmes…)

La plupart du temps un Support Externe est commandé avec le produit et c’est du coup une bête étude de coûts, sans qu’aucun manager ne mette sa chemise en jeu, sans avoir la moindre idée de la charge que représente la migration, la formation, l’adaptation des outils, la pérennité du produit…

Au bout d’un an ou deux on compare les dépenses “Macro” suite au choix d’une solution et là on estime si le résultat est bon ou mauvais !

J’ai vu des gros SI partir sur des politiques complétement stupides du genre “on balance toutes nos licences Oracle on prend que du PostgreSQL”, sans aucun accompagnement, en livrant bêtement un package “core” aux applis, omettant les disaster recovery, les outils contribs, la réplication, l’authentification, la supervision etc, résultat une charge de travail supplémentaire énorme (le Jour/homme bien plus cher qu’une licence proprio !), le DSI s’est fait lourdé…



DahoodG4 a écrit :

Ton argument est valable a une époque ou on gérait tout ca avec des fiches bristol.
Aujourd’hui, et meme depuis 20ans, avec les bases de données, c’est juste une vague excuse.
(…)



Franchement je n’ai jamais vu une culture informatique suffisante pour comprendre qu’un SI est un outil pour accompagner le métier, les projets informatiques découlent la plupart du temps d’obligations légales ou de l’envie de fliquer les employés (reporting, décisionnel, indicateurs…)

Chaque services de la boite va vouloir son petit portail, ou ses formulaires pour se débarrasser du papier mais en gardant foncièrement le même usage que précédemment “avec des fiches bristol”, pour arriver à faire une “jointure” dans une base de données il faut souvent commander un développement spécifique !

A part les entreprises dont c’est le métier pur, pour les autres maintenir un SI est une charge, on met une case à coté des fournitures de bureau dans le bilan et c’est réglé…



Pas de mods pour Fallout 4 et Skyrim sur PlayStation 4

Le 12/09/2016 à 12h 02






2show7 a écrit :

(…)
d’ici de 2 à 3 ans viendront les 128 bits (je ne suis pas une vache lait, quand même).
(…)



Aucune chance !

En général on joue pas aux devins sur l’avenir de la technologie en informatique, mais je me mouille pas trop en annonçant qu’on aura pas d’ordinateur embarquant 16 Exbioctets (16 780 000 Tébioctets, ou environ 2 Milliard de barrettes de 8 Gio) de mémoire vive d’ici plusieurs décennies !



Unlimited-Tracker : un an de prison avec sursis et plus de 80 000 € à payer

Le 09/09/2016 à 12h 59






Krogoth a écrit :

« Je ne suis qu’un hébergeur comme YouTube, assure Loïc. J’ai été payé pour la maintenance du site. Je ne savais pas ce qu’il y avait dessus » »

A la limite je trouve ca encore plus inquietant, ca voudrait qu’il aurtait pu “heberger” des sites pedophile ou de terroriste…




Et si c’était le Garagiste d’un pédophile qui attend les enfants à la sortie de l’école, alors là… <img data-src=" />



Samba 4.5 : multiples améliorations pour le logiciel de partage de ressources

Le 09/09/2016 à 12h 46

La seule différence étant qu’il n’y a strictement aucune demande pour des compétences “Gentoo” sur le marché <img data-src=" />


Le 09/09/2016 à 12h 27

Celui qui met du Gentoo en Prod est soit un fou soit un génie <img data-src=" />

Mais la boite a intérêt à le garder et à faire évoluer la science pour l’empêcher de mourir !

Gentoo je m’en passerais jamais pour pouvoir bricoler mais je ne fournirais jamais cette solution à un client <img data-src=" />


Un an de prison ferme pour des messages racistes sur Facebook et Twitter

Le 09/09/2016 à 11h 47






picatrix a écrit :

Bon ok les messages racistes sont interdits sur facebook et twitter, mais sur NXI c’est autorisé, non ?


… parce que si on creuse un peu dans les archives.<img data-src=" />




Qu’on me donne six lignes écrites de la main du plus honnête homme, j’y trouverai de quoi le faire pendre.


C’est un peu pour ça qu’on a essayé d’imposer la liberté d’opinion dans les droits de l’homme, pour éviter l’arbitraire autour des jugements moraux…



Chiffrement : CNIL et Conseil national du numérique mettent en garde le gouvernement

Le 23/08/2016 à 10h 55

Franchement tout ce débat est un non sens organisé…

Le chiffrement EST de la sécurité !

Vouloir l’affaiblir c’est clairement enlever de la sécurité.

Attaquer les moyens de chiffrements c’est mettre tout les citoyens en danger de subir une cyberattaque. (vol de données bancaires, usurpations d’identité, chantages, rançons, harcèlements etc…)


Un maire interdit à Niantic « l’implantation virtuelle » de pokémons

Le 17/08/2016 à 14h 22

En effet la prose de l’élu qui compare un jeu à l’addiction au crack et prétend que les jeunes sont poussés à l’insurrection est tellement plus subtile…


Sous Linux, Firefox 49 permettra d'utiliser Netflix sans plugin

Le 16/08/2016 à 08h 12

Je comprend pas trop…

Il est possible sous Linux de faire tourner un blob binaire en espace utilisateur sans que sa mémoire ne soit accessible par un utilisateur privilégié ?

ça me surprendrait que le flux ne soit pas “recupérable” d’une manière ou d’une autre !


Autonomie : Windows 10 recommande Edge quand un autre navigateur est trop gourmand

Le 05/08/2016 à 09h 40

pwn2own - Edition 2015



 5 bugs in the Windows operating system   
4 bugs in Internet Explorer 11
3 bugs in Mozilla Firefox
3 bugs in Adobe Reader
3 bugs in Adobe Flash
2 bugs in Apple Safari
1 bug in Google Chrome



ça serait bien d’arrêter de dire n’importe quoi…


Le 05/08/2016 à 08h 51

Relis tes sources…

We wanted to focus on the browsers that have made serious security improvements in the last year

Firefox n’a pas été testé car il n’y a pas eu de mise à jour majeure de ses mécanismes de sécurité !

Pour un concours qui cherche de nouvelles failles ils n’allaient pas inclure un navigateur qui n’avait pas fondamentalement évolué depuis le concours précédent…


Cryptographie : Google teste des algorithmes résistants aux ordinateurs quantiques

Le 11/07/2016 à 14h 29

Potentiellement toutes nos données chiffrées peuvent être cassées d’ici 20-30-40-50-150-250-1000 ans avec les ordinateurs “binaires”, dépendant de la complexité de la clé ou de l’algo utilisé à l’époque…

Même si des clés de 4096 bits ou plus sont aujourd’hui pratiquement inattaquables jusqu’à l’extinction du système solaire, rien ne permet d’affirmer qu’un message chiffré ne sera Jamais déchiffré !


[MàJ] AMD : les pilotes Crimson Edition 16.7.2 sont certifiés WHQL

Le 09/07/2016 à 20h 54

Faut compter grossièrement 100W pour le CPU + Périphériques

Puis ajouter la carte graphique, typiquement la RX 480 embarque un connecteur d’alimentation 6-Pin ce qui permet d’anticiper une consommation de 150W maximum…

Avec ça faut prendre une marge pour pouvoir quand même brancher un smartphone à charger sur un USB ou un disque dur externe !

Avec une Alim 300W je n’utiliserais pas une RX 480, mais plutôt une carte graphique donnée pour 90W ou 120W (GTX 950960), pour une carte avec un connecteur 8-Pin qui peut tirer 225W je ne prendrais pas en dessous de 400W d’alimentation.

Après je part du principe qu’il n’y a pas d’autre périphérique que le disque système le disque stockage, un périphérique en charge USB et un disque externe, si on monte une config avec d’autres gadgets je conseillerais de prendre plus de marge :)


Le 09/07/2016 à 08h 53






Reparateur a écrit :

non
personne n’as jamais vue ce que tu décris



Je confirme, j’ai jamais vu un Rail +12V2 d’alimentation à 75W pile poil… Sur une Silverstone 300W avec un connecteur 6+2 Pin y a un rail de 160W pour une spec à 150W, même sur une FSP à 220W les rails encaissent 16A avec une limite totale à 17A donc peu de chance de déséquilibrer l’alimentation en tirant sur un connecteur 6 pins…



Brodie a écrit :

C’est justement le problème : port PCIe + connecteur 6 broches = 150 watts disponibles.
La RX480 en consomme 170. C’est balo.

AMD a plusieurs choix : tirer 20 watts de plus par le connecteur 6 broches (sur de bonnes alim, ça devrait passer), réduire la fréquence du GPU ou remplacer le connecteur 6 broches par un 8 broches.



C’est justement ce que fait ce pilote, en amenant la consommation du port PCIe à 65W, et celle du 6-Pin à 90W, c’est moins dangereux que de provoquer du Vdroop sur les pistes de la carte mère mais ce n’est toujours pas idéal…



Le 08/07/2016 à 18h 38

Bin si tu veux un avis plus personnel, déjà quand je monte un PC je met pas une alim 300W pour une conso totale de 320W, je vois pas comment on peut utiliser une carte graphique dimensionnée pour recevoir 150W et qui en tire plus de 160…

En général j’apprécie plutôt une marge de manœuvre de l’ordre de 20% à 50% sur l’alimentation, permettant de jouer avec les réglages de la machine ou d’éviter la chauffe des composants à la limite de leurs spécifications en usage courant <img data-src=" />

Enfin ça sera corrigé avec les modèles partenaires qui embarqueront l’alimentation adéquate pour fonctionner avec de la marge @stock et permettre de s’amuser avec l’overclocking ou ex-PowerTune, normalement les connaisseurs ne s’équipent pas en carte de référence quelque soit le produit présenté !


Le 08/07/2016 à 18h 00

Pour que le cas de figure ici présent soit relevé par de nombreux testeurs, dont les plus sérieux, ce n’est pas une critique gratuite de la RX480…

Très peu de cartes graphiques vont utiliser le port PCIe au dessus de 50W si ce n’est certains modèles exotiques (bi-gpu, pas d’alim PCIe supplémentaire) ou overclockés d’usine avec un design au rabais !

Dans le cas de la RX480 ça ne laisse même pas la marge pour un overclocking, c’est bien ce qui pose problème aux testeurs…


Une députée veut des « trêves de mails » dans les entreprises françaises

Le 06/07/2016 à 06h 38

Pour la Syntec :

Le cadre au forfait jour c’est position 3 minimum et un salaire minimum à deux fois le plafond annuel de la sécurité sociale…

Si vous n’êtes pas position 3 ET à un revenu de 80k€ annuel vous n’êtes pas au forfait jour, au mieux au forfait horaire…

Le forfait horaire suppose également un salaire minimum au plafond annuel de la sécurité sociale, donc si vous n’êtes pas rémunérés à plus de 38.6k€ annuel vous n’êtes pas non plus au forfait horaire…


Le 05/07/2016 à 12h 19

Obligation de recevoir des mails pro sur ta boite perso ?

N’importe quoi…


Konami veut déjà débrancher les serveurs de PES 2015

Le 07/06/2016 à 15h 47






blackdream a écrit :

Mais fait le, ton jeu jouable hors ligne, sans contrôle de licence, ou un simple copié collé te permet de faire une copie du jeu. On verra combien de temps tu gardes ce modèle. <img data-src=" />



Supreme Commander, Borderlands 1 et 2, le modèle de GOG en général, et d’autres titres modernes sont parfaitement “portable”…

Un copier-coller pour l’embarquer chez un pote sur une clé ou pour jouer en réseau local quand t’as un invité, et roule !



cyberscooty a écrit :

je vous dit pas ce que va être le rétro-gaming dans quelques années!!!



Je me demande bien ce que vont devenir les autres jeux quand les serveurs d’inventaires, de sauvegardes cloud, de validations de licence auront disparu !

Enfin du coup j’ai tendance à me reporter sur ces jeux qui supportent le “copier-coller” c’est bien plus simple à maintenir quand on a 2-3 machines pour les potes de passage et j’imagine que si dans 4-5 ans je veux me refaire une petite partie “nostalgie” je ne devrais pas rencontrer de problèmes…



AMD annonce sa Radeon RX480 à 199 $, se moque de NVIDIA et montre une puce Zen AM4

Le 02/06/2016 à 08h 55

Mais qu’est-ce que vous inventez ? ça n’a jamais existé les Radeon 49xx !


Le 01/06/2016 à 14h 38

L’argument de la consommation en informatique n’a RIEN a voir avec l’environnement ou la pollution…

C’est ridicule, ces arguments n’ont d’intérêt qu’à charge basse (bureautique) ou en veille (Idle), et la plupart du temps n’ont d’impact que lorsqu’on commence à maintenir un “parc” d’ordinateurs du type bureaux de designer ou salle serveurs…

Par contre pour évaluer l’efficacité d’une architecture la consommation devient un argument intéressant, par ce que tout le monde ne peut pas se permettre de monter une carte graphique avec un TDP de 300W en fonction de son alimentation, de son boitier ou de son système de refroidissement…

L’efficacité d’une architecture permet aussi d’anticiper les performances des modèles hauts de gamme, il arrive un moment ou aucun constructeur ne peut se permettre de commercialiser une carte avec un TDP de 600W ou des chipsets énormes très couteux en production.

Il y a donc un nombre de facteurs qui font que la consommation ou plutôt l’efficacité devient un critère décisif, surcoût d’une alimentation à plus de 500-600W, surcoût du système de refroidissement, possibilités d’upgrade d’une configuration, recyclage de la carte graphique dans un PC plus modeste à la prochaine génération etc…

Je ne parle même pas de tout les systèmes de Turbo qui sont démocratisés depuis presque 5-6 ans, ceux ci adaptent souvent les performances de la carte en fonction de la consommation et de la température, agissent pratiquement comme des systèmes d’overlocking automatiques qui vont du coup favoriser les composants qui savent maintenir une consommation basse ou qui sont plus facile à refroidir !


TubeNinja, l’extracteur de vidéos YouTube, menacé de poursuites

Le 31/05/2016 à 12h 26

Sauf que les CGU Youtube ne sont pas la loi…

Il faudrait déjà prouver que leur plateforme est un “utilisateur” de Youtube, un script ça ne clique pas sur “j’accepte” dans les CGU !


Module pour carte graphique externe ROG XG Station 2 d'ASUS : à Taipei, (presque) rien de nouveau

Le 30/05/2016 à 16h 52

Même pas optimisée pour la VR ? <img data-src=" />


Valérie Pécresse veut supprimer le ticket de métro  au profit de solutions sans contact

Le 24/05/2016 à 13h 57

Sur Lyon les tickets dématérialisés sont complètement inutiles…

Impossible de partager ses tickets dématérialisés avec un accompagnant !

Et aucun avantage sur le prix d’achat…

En plus il faut posséder la carte qui va bien facturée à 5E avec une date de validité de 4-5 ans…


BBM : la police canadienne a utilisé la clé de déchiffrement de BlackBerry

Le 16/04/2016 à 06h 51

Hum je me demande si la certification par “challenge” est bien prévue dans le cadre d’un procès <img data-src=" />

Mais en effet à défaut de fournir la clé à la défense pour qu’elle ai accès au même dossier que l’accusation ça devrait être un pré-requis de vérifier que la pièce “clé privée” est valide en demandant aux autorités de déchiffrer un message précis dont la défense connait le contenu à l’avance…

Enfin ça fonctionne pour le cas d’une “master key” fourni par un service tiers, si ça concernait un échange type GPG la défense n’aurait aucun intérêt à prétendre posséder l’autre clé pour initier un challenge, ça serait de l’auto-incrimination <img data-src=" />


Le 15/04/2016 à 16h 07

Sans fournir la clé qui a servi à déchiffrer les données comment certifier que ce sont bien les véritables données inaltérées fournies par l’accusation ?

Je suis sur qu’en inventant un algorithme sur le pouce avec une clé bidon je pourrais donner n’importe quel sens à une suite de données aléatoires… (typiquement un bête xor avec les données que je cherche réellement et prétendre que la complétion est la clé de déchiffrement !)

Un peu comme une sorte d’étude numérologique bidon…


Linus Torvalds : « Le desktop n’a pas été vraiment conquis »

Le 12/04/2016 à 07h 56

J’ai pas beaucoup d’argument pour windows non plus <img data-src=" />

A part que “ça fait le taff”, depuis Win XP les blue screen sont devenus rares, les pilotes graphiques grand responsables de ces BSOD ont été améliorés dans la vie de WinXP (longue…) et isolés dans une couche dédiée à partir de Win Vista/7 ce qui a éradiqué complétement les plantages complet de la machine.

Le plug’n play avec les multi-écrans et configurations exotiques est mieux supporté, les assistants de pilotes permettent de fignoler et de maintenir des profils (Avec le serveur X, s’il est pré configuré à la main, c’est une purge de gérer le plug’n play, les “control panels” des pilotes graphiques sont très peu développés et souvent plantogène)

Le Kernel utilise toujours des blobs binaires pour les pilotes GPU, il n’y a pas d’isolation suffisante pour empêcher un plantage complet du système en cas de pépin sur ces pilotes, du coup même pour un PC en mode “kiosque” c’est la première source d’instabilité !

Ensuite ce qui me frappe le plus c’est que Firefox est bien plus stable sous Windows que sous Linux, plus performants avec des tonnes d’onglet, mieux intégré à l’interface, plus fluide, et c’est un de mes principaux outil de travail (documentation pour développer, debuggeur web/css/js pour mes projets, divertissement avec les forum et vidéos, console pour interfaces web-admin…)


Le 12/04/2016 à 06h 03

Pour contrebalancer ton expérience…

Pour mon cas je suis pratiquement un “guru” de Linux (modification des sources du noyau, cross-compilation pour mes appareil embarqués, utilisation de Gentoo quotidiennement sur mon NAS/HTPC…)

C’est aussi mon métier (admin système / middleware sous *Nix) à taper de la ligne de commande avec des boucles et autres transformations de masse toute la journée, et pourtant toutes mes machines orientées “Desktop” sont sous Windows !

GNU/Linux est bien mon système favoris, sur lequel je fait tourner tout mes projets, où j’héberge mes créations, mais je l’utilise majoritairement en accès distant SSH, je peux absolument faire toutes mes tâches productives à partir d’un Shell Linux et j’ai abandonné l’idée d’en faire un environnement de Bureau il y a longtemps…

Je ne saurais pas décrire précisément pourquoi j’abandonne toujours l’utilisation Linux en Desktop, mais je dirais qu’une des raison principale c’est bien le sous-système d’affichage, les pilotes graphiques manquent cruellement de stabilité (plantages, artefacts, configurations pénibles, préférences non respectés lors de plug-n-play), même en prenant le moins de risques avec un GPU Intel je me retrouve toujours à batailler avec le pilote et le paramétrage du serveur X.

C’est simple pour moi qui monte souvent des serveurs Linux, dès qu’on y ajoute les pilotes graphiques et/ou le serveur X avec des accélérations matérielles on va au devant de plantages, de freeze, de kernel panic, alors que ce système ne souffre d’aucun défauts dans la plupart des autres utilisations !


Blizzard réclame la fermeture d'un serveur privé de World of Warcraft

Le 08/04/2016 à 16h 14

Ah c’est donc sur NXi que tu traines plutôt que de bosser sur le projet <img data-src=" />

Je pense aussi qu’il y a un phénomène de taille de la communauté qui peut désintéresser l’éditeur de toutes actions…

Par ce que la zone grise ça vaut pour le reverse-engineering du Network Code, quand on utilisera la géométrie du client coté serveur il y aura surement quelque part une utilisation détournée des assets du jeu !


La campagne de financement du portage PC de Rock Band 4 est un échec

Le 08/04/2016 à 08h 10

2 Millions pour un portage…

Même avec un moteur maison difficile à migrer, c’est n’importe quoi !

C’est une équipe de 20 personnes sur deux ans tout frais payés !

Si c’est vraiment les ressources nécessaire pour le portage il faut peut être se demander si la plus value représente un tel coût…

On s’attendrait plutôt à un nouveau projet complet pour cette somme !


Les sénateurs adoptent le délit de consultation habituelle de sites terroristes

Le 31/03/2016 à 17h 22

Comment peux-tu identifier le contenu qui a effectivement été renvoyé par la connexion initiée il y a un an ?


[MàJ] Peines de prison pour avoir simulé un meurtre sur Periscope

Le 22/03/2016 à 15h 58

Ouais ! mort à l’art dégénéré ! Faisons le tri !