Les tablettes même avec des accessoires clavier, souris, écran externalisés ne peuvent recevoir que des systèmes d’exploitation type “smartphone” qui ne répondent pas aux usages poste de travail.
C’est le sujet de l’article après tout, il n’y a pas de normalisation, il n’y a pas de marché avec des cartes mères pouvant recevoir des processeurs ARM divers, permettant d’installer une quantité de mémoire arbitraire, tout en offrant des entrées sorties performantes pour brancher des périphériques de stockages ou des modules réseau supplémentaires, le tout sans faire de bras d’honneur aux solutions libres (puisque windows ne tournera pas dessus…)
Je pense bien que les processeurs ARM derniers cri sont plus performants qu’un processeur Atom qui est une architecture abandonnée par Intel, mais au final même en extrapolant on ne peu pas comparer sans pouvoir reproduire un même usage sur chaque machine…
Si des produits “normalisés” font leur apparition on pourra peut être commencer à comparer, avec un usage commun, les performances, la consommation d’énergie, l’évolutivité, l’ouverture, la connectique et surtout le prix pour pouvoir se faire un avis pertinent sans juste partir sur des spéculations en fonction de l’affectif envers l’un des constructeurs.
Le
12/10/2016 à
18h
20
Ce qui revient à n’avoir aucun intérêt à venter MIPS ou POWER ou SPARC voir quoi que ce soit d’autre…
L’important c’est le produit final qui embarque aussi des particularités d’intégrations, de processus de fabrication, et d’environnement logiciel.
Aujourd’hui on s’en fou de savoir si un ARM avec des burnes pourrait être intéressant dans un “poste de travail”, il n’y a pas de produits à comparer et pas de plans annoncés par un industriel pour se lancer dans l’aventure, et même si on avait des produits à comparer on se pencherait plutôt sur l’environnement logiciel ainsi que les usages et limites qui découlent de chaque produit “fini”.
Le
12/10/2016 à
17h
50
cyrano2 a écrit :
Comme pour l’itanium ? Le x86 a quand même un avantage comparatif : le code binaire est très compact ce qui est un avantage pour les caches instructions, même par rapport à ARM thumb.
L’itanium c’est particuliers je dirais vu qu’ils partent un peu à contresens en voulant reléguer au compilateur l’ordonnancement et la prédiction de branchement (du moins en partie)
Je ne sais pas si ça pourrait avoir de l’avenir avec les technologies de compilation Just-in-Time, qui profilent en temps réel l’exécution du programme, mais en tout cas à l’époque où ça a été lancé la techno logicielle ne suivait pas du tout par rapport aux contraintes de l’architecture !
cyrano2 a écrit :
En fait, dans le domaine des cpu de 25 ou 40W, Intel est plus performant par W, que ARM. Le problème est quand intel à sorti des cpu dont la consommation en veille était celle full speed d’un arm (2W à l’époque).
Si ARM veut aller plus vite sans trop consommer, il faut inclure le controlleur DRAM dans leur pipeline, il faut un jeu d’instruction vectoriel standard qui ne change pas tout le temps: NEON ou pas(même syndrome que pour la fpu a une époque), il faut des instructions spécialisés qui “poutrent” (AES, ….), bref plus de registres plus large, et un jeu d’instruction plus large, sinon il faut un paquet d’intelligence en HW pour aller plus vite.
Ma phrase est un peu mal tournée en parlant de rejoindre l’efficacité énergétique, mais oui c’est principalement mon propos, ARM est efficace dans des scénario à très bas TDP, mais il ne faut pas perdre de vu que les processeurs x86 récents sont tellement performants dans les gros TDP que l’efficacité énergétique est bien au dessus des processeurs ARM, et il est probable que si ARM devait atteindre les même performances (avec bcp de transistors supplémentaires) le processeur n’aurait plus rien des caractéristiques actuelles avec des conso de quelques Watts.
Le
12/10/2016 à
17h
11
En réalité il n’y a aucun problème avec les différentes architectures modernes des processeurs…
Que ce soit du SPARC, du MIPS, de l’ARM, du x86, du POWER ou autre, tout fonctionne, et se retrouve intégré dans les produits où chacun à ses avantages (embarqué, station de travail, serveur, HPC, laptop/desktop)
Discuter sur la meilleure ISA n’apporte rien, c’est comme les débats entre langages de programmations, il n’y a jamais de grand vainqueur on trouve du bon partout selon l’usage qu’on en fait…
Après les investissement des fondeurs et les développements plus ou moins abandonnées de certaines architectures font passer certains produits pour des “veaux”, mais disons que si tout le monde mettaient les même somme qu’Intel en R&D pour son architecture ils seraient plus ou moins au même niveau " />
Pour donner un exemple concret, ARM n’atteint pas les perfs du x86 pour être utilisé confortablement dans un laptop car pour atteindre ce niveau de performances il faudrait ajouter de grosses unités d’ordonnancement et de prédiction de branchement comme sur les architectures Intel et du coup se retrouver avec le même niveau d’efficacité énergétique…
Edit : Je répondais à
Commentaire_supprime a écrit :
À vous lire concernant ARM, j’en viens à me demander si un troisième larron ne pourrait pas nous faire un proco pour mobiles qui combine la performance énergétique des ARM et la versatilité des x86…
Le
12/10/2016 à
15h
00
Linux n’est pas un OS…
Les distributions / versions n’affichent vraiment pas de grande disparité dans leur gestion bas niveau mais plutôt dans leurs interfaces utilisateurs (que se soit en CLI ou en GUI).
Si tu n’arrives pas à maintenir un logiciel de façon agnostique à la distribution c’est que soit tu t’invente une expérience professionnelle bidon, soit tu n’a jamais maitrisé les principes de portabilité qui sont pourtant au centre des projets GNU…
La diversité des distribution GNU/Linux sont peut être un casse tête pour la maintenance d’un parc ou pour les habitudes d’un utilisateur, mais pour un développeur il n’y a aucun problème !
sauf qu’en informatique pour les disques durs on a toujours parlé en pouces, m’enfin si ça te fait plaisir " /> (ou les écrans d’ailleurs)
Surtout que c’est pas tant un problème d’unité impérial/SI que d’avoir juste un “code” pour le gabarit du truc.
D’ailleurs pour les écrans je commence à changer mes habitudes, autant quand on avait que quelques tailles en CRT (14”, 15”, 17”, 19”) ça correspondait encore à un simple type de produit (petit, moins petit, confortable, luxe…) autant maintenant avec les 27”, 28”, 30”+ en moniteur LCD, et les TV ou y a de tout jusqu’à devoir choisir entre une 48” ou une 55”, je me retrouve obligé de convertir en SI pour établir ce que ça représentera comme surface et comment l’aménager " />
Il faut aussi prendre en compte toutes les nouvelles “Occupations”
Acheter de la Musique en CD n’est certainement plus dans la liste de priorités des férus de culture depuis un bon moment…
Les offres sur Internet au delà de commencer à fleurir légalement avec des conditions attrayantes permettent aussi un accès à une offre totalement gratuite et licite de part les modèles de certaines plateformes !
On peu faire une liste à la Prévert de tout ce qu’on peut faire de plus intéressant aujourd’hui que d’acheter une galette en plastique avec 60 min d’audio :
Plateformes de jeux vidéo du style “Steam” et consort, offrant de façon hebdomadaire des jeux complets à essayer, des promos avec des jeux pour une poignée d’euro voir des “bundle” avec plusieurs jeux et des goodies tjs pour trois fois rien et un catalogue bourrée de Freemium (perso j’ai investi 25E en 3 ans et je m’ennuie toujours pas !)
Radio sur Internet (des milliers, aucune idée sur la légalité de chacune…) épaulé par Youtube pour sélectionner ses morceaux voir peut être d’autres plateformes vidéo (parfois en zone grise vis à vis de comment a été uploadé le morceau)
Une palanquée de contenu type “Youtuber” / “Twitcher” avec des créations originales régulières, des émissions qui sont diffusés sur plusieurs canaux en plus d’une diffusion à la télévision, du crowdfunding qui donne lieu à des courts/longs métrages libres d’accès etc…
Machin Store / Play Truc pour les fana du smartphone avec toutes sortes de jeux et autres applications (magazines/news) en freemium voir complètement gratuites.
Diverses Fan Fictions ou Blogs Spécialisés (genre Odieux Connard) avec des publications régulières, en croisant quelques adresses peu de risque de manquer de lecture…
Je ne parle même pas des plateformes “à la demande” du style de Netflix ou Deezer avec une somme forfaitaire pour profiter d’un catalogue assez correct…
En tout cas pour mon cas je consomme d’abord ce qui est disponible gratuitement et légalement (Youtube/Radio), ensuite j’investis quelques sommes pour des contenus qui m’intéressent (en général jeux sur Steam ou DLC pour relancer la durée de vie d’un titre déjà acquis), pour les films c’est plus généralement des places au prix CE quand y a matière au cinéma, et enfin si je cherche un truc particuliers et qu’il n’y a pas d’offre “honnête” je pirate sans vergogne comme en ‘99 " /> (en direct download faut pas déconner…)
D’un autre coté les artistes qui “imposent” leurs “créations” sur l’espace public m’ont-ils demandé mon avis pour la pollution visuel de certaines de ces horreurs ?
Cette nouvelle réglementation de la Propriété Intellectuel pour la liberté de Panorama est à gerber et finira surement saucissonnée par les premières jurisprudences…
La vie tourne autour du pognon, quelqu’un qui anime un blog, publie des vidéo sur youtube, enrichit sa page de réseau social favori pourra toujours être accusé de faire de la promotion ou d’apporter des revenus à la plateforme qu’il utilise !
On a vraiment l’exemple même d’une loi “arbitraire” avec sa règle “vous pouvez… sauf si … !” et bien sur le “sauf si” est au doigt mouillé, qu’on fera appliquer seulement si on veut censurer au besoin…
Toujours aucune obligation pour les ayants droits de quelques domaines que ce soit d’indiquer CLAIREMENT à qui la propriété du bien culturel est attribuée et les droits y afférant… Cultivons l’ignorance et l’arbitraire pour faire ce qu’on veut !
Firefox n’a pas été sélectionné pour le pwn2own 2016 car il n’a pas eu d’évolution significative au niveau sécurité entre la précédente édition du concours et celle de 2016…
Ils n’allaient pas attaquer les même failles ? ça ne répond pas au besoin du concours !
Pour l’édition 2015 Firefox s’en était bien sorti devant IE 11 et à peine derrière Safari et Chrome…
Donc chacun son NAS avec ses 2-3 disques redondants, plus sauvegardes distribuées, alimentés 24⁄24 chez tout le monde ?
Pour remplacer une feuille de papier par mois ?
Un NAS ça a un cout énergétique (environ 20E par ans), les disques doivent être remplacés lors de pannes (5-6 ans de pérennité dans les conditions d’une habitation personnelle, espéreront du mieux avec les SSD…), l’alimentation / la carte mère finira aussi par lâcher (5 à 10 ans pour être généreux, mais les alims ça claque facilement quand même !)
Je m’auto-héberge depuis presque 10 ans et en faisant un calcul grossier ça me coute entre 10€ et 15€ par mois matériel et énergie compris…
Le
16/09/2016 à
09h
18
Il y a 50 ans… ça nous ramène en 1966 ! (Avant Unix Epoch…)
A-t-on la MOINDRE expérience sur la conservation de données sur une période aussi longue ?
Quel format est aussi pérenne ?
Qui peut affirmer qu’un PDF (ou autre…) sera toujours lisible dans 50 ans ?
Déjà je rigolerais au nez d’un prestataire qui me dit garantir des données sur une telle période (ou je m’étoufferais en voyant la facture), mais pour un particulier c’est impossible sans y dédier un budget matériel et humain conséquent !
Donc que la question du papier soit un problème écologique, ou pratique ou n’importe quoi, je veux bien, mais au moins ça reste abordable pour n’importe qui…
L’argument du “cout” pour le libre n’a de sens que dans le cadre d’un usage personnel !
Une des première revendication du libre ce n’est pas d’être gratuit mais d’être ouvert, modifiable etc…
Certains logiciels libres ont une double licence dont une payante pour un usage professionnel, donc déjà on ne peut pas parler de gratuité.
De plus ce sont souvent loin d’être des solutions “clé en main” donc le cout se retrouve en parti dans l’emploi, prendre du logiciel libre sans prévoir une partie ressource humaine c’est faire fausse route !
Le principe c’est d’avoir le contrôle de son système d’information, maitriser le format des données, ne pas s’enfermer avec un fournisseur en particuliers, continuer à utiliser ses logiciels ou les faire évoluer au plus proches des besoins sans subir l’obsolescence des logiciels propriétaires…
Le
13/09/2016 à
06h
41
Kernelpanic69 a écrit :
(…)
Au contraire, ça a tout son sens, les coûts n’ont rien à voir. Cf le commentaire de aemond juste au dessus.
Les DSI quantifient les coûts induits quand à l’utilisation d’une solution par rapport à une autre. Que celle-ci soit libre ou non impacte forcément les budgets d’une manière différente. Alors oui, c’est dure à quantifier… oui ça demande du boulot…
Une fois de plus, à moins d’être dans une petite société, ces calculs sont indispensables; au risque de jeter l’argent par les fenêtres. Les DSI ne font pas une espèce de mélasse incompréhensible qu’ils présentent gentiment au CFO. La finance a toujours le dernier mot.
Les DSI ne qualifient “que dalle”, sur le terrain personne ne comprend la différence entre le Libre et le Proprio (le tout saupoudré d’un mauvais usage du terme “Open Source”), à part que dès fois y en a un qui est gratuit…
Pour l’instant je n’ai jamais vu un SI qui développe un support sur un produit Libre en interne ou qui personnalise ses produits (au delà de refaire un Package avec les chemins qui correspondent à la norme des socles systèmes…)
La plupart du temps un Support Externe est commandé avec le produit et c’est du coup une bête étude de coûts, sans qu’aucun manager ne mette sa chemise en jeu, sans avoir la moindre idée de la charge que représente la migration, la formation, l’adaptation des outils, la pérennité du produit…
Au bout d’un an ou deux on compare les dépenses “Macro” suite au choix d’une solution et là on estime si le résultat est bon ou mauvais !
J’ai vu des gros SI partir sur des politiques complétement stupides du genre “on balance toutes nos licences Oracle on prend que du PostgreSQL”, sans aucun accompagnement, en livrant bêtement un package “core” aux applis, omettant les disaster recovery, les outils contribs, la réplication, l’authentification, la supervision etc, résultat une charge de travail supplémentaire énorme (le Jour/homme bien plus cher qu’une licence proprio !), le DSI s’est fait lourdé…
DahoodG4 a écrit :
Ton argument est valable a une époque ou on gérait tout ca avec des fiches bristol.
Aujourd’hui, et meme depuis 20ans, avec les bases de données, c’est juste une vague excuse.
(…)
Franchement je n’ai jamais vu une culture informatique suffisante pour comprendre qu’un SI est un outil pour accompagner le métier, les projets informatiques découlent la plupart du temps d’obligations légales ou de l’envie de fliquer les employés (reporting, décisionnel, indicateurs…)
Chaque services de la boite va vouloir son petit portail, ou ses formulaires pour se débarrasser du papier mais en gardant foncièrement le même usage que précédemment “avec des fiches bristol”, pour arriver à faire une “jointure” dans une base de données il faut souvent commander un développement spécifique !
A part les entreprises dont c’est le métier pur, pour les autres maintenir un SI est une charge, on met une case à coté des fournitures de bureau dans le bilan et c’est réglé…
d’ici de 2 à 3 ans viendront les 128 bits (je ne suis pas une vache lait, quand même).
(…)
Aucune chance !
En général on joue pas aux devins sur l’avenir de la technologie en informatique, mais je me mouille pas trop en annonçant qu’on aura pas d’ordinateur embarquant 16 Exbioctets (16 780 000 Tébioctets, ou environ 2 Milliard de barrettes de 8 Gio) de mémoire vive d’ici plusieurs décennies !
Franchement tout ce débat est un non sens organisé…
Le chiffrement EST de la sécurité !
Vouloir l’affaiblir c’est clairement enlever de la sécurité.
Attaquer les moyens de chiffrements c’est mettre tout les citoyens en danger de subir une cyberattaque. (vol de données bancaires, usurpations d’identité, chantages, rançons, harcèlements etc…)
En effet la prose de l’élu qui compare un jeu à l’addiction au crack et prétend que les jeunes sont poussés à l’insurrection est tellement plus subtile…
Il est possible sous Linux de faire tourner un blob binaire en espace utilisateur sans que sa mémoire ne soit accessible par un utilisateur privilégié ?
ça me surprendrait que le flux ne soit pas “recupérable” d’une manière ou d’une autre !
We wanted to focus on the browsers that have made serious security improvements in the last year
Firefox n’a pas été testé car il n’y a pas eu de mise à jour majeure de ses mécanismes de sécurité !
Pour un concours qui cherche de nouvelles failles ils n’allaient pas inclure un navigateur qui n’avait pas fondamentalement évolué depuis le concours précédent…
Potentiellement toutes nos données chiffrées peuvent être cassées d’ici 20-30-40-50-150-250-1000 ans avec les ordinateurs “binaires”, dépendant de la complexité de la clé ou de l’algo utilisé à l’époque…
Même si des clés de 4096 bits ou plus sont aujourd’hui pratiquement inattaquables jusqu’à l’extinction du système solaire, rien ne permet d’affirmer qu’un message chiffré ne sera Jamais déchiffré !
Faut compter grossièrement 100W pour le CPU + Périphériques
Puis ajouter la carte graphique, typiquement la RX 480 embarque un connecteur d’alimentation 6-Pin ce qui permet d’anticiper une consommation de 150W maximum…
Avec ça faut prendre une marge pour pouvoir quand même brancher un smartphone à charger sur un USB ou un disque dur externe !
Avec une Alim 300W je n’utiliserais pas une RX 480, mais plutôt une carte graphique donnée pour 90W ou 120W (GTX 950⁄960), pour une carte avec un connecteur 8-Pin qui peut tirer 225W je ne prendrais pas en dessous de 400W d’alimentation.
Après je part du principe qu’il n’y a pas d’autre périphérique que le disque système le disque stockage, un périphérique en charge USB et un disque externe, si on monte une config avec d’autres gadgets je conseillerais de prendre plus de marge :)
Le
09/07/2016 à
08h
53
Reparateur a écrit :
non
personne n’as jamais vue ce que tu décris
Je confirme, j’ai jamais vu un Rail +12V2 d’alimentation à 75W pile poil… Sur une Silverstone 300W avec un connecteur 6+2 Pin y a un rail de 160W pour une spec à 150W, même sur une FSP à 220W les rails encaissent 16A avec une limite totale à 17A donc peu de chance de déséquilibrer l’alimentation en tirant sur un connecteur 6 pins…
Brodie a écrit :
C’est justement le problème : port PCIe + connecteur 6 broches = 150 watts disponibles.
La RX480 en consomme 170. C’est balo.
AMD a plusieurs choix : tirer 20 watts de plus par le connecteur 6 broches (sur de bonnes alim, ça devrait passer), réduire la fréquence du GPU ou remplacer le connecteur 6 broches par un 8 broches.
C’est justement ce que fait ce pilote, en amenant la consommation du port PCIe à 65W, et celle du 6-Pin à 90W, c’est moins dangereux que de provoquer du Vdroop sur les pistes de la carte mère mais ce n’est toujours pas idéal…
Le
08/07/2016 à
18h
38
Bin si tu veux un avis plus personnel, déjà quand je monte un PC je met pas une alim 300W pour une conso totale de 320W, je vois pas comment on peut utiliser une carte graphique dimensionnée pour recevoir 150W et qui en tire plus de 160…
En général j’apprécie plutôt une marge de manœuvre de l’ordre de 20% à 50% sur l’alimentation, permettant de jouer avec les réglages de la machine ou d’éviter la chauffe des composants à la limite de leurs spécifications en usage courant " />
Enfin ça sera corrigé avec les modèles partenaires qui embarqueront l’alimentation adéquate pour fonctionner avec de la marge @stock et permettre de s’amuser avec l’overclocking ou ex-PowerTune, normalement les connaisseurs ne s’équipent pas en carte de référence quelque soit le produit présenté !
Le
08/07/2016 à
18h
00
Pour que le cas de figure ici présent soit relevé par de nombreux testeurs, dont les plus sérieux, ce n’est pas une critique gratuite de la RX480…
Très peu de cartes graphiques vont utiliser le port PCIe au dessus de 50W si ce n’est certains modèles exotiques (bi-gpu, pas d’alim PCIe supplémentaire) ou overclockés d’usine avec un design au rabais !
Dans le cas de la RX480 ça ne laisse même pas la marge pour un overclocking, c’est bien ce qui pose problème aux testeurs…
Le cadre au forfait jour c’est position 3 minimum et un salaire minimum à deux fois le plafond annuel de la sécurité sociale…
Si vous n’êtes pas position 3 ET à un revenu de 80k€ annuel vous n’êtes pas au forfait jour, au mieux au forfait horaire…
Le forfait horaire suppose également un salaire minimum au plafond annuel de la sécurité sociale, donc si vous n’êtes pas rémunérés à plus de 38.6k€ annuel vous n’êtes pas non plus au forfait horaire…
Le
05/07/2016 à
12h
19
Obligation de recevoir des mails pro sur ta boite perso ?
Mais fait le, ton jeu jouable hors ligne, sans contrôle de licence, ou un simple copié collé te permet de faire une copie du jeu. On verra combien de temps tu gardes ce modèle. " />
Supreme Commander, Borderlands 1 et 2, le modèle de GOG en général, et d’autres titres modernes sont parfaitement “portable”…
Un copier-coller pour l’embarquer chez un pote sur une clé ou pour jouer en réseau local quand t’as un invité, et roule !
cyberscooty a écrit :
je vous dit pas ce que va être le rétro-gaming dans quelques années!!!
Je me demande bien ce que vont devenir les autres jeux quand les serveurs d’inventaires, de sauvegardes cloud, de validations de licence auront disparu !
Enfin du coup j’ai tendance à me reporter sur ces jeux qui supportent le “copier-coller” c’est bien plus simple à maintenir quand on a 2-3 machines pour les potes de passage et j’imagine que si dans 4-5 ans je veux me refaire une petite partie “nostalgie” je ne devrais pas rencontrer de problèmes…
Mais qu’est-ce que vous inventez ? ça n’a jamais existé les Radeon 49xx !
Le
01/06/2016 à
14h
38
L’argument de la consommation en informatique n’a RIEN a voir avec l’environnement ou la pollution…
C’est ridicule, ces arguments n’ont d’intérêt qu’à charge basse (bureautique) ou en veille (Idle), et la plupart du temps n’ont d’impact que lorsqu’on commence à maintenir un “parc” d’ordinateurs du type bureaux de designer ou salle serveurs…
Par contre pour évaluer l’efficacité d’une architecture la consommation devient un argument intéressant, par ce que tout le monde ne peut pas se permettre de monter une carte graphique avec un TDP de 300W en fonction de son alimentation, de son boitier ou de son système de refroidissement…
L’efficacité d’une architecture permet aussi d’anticiper les performances des modèles hauts de gamme, il arrive un moment ou aucun constructeur ne peut se permettre de commercialiser une carte avec un TDP de 600W ou des chipsets énormes très couteux en production.
Il y a donc un nombre de facteurs qui font que la consommation ou plutôt l’efficacité devient un critère décisif, surcoût d’une alimentation à plus de 500-600W, surcoût du système de refroidissement, possibilités d’upgrade d’une configuration, recyclage de la carte graphique dans un PC plus modeste à la prochaine génération etc…
Je ne parle même pas de tout les systèmes de Turbo qui sont démocratisés depuis presque 5-6 ans, ceux ci adaptent souvent les performances de la carte en fonction de la consommation et de la température, agissent pratiquement comme des systèmes d’overlocking automatiques qui vont du coup favoriser les composants qui savent maintenir une consommation basse ou qui sont plus facile à refroidir !
Hum je me demande si la certification par “challenge” est bien prévue dans le cadre d’un procès " />
Mais en effet à défaut de fournir la clé à la défense pour qu’elle ai accès au même dossier que l’accusation ça devrait être un pré-requis de vérifier que la pièce “clé privée” est valide en demandant aux autorités de déchiffrer un message précis dont la défense connait le contenu à l’avance…
Enfin ça fonctionne pour le cas d’une “master key” fourni par un service tiers, si ça concernait un échange type GPG la défense n’aurait aucun intérêt à prétendre posséder l’autre clé pour initier un challenge, ça serait de l’auto-incrimination " />
Le
15/04/2016 à
16h
07
Sans fournir la clé qui a servi à déchiffrer les données comment certifier que ce sont bien les véritables données inaltérées fournies par l’accusation ?
Je suis sur qu’en inventant un algorithme sur le pouce avec une clé bidon je pourrais donner n’importe quel sens à une suite de données aléatoires… (typiquement un bête xor avec les données que je cherche réellement et prétendre que la complétion est la clé de déchiffrement !)
Un peu comme une sorte d’étude numérologique bidon…
J’ai pas beaucoup d’argument pour windows non plus " />
A part que “ça fait le taff”, depuis Win XP les blue screen sont devenus rares, les pilotes graphiques grand responsables de ces BSOD ont été améliorés dans la vie de WinXP (longue…) et isolés dans une couche dédiée à partir de Win Vista/7 ce qui a éradiqué complétement les plantages complet de la machine.
Le plug’n play avec les multi-écrans et configurations exotiques est mieux supporté, les assistants de pilotes permettent de fignoler et de maintenir des profils (Avec le serveur X, s’il est pré configuré à la main, c’est une purge de gérer le plug’n play, les “control panels” des pilotes graphiques sont très peu développés et souvent plantogène)
Le Kernel utilise toujours des blobs binaires pour les pilotes GPU, il n’y a pas d’isolation suffisante pour empêcher un plantage complet du système en cas de pépin sur ces pilotes, du coup même pour un PC en mode “kiosque” c’est la première source d’instabilité !
Ensuite ce qui me frappe le plus c’est que Firefox est bien plus stable sous Windows que sous Linux, plus performants avec des tonnes d’onglet, mieux intégré à l’interface, plus fluide, et c’est un de mes principaux outil de travail (documentation pour développer, debuggeur web/css/js pour mes projets, divertissement avec les forum et vidéos, console pour interfaces web-admin…)
Le
12/04/2016 à
06h
03
Pour contrebalancer ton expérience…
Pour mon cas je suis pratiquement un “guru” de Linux (modification des sources du noyau, cross-compilation pour mes appareil embarqués, utilisation de Gentoo quotidiennement sur mon NAS/HTPC…)
C’est aussi mon métier (admin système / middleware sous *Nix) à taper de la ligne de commande avec des boucles et autres transformations de masse toute la journée, et pourtant toutes mes machines orientées “Desktop” sont sous Windows !
GNU/Linux est bien mon système favoris, sur lequel je fait tourner tout mes projets, où j’héberge mes créations, mais je l’utilise majoritairement en accès distant SSH, je peux absolument faire toutes mes tâches productives à partir d’un Shell Linux et j’ai abandonné l’idée d’en faire un environnement de Bureau il y a longtemps…
Je ne saurais pas décrire précisément pourquoi j’abandonne toujours l’utilisation Linux en Desktop, mais je dirais qu’une des raison principale c’est bien le sous-système d’affichage, les pilotes graphiques manquent cruellement de stabilité (plantages, artefacts, configurations pénibles, préférences non respectés lors de plug-n-play), même en prenant le moins de risques avec un GPU Intel je me retrouve toujours à batailler avec le pilote et le paramétrage du serveur X.
C’est simple pour moi qui monte souvent des serveurs Linux, dès qu’on y ajoute les pilotes graphiques et/ou le serveur X avec des accélérations matérielles on va au devant de plantages, de freeze, de kernel panic, alors que ce système ne souffre d’aucun défauts dans la plupart des autres utilisations !
Ah c’est donc sur NXi que tu traines plutôt que de bosser sur le projet " />
Je pense aussi qu’il y a un phénomène de taille de la communauté qui peut désintéresser l’éditeur de toutes actions…
Par ce que la zone grise ça vaut pour le reverse-engineering du Network Code, quand on utilisera la géométrie du client coté serveur il y aura surement quelque part une utilisation détournée des assets du jeu !
661 commentaires
ExoMars : l’atterrissage de Schiaparelli s’est déroulé suivant le plan… jusqu’à un certain point
20/10/2016
Le 20/10/2016 à 11h 14
5800 m/s de delta-V pour atterrir sur Mars en aéro-freinage !!
Moi je l’aurais pas tenté " />
Windows Server 2016 disponible en version finale pour les entreprises
14/10/2016
Le 14/10/2016 à 13h 33
C’est pour ça qu’AMD est sorti du monde serveur en se ventant que son hyperthreading correspond à de vrai cores physiques ?
Pour Linus Torvalds, le x86 a encore de beaux jours devant lui face à ARM
12/10/2016
Le 12/10/2016 à 18h 56
Pour être très terre à terre :
Par ce qu’il n’y a pas de produit !
Les tablettes même avec des accessoires clavier, souris, écran externalisés ne peuvent recevoir que des systèmes d’exploitation type “smartphone” qui ne répondent pas aux usages poste de travail.
C’est le sujet de l’article après tout, il n’y a pas de normalisation, il n’y a pas de marché avec des cartes mères pouvant recevoir des processeurs ARM divers, permettant d’installer une quantité de mémoire arbitraire, tout en offrant des entrées sorties performantes pour brancher des périphériques de stockages ou des modules réseau supplémentaires, le tout sans faire de bras d’honneur aux solutions libres (puisque windows ne tournera pas dessus…)
Je pense bien que les processeurs ARM derniers cri sont plus performants qu’un processeur Atom qui est une architecture abandonnée par Intel, mais au final même en extrapolant on ne peu pas comparer sans pouvoir reproduire un même usage sur chaque machine…
Si des produits “normalisés” font leur apparition on pourra peut être commencer à comparer, avec un usage commun, les performances, la consommation d’énergie, l’évolutivité, l’ouverture, la connectique et surtout le prix pour pouvoir se faire un avis pertinent sans juste partir sur des spéculations en fonction de l’affectif envers l’un des constructeurs.
Le 12/10/2016 à 18h 20
Ce qui revient à n’avoir aucun intérêt à venter MIPS ou POWER ou SPARC voir quoi que ce soit d’autre…
L’important c’est le produit final qui embarque aussi des particularités d’intégrations, de processus de fabrication, et d’environnement logiciel.
Aujourd’hui on s’en fou de savoir si un ARM avec des burnes pourrait être intéressant dans un “poste de travail”, il n’y a pas de produits à comparer et pas de plans annoncés par un industriel pour se lancer dans l’aventure, et même si on avait des produits à comparer on se pencherait plutôt sur l’environnement logiciel ainsi que les usages et limites qui découlent de chaque produit “fini”.
Le 12/10/2016 à 17h 50
Le 12/10/2016 à 17h 11
En réalité il n’y a aucun problème avec les différentes architectures modernes des processeurs…
Que ce soit du SPARC, du MIPS, de l’ARM, du x86, du POWER ou autre, tout fonctionne, et se retrouve intégré dans les produits où chacun à ses avantages (embarqué, station de travail, serveur, HPC, laptop/desktop)
Discuter sur la meilleure ISA n’apporte rien, c’est comme les débats entre langages de programmations, il n’y a jamais de grand vainqueur on trouve du bon partout selon l’usage qu’on en fait…
Après les investissement des fondeurs et les développements plus ou moins abandonnées de certaines architectures font passer certains produits pour des “veaux”, mais disons que si tout le monde mettaient les même somme qu’Intel en R&D pour son architecture ils seraient plus ou moins au même niveau " />
Pour donner un exemple concret, ARM n’atteint pas les perfs du x86 pour être utilisé confortablement dans un laptop car pour atteindre ce niveau de performances il faudrait ajouter de grosses unités d’ordonnancement et de prédiction de branchement comme sur les architectures Intel et du coup se retrouver avec le même niveau d’efficacité énergétique…
Edit : Je répondais à
Le 12/10/2016 à 15h 00
Linux n’est pas un OS…
Les distributions / versions n’affichent vraiment pas de grande disparité dans leur gestion bas niveau mais plutôt dans leurs interfaces utilisateurs (que se soit en CLI ou en GUI).
Si tu n’arrives pas à maintenir un logiciel de façon agnostique à la distribution c’est que soit tu t’invente une expérience professionnelle bidon, soit tu n’a jamais maitrisé les principes de portabilité qui sont pourtant au centre des projets GNU…
La diversité des distribution GNU/Linux sont peut être un casse tête pour la maintenance d’un parc ou pour les habitudes d’un utilisateur, mais pour un développeur il n’y a aucun problème !
HDD de 2,5″ : Seagate grimpe à 5 To de stockage, grâce à des plateaux de 1 To
12/10/2016
Le 12/10/2016 à 18h 12
41 condamnations depuis les origines de la Hadopi
10/10/2016
Le 10/10/2016 à 15h 20
Il faut aussi prendre en compte toutes les nouvelles “Occupations”
Acheter de la Musique en CD n’est certainement plus dans la liste de priorités des férus de culture depuis un bon moment…
Les offres sur Internet au delà de commencer à fleurir légalement avec des conditions attrayantes permettent aussi un accès à une offre totalement gratuite et licite de part les modèles de certaines plateformes !
On peu faire une liste à la Prévert de tout ce qu’on peut faire de plus intéressant aujourd’hui que d’acheter une galette en plastique avec 60 min d’audio :
Je ne parle même pas des plateformes “à la demande” du style de Netflix ou Deezer avec une somme forfaitaire pour profiter d’un catalogue assez correct…
En tout cas pour mon cas je consomme d’abord ce qui est disponible gratuitement et légalement (Youtube/Radio), ensuite j’investis quelques sommes pour des contenus qui m’intéressent (en général jeux sur Steam ou DLC pour relancer la durée de vie d’un titre déjà acquis), pour les films c’est plus généralement des places au prix CE quand y a matière au cinéma, et enfin si je cherche un truc particuliers et qu’il n’y a pas d’offre “honnête” je pirate sans vergogne comme en ‘99 " /> (en direct download faut pas déconner…)
L’État de Washington accuse Valve de faciliter les jeux d’argent illégaux
06/10/2016
Le 06/10/2016 à 15h 31
Si on prend le problème dans le bon sens on attaque les sites qui font des jeux d’argents illicites et pas le vendeur de couteau !
Le noyau Linux 4.8 disponible, nouveaux pilotes et sécurité au programme
03/10/2016
Le 03/10/2016 à 18h 50
C’est pour ça que “j’emerge” en –oneshot pour ne pas le rentrer dans le @world " />
Le 03/10/2016 à 13h 32
emerge –sync && ACCEPT_KEYWORDS=“~amd64 ~x86” USE=“symlink” emerge -1av >=sys-kernel/gentoo-sources-4.8.0
Avec une “vraie” distribution il n’y a pas de problème " />
Pokémon Go : les ayant droits de l’image veulent faire payer Niantic
30/09/2016
Le 30/09/2016 à 09h 59
D’un autre coté les artistes qui “imposent” leurs “créations” sur l’espace public m’ont-ils demandé mon avis pour la pollution visuel de certaines de ces horreurs ?
Cette nouvelle réglementation de la Propriété Intellectuel pour la liberté de Panorama est à gerber et finira surement saucissonnée par les premières jurisprudences…
La vie tourne autour du pognon, quelqu’un qui anime un blog, publie des vidéo sur youtube, enrichit sa page de réseau social favori pourra toujours être accusé de faire de la promotion ou d’apporter des revenus à la plateforme qu’il utilise !
On a vraiment l’exemple même d’une loi “arbitraire” avec sa règle “vous pouvez… sauf si … !” et bien sur le “sauf si” est au doigt mouillé, qu’on fera appliquer seulement si on veut censurer au besoin…
Toujours aucune obligation pour les ayants droits de quelques domaines que ce soit d’indiquer CLAIREMENT à qui la propriété du bien culturel est attribuée et les droits y afférant… Cultivons l’ignorance et l’arbitraire pour faire ce qu’on veut !
Firefox : Mozilla corrigera demain une faille critique dans la gestion des certificats
19/09/2016
Le 20/09/2016 à 08h 20
Bon c’est fini de raconter des conneries ?
Firefox n’a pas été sélectionné pour le pwn2own 2016 car il n’a pas eu d’évolution significative au niveau sécurité entre la précédente édition du concours et celle de 2016…
Ils n’allaient pas attaquer les même failles ? ça ne répond pas au besoin du concours !
Pour l’édition 2015 Firefox s’en était bien sorti devant IE 11 et à peine derrière Safari et Chrome…
iPhone (dé)verrouillé : le FBI attaqué sur l’achat d’une faille secrète
20/09/2016
Le 20/09/2016 à 08h 07
Donc les autorités d’un pays financent des hackers et affaiblissent les infrastructures que des millions de gens utilisent tout les jours…
Faites ce que je dis pas ce que je fais !
Dématérialisation des bulletins de paie : nouvelles règles en vue à partir de 2017
16/09/2016
Le 16/09/2016 à 09h 58
Donc chacun son NAS avec ses 2-3 disques redondants, plus sauvegardes distribuées, alimentés 24⁄24 chez tout le monde ?
Pour remplacer une feuille de papier par mois ?
Un NAS ça a un cout énergétique (environ 20E par ans), les disques doivent être remplacés lors de pannes (5-6 ans de pérennité dans les conditions d’une habitation personnelle, espéreront du mieux avec les SSD…), l’alimentation / la carte mère finira aussi par lâcher (5 à 10 ans pour être généreux, mais les alims ça claque facilement quand même !)
Je m’auto-héberge depuis presque 10 ans et en faisant un calcul grossier ça me coute entre 10€ et 15€ par mois matériel et énergie compris…
Le 16/09/2016 à 09h 18
Il y a 50 ans… ça nous ramène en 1966 ! (Avant Unix Epoch…)
A-t-on la MOINDRE expérience sur la conservation de données sur une période aussi longue ?
Quel format est aussi pérenne ?
Qui peut affirmer qu’un PDF (ou autre…) sera toujours lisible dans 50 ans ?
Déjà je rigolerais au nez d’un prestataire qui me dit garantir des données sur une telle période (ou je m’étoufferais en voyant la facture), mais pour un particulier c’est impossible sans y dédier un budget matériel et humain conséquent !
Donc que la question du papier soit un problème écologique, ou pratique ou n’importe quoi, je veux bien, mais au moins ça reste abordable pour n’importe qui…
Le Quai d’Orsay incapable de dévoiler ses dépenses en logiciels, libres et propriétaires
12/09/2016
Le 14/09/2016 à 07h 12
Non je suis désolé mais tu fais erreur…
L’argument du “cout” pour le libre n’a de sens que dans le cadre d’un usage personnel !
Une des première revendication du libre ce n’est pas d’être gratuit mais d’être ouvert, modifiable etc…
Certains logiciels libres ont une double licence dont une payante pour un usage professionnel, donc déjà on ne peut pas parler de gratuité.
De plus ce sont souvent loin d’être des solutions “clé en main” donc le cout se retrouve en parti dans l’emploi, prendre du logiciel libre sans prévoir une partie ressource humaine c’est faire fausse route !
Le principe c’est d’avoir le contrôle de son système d’information, maitriser le format des données, ne pas s’enfermer avec un fournisseur en particuliers, continuer à utiliser ses logiciels ou les faire évoluer au plus proches des besoins sans subir l’obsolescence des logiciels propriétaires…
Le 13/09/2016 à 06h 41
Pas de mods pour Fallout 4 et Skyrim sur PlayStation 4
12/09/2016
Le 12/09/2016 à 12h 02
Unlimited-Tracker : un an de prison avec sursis et plus de 80 000 € à payer
09/09/2016
Le 09/09/2016 à 12h 59
Samba 4.5 : multiples améliorations pour le logiciel de partage de ressources
09/09/2016
Le 09/09/2016 à 12h 46
La seule différence étant qu’il n’y a strictement aucune demande pour des compétences “Gentoo” sur le marché " />
Le 09/09/2016 à 12h 27
Celui qui met du Gentoo en Prod est soit un fou soit un génie " />
Mais la boite a intérêt à le garder et à faire évoluer la science pour l’empêcher de mourir !
Gentoo je m’en passerais jamais pour pouvoir bricoler mais je ne fournirais jamais cette solution à un client " />
Un an de prison ferme pour des messages racistes sur Facebook et Twitter
09/09/2016
Le 09/09/2016 à 11h 47
Chiffrement : CNIL et Conseil national du numérique mettent en garde le gouvernement
23/08/2016
Le 23/08/2016 à 10h 55
Franchement tout ce débat est un non sens organisé…
Le chiffrement EST de la sécurité !
Vouloir l’affaiblir c’est clairement enlever de la sécurité.
Attaquer les moyens de chiffrements c’est mettre tout les citoyens en danger de subir une cyberattaque. (vol de données bancaires, usurpations d’identité, chantages, rançons, harcèlements etc…)
Un maire interdit à Niantic « l’implantation virtuelle » de pokémons
16/08/2016
Le 17/08/2016 à 14h 22
En effet la prose de l’élu qui compare un jeu à l’addiction au crack et prétend que les jeunes sont poussés à l’insurrection est tellement plus subtile…
Sous Linux, Firefox 49 permettra d’utiliser Netflix sans plugin
16/08/2016
Le 16/08/2016 à 08h 12
Je comprend pas trop…
Il est possible sous Linux de faire tourner un blob binaire en espace utilisateur sans que sa mémoire ne soit accessible par un utilisateur privilégié ?
ça me surprendrait que le flux ne soit pas “recupérable” d’une manière ou d’une autre !
Autonomie : Windows 10 recommande Edge quand un autre navigateur est trop gourmand
04/08/2016
Le 05/08/2016 à 09h 40
pwn2own - Edition 2015
ça serait bien d’arrêter de dire n’importe quoi…
Le 05/08/2016 à 08h 51
Relis tes sources…
We wanted to focus on the browsers that have made serious security improvements in the last year
Firefox n’a pas été testé car il n’y a pas eu de mise à jour majeure de ses mécanismes de sécurité !
Pour un concours qui cherche de nouvelles failles ils n’allaient pas inclure un navigateur qui n’avait pas fondamentalement évolué depuis le concours précédent…
Cryptographie : Google teste des algorithmes résistants aux ordinateurs quantiques
11/07/2016
Le 11/07/2016 à 14h 29
Potentiellement toutes nos données chiffrées peuvent être cassées d’ici 20-30-40-50-150-250-1000 ans avec les ordinateurs “binaires”, dépendant de la complexité de la clé ou de l’algo utilisé à l’époque…
Même si des clés de 4096 bits ou plus sont aujourd’hui pratiquement inattaquables jusqu’à l’extinction du système solaire, rien ne permet d’affirmer qu’un message chiffré ne sera Jamais déchiffré !
[MàJ] AMD : les pilotes Crimson Edition 16.7.2 sont certifiés WHQL
20/07/2016
Le 09/07/2016 à 20h 54
Faut compter grossièrement 100W pour le CPU + Périphériques
Puis ajouter la carte graphique, typiquement la RX 480 embarque un connecteur d’alimentation 6-Pin ce qui permet d’anticiper une consommation de 150W maximum…
Avec ça faut prendre une marge pour pouvoir quand même brancher un smartphone à charger sur un USB ou un disque dur externe !
Avec une Alim 300W je n’utiliserais pas une RX 480, mais plutôt une carte graphique donnée pour 90W ou 120W (GTX 950⁄960), pour une carte avec un connecteur 8-Pin qui peut tirer 225W je ne prendrais pas en dessous de 400W d’alimentation.
Après je part du principe qu’il n’y a pas d’autre périphérique que le disque système le disque stockage, un périphérique en charge USB et un disque externe, si on monte une config avec d’autres gadgets je conseillerais de prendre plus de marge :)
Le 09/07/2016 à 08h 53
Le 08/07/2016 à 18h 38
Bin si tu veux un avis plus personnel, déjà quand je monte un PC je met pas une alim 300W pour une conso totale de 320W, je vois pas comment on peut utiliser une carte graphique dimensionnée pour recevoir 150W et qui en tire plus de 160…
En général j’apprécie plutôt une marge de manœuvre de l’ordre de 20% à 50% sur l’alimentation, permettant de jouer avec les réglages de la machine ou d’éviter la chauffe des composants à la limite de leurs spécifications en usage courant " />
Enfin ça sera corrigé avec les modèles partenaires qui embarqueront l’alimentation adéquate pour fonctionner avec de la marge @stock et permettre de s’amuser avec l’overclocking ou ex-PowerTune, normalement les connaisseurs ne s’équipent pas en carte de référence quelque soit le produit présenté !
Le 08/07/2016 à 18h 00
Pour que le cas de figure ici présent soit relevé par de nombreux testeurs, dont les plus sérieux, ce n’est pas une critique gratuite de la RX480…
Très peu de cartes graphiques vont utiliser le port PCIe au dessus de 50W si ce n’est certains modèles exotiques (bi-gpu, pas d’alim PCIe supplémentaire) ou overclockés d’usine avec un design au rabais !
Dans le cas de la RX480 ça ne laisse même pas la marge pour un overclocking, c’est bien ce qui pose problème aux testeurs…
Une députée veut des « trêves de mails » dans les entreprises françaises
05/07/2016
Le 06/07/2016 à 06h 38
Pour la Syntec :
Le cadre au forfait jour c’est position 3 minimum et un salaire minimum à deux fois le plafond annuel de la sécurité sociale…
Si vous n’êtes pas position 3 ET à un revenu de 80k€ annuel vous n’êtes pas au forfait jour, au mieux au forfait horaire…
Le forfait horaire suppose également un salaire minimum au plafond annuel de la sécurité sociale, donc si vous n’êtes pas rémunérés à plus de 38.6k€ annuel vous n’êtes pas non plus au forfait horaire…
Le 05/07/2016 à 12h 19
Obligation de recevoir des mails pro sur ta boite perso ?
N’importe quoi…
Konami veut déjà débrancher les serveurs de PES 2015
07/06/2016
Le 07/06/2016 à 15h 47
AMD annonce sa Radeon RX480 à 199 $, se moque de NVIDIA et montre une puce Zen AM4
01/06/2016
Le 02/06/2016 à 08h 55
Mais qu’est-ce que vous inventez ? ça n’a jamais existé les Radeon 49xx !
Le 01/06/2016 à 14h 38
L’argument de la consommation en informatique n’a RIEN a voir avec l’environnement ou la pollution…
C’est ridicule, ces arguments n’ont d’intérêt qu’à charge basse (bureautique) ou en veille (Idle), et la plupart du temps n’ont d’impact que lorsqu’on commence à maintenir un “parc” d’ordinateurs du type bureaux de designer ou salle serveurs…
Par contre pour évaluer l’efficacité d’une architecture la consommation devient un argument intéressant, par ce que tout le monde ne peut pas se permettre de monter une carte graphique avec un TDP de 300W en fonction de son alimentation, de son boitier ou de son système de refroidissement…
L’efficacité d’une architecture permet aussi d’anticiper les performances des modèles hauts de gamme, il arrive un moment ou aucun constructeur ne peut se permettre de commercialiser une carte avec un TDP de 600W ou des chipsets énormes très couteux en production.
Il y a donc un nombre de facteurs qui font que la consommation ou plutôt l’efficacité devient un critère décisif, surcoût d’une alimentation à plus de 500-600W, surcoût du système de refroidissement, possibilités d’upgrade d’une configuration, recyclage de la carte graphique dans un PC plus modeste à la prochaine génération etc…
Je ne parle même pas de tout les systèmes de Turbo qui sont démocratisés depuis presque 5-6 ans, ceux ci adaptent souvent les performances de la carte en fonction de la consommation et de la température, agissent pratiquement comme des systèmes d’overlocking automatiques qui vont du coup favoriser les composants qui savent maintenir une consommation basse ou qui sont plus facile à refroidir !
TubeNinja, l’extracteur de vidéos YouTube, menacé de poursuites
31/05/2016
Le 31/05/2016 à 12h 26
Sauf que les CGU Youtube ne sont pas la loi…
Il faudrait déjà prouver que leur plateforme est un “utilisateur” de Youtube, un script ça ne clique pas sur “j’accepte” dans les CGU !
Module pour carte graphique externe ROG XG Station 2 d’ASUS : à Taipei, (presque) rien de nouveau
30/05/2016
Le 30/05/2016 à 16h 52
Même pas optimisée pour la VR ? " />
Valérie Pécresse veut supprimer le ticket de métro au profit de solutions sans contact
24/05/2016
Le 24/05/2016 à 13h 57
Sur Lyon les tickets dématérialisés sont complètement inutiles…
Impossible de partager ses tickets dématérialisés avec un accompagnant !
Et aucun avantage sur le prix d’achat…
En plus il faut posséder la carte qui va bien facturée à 5E avec une date de validité de 4-5 ans…
BBM : la police canadienne a utilisé la clé de déchiffrement de BlackBerry
15/04/2016
Le 16/04/2016 à 06h 51
Hum je me demande si la certification par “challenge” est bien prévue dans le cadre d’un procès " />
Mais en effet à défaut de fournir la clé à la défense pour qu’elle ai accès au même dossier que l’accusation ça devrait être un pré-requis de vérifier que la pièce “clé privée” est valide en demandant aux autorités de déchiffrer un message précis dont la défense connait le contenu à l’avance…
Enfin ça fonctionne pour le cas d’une “master key” fourni par un service tiers, si ça concernait un échange type GPG la défense n’aurait aucun intérêt à prétendre posséder l’autre clé pour initier un challenge, ça serait de l’auto-incrimination " />
Le 15/04/2016 à 16h 07
Sans fournir la clé qui a servi à déchiffrer les données comment certifier que ce sont bien les véritables données inaltérées fournies par l’accusation ?
Je suis sur qu’en inventant un algorithme sur le pouce avec une clé bidon je pourrais donner n’importe quel sens à une suite de données aléatoires… (typiquement un bête xor avec les données que je cherche réellement et prétendre que la complétion est la clé de déchiffrement !)
Un peu comme une sorte d’étude numérologique bidon…
Linus Torvalds : « Le desktop n’a pas été vraiment conquis »
11/04/2016
Le 12/04/2016 à 07h 56
J’ai pas beaucoup d’argument pour windows non plus " />
A part que “ça fait le taff”, depuis Win XP les blue screen sont devenus rares, les pilotes graphiques grand responsables de ces BSOD ont été améliorés dans la vie de WinXP (longue…) et isolés dans une couche dédiée à partir de Win Vista/7 ce qui a éradiqué complétement les plantages complet de la machine.
Le plug’n play avec les multi-écrans et configurations exotiques est mieux supporté, les assistants de pilotes permettent de fignoler et de maintenir des profils (Avec le serveur X, s’il est pré configuré à la main, c’est une purge de gérer le plug’n play, les “control panels” des pilotes graphiques sont très peu développés et souvent plantogène)
Le Kernel utilise toujours des blobs binaires pour les pilotes GPU, il n’y a pas d’isolation suffisante pour empêcher un plantage complet du système en cas de pépin sur ces pilotes, du coup même pour un PC en mode “kiosque” c’est la première source d’instabilité !
Ensuite ce qui me frappe le plus c’est que Firefox est bien plus stable sous Windows que sous Linux, plus performants avec des tonnes d’onglet, mieux intégré à l’interface, plus fluide, et c’est un de mes principaux outil de travail (documentation pour développer, debuggeur web/css/js pour mes projets, divertissement avec les forum et vidéos, console pour interfaces web-admin…)
Le 12/04/2016 à 06h 03
Pour contrebalancer ton expérience…
Pour mon cas je suis pratiquement un “guru” de Linux (modification des sources du noyau, cross-compilation pour mes appareil embarqués, utilisation de Gentoo quotidiennement sur mon NAS/HTPC…)
C’est aussi mon métier (admin système / middleware sous *Nix) à taper de la ligne de commande avec des boucles et autres transformations de masse toute la journée, et pourtant toutes mes machines orientées “Desktop” sont sous Windows !
GNU/Linux est bien mon système favoris, sur lequel je fait tourner tout mes projets, où j’héberge mes créations, mais je l’utilise majoritairement en accès distant SSH, je peux absolument faire toutes mes tâches productives à partir d’un Shell Linux et j’ai abandonné l’idée d’en faire un environnement de Bureau il y a longtemps…
Je ne saurais pas décrire précisément pourquoi j’abandonne toujours l’utilisation Linux en Desktop, mais je dirais qu’une des raison principale c’est bien le sous-système d’affichage, les pilotes graphiques manquent cruellement de stabilité (plantages, artefacts, configurations pénibles, préférences non respectés lors de plug-n-play), même en prenant le moins de risques avec un GPU Intel je me retrouve toujours à batailler avec le pilote et le paramétrage du serveur X.
C’est simple pour moi qui monte souvent des serveurs Linux, dès qu’on y ajoute les pilotes graphiques et/ou le serveur X avec des accélérations matérielles on va au devant de plantages, de freeze, de kernel panic, alors que ce système ne souffre d’aucun défauts dans la plupart des autres utilisations !
Blizzard réclame la fermeture d’un serveur privé de World of Warcraft
08/04/2016
Le 08/04/2016 à 16h 14
Ah c’est donc sur NXi que tu traines plutôt que de bosser sur le projet " />
Je pense aussi qu’il y a un phénomène de taille de la communauté qui peut désintéresser l’éditeur de toutes actions…
Par ce que la zone grise ça vaut pour le reverse-engineering du Network Code, quand on utilisera la géométrie du client coté serveur il y aura surement quelque part une utilisation détournée des assets du jeu !
La campagne de financement du portage PC de Rock Band 4 est un échec
08/04/2016
Le 08/04/2016 à 08h 10
2 Millions pour un portage…
Même avec un moteur maison difficile à migrer, c’est n’importe quoi !
C’est une équipe de 20 personnes sur deux ans tout frais payés !
Si c’est vraiment les ressources nécessaire pour le portage il faut peut être se demander si la plus value représente un tel coût…
On s’attendrait plutôt à un nouveau projet complet pour cette somme !
Les sénateurs adoptent le délit de consultation habituelle de sites terroristes
31/03/2016
Le 31/03/2016 à 17h 22
Comment peux-tu identifier le contenu qui a effectivement été renvoyé par la connexion initiée il y a un an ?
[MàJ] Peines de prison pour avoir simulé un meurtre sur Periscope
24/03/2016
Le 22/03/2016 à 15h 58
Ouais ! mort à l’art dégénéré ! Faisons le tri !