votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3758 commentaires

Le 20/10/2014 à 05h 40







Pumpk1in a écrit :



Une uniformisation serait un gros plus… il est ou le temps ou on exportait nos images à 72DPI et ou ça marchait partout ? <img data-src=" />





En fait, ça n’a jamais marché partout. Mais si il faut du 300DPI sur le Web, ma connexion internet ne va pas suffir.


Le 18/10/2014 à 07h 39







jeje07 a écrit :



c’est faux. et je le prouve :



 prenons un magazine en version papier et en version PDF. En version papier, un magazine est imprimé dans les 300 DPI.   



parlons maintenant de cet écran 27 pouces en 5K : il est en 210 DPI. Soit encore en dessous de la résolution d’impression d’un magazine….. comme quoi….. Du 6K serait mieux (6K en 27 pouces = 300 DPI, le rêve)&nbsp;





Tu oublies la distance de visualisation: tu lis un magazine à une distance de 20-25cm je pense, ton ordi est 2 fois plus loin. Je pense qu’il faudrait comparer en estimant en angle de vision (= portion du champ de vision) pour une ligne d’écriture.



Ensuite, pour le 300DPI des magazine, je suis d’accord pour les hors série à 15€ pièce (j’en ai deux parlant de WebDesign, très bien rendus), mais sinon même si c’est du 300DPI, le papier ne le rend pas bien (je parle pas de Picsou magazine, mais de Newsweek par exemple).


Le 17/10/2014 à 11h 30







-dlb- a écrit :



J’étais sceptique aussi sur la technologie Fusion Drive, mais pour l’utiliser au quotidien je dois avouer que c’est très performant sur toutes mes taches courantes (bureautique, navigation, Photoshop, machine virtuel…). L’iMac étant une machine très silencieuse, le “grattage” du disque sait se faire discret.&nbsp;





Pareil, mais sous Windows. Le SSD en cache est parfait. Silence et perfs, et pas de question à se poser sur ce qui doit aller ou non sur le SSD.


Le 16/10/2014 à 19h 45







brazomyna a écrit :



Pour moi, que ce soit le bi-écran Dell (24 pouces) ou ce Mac (27 pouces), je trouve que c’est franchement useless vu le pitch avec lequel on se retrouve au final. Un 4k de 24 pouces, c’est le pitch d’un FullHD de 12 pouces. Comme écran de bureau, et hors besoins très spécifiques, c’est limite du gachis (et j’ai pourtant un laptop 15 pouces FullHD).



Je trouve que c’est dur à exploiter en fait. Avec du hidpi peutfaire des sous-fenêtres avec des polices très petites pour certaines infos, mais au final c’est fatiguant de travailler avec des fenêtres écrite en normal et d’autre à côté en petit.

Au final, ça fait un moment que j’ai atteint les limites de mon 1280x800 sur mon vieux portables, mais le 1366x768 de ma nouvelle tablette est assez confortable, et le fullhd de mon PC fixe est un super confort.

Mais ce que je préfère, c’est le double écran 1366x768, je trouve ça très confortable (je ne cracherais pas sur double FullHD non plus).



Bref, je trouve le double écran plus facile à utiliser à fond que le super méga HD de la mort (mais je n’ai pas encore vu de 5k)

&nbsp;


Le 16/10/2014 à 19h 39







Shuffle Bot a écrit :



L’iMac 27” 5K Retina débute à 2629€ en Belgique avec:




Intel Core&nbsp;i5 quadricœur à 3,5&nbsp;GHz, Turbo Boost jusqu’à 3,9&nbsp;GHz      

8&nbsp;Go de mémoire SDRAM DDR3 à 1&nbsp;600&nbsp;MHz - 2 x 4 Go

Fusion Drive de 1&nbsp;To

AMD Radeon R9 M290X avec 2&nbsp;Go de mémoire GDDR5





La vache.

&nbsp;J’ai un Core i5 3.5GHz turbo jusqu’à 4.2GHz 8Go de SDRAM low profile low conso, HD 1To + disque SSD cache de 64Go, alim 80+ 300W et ça m’a coûté entre 500 et 600€ il y a 20 mois.

Carte mère gigabyte en Z77.



Ca me laisse 2000€ pour un écran et une carte graphique.



J’aime beaucoup les produits Apple, ils sont infiniment mieux finis qu’un PC monté, mais là ils tapent un peu fort en prix je trouve. ON est quand même presque 2 ans après mon achat et les perfs ne seront pas très différentes



(remarque: quand je check le prix des composants que j’ai acheté, je m’aperçois qu’ils n’ont presque pas bougé de prix…)


Le 18/10/2014 à 07h 51







js2082 a écrit :



Perso, j’ai jamais accroché ce jeu:

-décors vides, histoire presqu’autant

-quêtes fourre-tout, pas très passionnantes

-gameplay franchement pas folichon

-mouvements lourds et clairement chiants (les sauts particulièrement)



Moi en revanche j’adore les graphismes et les sarcasmes. Ca ne se prend pas au sérieux, on peut jouer.

Par contre, faire une quête prend un temps fou, et pas de sauvegarde intermédiaire: j’ai rarement 1h30/2h pour jouer!


Le 17/10/2014 à 04h 42







sukualu a écrit :



&nbsp;Je m’attendait à la quasi totalité des séries et films existant… le truc énorme. Je suis vraiment naïf.



Donc je vais regarder la série que je voulais voir et si j’ai encore le temps peut-être un ou deux reportages mais honnêtement après c’est le vide absolu. C’est pas demain la veille qu’ils vont concurrencer le piratage à moins de multiplier leur catalogue par 100 au moins.



Faut atterrir, effectivement. Tu n’es pas le seul dans le cas. Les gens qui ont l’habitude de pirater et d’avoir tout tout de suite ne comprennent pas que pour 10€ par mois, tu ne peux pas avoir accès à tant de contenu que cela.



Remarque: je me demande par Français combien les publicitaires dépensent pas mois…


Le 16/10/2014 à 11h 48

Les futurs colis piégés qu’on peut s’imaginer!

Et ici avec les chasseurs, le vol de colis à la carabine!

Que du rêve!!!

Le 15/10/2014 à 13h 43







ActionFighter a écrit :



Super Hexagon, c’est un puzzle game genre un clone d’Hexic HD ? (pas accès à la page au taf…)





Non, super hexagon c’est un truc de réflexes. C’est pour tester tes nerfs plus qu’autre chose. Si tu tiens plus de 5 minutes, c’est l’AVC ou l’épilepsie…


Le 14/10/2014 à 09h 30







bingo.crepuscule a écrit :



En plus, renommer de l’Ext n’a rien de compliqué, et même si la gestion des droits pour les disques externes est assez rédhibitoire (encore que, en modifiant l’OS, ça ne doit pas être bien dur de tout même en chmod 777 & autoriser l’exécution par défaut, comme le FAT32 et le NTFS), ses performances sont bien meilleures que du NTFS, pas de fragmentation…



Pour les perfs, c’est à voir. Ext limite la fragmentation des fichiers en les distribuant sur le disque, augmentant les déplacements de tête sur un disque dur.

Là où NTFS permet de défragmenter un répertoire, limitant les déplacements de tête sur un disque dur en lecture sur le répertoire.

NTFS augmente les perfs de lecture de fichiers écris ensemble, mais en risquant de dégrader leur mise à jour. C’est un choix. Et en plus, je suis sûr qu’on peut agir dessus.


Le 13/10/2014 à 21h 46

De toutes façons sur un chromebook, le seul fs utile c’est l’API de google drive, le reste n’est que foutaises et gadgets désuets…



Remarque: s’ils pourrissent Ex2 comme SFR a su le faire avec la NB4, autant le virer. J’ai passé des heurs à récupérer mes fichiers d’une clé USB partagée. Tous les accents avaient été remplacés par des points d’interrogation

Le 13/10/2014 à 21h 01







Sylvounet a écrit :



Quoi qu’il en soit, sur un 42 pouces à 2,5m, même avec du 3Mb c’est très correct Netflix niveau qualitatif, on est entre du DVDRip et du Mkv 720p.



Je ne suis pas très regardant, je me contente facilement du DVD au lieu du blu-ray. Mais netflix en moins de 3 Mbits/s, c’est laid, et à 3Mbits/s c’est bien pour des séries mais pas pour les films (Videofutur c’est pareil: en streaming c’est très moyen, en caching c’est bien meilleur mais leur box n’est pas au niveau d’un bon lecteur DVD)


Le 13/10/2014 à 19h 22







Just1_ a écrit :



surtout que c’est le débit jusqu’à la TV, la tablette ou ordinateur. Or chez la majorité des gens on a droit à une simple Box opérateur avec surement du wifi G et peut être du N (vu le nombre de box wifi G encore en circulation…) et très peu de monde est connecté en ethernet… (je parle des français en général pas du Nextinpactien!)



ça expliquerait pourquoi tous les opérateurs semblent si proche!&nbsp;&nbsp;





Oui mais non. Du wifi G, c’est 2,2Mo/s, soit 20Mb/s réels. Et les “simples” box opérateurs ne sont pas les pires cancres en termes de performances.


Le 10/10/2014 à 09h 10







MeKa3D a écrit :



On a une idée des performances des Core M? Ca se situe ou par rapport au Core iX-Y/iX-U?





Ca dépend du refroidissement.


Le 09/10/2014 à 05h 53







romjpn a écrit :



Je pense que même CS : Source marche sur ce type de config.





Ben non (pour Zombie truc chose): failed to initialize OpenGL. HL2 marche, HL1: Source marche mais pas Zombie nexon…

Pas grave, c’est pas franchement ma config de jeu et j’aurais peur de griller l’ordi en faisant tourner le “GPU”.


Le 08/10/2014 à 20h 02

Vous avez vu la description sur steam? C’est pas pour le néophyte:“MMOFPS Free to Play offrant un PvP compétitif et de l’action PvE”Remarquez, ça doit pas être le seul jeu auquel cette “phrase” s’applique (mais j’ai pas encore tout décodé: PvE???)

Le 08/10/2014 à 17h 17

Je vais pouvoir installer un nouveau jeu sur mon GMA950???

&nbsp;

Le 08/10/2014 à 21h 07







darknoon29 a écrit :



Quelle part représente la Box Android dans le parc SFR ?





Bonne question. Et surtout: combien vont avoir une bonne qualité de Netflix dans ces clients?

La box android est destinée à ceux qui n’ont pas 5-6Mbits/s.

Ici à 4Mbit/s (5Mbit/s les jours ensoleillés, donc inutile), Netflix passait en “tout moche”.



Payer 11€ par mois (3€ de box Android + 8 de Netflix) pour avoir une qualité entre la VHS et le DVD, ça peut dégouter.

Si Netflix permet la mise en cache chez soi ou le offline, là c’est plus intéressant.


Le 06/10/2014 à 10h 06







Dr.Wily a écrit :



On enfonce un peu des portes ouvertes, puisque le fait d’intégrer des malware via un firmware n’est pas nouveau.





La nouveauté c’est de l’injecter après et de transformer du matériel banal en mouchard.

Pour le fonctionnement en situation réelle, je reste cironspect. A première vue, les risques concernent surtout soit une injection de boot code via un lecteur caché, difficile en UEFI, soit un mouchard mais en supposant que les utilisateurs utilisent des hubs.



Par contre, cela permettrait de masquer du contenu sur une clé USB, affichable uniquement avec le bon bout de code.


Le 06/10/2014 à 04h 32







nigol a écrit :



Le trafic venant du contrôleurs est vu par tous les devices. Simplement parce que tous les devices doivent répondre aux requêtes adressées à ‘0’.





C’est le hub qui route les requêtes d’identification.


Le 05/10/2014 à 09h 24







nigol a écrit :



Une des faiblesses du protocoles USB est que tous les périphériques peuvent écouter les paquets envoyés à destination d’un autre périphérique.





Non. Ou alors ton HUB USB est nul. Je fais un peu de dev USB en ce moment (en Atmel avec une couche USB totalement émulée par le MCU, pas de hardware USB), je ne reçois pas les signaux de la souris USB branchée à côté.



Dans chaque ordi, il y a plusieurs contrôleurs USB. Chacun a son ports, parfois avec un concentrateur (hub) derrière.

Exemple, sur mon portable, il y a 5 contrôleurs USB. L’un est dédié au touchpad+ clavier + capteur d’empreinte, un autre est dédié au détecteur de chute, un autre est pour les deux ports sur la gauche et un pour les deux ports sur la droite. Le dernier est pour le socle.

Touts sont totalement indépendants.



Si tu branche un hub (ou plutôt “concentrateur”) USB, cet appareil va indiquer à l’ordinateur que son trafic va être la concentration de plusieurs périphériques. Le HUB voit toutes les communications, mais n’envoie à chaque périphérique que ce qui lui est destiné.



Le 05/10/2014 à 09h 14







yep a écrit :



Ton HUB doit quand même faire HUB, donc il te faut le FW du HUB + ajouter le FW de ton/tes périphériques qui vont attaquer le système. Tu risques d’arriver aux limites de taille mémoire.





Je suis assez d’accord, mais le firmware d’un hub est assez simple. On doit pouvoir le transformer en key logger. Au pire en utilisant l’EEPROM intégrée à certains contrôleurs qui est sous-utilisée.

Parfois, 8ko est largement assez pour tout le monde.


Le 04/10/2014 à 20h 54







francois-battail a écrit :



Pour le reste : propagation en reflashant un firmware, il va falloir que le malware d’infiltration soit joufflu : ATMEL, MicroChip, Texas, NXP, ST Micro… en 8, 16 ou 32 bits, un bon millier de variantes et le tout en ne pouvant opérer qu’avec une mémoire très réduite (64 ko est un luxe dans ce monde).





Pour Atmel et Microchip en tout cas, le firmware ne se programme généralmeent pas par les pins USB.

Les vieilles puces Cypress sont les pires (vieux modem par exemple): elle se déclarent juste pour recevoir le firmware, démarrent le firmware et redéclarent les “vrais” périphériques. Aucune vérification à l’époque.



Dans tous les cas, infecter une clé USB est une chose, mais ce qui donne plus de possiblités c’est d’infecter un HUB.


Le 04/10/2014 à 12h 25







Rozgann a écrit :



Donc si je comprends bien, ça concerne potentiellement tous les OS, ordinateur comme mobile ? Dans la pratique, il faut que l’OS puisse exécuter le code du virus, donc ça touchera certainement principalement Windows, mais c’est sérieux comme faille.





On peut imaginer que Windows soit le vecteur d’installation du malware sur la clé USB privilégié.



Mais une fois sur la clé USB, le malware touche TOUT os, TOUTE plate-forme.



Par exemple, l’idée est de transformer ta clé USB de stockage en clé USB + périphérique réseau afin de récupérer tes requêtes réseau sur la clé.



Dans la pratique touefois, je trouve cela limité. A voir avec les types de périphérique USB standard existant, mais quand on branche un adaptateur ethernet USB, il ne se transforme pas de lui-même en pont USB par qui tout passe sans manipulation dans le système.



Et le périphérique supplémentaire sera visible dans l’OS, on pourra le détecter.


Le 06/10/2014 à 08h 38







Emralegna a écrit :



Si Windows 10 serait uniquement 64 bits, ce serait enfin l’occasion de passer au XXIè siècle.





C’est ridicule. Tout n’a pas besoin d’être en 64bits, loin s’en faut. Une Bdd 64bits, OK. Un soft de composition vidéo, OK.

Un jeu? bof. Un dropbox? aucun intérêt.



Faire tourner certaines applis en 32bits sur un OS 64bits permet d’être SUR qu’elles ne vont pas manger toute la mémoire pour elle.



Perso, je choisi les soft que je télécharge en 64 et sinon je reste sur la version 32 bits.


Le 05/10/2014 à 09h 34

Concernant la gopro, j’ai vu deux trucs en ski:





  • Un gamin qui s’est vautré en essayant de l’allumer en descente

  • Un mec qui se soulageait contre un arbre, une gopro sur la tête. J’espère que lui l’avait éteinte.



Le 04/10/2014 à 15h 04







CoooolRaoul a écrit :



Non: ce n’est pas à un certificat destiné à se connecter sur le portail que je pensais, mais un certificat lié à notre identification sur le site et pouvant s’utiliser dans des applications tierces (messagerie par exemple) en tant que signature numérique, lui même signé par un service officiel de l’état





Le certificat de l’époque était sur ton disque, et était un certificat d’identification. Il aurait pû être partagé et pouvait servir à signer un document. Il était standard et correspondait à priori à l’état de l’art pour ce genre de choses.


Le 03/10/2014 à 09h 16







CoooolRaoul a écrit :



Peut-on espérer dans la foulée un certificat numérique, signé par l’administration, gratuit et associé à chaque compte sur ce portail?





Non, ça c’était avant :(

Le certificat a été abandonné il y a quelques années car les gens ne le comprenaient pas (changement de poste, perte du fichier, …)

C’était pourtant plutôt bien fichu, bien mieux que des mots de passe.


Le 02/10/2014 à 14h 57







HarmattanBlow a écrit :



En quoi est-ce que c’est idiot ? 99% du temps tu veux pouvoir taper dans l’appli qui vient de se lancer. D’ailleurs j’ai un programme qui ne place pas correctement le focus à son lancement et je peste à chaque fois contre ça.





Pardon, j’ai tapé un peu vite. Le plus gros problème, c’est quand un programme te fait une notification par boite de dialogue et la met en premier plan.

J’aimerais que ce premier plan soit celui de l’appli, pas du bureau!



Ensuite, il m’arrive de lancer plusieurs programmes simultanément, mais si je redonne le focus à un programme en cours, j’aimerais qu’il le garde. Je vois bien dans la barre des tâches que les programmes sont lancés, je préfère basculer quand je veux.



Depuis 3 ans que je suis revenu sous Windows, c’est la troisième chose qui m’agace au niveau ergonomie. Les deux autres sont: le manque de “sélectionner coller” (il faut toujours sélectionner, copier, coller) mais ça je peux le comprendre, et le fait que souvent les fenêtres de dialogues sont indépendantes de leur appli parente, ce qui fait que si je bascule sur une fenêtre de dialogue “fille”, toute l’appli “mère” est aussi redessinée, masquant souvent un autre fenêtre de travail.



J’imagine que ça m’agacerait moins avec deux écrans… Mais sous BSD/Linux, je pouvais me trouvais plus productif sur ce genre de tâche (rédiger des documents en passant du programme au document/programmer en passant d’une doc technique au programme)


Le 02/10/2014 à 11h 58







von-block a écrit :



La question a surement été posé un millier de fois et je m’excuse de ma lacheté, mais si j’installe cette V10 preview, vais je pouvoir passer automatiquement à la version finale de windows 10 ou vais je devoir formater à nouveau.





Aucune certitude, mais pour l’instant compte sur “formatter et repartir de zéro”.


Le 02/10/2014 à 11h 52

Est-ce que Windows 10 conserve cette idiote règle sous Windows qui veut qu’un programme qui s’ouvre vole le focus?

Le 02/10/2014 à 05h 22







carbier a écrit :



Sinon il n’y pas un premier retour sur le miracle Netflix ?

Histoire au moins de savoir combien de millions de Français se sont rués sur la solution ultime ?





Perso, je connais plusieurs personnes qui l’ont pris, et il y a un indéniable choix de séries. Les gens prennent le gros forfait et le partagent avec des proches.



Quand au test chez moi, avec 3-3,5Mb/s, c’est plus FLOUfix que NetFlix.

Il faudrait que je puisse enregistrer à l’avance les épisodes (ils n’ont qu’à prétélécharger la moitié par tronçon de 30s (12) s’ils veulent me forcer à streamer. Cela limiterait le débit nécessaire).


Le 02/10/2014 à 05h 18







OlivierJ a écrit :



Vu comme ça, c’est jouable, mais pourquoi acheter une tablette alors ?





Pourquoi acheter une tablette tout court alors.



Exemple bureautique: le soir du bosses sur ta tablette avec un clavier, en journée tu fais la présentation et tu as juste pris la tablette.

En suite, c’est plsu facile à ranger dans le tiroir (WAF WAF).



Tant qu’à avoir un ordi pourri à 300€, autant prendre une tablette. D’ailleurs, j’ai failli craquer pour une V975w à l’époque (200-250€, “rétina”, Windows 8.1, Atom Z73xx). Mais quelques mauvais retours m’ont fait choisir du matériel plus sérieux.


Le 01/10/2014 à 07h 23







CrowTown a écrit :



Intel a lancé une plateforme concurrente du Rpi et je doute très fort que ce soit de l’ARM hein, donc Windows 10 Embedded est prévu pour cette plateforme et pour les montres, entre autres… <img data-src=" />





Super, le windows intégré dans cette carte ne fait même pas .Net. On t’explique gentiment qu’il faut programmer en C/C++ en Win32, soit exactement ce qui n’existe pas vraiment sous Windwos RT.

Et la carte n’est pas du tout concurrente du Rpi, elle est headless (pas d’écran).


Le 30/09/2014 à 18h 56







maestro321 a écrit :



Je te croirais quand j’aurais vu un benchmark.

C’est la seule preuve tangible qui pourra me convaincre, tout le reste c’est du blabla technique auquel je ne comprend pas tout et que je ne souhaite pas approfondir.





J’ai du mal à imaginer quel benchmark faire. Si tu as une idée, je veux bien, ma tablette est actuellement en Windows 8.1 “normal” et je la passe cette semaine en 8.1 “wimboot” (si j’y arrive, j’ai pas forcément des heures à passer là-dessus).



Quand à “tangible” pour un benchmark…



J’ai deux exemples concrets de benchmark qui ne disent rien:





  • Radeon HD7750: oui, j’ai un framerate moyen très bon avec , mais… Je sens souvent de gros ralentissement! Tu préfères quoi: la carte graphique qui fait une moyenne de 70fps avec des ralentissements à 20, ou celle qui en fait 60 avec des ralentissements à 40?

  • Ma tablette core-i5: dans les benchmarks, elle est ras des paquerettes (i5 2467m). Mais en vrai, c’est dû à un fort ralentissement quand on prolonge la charge (au delà de une à quelques minutes). Dans un jeu, elle est nule, elle ralenti au bout de 2 minutes. Mai en développement, tant que la compilation ne dépasse pas ces quelques minutes, elle carbure un max! Du coup, elle est plus agréable à utiliser qu’un benchmark ne le laisserait penser.







    C’est comme les consommations de carburant de voiture: sans tester avec TA conduite sur TES routes, rien ne te dit si la voiture qui consomme moins dans un magazine va vraiment consommer moins chez toi (rapport au relief, à la répartition ville/route, …).



    Et souvent on peut donner des benchmarks qui donne une solution gagnante dans une situation, perdante dans l’autre.

    Alors si c’est pour abandonner la solution wimboot parce que l’analyze de l’antivirus va manger deux fois plus de batterie…


Le 30/09/2014 à 15h 23







maestro321 a écrit :



Ok, mais t’aurais pas un petit test comparatif sinon. <img data-src=" />

Parce que la théorie c’est sympas, mais sachant que les tablettes d’entrée de gamme on des CPU relativement poussif, je demande à voir dans la pratique ce que ça donne pour voir si la différence est si “negligeable” que ça.





Non, il n’y a pas de benchmark. Car il n’y a pas de différence particulière à attendre.

Tu peux bencher tant que tu veux l’ouverture de tel ou tel programme. Tu n’auras pas 1 seconde de différence.

Et quand bien même tu trouverais une différence, tu serais sur du cas totalement ahurissant de relecture permanente des fichiers système de windows. Même en lançant 1000 fois le même programme en 10 minutes, Windows ne relis pas ses DLL: elles sont soit déjà en mémoire soit en cache.

L’activité de lecture des DLL est un aspect qui entre peu dans les perfs d’un programme, sauf un antivirus qui scanne les DLL du système.

Peut-être au démarrage d’une appli.net verrait-on une légère différence, mais pas à l’exécution.



Quand au caractère poussif des CPU de tablettes, ce n’est pas vraiment le cas pour de la décompression de ce type. Leurs limitations sont sur de gros programmes (manque de cache), sur le GPU intégré (castré et bridé en même temps). Dans cette gamme, les tablettes sont elles mêmes poussives à cause d’un disque eMMc au lieu d’un vrai SSD.

-&gt; C’est pas 10% de peut-être temps d’ouverture en plus au premier démarrage d’une appli qui va changer l’expérience utilisateur. Surtout que ce sera peut-être 10% de temps en moins



Je pense que Wimboot est une bonne solution pour donner un peu d’espace libre, mais je reviens sur ma remarque précédente: les mises à jour Windows serotn d’autant plus pénibles que les nouveaux fichiers ne peuvent plus remplacer les anciens et viennent donc systématiquement “en plus”, et sans compression.


Le 30/09/2014 à 14h 05







maestro321 a écrit :



T’as une petite source? Parce que j’ai pas trouvé de test comparatif.





Ca fait des années qu’on peut utiliser la compression sous Windows. Là il y a un petit lien en plus.

De plus, il n’y a pas de règle: le gain obtenu en vitesse de lecture (car on lit moins de données) est moindre sur un SSD, il faut donc que ce gain ne soit pas contrebalancé par le temps de décompression des données. Ni que la charge CPU monte significativement et ne fasse passer le CPU en boost, réduisant l’autonomie.



En général, les algos de décompression à la volée sont des algos légers (pas du 7z ou bzip2, mais plutôt du LZ) nécessitant peu de mémoire. Ceci permet de gommer l’effet “double charge” mémoire: on n’a pas besoin d’avoir tout le fichier compressé en mémoire pour le décompresser. On décompresse petite portion par petite portion.



Ensuite, je ne sais pas comment fonctionne le cache Windows: si c’est au niveau “secteur”, il décompressera à chaque lecture les données mais sera plus efficace en mémoire. Si c’est au niveau “fichier” il ne décompressera qu’une fois un fichier fréquemment lu.



Enfin, les fichiers du système d’exploitation, même s’ils pèsent 12Go, ne sont pas tous lus. La plupart de ceux qui sont lus sont ensuite maintenus en mémoire car beaucoup de logiciels en dépendent.



Donc, avec un install “wimboot”, le gain de place est substantiel, mais l’impact perf ou autonomie est négligeable, qu’il soit positif ou négatif. Dans tous les cas, c’est un compromis compliqué.



A noter: les fichiers de Windows et des drivers qui sont remplacés lors des mises à jour ne seront pas compressés. Il resteront décompressés dans la partition c:. A voir si cela est minime à terme ou énorme (quand on installe Windows 8.1 aujourd’hui, on doit quand même télécharger plusieurs centaines de Mo de mises à jour).

A noter aussi: le windows “compressé” permet normalement de faire un reset de la machine de façon très rapide.

Enfin, il faut éviter de capturer un virus/malware dans l’image qu’on compresse, car il est impossible de le supprimer sans tout réinstaller de 0.


Le 30/09/2014 à 12h 58







Pr. Thibault a écrit :



Faut vous mettre à jour les gars, les spécifications minimales requises pour installer Windows 8.1 sont désormais 16 Go de stockage et 1 Go de RAM. Pour le stockage cette réduction des spécifications minimales a été rendue possible par une compression de l’OS : on peut activer un mode spécifique d’installation qui fait que Windows 8 n’occupe que 4 Go, les fichiers sont décompressés à la volée, l’impact sur les perfs est négligeable.





Exact, je suis en train d’essayer d’installer ma tablette dans ce mode.



Ces tablettes bas de gamme montrent l’espoir que possède encore Microsoft de faire marcher le store: sur 16Go de disque et 1Go de RAM, je vois peu d’applications Windows tourner correctement.



En poussant des produits du genre, il y a deux issues possibles: soit des gens en achètent en masse et un marché émerge pour les applis du Microsoft Store, soit (et je penche pour ce scénario car tan qu’à avoir une tablette inutile autant prendre une android bas de gamme) tout le monde les boude et c’est un nouveau bide.


Le 29/09/2014 à 17h 27







xillibit a écrit :



Les machines virtuelles ça existent





Mais je trouve que sur une vraie machine, c’est un meilleur test, encore plus quand cette machine est celle que tu utilises le plus fréquemment et sur laquelle tu as la plus grande diversité d’utilisations.

Donc j’ai joué le jeu, et j’ai perdu pas mal d’heures.

Sans compter que Windows 8.1 béta était nettement plus lourd que le vrai…


Le 29/09/2014 à 15h 13

Plus jamais de béta Microsoft! Impossible à la fin de la béta de repasser en normal sans tout réinstaller. Même une sauvegarde de la machine par les outils microsoft ne fonctionne pas.

Je l’ai fait sur ma machine de dev à l’époque de 8.1, il m’a fallu une bonne semaine pour tout réinstaller. J’étais écoeuré.

Le 29/09/2014 à 17h 25







k43l a écrit :



Oui mais attends ta licence Windows 8 ou 8.1 tu l’as acheté ? Non parce que si tu l’aurai pas acheté… tu l’as pirate <img data-src=" />.





0 piratage chez moi, la licence est achetée (Windows 8 Pro à 60€ en màj, 8.1 c’est gratuit).

J’achète régulièrement des licences Windows (Windows 7 RTM à sa sortie pour changer Vista, Windows 8 pour une tablette que j’ai acheté sous Windows 7, et maintenant Windows 8.1 étudiant pour la deuxième tablette identique que j’ai achetée pour mes bidouilles)







k43l a écrit :



J’imagine pas que t’achète une licence Windows pour un ordi vieux de presque 8ans. Alors je dirai qu’on te la prêté.





Ben si, tu vois, quand un ordi est bien, je le garde longtemps. J’ai même changé son processeur il y a quelques mois (une bonne occase), ce qui se fait rarement aussi sur un portable.

Mais quand un portable, qui a 8 ans mais que j’ai depuis 4-5ans, est utilisé quasi chaque jour et que RIEN ne tombe en panne, qu’il est solide et qu’il a le bon format (14 pouces dans mon cas) tu hésites vraiment à le changer.



C’est l’intérêt d’acheter les portables pro je trouve. Quasiment tous mes ordis sont des modèles Pro que j’ai acheté d’occasion, quand ils ont déjà 2-3 ans de bons avis. Comme ça, je ne me trompe pas.


Le 29/09/2014 à 08h 54







k43l a écrit :



Ceux sous Windows 7 - Vista ou plus loin XP, passerons forcément à la caisse à un moment ou un autre par l’achat d’un nouvel ordi.<img data-src=" />





Pas forcément, Windows 8 a rajeunit mon portable qui était sous XP (portable de 2006 en Core2Duo et GMA950).

Ca m’a montré que mon vieux portable était toujours au même niveau ou meilleur (hormis la résolution d’écran, la carte graphique et l’autonomie) que des PC à 300-400 euros. La solidité en plus.



La il est sous Windows 8.1 et il y a bien quelques ralentissement les jours de grosses mises à jour, sinon il carbure vraiment (et j’ai pas de SSD sur celui-là).







XMalek a écrit :



Windows 88.1 est aussi lourd que win 7 sur une machine le problèem est que les évolutions majeures en terme de temps sur windows 8 dépendent de l’UEFI, des ssds et de la carte graphique.





Effectivement, je pense que par rapport à 7 le gain est mineur. Moi je compare par rapport à XP (que j’avais quitté pour Linux pendant quelques années). Et je suis repassé à Windows car Linux était de pire en pire sur mon portables (plantages méchants et inopinés, bugs graphiques, …) alors que le matériel est assez standard.


Le 29/09/2014 à 09h 50







Crysalide a écrit :



Il y a un moyen simple techniquement de combattre l’obsolescence programmée et le gaspillage des ressources: augmenter la durée de garantie des produits pour passer sur des durées de 5 à 10 ans selon les produits courants.





Je ne connais pas d’appareil conçus pour 5 ans. Moi tous mes appareils ont au moins 5 ans à peu de chose près, les plus gros ont dix ans et ne sont pas en panne. Quand aux pièces d’usure, je peux toujours les acheter (même pour le cas d’école, mon imprimante, que j’ai achetée en 2008).



Je n’ai jamais compris cette histoire d’obsolescence programmée. Quand bien même elle existerait, elle serait surtout sur le bas de gamme que je n’achète jamais. Les gens n’ont qu’à comprendre qu’un minimum de qualité vient avec un minimum de prix. Je ne suis pas convaincu qu’en achetant un produit moins cher 10 fois dans sa vie, on soit gagnant.



Et que si on n’adhère pas à l’obsolescence programmée, on n’achète pas de produit avec des consommables particuliers (cafetière à capsules par exemple) ou alors on attend: je comprends parfaitement qu’un industriel ne maintienne pas les consommables d’un produit qui est un échec commercial.



L’obsolescence programmée, elle est surtout dans la tête des gens qui trouvent que l’insustriel aurait pû leur mettre la fonctionnalité XYZ dans leur téléphone, car ça n’aurait coûté que 1€ de plus. Mais fois 1000000 téléphones, ça ne fait pas la même chose.



Enfin, il est tout à fait normal à mon sens de conserver des gammes avec du haut de gamme très cher, du moyen de gamme abordable et du bas de gamme alors que le produit est fabriqué sur les mêmes chaînes avec les mêmes composants. Ca permet de rentabiliser la R&D.



Bref, je ne vois pas de problème et ne comprends pas pourquoi ils débattent de cela. Il y a d’autres sujets plus “réels”


Le 25/09/2014 à 14h 45







Maitre Nounouille a écrit :



Je trouve qu’il y a deux poids deux mesures, franchement quand samsung a sorti les curved display tout le monde trouvait ça bien.

En plus la il s’adapte a la forme de la jambe de l’utilisateur, et les autres constructeurs y avait même pas pensé cela prouve encore la supériorité d’Apple





C’est clair, avec Apple tu as le choix entre un écran incurvé ou pas. Ca c’est de l’ingénierie.


Le 25/09/2014 à 14h 42

Will it bend?

Le 22/09/2014 à 19h 02







BATC42 a écrit :



En même temps Samsung n’a jamais été foutu d’optimiser ses mobiles. Un Android bien optimisé pour le hardware sur lequel il tourne peut faire des merveilles, regarde ce qu’a fait Motorola avec le Moto X de première génération.





Je ne suis pas spécialiste sur ce sujet, mais dans un téléphone portable quand on parle d’autonomie, il faut aussi pouvoir comparer la qualité d’émission/réception.



Mon iPod a une autonomie correcte, mais son Wifi est lamentablement lent.



Je pense que pour un téléphone c’est pareil pour tous les composants annexes.



Après, je reconnais qu’Apple gère plutôt bien les batteries. Il n’y a qu’à voir l’autonomie des iPad 2 aujourd’hui: la batterie a beau être vieille, c’est toujours très largement utilisable.


Le 22/09/2014 à 15h 41







essa a écrit :



ben en faite une personne qui a une mutuelle paye ses lunettes en payant sa mutuelle… t’inquiète les mutuelle ne font pas dans l’humanitaire en te remboursant tes lunettes 100% elle se font de l’argent.



bref si tu payai 10€ de moins par mois ta mutuelle et qu’a la place tu achetai des lunettes à 10€ et comme tu change pas de lunette tout les mois.

Tu serai gagnant.





Une mutuelle, c’est à but non lucratif, sinon ce n’est pas une mutuelle.

quand on en choisit une, il faut regarder son statut. Une assurance n’est pas une mutuelle (mais une assurance mutuelle est une mutuelle).

Une mutuelle ne gagne pas vraiment d’argent. Quand ça lui arrive, elle devrait baisser ses cotisations. Quand elle en perd, elle doit renégocier ses cotisations.


Le 22/09/2014 à 15h 35







eglyn a écrit :



On peut avoir une tablette et apprendre à écrire en manuscrit hein ^^.

La tablette servirait juste à remplacer les kilos de bouquins c’est tout.





Les kilos de bouquins en CE2??

En sixième, les cartables peuvent être lourds, pourtant beaucoup de profs disent aux enfants de garder les livres à la maison pour les exos, en classe ils n’en n’ont pas besoin.

Et il y a déjà pas mal de choses en ligne (cours d’Allemand avec la voix, cahier de texte électronique, parfois avec les exos scannés, labomep, …)


Le 19/09/2014 à 20h 10







Drepanocytose a écrit :



Prends le CI 520.

Je l’ai, et un pote a le CI320 : nette différence de perfs.

Pour un geek comme toi je conseille vraiment le 520.





Je confirme, les Celeron N28xx, on sent qu’ils sont poussifs. Je ne sais pas si c’est la cache de seulement 1Mo, mais si je compare mon Core2Duo T7400 à 2.16GHz et mon NUC N2820 à 2.13GHz, le Core2Duo semble toujours avoir plus de répondant (malgré ses 7-8 ans).

Quand à la partie graphique, sans exagérer, elle donne à peu près les mêmes perfs qu’un GMA950 sous Left4Dead, c’est juste plus beau mais parfaitement injouable.

En bureautique il est agréable, pour de la retouche photo de bon père de famille ça va, en serveur de doc il est super mais pour du dev, il se traîne franchement.



Reste la conso ras des paquerettes(je me suis amusé à le faire marcher sur piles) et la compacité.



Sous Linux il faut installer un patch car au départ il avait tendance à monter trop tard en fréquence et à y rester trop longtemps. Le patch le rend à la fois plus réactif au changement de charge et plus sobre, et du coup fait moinstourner le ventilo.


Le 19/09/2014 à 19h 58

C’est pour ce genre de choses que je suis resté sur iOS6.



Ca et le fait que le 7 ne passe pas sur mon iPod Touch.