votre avatar Abonné

OlivierJ

est avec nous depuis le 13 octobre 2010 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

13774 commentaires

BenQ BL2411PT : un moniteur IPS de 24 pouces au format 16:10 pour 299 €

Le 02/04/2013 à 12h 05






Blood_Man a écrit :

Sauf que certains vont préférer un 27” un peu plus grand pour 100€ de moins. Le grand public ne s’occupe pas vraiment tu temps de réponse, et la qualité des couleurs paraît toujours plus ou moins bien avec de jolies images et pour quelqu’un qui n’y fait pas attention.



On trouve des 27 pouces à moins de 200 E ? Hé ben… Ça contredit ceux qui pensent qu’un 16:10 est plus cher qu’un 16:9 du fait des 5 % de surface en plus (à diagonale strictement identique).
Je pense comme toi sur la justesse des couleurs, la plupart s’en moque.



Blood_Man a écrit :

En ce qui me concerne, j’aime autant un 19201080 qu’un 16001200, ça permet d’avoir 2 pages côte à côte. Il faudra un peu plus scroller en verticale qu’en horizontale, mais c’est moins gênant (pas besoin de le faire à chaque lecture de ligne).



Tant qu’à faire, autant prendre un 1920x1200, ou mieux, un 2048x1536 (tant qu’à prendre un 4:3, mais je ne sais pas si on en trouve encore) :) . Je fais comme toi sur mon 24 pouces 16:10, il m’arrive d’afficher 2 pages côte à côte. Je n’ai jamais besoin de défiler horizontalement, pour moi comme pour d’autres les écrans sont trop larges et pas assez hauts. Quand tu fais de la photo c’est encore pire, c’est beaucoup plus large que nécessaire pour les paysages, et beaucoup trop petit en hauteur pour les portraits.



Le 02/04/2013 à 09h 31






Blood_Man a écrit :

Etant donné que c’est moins cher, ce n’est du coup pas une arnaque. Et comme tout produit, ça ne peut pas plaire à tout le monde.



Si c’est moins cher, c’est parce que c’est produit actuellement en beaucoup plus grande quantité. Cela dit quand je vois qu’on trouve actuellement un bon 24 pouces 16:10 à moins de 300 E, c’est vraiment pas cher. Le mot arnaque que j’ai employé est un peu fort, mais on ne devrait même pas avoir des écran 16:10 en informatique, le 4:3 est beaucoup mieux pour travailler.



Le 28/03/2013 à 12h 26






DorianMonnier a écrit :

16:10 ! <img data-src=" />

Avec une colorimétrie correcte, je pourrais craquer pour ce genre de modèles, pour un peu de retouche photo amateur, ça m’irait très bien.



Je plussoie vigoureusement :) . 16:10 <img data-src=" />

Mon écran 24 pouces 16:10 au faible deltaE de base (un Belinea) est encore bon mais je note cette référence pour plus tard, si jamais.

Boycottez le 16:9, c’est une arnaque.



Fujitsu P27T-7 LED :  un écran de 27

Le 28/03/2013 à 12h 49

Sérieusement, on ne devrait pas faire de publicité (ici, le simple fait d’en parler) aux moniteurs en 16:9. Si ça continue, un jour on ne trouvera plus de 16:10, on se sera bien fait avoir.


Namie-machi, ville de Fukushima, expose ses rues désertes dans Street View

Le 28/03/2013 à 12h 44






Groumfy a écrit :

Les Japonais disent merci à la filière Mox française.

Et pendant ce temps, la France persiste dans son obstination nucléaire. Et on continue d’engloutir de l’argent dans l’EPR qui a des problèmes de fondations…



Quand le pétrole, le gaz, et le charbon auront doublé ou triplé de prix (ça arrivera de notre vivant et bien avant notre retraite je le crains), on sera content d’avoir du nucléaire abordable pour nous alimenter en électricité.

Cf sur l’excellent site de Jean-Marc Jancovici, un expert en énergie : “Sortir du nucléaire après Fukushima, bien sûr, mais peut-on avoir une idée de ce que cela signifie ?”http://www.manicore.com/documentation/petrole/Charbon_nucleaire.html



Le 28/03/2013 à 12h 08






daroou a écrit :

Les google cars étaient auto pilotées ou ils ont envoyé un pauv’ type au casse pipe ?



Après les deux commentaires pertinents ci-dessus, j’ajoute que parler de “radio-activité” ce n’est pas très précis, les ordres de grandeurs pouvant être très différents (par exemple en Bretagne du fait du radon certaines zones sont naturellement plus radioactives que le reste du pays), cf ce graphique assez bien fait :http://xkcd.com/radiation/ .



Handbrake supportera finalement l'encodage accéléré par le QSV d'Intel

Le 28/03/2013 à 12h 32






methos1435 a écrit :

Qu’est ce qu’il ya de gênant dans le terme encodage ? (vraie question, pas taper)
Parce qu’il apparait dans le dictionnaire français et se définit comme
“Transcription de données d’un format dans un autre” (Larousse) Il me parait bin adpaté moi au contraire.



Il a été intégré au dictionnaire (il faut dire que chez les geeks l’influence de l’anglais est forte, on a droit à pas mal d’anglicismes et de franglais, et surtout la maîtrise fine de la langue c’est pas toujours leur truc), mais le terme correct que j’ai eu pendant mes études c’est bien codage : codage préfixe, codage de Huffman, codage arithmétique, codeur/décodeur (codec), message codé, fax codé, etc… Jamais de “en” devant.



Le 28/03/2013 à 12h 13






Schumi a écrit :

+1000 entre un encodage CPU et GPU. Fait plusieurs essais avec DVDFAB et même avec un encodage 2 passes avec CUDA, sur une FullHD de plus de 40 pouces ça pique les yeux <img data-src=" />



C’est vrai ; j’ajoute que lire 2 fois “encodage” à la suite, ça pique les yeux aussi ;) .



methos1435 a écrit :

Mouais… On parle bien de résolution plus que de définition et ça choque personne…. Ya quand même pire comme erreur.



Je ne parlais pas que d’erreur ou d’imprécision comme celle que tu relèves, je parle aussi du fait que c’est un anglicisme bien moche, comme “encrypter” (-&gt; “chiffrer”).



Le 28/03/2013 à 11h 56

Ça serait bien de remplacer ce vilain “encodage”, inadapté en plus vu qu’il ne s’agit pas d’un codage au sens strict, par conversion ou compression, voire transcodage. Après tout, on ne parle pas du transcodage d’une image TIFF en image PNG.


Le recap' des tests : quatre machines compactes, dont une pour les joueurs

Le 27/03/2013 à 13h 11

Je ne crois pas que PC INpact en a parlé, super nouvelle pour ceux qui recherchent ce genre de machine, on trouve à nouveau un netbook Asus sous Linux :
“Asus X201E-KX042DU, 11.6 pouces 1366x768 sous Linux (Ubuntu) : Core i3 Ivy Bridge, 500 Go, HDMI, USB 3.0, 1.3 kg à 400 E”
http://www.laptopspirit.fr/127355/asus-x201e-kx042du-116-sous-linux-ubuntu%C2%A0…

Je ne l’avais pas trouvé car c’est à présent classé dans les ultra-portables et pas dans la catégorie netbook ; l’autonomie s’en ressent car elle passe d’environ 8 h à 5 h. Le dernier netbook intéressant sous Linux était le Asus Eee PC 1225C-GRY004U (280 E, caractéristiques proches sauf Atom N2600 et du coup super autonomie de 8 h), mais la commercialisation a cessé courant février.




  • Dalle 11.6 p LED BackLight (1366×768, brillant)

  • Processeur Intel Core i3-3217U (1.8 GHz, TDP 17W)

  • RAM 4 Go (normalement soudés) DDR3 1600 MHz

  • Espace de stockage 500 Go à 5400 tr/min

  • Carte graphique Intel HD 4000 intégrée au processeur

  • Réseau Wi-Fi b/g/n + Ethernet Fast

  • Bluetooth : non

  • Lecteur de cartes SD/SDHC/SDXC/MS/MS PRO/MS DUo

  • Sortie(s) vidéo HDMI, GA

  • USB : 2 USB 2.0 + 1 USB 3.0

  • Système d’exploitation Ubuntu (distribution Linux)

  • Batterie Li-Polymère 2 cellules 5136mAh 38Whr

  • Autonomie annoncée 5 heures

  • Dimensions (mm) 303 x 200 x 21.2

  • Poids 1.25 Kg (sans batterie), 1.4 Kg (avec batterie)


Bram Cohen souhaite breveter son protocole de streaming BitTorrent Live

Le 27/03/2013 à 12h 55

C’est un drôle d’idée de breveter un protocole, même si ce n’est possible qu’aux États-Unis. Ça n’empêchera pas des versions libres d’apparaître, si le protocole est intéressant.






megatom a écrit :

Peut être pour éviter que d’autres sociétés viennent déposer ce type brevet et faire entrave à la diffusion de la technlogie…



Un protocole déjà publié ne peut pas être breveté par quelqu’un d’autre (notion de “prior art” en anglais).



[MàJ] Deutsche Telekom impose un fair use à ses clients internet fixe

Le 25/03/2013 à 18h 44






Stannn a écrit :

et dans le même temps, DT va distribué 2.94 Milliards d’euros aux actionnaires pour l’année fiscal 2012…. c’est vraiment dur d’être opérateur.



Je ne sais pas si c’est beaucoup par rapport au prix de l’action, et quel a été le dividende les années précédentes, mais c’est normal de distribuer des dividendes, c’est le principe des actions.



Canon EOS 700D : un clone ou presque de l'EOS 650D

Le 25/03/2013 à 10h 16






DorianMonnier a écrit :

Du bruit “insupportable” dès 400 ISO ? <img data-src=" />
Comparé à un 600-650D qui gère le bruit correctement jusqu’à 1600 ISO, c’est en effet limite…
Impossible d’exposer correctement un sujet (mobile) en basse luminosité ? <img data-src=" />





raoudoudou a écrit :

Je suis difficile <img data-src=" />
exemple:http://www.urban-exploration.com/images/grue/tour/grue_tour_axa_02.jpg
(les bandes dans le ciel, c’est flagrant)



C’est étonnant, sur mon 350D à 400 ISO c’est nickel, à 800 ISO très peu de bruit, en fait la sensibilité où le bruit commence à se voir (en regardant en pleine définition), c’est 1600 ISO. J’ai fait par exemple une photo de St Sulpice de nuit à main levé et c’est étonnamment bon (à l’époque ça m’a bluffé, maintenant on a la même qualité à 3200 ISO je crois).



Le 21/03/2013 à 16h 54






raoudoudou a écrit :

Y a une telle progression de performances sur l’entrée de gamme qu’acheter un 5D d’occasion (même pas le mark II je suppose?) est la dernière des choses à faire. Sans compter qu’il faut changer d’objo pour les grand-angles…

J’ai un 400D et un 600D, le gap technologique, la gestion du bruit, pfiou! Énorme.



La différence de prix entre en 650D et un 5D n’est pas juste là pour faire payer un consommateur exigeant, c’est justifié par plusieurs perfectionnements, dont la solidité ou tropicalisation, la prise en main, le plus grand nombre de boutons/fonctions accessibles directement (plus de place sur le boîtier généralement), et la qualité du viseur (c’est très cher de faire un bon viseur lumineux et qui fait 100 % du champ). Je suis passé d’un argentique Minolta X-700 qui avait un excellent viseur pour son prix, à un Canon 350D et j’ai bien vu la différence (luminosité, taille perçue de l’image pour les détails, facilité à vérifier la mise au point).

Pour le 400D et le 600D, est-ce que tu as pu comparer la gestion du bruit sur 2 images pixel pour pixel (la résolution n’est pas identique certes) ? Il y a aussi un équilibre entre le lissage (qui permet de présenter moins de bruit) et le respect des détails (qui laisse plus de bruit).
J’avais choisi le 350D à l’époque où le 400D était disponible car le 350D montait mieux en sensibilité (capteur de “seulement” 8 MP l’expliquant sans doute).



Un firmware corrige un bug pouvant rendre les SSD OCZ Vector inutilisables

Le 21/03/2013 à 19h 13






maestro321 a écrit :

OCZ et leurs SSD en carton.
Plus jamais pour moi…

semi- <img data-src=" />



C’est ce que pense une connaissance à moi et qui est hébergeur et qui en a acheté un certain nombre, il a eu des soucis avec cette marque, et si ça peut servir, aucun avec Samsung et Intel, en pro ou en modèle non-pro.



Akasa Newton et Galileo : deux boîtiers passifs, dont un pour le NUC d'Intel

Le 21/03/2013 à 19h 01






luxian a écrit :

Bon en gros, pas question de mettre son écran sur le PC tout plat car sinon on grille le PC et l’écran :(



35 W à dissiper sur la surface d’un boîtier de cette taille, ce n’est rien du tout.



BenQ GW2760HS : un moniteur MVA de 27

Le 21/03/2013 à 18h 57






Patch a écrit :

non c’est le marketing qui fait le marché.
les gens du marketing ont vendu le 169 comme un truc absolument génial… la masse a suivi.



Je crois que même sans marketing ça marche. Les fabricants ont commencé à faire du 16:9 pour imiter les télévisions, et comme les gens ne font pas gaffe (déjà, quand tu regardes les caractéristiques résumées d’un ordinateur portable, on ne te donne que la taille en pouces assez précise - ce dont je me fous un peu - au lieu de la résolution), ils achètent, et après c’est fichu.



Le 21/03/2013 à 16h 24

Patch a écrit :
« ils veulent juste économiser sur les dalles.
une 27” 169 a moins de surface qu’une 27” 1610, et du coup coûte moins cher… »






doom_Oo7 a écrit :

Ce qui est répercuté généralement sur le prix en magasin.



Ce n’est pas aussi simple, c’est souvent la demande (et donc l’économie d’échelle liée à la quantité produite) qui conditionne le prix. Si la demande était beaucoup plus forte pour du 16:10 que pour du 16:9, le 16:10 coûterait moins cher à produire. Il faudrait demander à un fabricant.

Pour contrer ce terme de Full HD (qui pour moi n’est pas full car il manque 120 pixels en hauteur), il faudrait parler de Full TV dans le cas du 16:9, et de Full PC (par exemple, à vous de jouer) pour le 16:10.

Dans un domaine proche, alors que la plupart des sites technophiles sont contre les écrans brillants, ça continue à bien se vendre (et à être au catalogue), sans doute parce que les gens prennent ce qui “claque”, du clinquant, au détriment de la fidélité des couleurs.



Le 21/03/2013 à 16h 14






cestchouette a écrit :

La perte est de 4,84%
http://lucbor.fr/page11.html



Merci pour la page qui est pas mal faite et qui donne les chiffres qui permettent de faire le calcul. Cela dit ton calcul est légèrement erroné, car en prenant les chiffres pour un écran de 24 pouces : 1670,75 / 1589,48 = 1,05113 soit 5,1 % (2 chiffres significatifs c’est déjà pas mal).

Et j’ai fait le calcul exact pour le plaisir (me suis amusé 5 bonnes minutes), le ratio exact (mathématique) de surface entre un écran 16:10 et un écran 16:9 de même diagonale est le produit des 2 fractions suivantes : (9² + 16²) / (10² + 16²) et 10 / 9 ce qui donne 1,05181 soit toujours 5,1 % .

Personnellement, si la différence de coût de production est réellement de 5% (ce que je ne pense pas car c’est plus lié à la résolution il me semble, vu les prix selon les différentes tailles, sans parler du niveau de la demande), je ne suis pas à 5% près sur le prix d’un écran que je vais garder des années et avec un meilleur confort de lecture et de travail (avec les 120 px en plus pour un 1920 de large).



Patch a écrit :

qu’il y aie moins de surface? simple :
d’un côté tu as 1610 : surface 16*10 = 160
de l’autre tu as 169 : surface 16*9 = 144, soit 10% de moins que sur une dalle 1610 de même largeur (un peu moins à diagonale égale vu que la largeur est moins grande avec une surface plus importante).



Perdu, on parle à diagonale égale, puisque c’est la méthode usuelle de distinguer les tailles d’écran.



Le 20/03/2013 à 23h 28






Patch a écrit :

ils veulent juste économiser sur les dalles.
une 27” 169 a moins de surface qu’une 27” 1610, et du coup coûte moins cher…



Ça reste à prouver. Surtout que si tu gardes une vraie diagonale de 27 pouces, la différence de surface doit être bien faible, la version 16:10 étant moins large et plus haute (faudrait que je fasse le calcul).
En plus, le terme de 27 pouces ne garantit pas l’exactitude au mm de cette taille, comme c’était déjà le cas avec les tubes cathodiques, on peut donc jouer dessus.
Et enfin, pourquoi pas pousser le 21:9 aussi, sous ce prétexte…



Le 20/03/2013 à 23h 23






Bourrique a écrit :

Et puis encore et toujours du 169 <img data-src=" />

Je veux bien que j’ai les yeux placé horizontalement, et donc une vision plus large que haute, mais c’est à croire que les fabricant veulent absolument qu’on regarde nos films de vacances sur leurs écrans.

Du 1610 ne serait pas du luxe non plus, les pixels gagnés en hauteur j’en ai l’utilité.



Gros +1 !

C’est scandaleux et débile ces écrans d’ordinateur en 16:9, encore plus en 27 pouces. Dire qu’on avait déjà 1600x1200 vers 2006 sur des 20 ou 22 pouces (et là, 1080 en hauteur seulement).



Canon EOS 100D : un reflex petit mais costaud à 799 €

Le 21/03/2013 à 16h 36

Même si c’est sur un capteur de taille correcte, c’est dommage d’être monté à de telles résolutions pour des appareils d’entrée de gamme, surtout qu’il faut de sacrés objectifs pour profiter de 18 MP. Ces résolutions élevées ne servent qu’à encombrer les cartes mémoires, les disques durs (quand on en a des milliers), et rendre plus lents toutes les opérations (stockage par l’appareil, rafale, transfert vers l’ordinateur, etc.). En restant à 8-12 MP on garde une bonne capacité de recadrage et d’agrandissement, et on gagne en sensibilité ce qui n’est pas toujours anodin.

Pour ma part, je ne vois pas l’intérêt du WiFi. Comme l’a dit un commentateur, pour une photo à transmettre tout de suite, un bon smartphone peut faire l’affaire, sinon c’est 20 secondes de plus pour extraire la carte mémoire et la coller sur l’ordinateur (et de toutes façons je ne transmets presque jamais de photo en résolution native, à quoi ça servirait).


[Recap'] Le Galaxy S4 comparé aux autres smartphones Android du moment

Le 20/03/2013 à 11h 49






Aces a écrit :

Essai de faire une photo avec un Xperia S (12 Mpx) et compare avec un APN de 12 Mpx, tu risques d’être très surpris par le résultat.



Je ne sais pas à quel type d’appareil photo tu te réfères, mais pour les photos en intérieur, on distingue très bien une photo de mobile d’un reflex, et dans une moindre mesure, d’un compact. Même pour les photos en extérieur, dès que tu peux voir la photo sur un “vrai” écran (genre 1920x1200 comme le mien), ça se voit aussi, pour les couleurs et la dynamique, le rendu en général.

Et je n’ai même pas parlé de la stupidité d’avoir des photos de plus de quelques MP sur un mobile, vu l’usage qui en est fait. Ça sert juste à encombrer les cartes mémoires, les disques, et augmenter les temps de transfert et de traitement.



Le 19/03/2013 à 17h 42

13 MP sur un capteur de mobile, c’est vraiment n’importe quoi <img data-src=" /> . Quand on voit déjà la mauvaise qualité des photos de mobile, dès que ce n’est pas en plein jour… Pour ceux qui ont un compte FB ils me comprendront en voyant les clichés d’intérieur plus ou moins dégueu qu’une partie des gens met en ligne :-( <img data-src=" /> . On pourrait déjà gagner en rapport signal/bruit avec des capteurs déjà bien suffisants à 4-5 MP.

Quand on lit “Understanding Camera Optics & Smartphone Camera Trends, A Presentation by Brian Klug”http://www.anandtech.com/show/6777/understanding-camera-optics-smartphone-camera… on voit (page 3) qu’au-delà de 5 MPixels, les pixels individuels sont non seulement minuscules (moins de 2 longueurs d’onde) et de plus bien plus nombreux que la résolution effective de l’image qui arrive sur le capteur avec la diffraction et la qualité des optiques.
cf « If we look at the airy disk diameter formed from a perfect diffraction limited HTC One X or S camera system [..], we get a spot size around 3.0 microns. [..] obviously 1.1 microns [ pixels] is just oversampling. »


Apple éprouve le besoin de vanter les avantages de son iPhone 5

Le 18/03/2013 à 15h 01

Il est exact que dépasser 300 ppp sur un écran, ça ne sert à rien, de toutes façons on ne distingue plus les pixels.

@Vincent_Hermann : Sur la question des couleurs, j’ai remarqué tout de suite la moins bonne qualité de mon Galaxy S2 par rapport au Galaxy S, et ça a été confirmé par une étude précise, le gamma est trop élevé (+ particulièrement dans les nuances sombres), ce qui donne des couleurs dures. J’ai failli le rendre tellement j’ai trouvé ça étonnant et décevant.

Cf ces 2 études bien faites et complètes :
“Smartphone Display Technology Shoot-Out : iPhone 5 - Galaxy S III - iPhone 4”http://www.displaymate.com/Smartphone_ShootOut_2.htm
ainsi que celle qui compare les 3 Galaxy S, en lien au début de la page.
On voit que l’iPhone 5 a un excellent écran bien calibré.


XL2720T de BenQ : un moniteur de 27

Le 14/03/2013 à 18h 05






Poppu78 a écrit :

100% D’accord. Mais tu penses bien que les fabricants, ça les arrange de faire une dalle plus petite au même prix. C’est pas pour rien qu’on note le ratio (16:9) plutôt que le produit (16x9) : 16x10&gt;16x9 (donc on voit bien la relation en terme de pixels) alors que 16:9&gt;16:10 (donc le client non averti se dit “chouette c’est mieux”.



A diagonale constante, je ne suis pas sûr qu’il y ait une différence de prix réelle entre le 16:10 et le 16:9, et surtout, à ce rythme-là pourquoi pas du 25:9 ou du 32:9…
Heureusement il existe toujours des écrans 16:10 et les clients devraient faire attention. Mais on dirait que non :-( .

Pour le ratio ta théorie ne marche pas, le produit n’a pas de sens car pour la surface on a la diagonale d’écran, c’est bien le ratio (= la proportion) qui est une donnée importante (surtout par rapport à 4:3 ou 5:4 au début).



Le 14/03/2013 à 16h 49






sooN a écrit :

Sur un 27” il me semble pas que la résolution1920x1080 soit considérée comme du full HD.



Surtout c’est une grosse connerie du 16:9 (au lieu de 16:10 1920x1200) sur un écran d’ordinateur et encore plus sur cette taille <img data-src=" /> .



Samsung  S27B971D : un écran PLS de 27

Le 14/03/2013 à 13h 38

Non mais allo quoi, 2560 en 16:9 ! C’est pour un ordinateur, pas une télévision, allo… <img data-src=" />


Intel publie Android 4.2.2 pour x86, compatible avec un dual boot Windows 8

Le 13/03/2013 à 18h 56






John Shaft a écrit :

Le CLUF d’un Windows, c’est 10 Go une fois décompressé <img data-src=" />



<img data-src=" />



John Shaft a écrit :

et les DLL (sur les 24 Go de mon répertoire Windows, 10 pour WinSXS)



10 Go de DLL, mais elles offrent quels services ces DLL ? C’est énorme.
Qu’est-ce que WinSXS ?



Le 13/03/2013 à 18h 04






David_L a écrit :

Depuis maintenant près de trois ans, Intel travaille sur le code d’Android afin de l’adapter à ses puces x86



Je trouve cette phrase étrange, parce que Linux tourne depuis le début sur du x86, c’est la première architecture utilisée. Alors comment peut-on parler d’adapter Android (qui est du Linux) sur du x86 ?
A mon sens, Android a plutôt été adapté pour les puces ARM des premiers Google Phones (sachant que Linux tournait déjà sur certaines variantes).



skyr-angel a écrit :

Mouaif, mon Seven une fois bien réglé ne bouffe que genre 15/16GO.



C’est déjà énorme pour un OS de base, que peuvent-ils mettre là-dedans ? En plus, une installation moderne d’un bureau Linux tient en 4 Go (ce qui est déjà pas mal) et comporte en plus tout un tas d’applications, dont OpenOffice, GIMP, et j’en passe.



Buffalo dévoile une clé Wi-Fi 802.11ac annoncée à 866 Mb/s... en USB 2.0

Le 13/03/2013 à 18h 52






Tourner.lapache a écrit :

On pourrait dire la même chose de l’usb 2.0, je suis plus souvent à 1520 Mo/s qu’à 30.



C’est parce que tes clés USB ne sont pas assez rapides. Le protocole USB (ainsi que les contrôleurs) fait qu’on ne peut pas dépasser environ 35 Mo/s en lecture et 30 Mo/s en écriture. La charge utile est encapsulée dans des paquets, et il y a un nombre max de paquets envoyables par “slot” temporel.

Un extrait d’un PDF :


Second, USB is a packetized protocol where longer blocks of data are divided
into 512-byte packets. (..) Start of Frame (SOF) packets
are sent every 125 uSec (microframe) to maintain timing on the bus. The net
effect of this is that the theoretical maximum bandwidth of USB is 13 bulk
packets per microframe, or 53,248,000 bytes/second. Even this limit is not
achievable with current host controllers, which can receive 10 bulk
packets/microframe or send 8 bulk packets/microframe.


Avec ma meilleure clé j’arrive à environ 35 Mo/s en lecture et 30 Mo/s en écriture.



BeQuiet! Pure Power L8 : des alimentations qui évoluent en douceur

Le 13/03/2013 à 17h 55






Tourner.lapache a écrit :

C’est pas mal oui. Monté avec une carte mère mini itx passive et un ssd on n’entend pas l’ordinateur s’allumer : c’est assez étrange. Après en mettant la main devant l’alim on sent quand même le flux d’air et à moins de vraiment tendre l’oreille (genre à - de 50 cm de l’alim) on n’entend rien.
Après, dans mon cas la config doit taper dans les 40 W à tout casser en full alors que l’alim fait 300 W ;)



Merci pour ce retour.

Pourquoi mettre une alimentation ATX avec une carte Mini-ITX ? L’idée me semble étrange, car pour ma configuration du même type j’ai un bloc 12 V externe et un truc du genre pico-PSU.



OVH annonce la clôture d'un tour de financement de 140 millions d’euros

Le 13/03/2013 à 17h 50






Eagle1 a écrit :

peut on encore qualifier OVH de startup ?



Bonne remarque, en effet ça n’a aucun sens.



Plextor dévoile un SSD au format M.2 (NGFF) capable d'atteindre 700 Mo/s

Le 13/03/2013 à 17h 27






unCaillou a écrit :

La mémoire TLC a une faible durée de vie, parait-il (environ 1000 cycles), y a eu des améliorations de ce côté ou il faut toujours privilégier la MLC ?



La MLC et la TLC ont des durées de vie assez proches en fait (surtout comparé à la SLC). Les fabricants de toutes façons calculent la durée de vie totale du disque en fonction du volume d’écriture et de la redondance choisie. Je crois qu’on a fait des progrès dans les contrôleurs Flash pour mieux tenir compte de la dérive des cellules en MLC et TLC.



Google signe un accord avec la MPEG-LA pour juguler le conflit sur le VP8

Le 11/03/2013 à 15h 15

Le brevets logiciels ont beau n’être valides qu’aux États-Unis (et au Japon), ils emm*rdent tout le monde car (pour simplifier) les logiciels proviennent de là, la plupart des sociétés y ont leur siège, et surtout c’est la 1e base de clients au départ.
Dommage qu’aucune entité hors des E-U ne soit capable de lancer un format vidéo (en se contrefichant des brevets US), en étant prête à s’aliéner le marché américain.






cosmocat a écrit :

Le WebM est un format video avec un conteneur éponyme, tiré du conteneur matroska et dont le flux vidéo est encodé avec le codec VP8 et le codec audio vorbis.



NB: Codé s’il te plaît (codec = codeur/décodeur), ou plutôt compressé ou converti, ce qui a plus de sens (il ne s’agit pas d’un codage car il y a des pertes).



Vous êtes plutôt disque dur ou SSD ?

Le 08/03/2013 à 18h 09






blamort a écrit :

Sinon je vois dans les commentaires quil ne faut pas depasser les 50% d’utilisation sur les SSD, serieux ? pourquoi =



D’après des tests menés par AnandTech il y a 3 mois, si on veut garder un temps de réponse constant (qui est très bas sur un SSD normalement, bien inférieur à la ms), il ne faut pas dépasser 75% de remplissage pour la plupart des SSD testés. Le temps de réponse reste constant car le système de répartition des écritures peut fonctionner sans latence importante grâce à toute la place libre. Quand le disque est rempli à 90% par exemple, certaines écritures peuvent prendre beaucoup plus de temps (quelques ms ou plus) à cause de l’algorithme de garbage collection qui a plus de boulot.

cf “Exploring the Relationship Between Spare Area and Performance Consistency in Modern SSDs”http://www.anandtech.com/show/6489/playing-with-op où on voit que le nombre d’IOPS peut passer de 80 000 à moins de 10 000.

Sinon si tu n’as pas besoin de ça (ce qui doit être le cas de 95% d’entre nous qui ne gérons pas de système critique), tu peux remplir normalement ton SSD, tu ne verras aucune différence, tout en sachant qu’un filesystem reste plus performant quand on ne dépasse pas environ 90% de remplissage.



Le 08/03/2013 à 15h 45

Comme pas mal de commentateurs ici, j’ai un SDD pour le système (Linux) et un HDD pour les photos et tout ce qui est volumineux et qui n’a pas besoin de toutes façons de la rapidité d’accès d’un SSD.

Étant donné le prix d’un SSD de 32 ou 64 G, il faut vraiment être fauché pour ne pas en prendre un. En fait, 32 G me suffisent largement car j’ai 3 partitions Linux de 4-5 Go dessus + une partition pour faire des tests quelconques (base de données, autre). Pour mes 3 partitions Linux, j’ai toujours :




  • celle en utilisation courante

  • celle que j’utilisais précédemment, que je garde pendant un bout de temps le temps de la transition complète, et sur laquelle j’installe ensuite la prochaine version (je change moins d’une fois par an)

  • et une 3e pour le test d’une distribution quelconque.



    Il me semble qu’un Windows gagne encore plus qu’un Linux à avoir un SSD vu qu’il est moins optimisé et qu’il aime accéder à plein de trucs partout (sans parler des anti-virus et autres services en vrac qu’on trouve sur un Windows).


Lian Li PC-TU100 et PC-Q30 : deux boîtiers au format Mini ITX très compacts

Le 08/03/2013 à 11h 43






batoche a écrit :

Ou au moins avec un format d’alim moins gros qu’ATX … J’avoue ne pas comprendre que ces boitiers ne prévoient pas d’autre format d’alim que du gros ATX 12128cm, genre SFX.

Après les pico-psu utilisent un chargeur 12V externe qui ont souvent un rendement ainsi qu’une durée de vie assez bofbof.



+1 pour ton premier paragraphe.

Par contre pour le 2e, les tests que j’ai vu (il y a quelques années je dirais) sur un ou deux sites montrent qu’on atteint un très bon rendement avec une brique externe correcte et un pico-PSU. Cf par exemplehttp://www.silentpcreview.com/article601-page1.html et les pages suivantes.



Kim Dotcom pourra poursuivre la Nouvelle-Zélande pour écoutes illégales

Le 07/03/2013 à 09h 41






AlphaBeta a écrit :

Comment un systeme judiciere mal organisé permet aux pires escrocs et voleurs mafieux comme ce type de prosperer.



Ce qui permet à Kim Dotcom d’attaquer le gouvernement ça s’appelle l’état de droit, c’est fait pour protéger les citoyens de l’arbitraire de l’état. Quand les services de l’état commentent des erreurs, il y a des recours, et c’est bien.



Le 07/03/2013 à 09h 38

Petite correction :

le fondateur de MegaUpload s’est vu octroyé

-&gt; s’est vu octroyer
(moyen mnémotechnique, utiliser un verbe en “ir” : “s’est vu devenir”)


Oracle corrige en urgence une faille critique de plus dans Java

Le 06/03/2013 à 19h 39






Laskov a écrit :

Le probléme est que je ne puis m’en passer il est utilisé par de nombreux programme que je me sert chez moi dont surtout PS3 Media Server.

Je suis donc obligé de vivre avec lui…
Je me demande d’ailleurs quand le créateur de PS3MS utilisera autre chose



Si c’est un usage local et non en applet Java, où est le problème ?



Le 05/03/2013 à 11h 27






NeVeS a écrit :

Il y a encore un nombre inquiétant de personnes qui ont Java installé sans même le savoir (passe encore) et donc surtout le plugin Java en même temps (et là c’est grave). Ces personnes, qui ne se servent jamais de Java, ne vont pas le désactiver puisqu’elles ne savent même pas qu’elles l’ont. Heureusement que les navigateurs désactivement maintenant les versions trop vieilles du plugin Java.



En effet pour la désactivation.
Cela dit, il faut quand même 2 conditions : accéder à un site qui comporte une applet Java, et que cette applet soit vérolée. Ça ne doit pas toucher grand monde, non ?



NeVeS a écrit :

Oui. L’exploit est moins “stable” qu’avec les failles habituelles Java puisqu’il s’agit cette fois d’une corruption mémoire et non pas d’une faille de logique atteignable en “pur” Java.



De là à exploiter un Linux il y a une marge, il faut que le “shell code” soit adapté à l’OS.



Le 05/03/2013 à 11h 23






Inny a écrit :

Erreur, vu que le navigateur peut faire directement appel à java, alors si on n’en a pas l’usage, autant ne pas l’installer.



Il peut faire directement appel à Java lors de quelle activité ou opération ?



Le 05/03/2013 à 10h 11


On rappellera cependant (encore une fois) que les utilisateurs qui ne se servent jamais de Java ont tout intérêt à le désinstaller. Ceux qui en ont encore besoin, pour des questions de développement logiciel, ou plus simplement pour jouer à Minecraft, peuvent tout de même désactiver le plug-in dans le navigateur.


Les utilisateurs qui ne se servent jamais de Java ne risquent rien, donc pas la peine de désinstaller :) . De toutes façons les failles touchent l’aspect applet Java, qui sont rarement utilisées il me semble (et qu’on peut désactiver comme écrit).

Un point n’est pas clair pour moi, ça touche autre chose que les plateformes Windows cette faille ?


Nikon Coolpix A : un APN compact avec un capteur de 16 Mpixels d'un reflex

Le 05/03/2013 à 13h 55

Drôle d’idée de faire un compact à ce prix-là, même si la qualité d’image devrait être proche d’un reflex de prix équivalent.

Pour moi, un compact devrait se limiter à une résolution raisonnable pour un usage tous publics, soit 6 à 8 MP (c’est déjà plus qu’il n’en faut pour 90% des gens), et un flash intégré correct, ça permettrait d’avoir de belles couleurs et en particulier pour les photos d’intérieur en luminosité moyenne/faible, là où les compacts sont souvent pas terribles (rendu des couleurs et des peaux). De plus, utiliser la résolution native de 16 MP alourdit tout, les temps de transferts et le stockage, le temps d’affichage aussi.


XP13 Developper Edition : l'Ultrabook Ubuntu de Dell est à 999 € HT en France

Le 05/03/2013 à 13h 34






Quiproquo a écrit :

C’est une bonne initiative, il ne manque plus qu’un pas pour avoir une option Ubuntu à -104€ sur les autres modèles. <img data-src=" />



+1 !

Je n’ai vraiment pas envie de payer pour une licence Microsoft alors que le premier truc que je vais faire c’est d’installer Linux (sur un autre que ce modèle-ci, bien sûr).

Dommage encore une fois d’avoir un écran 16:9 <img data-src=" /> .
Dommage qu’on ne trouve quasiment pas de portable avec écran de taille intermédiaire entre 1366 x 768 et Full HD (1920 x 1nnn), comme par exemple l’ancien Dell D610 avec écran 4:3 1400x1050 (14.1” SXGA+ d’après les specs) c’était super pour travailler et pour tout ce qu’on veut (photos aussi).



Vote électronique: une députée inquiète d'entraves à un égal accès au scrutin

Le 05/03/2013 à 11h 22






Khalev a écrit :

Et non, ça ne fonctionnait pas si tu étais en 1.7, il fallait réinstaller la version précédente.

La magie de la rétrocompatibilité…



Une idée de la raison technique précise ? C’est bizarre quand même.



Le 05/03/2013 à 10h 02


Tout d’abord, elle explique que le système de vote électronique fonctionne grâce à la version 1.6 de Java. Or la plupart des ordinateurs sont selon elle actuellement équipés d’une version plus récente, la 1.7


Et en quoi est-ce un problème ? Un programme compilé avec le JDK 1.6 ne marche plus en 1.7 ? <img data-src=" />


IIyama XB2776QS : un écran IPS de 27

Le 04/03/2013 à 09h 55






sr17 a écrit :

Le vrai scandale, c’est que des millions de gens travaillent tous les jours avec ces écrans dont le rapport de taille est fait à la base pour regarder des films et n’est pas du tout idéal pour le travail.

C’est la ou l’on voit que la capacité de normalisation des états n’existe plus, les industriels font absolument ce qu’ils veulent et surtout tout et n’importe quoi.



Un énorme +1 sur ton premier paragraphe :-) .

Cela dit, je me demande pourquoi les industriels proposent du 16:9 pour les écrans d’ordinateur, il ne s’agit pas des mêmes tailles que les téléviseurs. Déjà, qu’on soit passé au 16:9 je ne comprends pas bien. En 2006 j’avais un portable Dell D610 dont l’écran était excellent avec sa résolution de 1400x1050. Aujourd’hui pour avoir aussi bien faut “taper” dans portable avec écran dit “Full HD” 16:9 qui offre 1080 de haut.



Le 02/03/2013 à 01h 47






deepinpact a écrit :

Ah enfin, ça commence à baisser, 519 euros c’est juste encore un peu trop cher par rapport aux prix de certains moniteurs 27 pouces en 1920x1080… Mais tout doucement on y arrive…! <img data-src=" />





dump a écrit :

Si le 2560 x 1440 devient la nouvelle norme, j’espère que tous les fabriquant s’y mettent au plus vite afin de voir les prix fondre comme neige au soleil.



Du 16:9 avec 2560 pixels de large, n’importe quoi <img data-src=" /> <img data-src=" /> <img data-src=" />
J’espère que personne ne va acheter ça, quelle arnaque.

S’il y a un standard, ça devrait au moins être du 16:10 soit 2560 x 1600, on n’en a rien à faire d’une proportion type télévision sur un ordinateur !