votre avatar Abonné

OlivierJ

est avec nous depuis le 13 octobre 2010 ❤️

13775 commentaires

Le 02/04/2013 à 12h 53







Blood_Man a écrit :



Non ce que je voulais dire c’est qu’on trouve facilement des 27” 16:9 moins cher que des 24” 16:10.







Oui oui, j’avais bien compris. Ce n’est donc pas la différence de taille de (seulement) 5% qui fait que la plupart des 24 pouces 16:10 sont plus chers que les 16:9 (argument qu’on m’a avancé), puisqu’on a des 27 pouces moins chers que des 24 pouces alors que la surface est beaucoup plus grande. Merci de confirmer ce que je pensais. La différence de prix entre 24 pouces 16:9 et 16:10 est essentiellement liée à l’offre beaucoup plus grande des premiers et à la qualité probablement supérieure des seconds (la plupart du temps).


Le 02/04/2013 à 12h 05







Blood_Man a écrit :



Sauf que certains vont préférer un 27” un peu plus grand pour 100€ de moins. Le grand public ne s’occupe pas vraiment tu temps de réponse, et la qualité des couleurs paraît toujours plus ou moins bien avec de jolies images et pour quelqu’un qui n’y fait pas attention.







On trouve des 27 pouces à moins de 200 E ? Hé ben… Ça contredit ceux qui pensent qu’un 16:10 est plus cher qu’un 16:9 du fait des 5 % de surface en plus (à diagonale strictement identique).

Je pense comme toi sur la justesse des couleurs, la plupart s’en moque.







Blood_Man a écrit :



En ce qui me concerne, j’aime autant un 19201080 qu’un 16001200, ça permet d’avoir 2 pages côte à côte. Il faudra un peu plus scroller en verticale qu’en horizontale, mais c’est moins gênant (pas besoin de le faire à chaque lecture de ligne).







Tant qu’à faire, autant prendre un 1920x1200, ou mieux, un 2048x1536 (tant qu’à prendre un 4:3, mais je ne sais pas si on en trouve encore) :) . Je fais comme toi sur mon 24 pouces 16:10, il m’arrive d’afficher 2 pages côte à côte. Je n’ai jamais besoin de défiler horizontalement, pour moi comme pour d’autres les écrans sont trop larges et pas assez hauts. Quand tu fais de la photo c’est encore pire, c’est beaucoup plus large que nécessaire pour les paysages, et beaucoup trop petit en hauteur pour les portraits.


Le 02/04/2013 à 09h 31







Blood_Man a écrit :



Etant donné que c’est moins cher, ce n’est du coup pas une arnaque. Et comme tout produit, ça ne peut pas plaire à tout le monde.







Si c’est moins cher, c’est parce que c’est produit actuellement en beaucoup plus grande quantité. Cela dit quand je vois qu’on trouve actuellement un bon 24 pouces 16:10 à moins de 300 E, c’est vraiment pas cher. Le mot arnaque que j’ai employé est un peu fort, mais on ne devrait même pas avoir des écran 16:10 en informatique, le 4:3 est beaucoup mieux pour travailler.


Le 28/03/2013 à 12h 26







DorianMonnier a écrit :



16:10 ! <img data-src=" />



Avec une colorimétrie correcte, je pourrais craquer pour ce genre de modèles, pour un peu de retouche photo amateur, ça m’irait très bien.







Je plussoie vigoureusement :) . 16:10 <img data-src=" />



Mon écran 24 pouces 16:10 au faible deltaE de base (un Belinea) est encore bon mais je note cette référence pour plus tard, si jamais.



Boycottez le 16:9, c’est une arnaque.


Le 28/03/2013 à 12h 49

Sérieusement, on ne devrait pas faire de publicité (ici, le simple fait d’en parler) aux moniteurs en 16:9. Si ça continue, un jour on ne trouvera plus de 16:10, on se sera bien fait avoir.

Le 28/03/2013 à 12h 44







Groumfy a écrit :



Les Japonais disent merci à la filière Mox française.



Et pendant ce temps, la France persiste dans son obstination nucléaire. Et on continue d’engloutir de l’argent dans l’EPR qui a des problèmes de fondations…







Quand le pétrole, le gaz, et le charbon auront doublé ou triplé de prix (ça arrivera de notre vivant et bien avant notre retraite je le crains), on sera content d’avoir du nucléaire abordable pour nous alimenter en électricité.



Cf sur l’excellent site de Jean-Marc Jancovici, un expert en énergie : “Sortir du nucléaire après Fukushima, bien sûr, mais peut-on avoir une idée de ce que cela signifie ?”http://www.manicore.com/documentation/petrole/Charbon_nucleaire.html


Le 28/03/2013 à 12h 08







daroou a écrit :



Les google cars étaient auto pilotées ou ils ont envoyé un pauv’ type au casse pipe ?







Après les deux commentaires pertinents ci-dessus, j’ajoute que parler de “radio-activité” ce n’est pas très précis, les ordres de grandeurs pouvant être très différents (par exemple en Bretagne du fait du radon certaines zones sont naturellement plus radioactives que le reste du pays), cf ce graphique assez bien fait :http://xkcd.com/radiation/ .


Le 28/03/2013 à 12h 32







methos1435 a écrit :



Qu’est ce qu’il ya de gênant dans le terme encodage ? (vraie question, pas taper)

Parce qu’il apparait dans le dictionnaire français et se définit comme

“Transcription de données d’un format dans un autre” (Larousse) Il me parait bin adpaté moi au contraire.







Il a été intégré au dictionnaire (il faut dire que chez les geeks l’influence de l’anglais est forte, on a droit à pas mal d’anglicismes et de franglais, et surtout la maîtrise fine de la langue c’est pas toujours leur truc), mais le terme correct que j’ai eu pendant mes études c’est bien codage : codage préfixe, codage de Huffman, codage arithmétique, codeur/décodeur (codec), message codé, fax codé, etc… Jamais de “en” devant.


Le 28/03/2013 à 12h 13







Schumi a écrit :



+1000 entre un encodage CPU et GPU. Fait plusieurs essais avec DVDFAB et même avec un encodage 2 passes avec CUDA, sur une FullHD de plus de 40 pouces ça pique les yeux <img data-src=" />







C’est vrai ; j’ajoute que lire 2 fois “encodage” à la suite, ça pique les yeux aussi ;) .







methos1435 a écrit :



Mouais… On parle bien de résolution plus que de définition et ça choque personne…. Ya quand même pire comme erreur.







Je ne parlais pas que d’erreur ou d’imprécision comme celle que tu relèves, je parle aussi du fait que c’est un anglicisme bien moche, comme “encrypter” (-&gt; “chiffrer”).


Le 28/03/2013 à 11h 56

Ça serait bien de remplacer ce vilain “encodage”, inadapté en plus vu qu’il ne s’agit pas d’un codage au sens strict, par conversion ou compression, voire transcodage. Après tout, on ne parle pas du transcodage d’une image TIFF en image PNG.

Le 27/03/2013 à 13h 11

Je ne crois pas que PC INpact en a parlé, super nouvelle pour ceux qui recherchent ce genre de machine, on trouve à nouveau un netbook Asus sous Linux :

“Asus X201E-KX042DU, 11.6 pouces 1366x768 sous Linux (Ubuntu) : Core i3 Ivy Bridge, 500 Go, HDMI, USB 3.0, 1.3 kg à 400 E”

http://www.laptopspirit.fr/127355/asus-x201e-kx042du-116-sous-linux-ubuntu …



Je ne l’avais pas trouvé car c’est à présent classé dans les ultra-portables et pas dans la catégorie netbook ; l’autonomie s’en ressent car elle passe d’environ 8 h à 5 h. Le dernier netbook intéressant sous Linux était le Asus Eee PC 1225C-GRY004U (280 E, caractéristiques proches sauf Atom N2600 et du coup super autonomie de 8 h), mais la commercialisation a cessé courant février.





  • Dalle 11.6 p LED BackLight (1366×768, brillant)

  • Processeur Intel Core i3-3217U (1.8 GHz, TDP 17W)

  • RAM 4 Go (normalement soudés) DDR3 1600 MHz

  • Espace de stockage 500 Go à 5400 tr/min

  • Carte graphique Intel HD 4000 intégrée au processeur

  • Réseau Wi-Fi b/g/n + Ethernet Fast

  • Bluetooth : non

  • Lecteur de cartes SD/SDHC/SDXC/MS/MS PRO/MS DUo

  • Sortie(s) vidéo HDMI, GA

  • USB : 2 USB 2.0 + 1 USB 3.0

  • Système d’exploitation Ubuntu (distribution Linux)

  • Batterie Li-Polymère 2 cellules 5136mAh 38Whr

  • Autonomie annoncée 5 heures

  • Dimensions (mm) 303 x 200 x 21.2

  • Poids 1.25 Kg (sans batterie), 1.4 Kg (avec batterie)

Le 27/03/2013 à 12h 55

C’est un drôle d’idée de breveter un protocole, même si ce n’est possible qu’aux États-Unis. Ça n’empêchera pas des versions libres d’apparaître, si le protocole est intéressant.









megatom a écrit :



Peut être pour éviter que d’autres sociétés viennent déposer ce type brevet et faire entrave à la diffusion de la technlogie…







Un protocole déjà publié ne peut pas être breveté par quelqu’un d’autre (notion de “prior art” en anglais).


Le 25/03/2013 à 18h 44







Stannn a écrit :



et dans le même temps, DT va distribué 2.94 Milliards d’euros aux actionnaires pour l’année fiscal 2012…. c’est vraiment dur d’être opérateur.







Je ne sais pas si c’est beaucoup par rapport au prix de l’action, et quel a été le dividende les années précédentes, mais c’est normal de distribuer des dividendes, c’est le principe des actions.


Le 25/03/2013 à 10h 16







DorianMonnier a écrit :



Du bruit “insupportable” dès 400 ISO ? <img data-src=" />

Comparé à un 600-650D qui gère le bruit correctement jusqu’à 1600 ISO, c’est en effet limite…

Impossible d’exposer correctement un sujet (mobile) en basse luminosité ? <img data-src=" />











raoudoudou a écrit :



Je suis difficile <img data-src=" />

exemple:http://www.urban-exploration.com/images/grue/tour/grue_tour_axa_02.jpg

(les bandes dans le ciel, c’est flagrant)







C’est étonnant, sur mon 350D à 400 ISO c’est nickel, à 800 ISO très peu de bruit, en fait la sensibilité où le bruit commence à se voir (en regardant en pleine définition), c’est 1600 ISO. J’ai fait par exemple une photo de St Sulpice de nuit à main levé et c’est étonnamment bon (à l’époque ça m’a bluffé, maintenant on a la même qualité à 3200 ISO je crois).


Le 21/03/2013 à 16h 54







raoudoudou a écrit :



Y a une telle progression de performances sur l’entrée de gamme qu’acheter un 5D d’occasion (même pas le mark II je suppose?) est la dernière des choses à faire. Sans compter qu’il faut changer d’objo pour les grand-angles…



J’ai un 400D et un 600D, le gap technologique, la gestion du bruit, pfiou! Énorme.







La différence de prix entre en 650D et un 5D n’est pas juste là pour faire payer un consommateur exigeant, c’est justifié par plusieurs perfectionnements, dont la solidité ou tropicalisation, la prise en main, le plus grand nombre de boutons/fonctions accessibles directement (plus de place sur le boîtier généralement), et la qualité du viseur (c’est très cher de faire un bon viseur lumineux et qui fait 100 % du champ). Je suis passé d’un argentique Minolta X-700 qui avait un excellent viseur pour son prix, à un Canon 350D et j’ai bien vu la différence (luminosité, taille perçue de l’image pour les détails, facilité à vérifier la mise au point).



Pour le 400D et le 600D, est-ce que tu as pu comparer la gestion du bruit sur 2 images pixel pour pixel (la résolution n’est pas identique certes) ? Il y a aussi un équilibre entre le lissage (qui permet de présenter moins de bruit) et le respect des détails (qui laisse plus de bruit).

J’avais choisi le 350D à l’époque où le 400D était disponible car le 350D montait mieux en sensibilité (capteur de “seulement” 8 MP l’expliquant sans doute).


Le 21/03/2013 à 19h 13







maestro321 a écrit :



OCZ et leurs SSD en carton.

Plus jamais pour moi…



semi- <img data-src=" />







C’est ce que pense une connaissance à moi et qui est hébergeur et qui en a acheté un certain nombre, il a eu des soucis avec cette marque, et si ça peut servir, aucun avec Samsung et Intel, en pro ou en modèle non-pro.


Le 21/03/2013 à 19h 01







luxian a écrit :



Bon en gros, pas question de mettre son écran sur le PC tout plat car sinon on grille le PC et l’écran :(







35 W à dissiper sur la surface d’un boîtier de cette taille, ce n’est rien du tout.


Le 21/03/2013 à 18h 57







Patch a écrit :



non c’est le marketing qui fait le marché.

les gens du marketing ont vendu le 169 comme un truc absolument génial… la masse a suivi.







Je crois que même sans marketing ça marche. Les fabricants ont commencé à faire du 16:9 pour imiter les télévisions, et comme les gens ne font pas gaffe (déjà, quand tu regardes les caractéristiques résumées d’un ordinateur portable, on ne te donne que la taille en pouces assez précise - ce dont je me fous un peu - au lieu de la résolution), ils achètent, et après c’est fichu.


Le 21/03/2013 à 16h 24

Patch a écrit :

« ils veulent juste économiser sur les dalles.

une 27” 169 a moins de surface qu’une 27” 1610, et du coup coûte moins cher… »









doom_Oo7 a écrit :



Ce qui est répercuté généralement sur le prix en magasin.







Ce n’est pas aussi simple, c’est souvent la demande (et donc l’économie d’échelle liée à la quantité produite) qui conditionne le prix. Si la demande était beaucoup plus forte pour du 16:10 que pour du 16:9, le 16:10 coûterait moins cher à produire. Il faudrait demander à un fabricant.



Pour contrer ce terme de Full HD (qui pour moi n’est pas full car il manque 120 pixels en hauteur), il faudrait parler de Full TV dans le cas du 16:9, et de Full PC (par exemple, à vous de jouer) pour le 16:10.



Dans un domaine proche, alors que la plupart des sites technophiles sont contre les écrans brillants, ça continue à bien se vendre (et à être au catalogue), sans doute parce que les gens prennent ce qui “claque”, du clinquant, au détriment de la fidélité des couleurs.


Le 21/03/2013 à 16h 14







cestchouette a écrit :



La perte est de 4,84%

http://lucbor.fr/page11.html







Merci pour la page qui est pas mal faite et qui donne les chiffres qui permettent de faire le calcul. Cela dit ton calcul est légèrement erroné, car en prenant les chiffres pour un écran de 24 pouces : 1670,75 / 1589,48 = 1,05113 soit 5,1 % (2 chiffres significatifs c’est déjà pas mal).



Et j’ai fait le calcul exact pour le plaisir (me suis amusé 5 bonnes minutes), le ratio exact (mathématique) de surface entre un écran 16:10 et un écran 16:9 de même diagonale est le produit des 2 fractions suivantes : (9² + 16²) / (10² + 16²) et 10 / 9 ce qui donne 1,05181 soit toujours 5,1 % .



Personnellement, si la différence de coût de production est réellement de 5% (ce que je ne pense pas car c’est plus lié à la résolution il me semble, vu les prix selon les différentes tailles, sans parler du niveau de la demande), je ne suis pas à 5% près sur le prix d’un écran que je vais garder des années et avec un meilleur confort de lecture et de travail (avec les 120 px en plus pour un 1920 de large).







Patch a écrit :



qu’il y aie moins de surface? simple :

d’un côté tu as 1610 : surface 16*10 = 160

de l’autre tu as 169 : surface 16*9 = 144, soit 10% de moins que sur une dalle 1610 de même largeur (un peu moins à diagonale égale vu que la largeur est moins grande avec une surface plus importante).







Perdu, on parle à diagonale égale, puisque c’est la méthode usuelle de distinguer les tailles d’écran.


Le 20/03/2013 à 23h 28







Patch a écrit :



ils veulent juste économiser sur les dalles.

une 27” 169 a moins de surface qu’une 27” 1610, et du coup coûte moins cher…







Ça reste à prouver. Surtout que si tu gardes une vraie diagonale de 27 pouces, la différence de surface doit être bien faible, la version 16:10 étant moins large et plus haute (faudrait que je fasse le calcul).

En plus, le terme de 27 pouces ne garantit pas l’exactitude au mm de cette taille, comme c’était déjà le cas avec les tubes cathodiques, on peut donc jouer dessus.

Et enfin, pourquoi pas pousser le 21:9 aussi, sous ce prétexte…


Le 20/03/2013 à 23h 23







Bourrique a écrit :



Et puis encore et toujours du 169 <img data-src=" />



Je veux bien que j’ai les yeux placé horizontalement, et donc une vision plus large que haute, mais c’est à croire que les fabricant veulent absolument qu’on regarde nos films de vacances sur leurs écrans.



Du 1610 ne serait pas du luxe non plus, les pixels gagnés en hauteur j’en ai l’utilité.







Gros +1 !



C’est scandaleux et débile ces écrans d’ordinateur en 16:9, encore plus en 27 pouces. Dire qu’on avait déjà 1600x1200 vers 2006 sur des 20 ou 22 pouces (et là, 1080 en hauteur seulement).


Le 21/03/2013 à 16h 36

Même si c’est sur un capteur de taille correcte, c’est dommage d’être monté à de telles résolutions pour des appareils d’entrée de gamme, surtout qu’il faut de sacrés objectifs pour profiter de 18 MP. Ces résolutions élevées ne servent qu’à encombrer les cartes mémoires, les disques durs (quand on en a des milliers), et rendre plus lents toutes les opérations (stockage par l’appareil, rafale, transfert vers l’ordinateur, etc.). En restant à 8-12 MP on garde une bonne capacité de recadrage et d’agrandissement, et on gagne en sensibilité ce qui n’est pas toujours anodin.



Pour ma part, je ne vois pas l’intérêt du WiFi. Comme l’a dit un commentateur, pour une photo à transmettre tout de suite, un bon smartphone peut faire l’affaire, sinon c’est 20 secondes de plus pour extraire la carte mémoire et la coller sur l’ordinateur (et de toutes façons je ne transmets presque jamais de photo en résolution native, à quoi ça servirait).

Le 20/03/2013 à 11h 49







Aces a écrit :



Essai de faire une photo avec un Xperia S (12 Mpx) et compare avec un APN de 12 Mpx, tu risques d’être très surpris par le résultat.







Je ne sais pas à quel type d’appareil photo tu te réfères, mais pour les photos en intérieur, on distingue très bien une photo de mobile d’un reflex, et dans une moindre mesure, d’un compact. Même pour les photos en extérieur, dès que tu peux voir la photo sur un “vrai” écran (genre 1920x1200 comme le mien), ça se voit aussi, pour les couleurs et la dynamique, le rendu en général.



Et je n’ai même pas parlé de la stupidité d’avoir des photos de plus de quelques MP sur un mobile, vu l’usage qui en est fait. Ça sert juste à encombrer les cartes mémoires, les disques, et augmenter les temps de transfert et de traitement.


Le 19/03/2013 à 17h 42

13 MP sur un capteur de mobile, c’est vraiment n’importe quoi <img data-src=" /> . Quand on voit déjà la mauvaise qualité des photos de mobile, dès que ce n’est pas en plein jour… Pour ceux qui ont un compte FB ils me comprendront en voyant les clichés d’intérieur plus ou moins dégueu qu’une partie des gens met en ligne :-( <img data-src=" /> . On pourrait déjà gagner en rapport signal/bruit avec des capteurs déjà bien suffisants à 4-5 MP.



Quand on lit “Understanding Camera Optics & Smartphone Camera Trends, A Presentation by Brian Klug”http://www.anandtech.com/show/6777/understanding-camera-optics-smartphone-camera… on voit (page 3) qu’au-delà de 5 MPixels, les pixels individuels sont non seulement minuscules (moins de 2 longueurs d’onde) et de plus bien plus nombreux que la résolution effective de l’image qui arrive sur le capteur avec la diffraction et la qualité des optiques.

cf « If we look at the airy disk diameter formed from a perfect diffraction limited HTC One X or S camera system [..], we get a spot size around 3.0 microns. [..] obviously 1.1 microns [ pixels] is just oversampling. »

Le 18/03/2013 à 15h 01

Il est exact que dépasser 300 ppp sur un écran, ça ne sert à rien, de toutes façons on ne distingue plus les pixels.



@Vincent_Hermann : Sur la question des couleurs, j’ai remarqué tout de suite la moins bonne qualité de mon Galaxy S2 par rapport au Galaxy S, et ça a été confirmé par une étude précise, le gamma est trop élevé (+ particulièrement dans les nuances sombres), ce qui donne des couleurs dures. J’ai failli le rendre tellement j’ai trouvé ça étonnant et décevant.



Cf ces 2 études bien faites et complètes :

“Smartphone Display Technology Shoot-Out : iPhone 5 - Galaxy S III - iPhone 4”http://www.displaymate.com/Smartphone_ShootOut_2.htm

ainsi que celle qui compare les 3 Galaxy S, en lien au début de la page.

On voit que l’iPhone 5 a un excellent écran bien calibré.

Le 14/03/2013 à 18h 05







Poppu78 a écrit :



100% D’accord. Mais tu penses bien que les fabricants, ça les arrange de faire une dalle plus petite au même prix. C’est pas pour rien qu’on note le ratio (16:9) plutôt que le produit (16x9) : 16x10&gt;16x9 (donc on voit bien la relation en terme de pixels) alors que 16:9&gt;16:10 (donc le client non averti se dit “chouette c’est mieux”.







A diagonale constante, je ne suis pas sûr qu’il y ait une différence de prix réelle entre le 16:10 et le 16:9, et surtout, à ce rythme-là pourquoi pas du 25:9 ou du 32:9…

Heureusement il existe toujours des écrans 16:10 et les clients devraient faire attention. Mais on dirait que non :-( .



Pour le ratio ta théorie ne marche pas, le produit n’a pas de sens car pour la surface on a la diagonale d’écran, c’est bien le ratio (= la proportion) qui est une donnée importante (surtout par rapport à 4:3 ou 5:4 au début).


Le 14/03/2013 à 16h 49







sooN a écrit :



Sur un 27” il me semble pas que la résolution1920x1080 soit considérée comme du full HD.







Surtout c’est une grosse connerie du 16:9 (au lieu de 16:10 1920x1200) sur un écran d’ordinateur et encore plus sur cette taille <img data-src=" /> .


Le 14/03/2013 à 13h 38

Non mais allo quoi, 2560 en 16:9 ! C’est pour un ordinateur, pas une télévision, allo… <img data-src=" />

Le 13/03/2013 à 18h 56







John Shaft a écrit :



Le CLUF d’un Windows, c’est 10 Go une fois décompressé <img data-src=" />







<img data-src=" />







John Shaft a écrit :



et les DLL (sur les 24 Go de mon répertoire Windows, 10 pour WinSXS)







10 Go de DLL, mais elles offrent quels services ces DLL ? C’est énorme.

Qu’est-ce que WinSXS ?


Le 13/03/2013 à 18h 04







David_L a écrit :



Depuis maintenant près de trois ans, Intel travaille sur le code d’Android afin de l’adapter à ses puces x86







Je trouve cette phrase étrange, parce que Linux tourne depuis le début sur du x86, c’est la première architecture utilisée. Alors comment peut-on parler d’adapter Android (qui est du Linux) sur du x86 ?

A mon sens, Android a plutôt été adapté pour les puces ARM des premiers Google Phones (sachant que Linux tournait déjà sur certaines variantes).







skyr-angel a écrit :



Mouaif, mon Seven une fois bien réglé ne bouffe que genre 15/16GO.







C’est déjà énorme pour un OS de base, que peuvent-ils mettre là-dedans ? En plus, une installation moderne d’un bureau Linux tient en 4 Go (ce qui est déjà pas mal) et comporte en plus tout un tas d’applications, dont OpenOffice, GIMP, et j’en passe.


Le 13/03/2013 à 18h 52







Tourner.lapache a écrit :



On pourrait dire la même chose de l’usb 2.0, je suis plus souvent à 1520 Mo/s qu’à 30.







C’est parce que tes clés USB ne sont pas assez rapides. Le protocole USB (ainsi que les contrôleurs) fait qu’on ne peut pas dépasser environ 35 Mo/s en lecture et 30 Mo/s en écriture. La charge utile est encapsulée dans des paquets, et il y a un nombre max de paquets envoyables par “slot” temporel.



Un extrait d’un PDF :





Second, USB is a packetized protocol where longer blocks of data are divided

into 512-byte packets. (..) Start of Frame (SOF) packets

are sent every 125 uSec (microframe) to maintain timing on the bus. The net

effect of this is that the theoretical maximum bandwidth of USB is 13 bulk

packets per microframe, or 53,248,000 bytes/second. Even this limit is not

achievable with current host controllers, which can receive 10 bulk

packets/microframe or send 8 bulk packets/microframe.





Avec ma meilleure clé j’arrive à environ 35 Mo/s en lecture et 30 Mo/s en écriture.


Le 13/03/2013 à 17h 55







Tourner.lapache a écrit :



C’est pas mal oui. Monté avec une carte mère mini itx passive et un ssd on n’entend pas l’ordinateur s’allumer : c’est assez étrange. Après en mettant la main devant l’alim on sent quand même le flux d’air et à moins de vraiment tendre l’oreille (genre à - de 50 cm de l’alim) on n’entend rien.

Après, dans mon cas la config doit taper dans les 40 W à tout casser en full alors que l’alim fait 300 W ;)







Merci pour ce retour.



Pourquoi mettre une alimentation ATX avec une carte Mini-ITX ? L’idée me semble étrange, car pour ma configuration du même type j’ai un bloc 12 V externe et un truc du genre pico-PSU.


Le 13/03/2013 à 17h 50







Eagle1 a écrit :



peut on encore qualifier OVH de startup ?







Bonne remarque, en effet ça n’a aucun sens.


Le 13/03/2013 à 17h 27







unCaillou a écrit :



La mémoire TLC a une faible durée de vie, parait-il (environ 1000 cycles), y a eu des améliorations de ce côté ou il faut toujours privilégier la MLC ?







La MLC et la TLC ont des durées de vie assez proches en fait (surtout comparé à la SLC). Les fabricants de toutes façons calculent la durée de vie totale du disque en fonction du volume d’écriture et de la redondance choisie. Je crois qu’on a fait des progrès dans les contrôleurs Flash pour mieux tenir compte de la dérive des cellules en MLC et TLC.


Le 11/03/2013 à 15h 15

Le brevets logiciels ont beau n’être valides qu’aux États-Unis (et au Japon), ils emm*rdent tout le monde car (pour simplifier) les logiciels proviennent de là, la plupart des sociétés y ont leur siège, et surtout c’est la 1e base de clients au départ.

Dommage qu’aucune entité hors des E-U ne soit capable de lancer un format vidéo (en se contrefichant des brevets US), en étant prête à s’aliéner le marché américain.









cosmocat a écrit :



Le WebM est un format video avec un conteneur éponyme, tiré du conteneur matroska et dont le flux vidéo est encodé avec le codec VP8 et le codec audio vorbis.







NB: Codé s’il te plaît (codec = codeur/décodeur), ou plutôt compressé ou converti, ce qui a plus de sens (il ne s’agit pas d’un codage car il y a des pertes).


Le 08/03/2013 à 18h 09







blamort a écrit :



Sinon je vois dans les commentaires quil ne faut pas depasser les 50% d’utilisation sur les SSD, serieux ? pourquoi =







D’après des tests menés par AnandTech il y a 3 mois, si on veut garder un temps de réponse constant (qui est très bas sur un SSD normalement, bien inférieur à la ms), il ne faut pas dépasser 75% de remplissage pour la plupart des SSD testés. Le temps de réponse reste constant car le système de répartition des écritures peut fonctionner sans latence importante grâce à toute la place libre. Quand le disque est rempli à 90% par exemple, certaines écritures peuvent prendre beaucoup plus de temps (quelques ms ou plus) à cause de l’algorithme de garbage collection qui a plus de boulot.



cf “Exploring the Relationship Between Spare Area and Performance Consistency in Modern SSDs”http://www.anandtech.com/show/6489/playing-with-op où on voit que le nombre d’IOPS peut passer de 80 000 à moins de 10 000.



Sinon si tu n’as pas besoin de ça (ce qui doit être le cas de 95% d’entre nous qui ne gérons pas de système critique), tu peux remplir normalement ton SSD, tu ne verras aucune différence, tout en sachant qu’un filesystem reste plus performant quand on ne dépasse pas environ 90% de remplissage.


Le 08/03/2013 à 15h 45

Comme pas mal de commentateurs ici, j’ai un SDD pour le système (Linux) et un HDD pour les photos et tout ce qui est volumineux et qui n’a pas besoin de toutes façons de la rapidité d’accès d’un SSD.



Étant donné le prix d’un SSD de 32 ou 64 G, il faut vraiment être fauché pour ne pas en prendre un. En fait, 32 G me suffisent largement car j’ai 3 partitions Linux de 4-5 Go dessus + une partition pour faire des tests quelconques (base de données, autre). Pour mes 3 partitions Linux, j’ai toujours :





  • celle en utilisation courante

  • celle que j’utilisais précédemment, que je garde pendant un bout de temps le temps de la transition complète, et sur laquelle j’installe ensuite la prochaine version (je change moins d’une fois par an)

  • et une 3e pour le test d’une distribution quelconque.







    Il me semble qu’un Windows gagne encore plus qu’un Linux à avoir un SSD vu qu’il est moins optimisé et qu’il aime accéder à plein de trucs partout (sans parler des anti-virus et autres services en vrac qu’on trouve sur un Windows).

Le 08/03/2013 à 11h 43







batoche a écrit :



Ou au moins avec un format d’alim moins gros qu’ATX … J’avoue ne pas comprendre que ces boitiers ne prévoient pas d’autre format d’alim que du gros ATX 12128cm, genre SFX.



Après les pico-psu utilisent un chargeur 12V externe qui ont souvent un rendement ainsi qu’une durée de vie assez bofbof.







+1 pour ton premier paragraphe.



Par contre pour le 2e, les tests que j’ai vu (il y a quelques années je dirais) sur un ou deux sites montrent qu’on atteint un très bon rendement avec une brique externe correcte et un pico-PSU. Cf par exemplehttp://www.silentpcreview.com/article601-page1.html et les pages suivantes.


Le 07/03/2013 à 09h 41







AlphaBeta a écrit :



Comment un systeme judiciere mal organisé permet aux pires escrocs et voleurs mafieux comme ce type de prosperer.







Ce qui permet à Kim Dotcom d’attaquer le gouvernement ça s’appelle l’état de droit, c’est fait pour protéger les citoyens de l’arbitraire de l’état. Quand les services de l’état commentent des erreurs, il y a des recours, et c’est bien.


Le 07/03/2013 à 09h 38

Petite correction :



le fondateur de MegaUpload s’est vu octroyé



-&gt; s’est vu octroyer

(moyen mnémotechnique, utiliser un verbe en “ir” : “s’est vu devenir”)

Le 06/03/2013 à 19h 39







Laskov a écrit :



Le probléme est que je ne puis m’en passer il est utilisé par de nombreux programme que je me sert chez moi dont surtout PS3 Media Server.



Je suis donc obligé de vivre avec lui…

Je me demande d’ailleurs quand le créateur de PS3MS utilisera autre chose







Si c’est un usage local et non en applet Java, où est le problème ?


Le 05/03/2013 à 11h 27







NeVeS a écrit :



Il y a encore un nombre inquiétant de personnes qui ont Java installé sans même le savoir (passe encore) et donc surtout le plugin Java en même temps (et là c’est grave). Ces personnes, qui ne se servent jamais de Java, ne vont pas le désactiver puisqu’elles ne savent même pas qu’elles l’ont. Heureusement que les navigateurs désactivement maintenant les versions trop vieilles du plugin Java.







En effet pour la désactivation.

Cela dit, il faut quand même 2 conditions : accéder à un site qui comporte une applet Java, et que cette applet soit vérolée. Ça ne doit pas toucher grand monde, non ?







NeVeS a écrit :



Oui. L’exploit est moins “stable” qu’avec les failles habituelles Java puisqu’il s’agit cette fois d’une corruption mémoire et non pas d’une faille de logique atteignable en “pur” Java.







De là à exploiter un Linux il y a une marge, il faut que le “shell code” soit adapté à l’OS.


Le 05/03/2013 à 11h 23







Inny a écrit :



Erreur, vu que le navigateur peut faire directement appel à java, alors si on n’en a pas l’usage, autant ne pas l’installer.







Il peut faire directement appel à Java lors de quelle activité ou opération ?


Le 05/03/2013 à 10h 11



On rappellera cependant (encore une fois) que les utilisateurs qui ne se servent jamais de Java ont tout intérêt à le désinstaller. Ceux qui en ont encore besoin, pour des questions de développement logiciel, ou plus simplement pour jouer à Minecraft, peuvent tout de même désactiver le plug-in dans le navigateur.





Les utilisateurs qui ne se servent jamais de Java ne risquent rien, donc pas la peine de désinstaller :) . De toutes façons les failles touchent l’aspect applet Java, qui sont rarement utilisées il me semble (et qu’on peut désactiver comme écrit).



Un point n’est pas clair pour moi, ça touche autre chose que les plateformes Windows cette faille ?

Le 05/03/2013 à 13h 55

Drôle d’idée de faire un compact à ce prix-là, même si la qualité d’image devrait être proche d’un reflex de prix équivalent.



Pour moi, un compact devrait se limiter à une résolution raisonnable pour un usage tous publics, soit 6 à 8 MP (c’est déjà plus qu’il n’en faut pour 90% des gens), et un flash intégré correct, ça permettrait d’avoir de belles couleurs et en particulier pour les photos d’intérieur en luminosité moyenne/faible, là où les compacts sont souvent pas terribles (rendu des couleurs et des peaux). De plus, utiliser la résolution native de 16 MP alourdit tout, les temps de transferts et le stockage, le temps d’affichage aussi.

Le 05/03/2013 à 13h 34







Quiproquo a écrit :



C’est une bonne initiative, il ne manque plus qu’un pas pour avoir une option Ubuntu à -104€ sur les autres modèles. <img data-src=" />







+1 !



Je n’ai vraiment pas envie de payer pour une licence Microsoft alors que le premier truc que je vais faire c’est d’installer Linux (sur un autre que ce modèle-ci, bien sûr).



Dommage encore une fois d’avoir un écran 16:9 <img data-src=" /> .

Dommage qu’on ne trouve quasiment pas de portable avec écran de taille intermédiaire entre 1366 x 768 et Full HD (1920 x 1nnn), comme par exemple l’ancien Dell D610 avec écran 4:3 1400x1050 (14.1” SXGA+ d’après les specs) c’était super pour travailler et pour tout ce qu’on veut (photos aussi).


Le 05/03/2013 à 11h 22







Khalev a écrit :



Et non, ça ne fonctionnait pas si tu étais en 1.7, il fallait réinstaller la version précédente.



La magie de la rétrocompatibilité…







Une idée de la raison technique précise ? C’est bizarre quand même.


Le 05/03/2013 à 10h 02



Tout d’abord, elle explique que le système de vote électronique fonctionne grâce à la version 1.6 de Java. Or la plupart des ordinateurs sont selon elle actuellement équipés d’une version plus récente, la 1.7





Et en quoi est-ce un problème ? Un programme compilé avec le JDK 1.6 ne marche plus en 1.7 ? <img data-src=" />

Le 04/03/2013 à 09h 55







sr17 a écrit :



Le vrai scandale, c’est que des millions de gens travaillent tous les jours avec ces écrans dont le rapport de taille est fait à la base pour regarder des films et n’est pas du tout idéal pour le travail.



C’est la ou l’on voit que la capacité de normalisation des états n’existe plus, les industriels font absolument ce qu’ils veulent et surtout tout et n’importe quoi.







Un énorme +1 sur ton premier paragraphe :-) .



Cela dit, je me demande pourquoi les industriels proposent du 16:9 pour les écrans d’ordinateur, il ne s’agit pas des mêmes tailles que les téléviseurs. Déjà, qu’on soit passé au 16:9 je ne comprends pas bien. En 2006 j’avais un portable Dell D610 dont l’écran était excellent avec sa résolution de 1400x1050. Aujourd’hui pour avoir aussi bien faut “taper” dans portable avec écran dit “Full HD” 16:9 qui offre 1080 de haut.