L’espace pour travailler même en 16⁄9 est plus grand que n’importe quel écran 16:10 existant, mais non, “moi zveux du 16:10!”…
Les jusqu’au boutistes, ce sont les fabricants qui ont imposé non seulement le 16:10 (rien à faire pour de l’informatique) à la place du 4:3, mais encore pire, le 16:9.
Dire qu’en 2003 on trouvait encore des 20 pouces en 1600x1200, depuis on n’a rien gagné, ça a même régressé, on a des 24 ou 27 pouces en seulement 1080 de haut.
En 2005 on trouvait des portables Dell avec des écrans 1400x1050, soit seulement 30 pixels de moins que les écrans “full HD” de maintenant, vendus comme du haut de gamme.
Je ne vois que de la régression en terme de service rendu.
Idiot Proof a écrit :
je regrette pas les 1920X1200 de mon viewsonic 16⁄10 je me suis très vite fait au 16⁄9 en 2560x1440 " />
Et dire que tu pourrais avoir du 2560x1600 soit 160 pixels de plus en hauteur, un confort non négligeable pour lire du code ou pour traiter des photos (surtout prises en mode portrait).
Le
30/05/2013 à
19h
58
bingo.crepuscule a écrit :
Mhhh, je sent que je ne me ruerais pas sur la première fournée des écrans 4K, il en faudra plus que ça pour me convaincre…
Ratio 16⁄10, dalle IPS ou Oled MAT, hub USB 3, 27” mini, rotation en mode portrait, temps de réponse et input lag corrects.
batoche a écrit :
Quoi, du 16⁄9 ? Pouah !
En effet, ils font ch*er avec leur 16:9 pour des écrans d’ordinateurs " /> .
J’espère que si un concurrent sort un 16:10 (soit 3840x2400), tout le monde le choisira au détriment de celui-ci.
J’ai aussi entendu parler d’écran 4K avec cette résolution horizontale exacte, soit 4096 pixels ; en 16:10, ça donnerait 4096x2560, ça serait nickel (en particulier pour tous ceux qui éditent des documents ou des photos ou qui développent et aiment voir un max de lignes de code d’un coup).
Et l’IGP du Core i5 sous Ubuntu 13.04 avec un kernel 3.9, bien qu’exploitable pour visionner et enregistrer des chaines TV, n’était pas spécialement bien optimisé. Donc, je vais voir ce que les nouveaux drivers Intel vont apporter même si ce n’était pas/plus une priorité.
Peux-tu préciser ce que tu entends par “pas spécialement bien optimisé” ?
J’ai un portable Asus avec Core i3 (Ivy Bridge) i3-3217U à 1,8 GHz et Ubuntu 12.04 et je n’ai aucun souci avec les films sous VLC, ni ceux capturés avec une carte tuner TNT (sur un autre ordi), ni ceux récupérés via captvty (en H264 presque toujours). J’ai aussi de l’OpenGL tout à fait correct.
La série Vegas avec le casino de Deline est géniale pour ça.
Ils peuvent tout faire avec les caméras les plus pourries du monde.
Hop magie la caméra fait de l’infrarouge.
Hop magie l’enregistrement de la caméra montre aussi la face cachée de l’objet/la personne filmée.
J’adore. " />
Dans le cas de cette série, c’est différent, ils sont censés avoir un système ultra-moderne dans le casino, et ce qu’on voit comme qualité d’image est crédible vu que les caméras sont rarement à plus de 10 m des gens et que c’est correctement éclairé.
Certes, parfois la caméra en fait un peu trop (caméra infrarouge, j’ai des doutes en effet), ou la détection de nuances un peu trop infimes.
Abused a écrit :
Il ne faut surtout pas se leurrer
ca n’est pas fait pour la “Protection” du/des citoyens
Les cameras installees sont la pour proteger le systeme !
Systeme qui a ete mis en place par les politiques et ceux qui dirigent dans l’ombre, pour mieux maitriser et asservir le pequin moyen … vous imaginez .. si Mr Michu commencait a reflechir …. " />
Mais bien sûr, on nous ment tous, le complot est mondial, et personne ne réfléchit… Ton pseudo confirme que t’as abusé de certaines substances " />
Le
22/05/2013 à
09h
43
Je n’ai plus sous la main le lien vers une étude qui montrait le coût élevé de la vidéosurveillance en France pour un effet quasi nul sur la sécurité, c’est sorti il y a environ 2 ans je crois, il faudrait voir du côté de Jean-Marc Manach.
La vidéosurveillance ne protège rien et son aspect dissuasif est bien faible comme on peut le constater. Dans certains cas, elle peut être utile en permettant de retrouver des auteurs d’actes illégaux (on l’a vu pour certains attentats, mais en l’occurrence ça ne les a pas empêchés).
A ce prix-là pour les cartes de numérisation Asus, ça ne doit pas être de la top qualité. En plus, pour que ça vaille le coup d’utiliser du 24 bits et 192 kb/s, il faudrait vraiment que la qualité soit à l’avenant et avoir des besoins d’édition pro. Sinon, le 44 kHz et 16 bits c’est plus que suffisant.
Cf cette intéressant (et long et en anglais) article : “24⁄192 Music Downloads… and why they make no sense”http://xiph.org/~xiphmont/demo/neil-young.html et je recommande aussi le lien en note 1.
Si les constructeurs avaient dépensé plus d’argent à concevoir des batteries permettant une grande autonomie (au dépend de leur amis les compagnies pétrolières) qu’à diminuer la consommation des voitures à moteur thermique, on en serait probablement pas là à l’heure actuelle.
Ce n’est pas aussi simple.
D’une part, l’autonomie des véhicules 100% électriques est encore loin de celle des moteurs thermiques, et même si la plupart des déplacements sont largement dans l’autonomie des véhicules actuels (on dit que c’est environ 5 km par trajet, mais pas sûr que ce soit la moyenne des trajets domicile-travail), les conducteurs veulent avoir cette autonomie de temps à autres (vacances). Faire des batteries pas trop lourdes, avec une bonne énergie massique, rechargeables pas trop lentement, et le tout pour un prix raisonnable, ça n’a rien de trivial. Des sommes considérables ont été investies depuis des années.
D’autre part, si du jour au lendemain le parc automobile passait par ex à 20% d’électrique, le réseau électrique n’est pas prêt, surtout pour les pointes de demande.
Et du point de vue conducteur, il faut garder à l’esprit qu’un plein d’essence ça prend 5 minutes et ça permet de rouler pour certains véhicules pendant des heures et des centaines de km (vers 1000 pour certains diesels et pas que des petites voitures). C’est imbattable. L’électricité n’offre pas cela, même si les fabricants de batteries bossent dur sur le sujet.
La transition est complexe et est à plusieurs niveaux.
La demande existe pour des véhicules électriques, et elle sera d’autant plus forte que l’essence est chère (sachant qu’en France avec notre parc nucléaire et hydraulique le prix de l’électricité sera relativement épargné). Et les fabricants sont aussi en concurrence sur le sujet, ils ont intérêt à avoir préparé la transition. Ce sont les consommateurs qui orientent le marché (et parfois avec l’aide de l’état, cf la part du diesel avec les taxes favorables).
De toutes façons, l’intérêt des constructeurs, c’est de vendre des voitures, ils se contrefichent des compagnies pétrolières, qui n’ont aucun souci d’argent.
Le
14/05/2013 à
14h
05
Alameda a écrit :
Bah si mais ça c’est comme les moteurs thermiques, à l’heure actuelle on peux faire des moteurs pratiquement non polluants on le fait pas pour faire gagner des “brouzoufs” à nos compagnies pétrolières (comme si elle en avait besoin)
N’importe quoi.
Les constructeurs travaillent comme des fous pour réduire la consommation des moteurs de voiture, un paramètre très important pour les acheteurs, d’autant plus que depuis quelques années la puissance fiscale est liée à la consommation et au dégagement de CO² (lié fortement à la consommation), la concurrence est rude. Le développement d’un nouveau moteur coûte très cher.
Cette réduction de consommation se traduit dans les chiffres, la consommation baisse de 2% par en en moyenne, avec parfois des sauts plus importants comme en diesel lors du passage à l’injection haute pression dans les années 2000. J’en suis à ma 3e voiture en 15 ans, et les consommation baissent très nettement, alors que la puissance augmente (en plus).
Mastering différent + son analogique = son différent.
Préférer le vinyl, c’est plus une question de ressenti que de qualité sonore.
C’est sûr que la dynamique est beaucoup moins grande, mais c’est une limitation technique lié au média, et que le CD a permis de lever. Pour ceux qui aiment le classique, le CD est une bénédiction (restitution parfaite, diaphonie, dynamique).
Autant acheter un CD et avoir un bouton sur son ampli pour activer un simple filtre qui va donner le rendu du vinyl, pour les nostalgiques ;) (dont on sait pourquoi il plait toujours à certains, harmoniques en plus).
NiCr a écrit :
C’est drôle les gens prêts à payer des fourchettes, en 2013, en ignorant la qualité apportée par le couteau." />
En l’occurrence, on compare 2 moyens de reproduire le son, ta comparaison n’a aucun sens.
Le
14/05/2013 à
14h
22
Ce “Pure Audio” c’est encore du pipeau marketing, c’est indistinguable d’un CD audio même sur une chaîne HiFi de qualité, ce dernier reproduisant déjà de façon extrêmement fidèle les sons que l’oreille humaine peut capter.
C’est drôle les gens prêts à payer des vinyls, en 2013, en ignorant la qualité apportée par le CD.
fiool a écrit :
C’est vrai qu’il manque des précisions concernant les DRM…
Au moins, ils n’ont blessé personne, et il n’ont fait que voler des banques …
Quand on voit les truands qui gèrent les banques, je ne vais pas les plaindre !
C’est à courte vue, car l’argent des banques c’est le nôtre en fin de compte. Plus il y a de braquages (à main armée ou via clavier - on est d’accord que sans blessés c’est mieux), ça augmente les primes d’assurance et les coûts de sécurité, ce qui est supporté in fine par les clients. Et pour le coup, si on en est à juger les banquiers, pour ma part je trouve que les assureurs c’est bien “pire”.
NUC: j’ai mal au coeur en voyant le prix. N’y a t’il vraiment pas moyen d’avoir un micro PC pouvant faire tourner Windows à moins de $400 " /> , une espèce de RaspberryPI ?
Puisque tu parles de Raspberry Pi (qui tourne sous Linux), pourquoi vouloir utiliser Windows ? En tous cas si tu veux un portable pas cher et tout à fait correct (inespéré en fait vu les concurrents), il y a celui-ci que j’ai acheté il y a un gros mois, j’en suis bien content :
Asus X201E-KX042DU, 11.6” 1366x768 sous Linux (Ubuntu) : Core i3 Ivy Bridge, 500 Go, USB 3.0, 1.3 Kg en promo à 379€
Côté NUC, si on peut y mettre une carte tuner TNT, ce serait parfait pour moi pour remplacer mon système fait maison à base de Via Mini-ITX qui date de 2005.
C’est marrant qu’on parle beaucoup de baisse de conso, parce que si on regarde un peu les tableaux des gros CPU par exemple, ils sont toujours à 130W pour les 6 cores. Mais c’est déjà bien que la conso IDLE soit fortement réduite.
Les gros CPU sont un peu à part, dans leur cas on cherche à garder cette limite des 130 W et à augmenter la puissance (dans ton exemple, je suppose qu’auparavant on n’avait que 4 coeurs pour la même consommation, ou en tous cas moins de puissance).
Ce qui est sûr c’est qu’à puissance égale, la consommation baisse, surtout quand on change de finesse de gravure (passage de Sandy Bridge à Ivy Bridge, pour les i5 on passe de 95 W à 77 W en moyenne). La baisse de consommation est parfois amoindrie par le fait qu’on profite du changement de finesse pour grossir les caches.
Le
27/04/2013 à
15h
44
arkansis a écrit :
Cette nouvelle architecture est sans doute intéressante pour ceux qui sont en première génération core et antérieure, mais pour ceux qui sont en Sandy et Ivy bridge, le fossé et les avantages risquent d’être trop maigres.
D’après les tests de AnandTech, à fréquence égale et modèle similaire, il y a moins de 10 % d’augmentation de performance entre Sandy Bridge et Ivy Bridge, et entre Ivy Bridge et Haswell. Je n’ai pas l’URL sous la main mais ça doit être facile à trouver. La consommation est a priori en baisse à performance égale.
Côté processeurs pour serveurs, un ami qui est hébergeur m’a dit la même chose.
En fait on ne se comprend pas tout simplement parcequ’on ne parle pas de la même chose. " />
Toi tu parle de fréquences au sens mathématique du terme alors que moi je parle de signaux au sens physique du terme et ça fait une grosse différence.
Si si, je parle bien de physique :) . La physique s’appuie sur les mathématiques de toutes façons.
Guinnness a écrit :
Puisque tu parlais de transformée de Fourrier si tu colle un analyseur de spectre en sortie d’une guitare et que tu gratte UNE corde je t’assure que tu est (très)loin d’obtenir uniquement une seule raie de fréquence à la fréquence d’accordage mais au contraire un dégradé d’harmoniques, et je te raconte même pas le “bordel” sur un accord complexe.
Toutes ces harmoniques ont leur importance dans le son produit et si tu en supprime une partie, peut importe comment et pourquoi, tu modifie de façon plus ou moins sensible le rendu sonore même si tu n’a pas touché à la fondamentale.
Je sais bien tout ce que tu expliques, si je m’intéresse à la HiFi c’est aussi parce que je suis d’une famille de mélomanes et pour ma part je suis pianiste amateur. Et la piano, en richesse harmonique et en transitoires, ça se pose là :) .
Je ne peux que te redire que ce que la théorie prévoit, c’est la reproduction fidèle des sons. Un lecteur de CD de bonne qualité reproduit fidèlement ce qui a été numérisé, dans la bande des 20 à 20 000 Hz. Les instruments de mesure sont formels.
Une façon de voir les choses avec le fait que tout signal se décompose en une somme de fréquences et d’intensités, c’est que quand un corps vibre et produit un son, la vibration a une fréquence fondamentale et une oscillation sinusoïdale (comme par ex une corde tendue), et en général des harmoniques.
Le
27/04/2013 à
15h
34
Guinnness a écrit :
Généralement pour tester des DAC on utilise un carré à 10khz, qu’un convertisseur cadencé à 44kh/z est physiquement incapable de reproduire fidèlement (contrairement à l’interprétation erronée que certains font des théorèmes de Nyquist/Shannon), et on regarde la forme du signal qu’il arrive à sortir.
Non la physique n’est pas contre nous, " />
Nyquist/Shannon ça s’applique uniquement pour des signaux sinusoïdaux purs et les fondamentales des signaux complexes, sauf que certains signaux complexes ont besoin de plusieurs rangs d’harmoniques pour être reproduit à peu près fidèlement et c’est là que ça commence à coincer. (pour reprendre l’exemple du signal carré un échantillonnage à 44khz ne permet pas de reproduire à peu près fidèlement un signal au dessus de 7khz et des poussières, on est très loin des 22khz théoriques)
Je crois que tu n’as pas tout saisi dans la question des composantes d’un son et de la théorie du signal. La théorie montre que tout son peut être décomposé en une somme de signaux sinusoïdaux de diverses fréquences et intensités, c’est ce que fait une transformée de Fourier si je ne m’abuse.
Bien évidemment qu’un signal carré ne peut pas être reproduit fidèlement, puisque ce signal comporte une infinité d’harmoniques, et toutes celles au-dessus de 22050 Hz vont “sauter” (pour un échantillonnage à 44,1 kHz). Un ampli et des haut-parleurs ne peuvent pas non plus reproduire parfaitement un signal carré, ils ont une bande passante limitée.
Guinnness a écrit :
Pour avoir un temps fréquenté les salons Hifi et HC haut/très haut de gamme il m’est régulièrement arrivé de pouvoir écouter des systèmes à des tarifs totalement délirants composés d’appareils aux fiches techniques dignes d’instruments de mesure de laboratoire tout en restant très circonspect sur le résultat final (ça donne généralement des “scalpels sonores” capables de faire ressortir des quantités hallucinantes micros détails façon système de monitoring sauf que le rendu global est la plupart du temps très très froid et agressif, tout sauf agréable à écouter quoi) et à l’inverse des systèmes nettement plus modestes (toutes choses étant relatives dans ce genre de salons) qui donnaient envie de rester un moment là pour tout simplement profiter de la musique.
Je trouve étrange de parler d’un matériel qui permet de reproduire très fidèlement un enregistrement, et parler ensuite de rendu agressif et froid. Ça veut dire que l’enregistrement d’origine est agressif et froid. Si l’enregistrement est de bonne qualité, l’écoute aussi, sinon ça n’a aucun sens.
Pour ma part, ayant déjà écouté un système HiFi haut de gamme, pour du piano par exemple le son est superbe et en fermant les yeux le piano est dans la pièce (l’enregistrement était excellent).
Si ton système a un rendu chaud, c’est un choix et une question de goût, mais il n’est pas fidèle. Pour ma part je préfère la fidélité.
Guinnness a écrit :
Tiens au passage puisque tu parlais de distorsions moi ce qui me fait toujours marrer/bondir c’est qu’on continue à se focaliser quasi uniquement sur les distorsions harmoniques alors que c’est loin d’être ce qu’il y a de plus néfaste à l’écoute (globalement ça ne fait que modifier un peu la couleur sonore de façon plus ou moins agréable ou/et flatteuse)
“Bizarrement” la distorsion d’intermodulation transitoire est elle presque systématiquement passée sous silence alors que ses conséquences néfastes sont là très concrètes et sensibles, et désagréables, à l’écoute (masquage de fréquences, micros informations noyées dans le “bruit” moyen, sensation de de “bouillie sonore”)
Là-dessus je te suis. Toutes les distorsions (modification du son) sont à éviter si possible, et c’est ce qui fait que ça demande des circuits soignés (et pas forcément bon marchés) pour avoir de la haute fidélité.
Le
26/04/2013 à
21h
17
nirgal76 a écrit :
un cable, ça va juste jouer sur la propreté du son (estomper ou non des fréquences, ajouter des parasites).
Ta formulation est originale ; ajouter des parasites, ça s’appelle dégrader la qualité cher monsieur, tout comme estomper des fréquences " /> .
Le
26/04/2013 à
15h
44
nirgal76 a écrit :
y’a le diamètre, y’a la façon d’être tressé, blindé aussi et qui va changer son comportement par rapport aux perturbations (et donc jouer sur la qualité). le blindage peut être relié à la masse que d’un seul coté (il fera “antenne”), ce qui fait que la qualité du son peut changer selon le sens de branchement du câble. Beaucoup de paramètres. ça ne va pas jouer sur le son mais sur sa qualité.
Le fait qu’on n’a pas tous la même oreille, c’est certain.
Mais ta phrase “ça ne va pas jouer sur le son mais sur sa qualité” ne veut rien dire, ou alors il faut que tu reformules.
Le
26/04/2013 à
13h
02
nirgal76 a écrit :
moi par exemple, depuis le temps,que je joue de la guitare (une trentaine d’année), je peux dire que je préfère le son de telle ou telle marque de corde de guitare. Si je te faisait écouter, tu n’entendrais surement pas la différence. Moi je l’entends très clairement (et aussi au niveau du touché). [..]
bon, la qualité du cable, ok. Le sens de connexion j’ai un doute quand même.
(Idem cyrano2) je ne comprends pas bien ton commentaire.
Si tu dis qu’il y a une différence entre 2 cordes de guitares, je te crois bien volontiers, et je l’entendrais probablement.
Mais je ne vois pas le rapport avec ce dont je parlais, les câbles électriques qui servent à relier les éléments d’une chaîne hifi. Tant que les contacts sont bons (importance de la qualité des connecteurs, parfois plaqués or pour cela), n’importe quel câble de diamètre suffisant convient. J’ai une chaîne hifi moyen de gamme et j’ai des gros câbles en cuivre entre mon ampli et mes haut-parleurs, visés bien fortement, au moins ce n’est pas ça qui limite.
Le
25/04/2013 à
15h
03
raoudoudou a écrit :
Je sais bien que pour un physicien, “à peu près 1”, c’est 1 mais pas pour un mathématicien " />
Les convertisseurs delta-sigma sont bien bidouillés, mais il y a bien une perte d’information. Sur-échantilloner à postériori facilite le filtrage mais ne permet pas de récupérer toute l’information.
Physicien/mathématicien : pas faux :) .
J’avais entendu parler de ces convertisseurs, mais ça doit être du chinois pour la plupart.
cyrano2 a écrit :
La convertion sigma delta, est une technologie de conversion analogique numérique, qui utilise une fréquence plus élevé à la place de plusieurs bit (ex:super audio CD 1bits 2.8 Mhz). Le principe est d’encoder de coder l’erreur en comparaison d’un ou plusieurs accumulateurs. Cela peut être aussi un moyen d’utiliser un CMOS de puissance pour un ampli en classe D qui n’utilise pas un simple pwm. En gros, un bit de plus encode +6dB de snr de mieux, et un doublement de la fréquence fait gagné +3dB.
J’ai cherché des explications un peu claire sur ce qu’est un convertisseur sigma-delta, j’ai trouvé ceci, ça peut intéresser ceux qui nous lisent encore :
Par contre, le tiens est inexact “ fidèlement les sons jusqu’à 20 kHz, un échantillonnage à 44,1 kHz est plus que suffisant”
Je ne dis pas que les fréquences disparaissent, je dis que ça ressemble un peu à n’importe quoi.
On appelle ça la distorsion.
Alors Nyquist-Shannon, c’est bien gentil, mais en pratique, plus t’approches de la limite 1⁄2, plus c’est dégueulasse. Amuse toi à tracer la forme numérique de la fréquence 19KHz quand t’échantillonnes à 44.1KHz, tu vas voir si c’est fidèle…
Guinnness a écrit :
En revanche ça se complique très fortement lorsqu’on parle d’un signal composite complexe comme un signal audio dans lequel se superposent un grand nombre de signaux de fréquences et d’amplitudes variables de façon plus ou moins aléatoire : si on arrive globalement à recréer à peu près le plus gros du signal d’origine on se retrouve quand même assez vite avec un gros lissage, donc perte d’information, si on se limite à la règle du fréquence d’échantillonnage = 2 X fréquence maximum à reproduire.
Vous insistez les gars, mais la physique est contre vous :) .
Ce n’est pas parce que l’échantillonnage d’un signal de 19 kHz à 44,1 kHz n’a pas l’air fidèle (en effet, il y a peu de points par cycle, entre 2 et 3) que ça ne suffit pas à reproduire correctement l’onde initiale avec un convertisseur approprié. La physique n’est pas toujours intuitive. Le théorème de Nyquist-Shannon dit que ça permet de reproduire les fréquences jusqu’à la moitié de la fréquence d’échantillonnage, peu importe que le signal soit composé d’une sinusoïde ou d’une multitude de sons complexes.
Guinnness a écrit :
Ca n’est pas pour rien si au début de l’audionumérique les sons étaient déja travaillées à 48khz puis qu’on est rapidement passé à 96khz voir au dessus depuis : le 44.1khz est suffisant pour l’écoute finale mais génère beaucoup trop de pertes d’informations, y compris dans les fréquences audibles, pour pouvoir être utilisé sérieusement en phase de travail.
C’est ce que j’ai toujours écrit : dépasser 44,1 kHz est utile en phase de travail.
Guinnness a écrit :
+1 aussi avec Fiool : finalement peut importe d’avoir du matos de malade capable de restituer des signaux électriques avec des taux de distorsion à 10 chiffres après la virgule, après tout on écoute la musique avec ses oreilles pas avec un oscilloscope ou un analyseur de spectre (enfin pour les gens “normaux” du moins " />)
Tant que le matos qu’on a est suffisant pour arriver à restituer de façon la plus “musicale” possible le signal d’origine il n’y a pas vraiment à aller chercher plus loin puisque la finalité de tout ça c’est quand même de prendre plaisir à écouter la musique qu’on aime et que ça sonne bien.
Tu as mis “musicale” entre guillemets, il faudrait en effet définir ce que veut dire “restituer de façon musicale” :) .
Je te rejoins sur le fait qu’il n’y a pas besoin d’avoir des taux de distorsion à 10 chiffres après la virgule, c’est pour cela que je disais qu’un ampli à quelques centaines d’euros était déjà très bon. Il est plus complexe et coûteux de faire de bons haut-parleurs, fidèles et sans coloration ni déséquilibre dans le spectre.
Le
24/04/2013 à
15h
18
cyrano2 a écrit :
Il parait que non, d’après des tests qui avaient été évoqué par ici. J’imagine aussi que 164kbs sur Lame et 164 kbs sur un encodeur raté, cela ne donne pas la même chose. Les pertes sont liés à un modèle acoustique de l’oreille, pour supprimer ce qui ne peut pas être entendu (fréquence supérieur à 17khz, pic de fréquence de faible intensité à coté d’un autre pic, etc…)
Oui on parle de modèle psycho-acoustique, c’est ce que j’ai dit avec “certains sons supposés masqués ne sont pas reproduits, par ex”. Mais si ça marche assez bien, ça n’est tout de même pas de la HiFi, sinon on l’utiliserait pour autre chose que des baladeurs.
Au fait : “codeur”, ou plutôt “convertisseur” ou “compresseur”, c’est mieux " /> .
Pourquoi cette valeur précise de 164 kb/s ? Et tu parles de VBR je suppose ?
cyrano2 a écrit :
D’ailleurs, le problème du son provient surtout de la pièce. Un matos à 3k€ ne sonnent pas du tout pareil au milieu d’un magasin, et contre un mur.
[..] mais bon, il y a beaucoup moins de raison de changer un ampli analogique, qu’un ampli numérique (nouveau codec audio, nouvelles normes hdmi,…).
Les haut-parleurs sont conçus pour être contre (ou près) des murs, en particulier les bass-reflex (peut-être pas utilisés pour la HiFi de bon niveau). Le son est meilleur dans une plus grande pièce, pour des raisons physiques : les graves ont besoin de place (à 20 Hz la longueur d’onde est de 15 m), et les réflexions sur les murs sont moins importantes.
Je n’ai pas compris ton histoire d’ampli numérique. Un ampli, c’est toujours analogique.
J’ajoute que ton histoire des 100 W nécessaires, c’est faux. Il faudrait vraiment des hauts-parleurs de très mauvais rendement pour que ce soit nécessaire. J’ai remarqué que sur la chaîne de mon père, qui sonorise une grande pièce (50-60 m²), la puissance ne dépasse pas quelques watts.
Le
24/04/2013 à
13h
14
Guinnness a écrit :
Ton problème c’est que tu continue à ne considérer que la qualité proposée par le support lui même en oubliant la qualité de ce qu’on colle dessus " />
Dans la théorie tu as parfaitement raison c’est une aberration de considérer qu’un vinyl puisse proposer une qualité de restitution supérieure à un CD/DVD/DVD-A [..]
Tes explications sont claires (je n’ai pas tout cité) et nous sommes d’accord.
Guinnness a écrit :
Du coup les masters utilisés pour produire les vinyls étant souvent (mais pas tout le temps) de meilleure qualité que ceux utilisés pour produire les supports numériques il n’est pas si illogique que ça d’arriver à un meilleur résultat en repiquant soit même ses vinyls (sous réserve d’avoir une très bonne platine et un très bon correcteur RIAA) que ce qu’on a sur le support numérique du commerce.
Note que lors de réédition en CD d’oeuvres classiques enregistrées avant le CD, on repart de la bande originale et non du master élaboré pour le vinyle (master à la dynamique réduite donc). Ce sont les CD “AAD” ou “ADD” pour ceux qui font attention. Et comme on arrivait déjà à une très bonne qualité en analogique dans les années 70 (ou 60 aussi, en tous cas c’est meilleur que ce qui a été gravé en vinyle), la ré-édition vaut le coup.
Mais je reste perplexe devant la numérisation d’un vinyle, il faut vraiment une super platine, un bon préampli/correction RIAA/ampli, et bien sûr un disque en bon état. Faute de source, c’est mieux que rien c’est certain. Mais ça me fait vraiment sourire de vouloir numériser ça en plus que 44 kHz 16 bits. C’est un peu comme les fabricants de mobiles qui font des capteurs de 8 MP (voire plus !) aux pixels minuscules, tout ça pour finir en 800x600 sur une page FB (avec des couleurs dures).
Le
24/04/2013 à
13h
03
kosame a écrit :
oui, c’est pareil sauf que le client moyen ne saisit pas la difference et donc ne comprend pas ce dont on lui parle (ou il parle)" /> D’ou mon amour pour le kSps qui nous fait oublier en partie les Hz
le 96kSps n’est-il pas la pour la stereo (2x48k)?
Je n’ai pas compris où est la différence. Tu peux parler en échantillons par seconde (Sps dans ta notation), c’est strictement la même chose que de parler en Hz.
Non, la stéréo consiste en 2 canaux, chaque canal est indépendamment échantillonné à 44,1 kHz (ou 48 kHz pour les DAT).
raoudoudou a écrit :
Non, c’est surtout pour améliorer la résolution des hautes fréquences. Un son à 11KHz (très aigu déjà) n’a que 4 samples pour définir une période avec un CD. Si c’est parfaitement en phase, ça peut presque aller mais dès que t’es pas synchro avec un multiple de la fréquence, ton signal ressemble un peu à n’importe quoi. Heureusement que notre oreille est très tolérante…
Tu dis à la fois des choses exactes et inexactes. Pour reproduire fidèlement les sons jusqu’à 20 kHz, un échantillonnage à 44,1 kHz est plus que suffisant, comme je le disais auparavant (théorème de Nyquist-Shannon). Un convertisseur numérique-analogique convenable le fait sans souci. Aucun besoin d’utiliser du 96 kHz.
cyrano2 a écrit :
Il ne faut pas oublier non plus qu’en écoute double aveugle :
* on ne fait pas la différence entre du mp3 164Kbts et plus haut.
* On ne fait pas non plus la différence entre quelques ampli à 300€ et ceux à 1500€.
La différence s’étend surtout sur les haut parleurs.
Je suis d’accord pour les amplis et les haut-parleurs, pour 300 E on a déjà une belle électronique, alors que les HP c’est en partie de la mécanique et c’est toujours plus délicat.
Par contre, dans du MP3 164 kb/s, même si l’algorithme est astucieux, il y a des pertes (certains sons supposés masqués ne sont pas reproduits, par ex), et en classique avec un bon casque ou de bonnes enceintes ça s’entend.
cyrano2 a écrit :
Si le son est trop faible, il reste peu de bit pour le coder et le bruit de quantification peut devenir important. Mais c’est vrai qu’un nouveau standard “CD qualité musical” devrait imposer une dynamique moyenne fixe à 50% du volume comme pour les CD de musique classique.
“Une dynamique moyenne fixe à 50% du volume”, ça ne veut rien dire. La dynamique c’est l’écart entre le signal le plus fort et le plus faible (et il ne s’agit pas de l’ondulation de la sinusoïde), c’est une mesure sur la durée de l’enregistrement, et ça se mesure en dB. Comme déjà dit, même avec un orchestre symphonique, il reste assez de bits dans les pianissimos pour que la qualité soit correcte (en principe, c’est un peu moins fidèle).
Le
24/04/2013 à
09h
49
fiool a écrit :
Surtout que le 24 bit permet des variations de volumes plus importantes!
Oui, mais ça ne sert à rien, car aucun morceau ne sature les 16 bits de dynamique d’un CD (16 bits permettent 96 dB de dynamique), pas même une symphonie. Il faut lire les commentaires, ça a déjà été dit " /> .
Guinnness a écrit :
[..] Tu mélange un petit peu les choses
La normalisation c’est le fait d’analyser toutes les valeurs crêtes d’une plage sonore de façon à pouvoir déterminer le gain maximum qu’on va pouvoir lui appliquer pour pousser le volume au max sans clipper.
La compression dynamique c’est le fait d’amplifier les passages les plus silencieux et d’atténuer les passage le plus fort de façon à diminuer l’écart entre les 2.
+1 Au fait.
Le
24/04/2013 à
09h
47
fiool a écrit :
Je sais que mon ressenti peut surprendre, mais je le fais sur du vécu. J’écoute de tout comme genre, mais dernièrement je me suis pris le cd de C2C => toutes les chansons sont bosstés et ça sature à mort. Tandis que sur le vinyle l’écoute est moins fatigante (j’écoute sur du un Onkyo A-809/Yam CDS-700/ Thorens 120MKII / JBL ES80 ; pour le démat Squeezebox Touch).
La 1° chose que j’ai remarqué, c’est que le cd à un son plus “brillant”, c’est plus détaillé c’est vrai, plus précis mais l’écoute est fatigante…
Après t’as fait une remarque => “Les vinyles sont de l’analogique, je ne vois pas comment on peut parler de bits.” C’est pas faux. Sur internet, on trouve souvent des “vinylrip” qui sont à chaque fois du 24bit / 96kHz voir du 192kHz. C’est à partir de là que j’en ai déduis que le vinyle = 24 bits.
C’est noté, pour la question du CD boosté et fatigant à écouter (j’apprends aussi :-) ). On trouve encore des vinyles, ou bien tu as racheté en CD le morceau que tu avais en vinyle ?
C’est drôle que des gens numérisent des vinyles à une qualité supérieure à la qualité CD, déjà que la qualité CD est “overkill” par rapport au besoin. Il vaudrait bien mieux numériser à partir de la bande magnétique (analogique) originale mais je suppose qu’elle n’est pas disponible. La seule justification c’est si on fait une édition poussée de l’enregistrement, dans ce cas c’est intéressant de travailler avec de la précision supplémentaire pour limiter les pertes (je l’ai mentionné auparavant), mais ce n’est utile qu’en format de travail, pas de numérisation initiale ni d’écoute finale.
Pour ta déduction, pourquoi pas, mais si un gugusse numérisait son vinyle à 32 bits et 384 kHz (allons-y carrément " /> ), ce n’est pas pour autant que ce serait la qualité réelle de la source " /> .
kosame a écrit :
C’est 44.1 kHz ou 44.1 kSps (kilo sample per second) qui equivautrait a une frequence max de 22kHz d’apres Monsieur Jean Baptiste Joseph Fourier ?
C’est pareil, on parle de fréquence d’échantillonnage (sampling frequency en anglais).
GrandeChampagne a écrit :
C’est bien sur 44.1 kSps avec une bande passante filtrée à 20KHz. D’où l’intérêt de 96kSps(ou plus) pour améliorer la précision de la numérisation des hautes fréquences.
Eh non, aucun intérêt de passer à 96 kHz pour du son, c’est le théorème de Nyquist–Shannon qui le dit (de plus, la quantité de signal au-dessus de 15-16 kHz est assez faible généralement, et peu audible quand on est adulte). Comme ça a été dit, augmenter la fréquence d’échantillonnage ou la précision (en bits) ne sert qu’à l’édition pour avoir plus de précision pour limiter les pertes, et ensuite le signal est reconverti en 44,1 kHz 16 bits .
Le
23/04/2013 à
17h
12
fiool a écrit :
Pour ma part, je privilégie le vinyle, car les cd récents sont victimes de la loundness war, et sont saturés à mort.
Après, vous mettez en avant tout un tas de chiffre, mais au ressenti, je préfère le vinyle au cd. Pourquoi? Eh bien dynamique améliorée, variation de volume plus importante, idem spatialisation.
Très surprenant de lire ça.
J’en ai déjà parlé plus haut, la dynamique d’un vinyle est tout à fait ridicule comparé à celle d’un CD, et idem pour la spatialisation, la diaphonie (c’est à dire la séparation entre les canaux) est limitée par le procédé d’enregistrement et de lecture.
Tu as vraiment des CD très mal enregistrés si le vinyle te semble meilleur.
Mon père a une très bonne chaîne et encore des vinyles, on voit tout de suite la différence, il faut dire qu’on n’écoute que du classique. On a été bluffé par les CD au début (fin années 80), la pureté du son, la précision stéréo, la dynamique.
fiool a écrit :
@OlivierJ
Tu marques “de toutes façons les sources sont en 16 bits.”, mais les vinyles ne sont-ils pas en 24 bits? Le 24 bits ne permet-il pas des variations de volumes plus importantes?
Avant l’existence de l’enregistrement numérique, on enregistrait sur des bandes magnétiques (cf les Revox et autres gros magnétophones à bande), et à partir de là, en compressant la dynamique pour du classique, on gravait les vinyles. Les vinyles sont de l’analogique, je ne vois pas comment on peut parler de bits.
Et si tu lis les commentaires, il a été dit que le dynamique permise par un CD était considérable (de l’ordre de 96 dB mais ça ne te parle sans doute pas), et permet par exemple de faire tenir celle d’un orchestre symphonique (environ 60 dB). De nos jours je ne sais pas si on enregistre toujours en 16 bits ou en un peu plus, en tous cas le surplus de résolution sert à l’édition/masterisation et on repasse à 16 bits pour un CD. Pour du Madonna ou du Jarre, il n’y a même pas besoin de 16 bits vu que la dynamique est assez réduite (ce qui n’est pas un jugement de valeur, c’est juste comme ça).
Le
23/04/2013 à
15h
34
jeliel a écrit :
Dans un budget raisonnable (un maximum de 200-300€, si possible beaucoup moins " />) quel serait le meilleur investissement ? une carte son pour remplacer celle de la CM je suppose, mais laquelle (pas de creative, et avec prise micro dont gain/boost réglable si possible) ? Mes enceintes sont-elles dépassées (j’ai lu qu’elles rendent mal les graves) ?
Bref si un audiophile peut m’aider à choisir du matos pour profiter sans me ruiner… ;)
Ce sont tes oreilles qui sont le meilleur juge, mais à ma connaissance, pour avoir de bonnes enceintes il faut y mettre un certain prix, et plus que ton budget. Je suis sans doute exigeant vu que j’écoute du classique et que mon père a toujours eu de l’excellent matériel (j’en ai du correct mais moins haut de gamme et un salon plus petit). La carte son a son importance aussi, pour la qualité de la conversion numérique-analogique.
DorianMonnier a écrit :
Le son TV peut-être, mais un film sur une piste sonore en DTS-HD contient des variations de volume (je connais pas les termes techniques) assez grande.
Sur une installation de qualité, le contraste entre les phases de dialogue et le son de phases d’actions (où les enceintes surround et le caisson de basse ajoute une nouvelle dimension à la scène) est impressionnant. " />
Le terme technique, c’est la dynamique :) . Il est vrai que pour la télévision on évite une trop grande dynamique, vu la qualité médiocre des enceintes de téléviseur (ça a toujours été le cas), et puis c’est mieux pour les voisins accessoirement :) . Je ne sais pas à quoi servent tous ces trucs Dolby/DTS (HD ou pas), alors que déjà un bon signal type CD joué sur des enceintes potables serait très bien.
Les systèmes de “home cinema” n’ont aucun mal à paraître bien meilleurs que les enceintes du téléviseur, en particulier du fait du caisson de grave (il faut du volume physique pour qu’une enceinte reproduise correctement les graves), mais ça n’est pas censé être de la haute-fidélité.
Skeeder a écrit :
Oui je parle de variété, pop, musique électronique même, ou d’une bonne partie de la musique sur CD/Flac/mp3. Puisque le support final est souvent un lecteur mp3 faiblard au niveau de la sortie son, l’astuce est souvent de normaliser à 90dB (voir plus), pour que même dans le métro tu puisse écouter ta musique. La raison c’est que pour le CD il n’y a aucune limite de normalisation, ce qui n’est pas le cas pour le DTS, qui impose une limite assez forte.
Je pige pas bien ton histoire de limite de normalisation. On peut augmenter le volume du signal enregistré, mais à un moment ça sature, donc il y a une limite bien présente.
S’arranger pour augmenter le niveau sonore juste en-dessous de la limite (parce que lors de l’enregistrement on a pris une marge trop importante), pour permettre par exemple une meilleure écoute sur baladeur en environnement bruyant, ça ne me choque pas, et si c’est bien fait (avec un traitement du signal qui va bien), la différence de qualité est indiscernable.
Loeff a écrit :
Pourtant les amateurs de musique classique semble s’orienter vers les fichiers lossless 24bit et tutti quanti. Après il est clair que c’est un marché où la magie opère beaucoup… Quand je vois des mecs qui mettent 400€ dans un cable USB “Audio Turbo Plus” (entre l’ordi et leur DAC donc), parce que ça transcende le son…
Pour le câble USB qui transporte un signal numérique, c’est tout à fait délirant. Pour le 24 bits, j’ai déjà expliqué pourquoi c’était totalement inutile en tant qu’auditeur, et de toutes façons les sources sont en 16 bits. Ils en font quoi de ces fichiers 24 bits ?
Je sais que certains audiophiles mettent cher dans des câbles analogiques, pour relier le lecteur CD à l’ampli ou l’ampli aux haut-parleurs (et certains prétendent même que le sens de connexion importe) ; je suis bien dubitatif, il faudrait que j’assiste à une démo.
Le
23/04/2013 à
13h
21
azedrummer a écrit :
pourquoi échantillonné à 44100Hz par canal permet reproduire jusqu’à 22050Hz ? je dois louper quelquechose quelquepart… :)
En plus de la réponse de raoudoudou (#105), j’ajoute que ça a été établi par Harry Nyquist et Claude Shannon :
« Le théorème de Nyquist-Shannon, nommé d’après Harry Nyquist et Claude Shannon, énonce que pour représenter correctement un signal analogique à numériser, la fréquence d’échantillonnage de ce signal doit être égale ou supérieure au double de la fréquence maximale contenue dans ce signal, afin de convertir ce signal d’une forme continue à une forme discrète (discontinue dans le temps) tout en conservant sa forme générale. Ce théorème est à la base de la conversion analogique-numérique des signaux. »
44.1kHz c’est la fréquence d’échantillonnage, pas forcement la hauteur du son (qui s’exprime en hertz aussi mais n’exprime pas la meme chose) plus un son est échantillonné (découpé) plus celui ci est précis et reflète l’enregistrement audio d’origine, sachant qu’on essaye d’exprimer en 0 et 1 ce qui est a l’origine analogique, donc en théorie on n’atteint jamais réellement la qualité analogique d’un enregistrement sur vinyle mais on s’en rapproche.
En pratique une oreille humaine normale, et essentiellement le cerveau, ne s’aperçoit pas de tout ça, un non musicien n’entend pas la meme chose que quelqu’un qui a l’oreille absolu par exemple.
Houla, tu mélanges des choses. L’oreille absolue c’est seulement le fait d’entendre une note et de savoir dire laquelle c’est (par exemple un “ré 3”).
La théorie du signal montre que quand tu échantillonnes à 44100 Hz un signal dont les composantes sont à moins de 22050 Hz, avec un convertisseur numérique analogique bien conçu tu restitues exactement le signal d’origine (la réalité physique des composants imparfaits fait que ça marche avec moins de 20 000 Hz en tous cas). En tous cas avec une précision de 16 bits ça marche bien.
Mateal47 a écrit :
Ca ne m’étonne pas, mais alors quel plaisir de déguster un vinyle! " />
Un objet, les sillons, poser le diamant…Pour moi ce n’est juste pas la même utilisation. Le numérique ca se consomme, l’analogique ca se déguste..
C’est purement illusoire de préférer un vinyle au CD (pour la qualité, cf ce que j’explique juste ci-dessus), c’est généralement parce que les circuits avec lesquels on lit (et lisait) les vinyles ajoutent des harmoniques (en particulier les amplis à tubes, prisés par certains) ; et au tout début du CD, les convertisseurs étaient plus sommaires (pour des raisons de coût aussi) et le son pouvait paraître un peu métallique. Sans parler de toutes les distorsions et défauts introduits par le vinyle (pleurage, scintillement, diaphonie limitée par le procédé, dynamique limitée, usure physique du média, poussières, et faiblesse initiale du signal de sortie, qui nécessite un étage de pré-amplification supplémentaire).
Skeeder a écrit :
Malheureusement ce dernier point est faux. Aujourd’hui la plupart des CD sont “normalisés” vers 90dB, ce qui fait que la dynamique efficace est faible. Trop faible.
Un test super simple, vous prenez un James Bond avec un son en DTS, écoutez le générique. [..]
[..] donc le 24bits permet une meilleure dynamique (encore faut-il que la musique requiert une telle dynamique)
Je pense que tu parles de CD de variétés, où la dynamique est faible voire inexistante. En classique on touche le moins possible au son, et on s’arrange pour garder une marge entre le fortissimo et le max enregistrable, ce qui fait que même au fortissimo ça reste moins fort que de la pop généralement.
Une dynamique de 90 dB (96 théoriques avec le CD) c’est énorme, ça permet de faire largement tenir une oeuvre comme la 9e symphonie de Beethoven, et il y a une sacrée différence entre les pianissimos et les fortissimos, à tel point qu’il faut monter le son dans les premiers et baisser dans les seconds.
Le 24 bits ne sert absolument à rien à l’écoute, c’est juste du gâchis.
Quant aux histoires de son DTS ou je ne sais quoi, je n’ai jamais compris l’intérêt, à part booster les basses en “home” cinema.
Guinnness a écrit :
Techniquement le CD est effectivement largement supérieur au vinyl sauf qu’à l’écoute les choses sont parfois bien différentes et l’explication n’a rien d’ésotérique mais est au contraire 100% technique : [..]
Les limitations technique du vinyle obligeaient justement les ingés son “de l’époque” à bosser correctement en restant mesurés dans les traitements appliqués au son(notamment compression et normalisation) sous peine de se retrouver avec un son complètement pourri [..]
Du coup il n’est pas rare aujourd’hui de préférer à l’écoute le son d’un (bon)vinyle à celui d’un mauvais CD tout simplement parceque celui ci n’est pas seulement subjectivement meilleur mais aussi objectivement meilleur.
En effet à l’époque du vinyle et de sa dynamique limitée, pour faire tenir par exemple une symphonie (environ 60 dB de dynamique), on utilisait des astuces pour compresser cette dynamique sans que ça se ressente trop.
En tous cas, comme déjà dit, pour les amateurs de classique, le CD est une merveille.
Le
23/04/2013 à
12h
47
Glasofruix a écrit :
Y a une raison pour le 44.1 Hz, c’est que en dessous de ça l’oreille humaine est capable de percevoir qu’on tente de la gruger avec du son numérique, 44.1 c’est le minimum requis.
azedrummer a écrit :
En fait, la fourchette de fréquence d’un CD se situe de 0 à 22.05 KHz (la donnée technique indique 44.1kHz parce que la piste est stéréo).
Techniquement, l’oreille en elle-même peut capter les sons entre 20Hz et 20kHz (environ hein, ça change suivant les personnes et leurs expériences auditives au cours de leur vie). Après, écouter du son de se résume pas qu’à nos oreilles : les graves s’écoutent également à l’aide du thorax, et les ultrasons sont captés par notre boite craniene et permettent de mieux situer les sons dans l’espace. C’est pour raison que des formats qui montent jusqu’à 192khz (96kHz par canal). Après il faut du coup des équipements audios qui permettent de diffuser ces fréquences… et là c’est autre chose déjà :)
J’en lis des (petites) bêtises :) .
@Glasofruix : 44100 Hz c’est la fréquence d’échantillonnage, pas la fréquence reproductible, qui est moitié moindre (soit 22050 Hz, cf mon commentaire au-dessus).
@azedrummer : Aucun rapport entre la fréquence d’échantillonnage et le nombre de canaux. L’échantillonnage se fait par voie, chacune (droite et gauche) étant échantillonnée à 44100 Hz, c’est pour permettre de reproduire le son jusqu’à 20 kHz (techniquement 22050 Hz mais à cause du filtre passe-bas qui n’est pas parfait on prévoit une marge afin que le 20 kHz soit lui bien présent).
La bande passante d’un CD est précisément de : 44100 Hz x 16 bits x 2 voies = 176 ko/s (ou ~ 1,4 Mb/s).
La raison des formats qui montent jusqu’au double ou quadruple (88,2 kHz ou 176,4 kHz) et qui éventuellement ajoutent des bits de résolution (genre 20 ou 24 bits au lieu de 16), c’est pour augmenter la résolution afin de minimiser les distorsions induites lors de l’édition, quand on travaille sur le “master” d’un CD. L’oreille humaine quant à elle sera incapable de distinguer un enregistrement échantillonné plus haut que le CD.
Le
23/04/2013 à
12h
29
myahoo a écrit :
Actuellement le CD est la combinaison PCM 16 bits, stéréo, fourchette de fréquences entre 0 et 44,1 kHz.
Sachant que l’ouïe humaine est entre 20 Hz et 20 kHz, le passage à un nouveau système n’apporterait pas grand chose. L’effet 3D, la profondeur, à la limite ? Même pas, puisque cela était déjà là avec SACD et DVD audio.
J’attire ton attention sur le fait que l’échantillonnage se fait à 44,1 kHz, ce qui permet de reproduire des fréquences jusqu’à la moitié de cette fréquence, soit 22050 Hz ; une fréquence qui de toutes façons est supérieure aux 20 kHz que nous entendons déjà fort peu, surtout avec l’âge. Cette marge de 2 kHz permet au filtre passe-bas d’être plus doux. Des explications détaillées ici : Wikipedia(cf “Why 44.1 kHz?”).
Le CD, avec sa dynamique de 96 dB et sa bande passante de plus de 20 kHz est déjà plus que suffisant pour reproduire fidèlement le son pour l’oreille humaine, il n’y a que dans de rares cas, en classique avec beaucoup de dynamique comme la 9e symphonie, qu’on doit pouvoir approcher les limites (qualité dans les pianissimos). Pour les 90 % des gens qui n’écoutent pas de classique, la qualité CD ne sert à rien.
Tu sais la “taxe” MS-Windows (c’est quoi ce nom) tu peux demandé à te la faire remboursé chez ASUS par exemple. (il me semble)
C’est quand même assez connu, la taxe Microsoft, tu peux taper “détaxe Microsoft” sur Google tu verras. On parle de vente liée et de racketiciels aussi. Je n’ai jamais acheté d’ordinateur vendu sous Windows mais de tout ce que j’ai pu lire, c’est difficile de se faire rembourser, ça dépend vraiment des marques et des époques. MS a toujours mis une grosse pression sur les fabricants pour qu’ils ne vendent pas d’ordinateurs sans OS.
J’en profite pour rappeler un bon plan pour ceux qui veulent un ultra-portable très abordable et aux performances correctes, le modèle Asus X201E-KX042DU avec Core i3 Ivy Bridge (et non un Celeron ou Pentium) vendu sous Ubuntu Linux pour moins de 400 E :
Plus ça se vendra, plus ça incitera les constructeurs à vendre des modèles sous Linux (donc parfaitement supportés), et ça permettra l’économie de la taxe MS-Windows pour tous ceux qui commencent par reformater pour mettre un Linux.
Le Asus X201E est la version cheap de l’Asus Zenbook. Si je parle du Thinkpad Edge E130, c’est parce que notamment, comparé au X201E, il a en différence :
Une dalle matte (très important pour moi) vs Glossy
2 USB 3.0 vs 1 USB 3.0
Gigabit Ethernet vs Fast Ethernet
4 ou 8 Go de ram (2 slots) vs 4 Go de ram soudés
Wifi N + BT 4.0 + SIM vs Wifi N seulement
Ultranav + Clito vs Touchpad standard
Accès total aux composants, démontable facilement avec 3 visses et une trappe vs Démontable où il faut virer toute la coque du dessous
Intéressant, quelques remarques :
Je préférerais également une dalle mate. Disons que pour celle-ci ça ne m’a pas trop gêné, au moins.
En Gigabit c’est toujours mieux mais finalement c’est très rare que j’utilise l’Ethernet (il faut reconnaître que le WiFi c’est pratique), et pour les transferts vraiment volumineux j’utilise à présent ma clé USB 3 :) . Une Corsair “slider” qui fait 80 Mo/s en lecture (85 même sur ce portable) et 40 Mo/s en écriture. Il y a beaucoup plus rapide mais plus cher (des clés à 150 Mo/s dans les 2 sens).
Je me serais satisfait de 2 Go (je suis sous Linux), avec 4 je me sens très à l’aise, je peux par exemple lancer VirtualBox avec 1 Go de mémoire pour du Win7 (par curiosité et pour faire des tests).
C’est quoi, SIM ? Dommage pour le BT surtout que ça doit pas coûter bien cher. Comme j’ai un serveur SSH sur mon portable, du coup le BT ne me sert pas (me servait avec un mobile) je passe par le WiFi. Il m’a rarement servi sur mon ancien eeePC.
Qu’est-ce donc que cet Ultranav ?
Pour l’accès aux composants, comme je voudrais un de ces jours remplacer le disque dur par un SSD, j’espère ne pas avoir trop de mal.
vyncere a écrit :
Donc, tout dépend des besoins de chacun, des exigences et du budget disponible. Perso, un Core i5 au lieu d’un Core i3, je trouve ça pépère… surtout avec les instructions AES natif au second.
A la limite, pour revenir au topic, le Asus 1015E avec ses 10.1”, c’est vraiment pas mal. Car on gagne quand même ~3cm x 2cm par rapport à un 11.6”.
Pour ton besoin en AES, tu chiffres tes partitions ?
Le Core i5 est plus puissant mais tu dois perdre en autonomie, c’est la contrepartie.
Pour l’encombrement, en effet, et mon eeePC 901 était moins joli mais plus léger, avec les 200-300 g de différence (1,4 kg mon actuel) je sens la différence de poids. Cela dit il était épais.
Le
23/04/2013 à
08h
55
elite7words a écrit :
C’est quoi ton petit portable corei, par curiosité?
J’en parle dans le commentaire #8 en première page :) .
« Asus X201E-KX042DU, 11.6 pouces 1366x768 sous Linux (Ubuntu) : Core i3 Ivy Bridge, 500 Go, HDMI, USB 3.0, 1.3 kg à 394 E »
Je pense notamment au Lenovo Thinkpad Edge E130 (11.6”) en configuration Core i5 3317u, 8 Go RAM, 2 x USB 3.0 + 1 x USB 2.0, Gigabit Ethernet, BT4.0, Wifi N, SIM, VGA + HDMI, SDXC, etc… (bon, c’est pas 300€, mais +700)… mais pas d’IPS. " />
J’ai l’impression que mon premier commentaire (#8 en page 1) n’a pas été vu : le modèle que j’ai acheté tout récemment pour un peu moins de 400 E (cf lien plus haut dans ce commentaire) comporte l’USB 3.0 ainsi qu’un lecteur de carte mémoire, un port HDMI et un port VGA, un processeur Core i3-3217U (beaucoup plus puissant qu’un Celeron), enfin bref c’est excellent (et c’est vendu sous Linux " /> ). Seul bémol pour moi, l’autonomie correcte mais qui n’atteint pas celle d’un vrai netbook. A noter qu’on trouve encore des Netbook à base d’Atom avec de l’USB 3.0.
Le
22/04/2013 à
09h
41
xxSeize a écrit :
Pour moi c’est une erreur stratégique. Une tablette est plus facile à transporter, et il est assez simple (avec un peu d’habitude je vous l’accorde) de taper des cours dessus.
Pour une utilisation basique (texte, mail, Utube/porn and cie), transportable, je pense qu’il faut oublier les laptop …
Je suis bien d’accord avec Commentaire_supprime , une tablette ça va pour consulter, mais dès qu’on veut taper quelque chose, une tablette c’est horrible, et vive le portable et son vrai clavier.
Commentaire_supprime a écrit :
Le premier accessoire que j’ai rajouté à ma Nexus 7, c’est un clavier Bluetooth…
Au fait, quel modèle de clavier ? Je voudrais m’acheter un clavier souple pour le trimballer avec moi facilement et pouvoir taper confortablement à l’occasion des messages sur mon Galaxy S2 :) .
faaf78 a écrit :
Quel usage limité ? un ssd ne sert pas que pour “jouer”.
Je me demande d’ailleurs au vu du CPU et de la mémoire si le disque dur n’est pas le facteur limitant de la config. si c’est le cas, un ssd avec ses perfs permettrait d’apporter une fraîcheur non négligeable lors de l’utilisation courante :
mise en veille et réveil en quelques secondes …
Je plussoie, j’ai bien vu la différence avec le même modèle que le mien (Asus X201E-KX042DU avec Core i3 donc et 5400 tr/min) muni d’un SSD, ça boote super vite, mise en veille et réveil idem, extinction très rapide aussi. Le mien est relativement rapide pour la mise en veille et le réveil (pas d’hibernation) et a l’air de pouvoir tenir bien longtemps en veille, nettement plus que 24 h ; l’extinction est rapide aussi, entre 5 et 10 s.
elite7words a écrit :
Je trouve que c’est une bonne chose de ressortir des netbooks.
Je trouve ce petit portable pas cher et intéressant, quoique je préfèrerais un corei3 quitte à mettre un peu plus cher.
Celui que j’ai acheté devrait te plaire. En plus, le Core i3 et sa partie graphique sont très bien supportés sous Linux.
kwak-kwak a écrit :
L’absence d’USB3 est ici aussi très dommage, j’espère quand même que la mémoire et le disque dur sont accessible pour les remplacer.
Sur le mien, il y une prise USB3. J’ai vu la différence avec ma clé USB, et en plus c’est une prise qui permet de recharger plus vite un mobile ou genre.
Le
22/04/2013 à
09h
26
Blastm a écrit :
Je croyais qu’ils avaient annoncé se retirer du marché des netbook, chez asus.. " />
En effet, c’est pour ça que j’ai eu du mal à trouver le portable dont je parle plus haut (Asus X201E-KX042DU), parce qu’il est classé dans les ultra-portables, mais c’est quasiment un netbook, à la différence du prix plutôt vers 400 E et de l’autonomie qui est plus dans les 5 h que les 6 h et plus (on a vu jusqu’à 10 h pour certains netbooks, du moins sur le papier, certains modèles se vendent encore).
Pour le mien, il a tenu allègrement 3 h dans le TGV en regardant des films, en rechargeant mon mobile via la prise USB3 (intensité plus importante), et il restait encore au moins 30 min de batterie. L’écran est brillant mais en luminosité presque au minimum aucun souci de visibilité ou de reflets. Avec un usage plus lecture Web ou rédaction, il tiendrait probablement bien ses 5 heures et quelques.
A noter qu’en cherchant bien, pour ceux qui veulent du Windows, on peut choisir sa puissance, dans l’ordre croissant (environ 50 % de plus à chaque fois), entre un Atom N2600, un Celeron 847, Pentium 987 ou Core i3.
Gigatoaster a écrit :
Un SSD est inutile sur cette machine vu l’usage limité qu’elle propose.
Sinon c’est un ultrabook qu’il vous faut mais à 500€ vous n’aurez que le clavier ahahahaha
Un SSD est toujours utile, je vois bien la différence entre mon ultra-portable et l’ultrabook à 800 E (juillet 2012) d’un ami qui a le même CPU mais un SSD, et je songe à remplacer mon disque dur par un SSD justement.
Le
22/04/2013 à
08h
59
lomic2 a écrit :
si la version avec Ubuntu mais sans W8 pouvait être à ce prix, ça me déplairait pas ;)
+1 pour l’inutilité des ports VGA et HDMI sur ce type de machin, à mon goût
Réjouissez-vous, j’ai été super content de trouver ce modèle il y a un mois, je désespérais de retrouver un netbook vendu Linux (j’ai eu un eeePC 901 sous Xandros fin 2008, très content) : “Asus X201E-KX042DU, 11.6 pouces 1366x768 sous Linux (Ubuntu) : Core i3 Ivy Bridge, 500 Go, HDMI, USB 3.0, 1.3 kg à 394 E”
Comme il comporte un Core i3 au lieu d’un Atom ou d’un Celeron, il n’a pas l’autonomie des 6+ heures comme un vrai netbook, mais il a beaucoup plus de puissance (un facteur 3 à 4 environ, d’aprèshttp://www.notebookcheck.net/Mobile-Processors-Benchmarklist.2436.0.html (très bon site) si j’ai bonne mémoire.
Oui tu as raison, le nom du roman c’est 1984, mais Big Brother ça parle peut-être mieux à tout le monde :) .
Dude76 a écrit :
Sinon, on pourrait utiliser la vidéo-protection pour mesurer leur temps de présence en hémicycle/commission avec assiduité (et non correspondance privée, cartes de vœux, lectures de journaux, …) et aligner les rémunérations en conséquence.
Encore une fois, le travail d’un parlementaire ne se juge pas à sa présence dans l’hémicycle, ça a déjà été dit et expliqué ici même. Ça ferait plaisir de ne plus lire ce genre de commentaire.
J’espère que tu taquines en parlant de vidéo-protection (-> vidéosurveillance), ce mot n’a aucune pertinence.
Le
19/04/2013 à
09h
34
nietseb a écrit :
Moi aussi je suis pour la verbalisation par vidéo, mais pour tous alors. Verbalisons la non participation ou la non concentration des députés à l’assemblé nationale. Donnez-nous le droit de constater qu’un député est absent ou surf durant une séance de l’assemblée et de le verbaliser par une suspension de traitement pour 1 mois. Si on croit dans une méthode, il faut aller jusqu’au bout !
Encore une fois, le travail d’un député ne consiste pas à assister sagement (?) à tous les débats à l’assemblée. Ça a été dit, expliqué et répété ici même par d’autres que moi. L’essentiel du travail est fait en commission, pour commencer. De plus, un député s’occupe d’une circonscription. Lis le blog d’un assistant parlementaire ça t’éclairera.
Le
19/04/2013 à
09h
17
fbzn a écrit :
Radars cabines interdits au Canada pour cette raison: la photo de l’infraction envoyée à domicile mentionne “forcément” les gens qui sont dans le véhicule au premier rang (conducteur + passager).
Dans les années 80-90 en France, avant les radars automatiques, quelqu’un avait porté plainte pour atteinte à la vie privée, car il avait reçu chez lui la photo où la passagère n’était pas sa femme et sa femme était tombée dessus. Du coup, par la suite, seul le conducteur était visible sur les photos. Je ne sais pas si cette histoire est exacte, en tous cas je n’ai jamais pu le vérifier moi-même.
fbzn a écrit :
C’est pour ça que je dis oui aux interceptions physiques (par une voiture banalisée/ moto ou ce que tu veux), mais non aux dispositifs automatiques.
Je suis bien d’accord, en plus ça a une bien meilleure valeur pédagogique, dans le sens où on est verbalisé au moment de l’infraction, et pas N jours après, par un dispositif déshumanisé, et dans certains cas on ne se souvient même pas, comme pour un ami qui a brûlé un feu rouge récemment par exemple.
Le
19/04/2013 à
09h
11
jeje07 a écrit :
ouais enfin stop la paranoia…..
quand il y a des agressions ou autres délits, les caméras de vidéos surveillance permettent parfois d’arrêter le ou les coupables.
perso je suis pour les caméras, ça ne me pose aucun problème, mais alors aucun!
Tu le dis toi-même, la vidéo-surveillance permet parfois d’arrêter les coupables, mais visiblement (si je puis dire) ça n’empêche pas les délits ; délits qu’on peut commettre masqué de toutes façons. L’an dernier une étude est parue qui montrait que la vidéo-surveillance avait un coût élevé pour une efficacité à peu près nulle en pratique (c’était via Eolas que j’ai vu ça). Rien ne vaut des policiers qui patrouillent et qui sont présents.
Je ne pense pas être particulièrement paranoïaque, mais on voit par exemple pour les fichiers comme celui des empreintes génétiques, au début c’est pour les crimes graves, et peu à peu on rajoute des infractions et au final on peut y être inscrit pour un vol de mobylette. Pour la vidéosurveillance, ça risque d’être pareil. Je considère qu’on est dans un pays libre mais je préfère qu’on évite le risque qu’un jour ça se retrouve aux mains de gens peu recommandables.
Le
19/04/2013 à
08h
37
Il n’y en a qui n’ont pas lu Big Brother on dirait, en tous cas ils manient la novlangue avec cette vidéo-“protection” qui ne protège rien du tout, au mieux ça permet de surveiller un peu. C’est quand même se mettre sur une pente glissante, aujourd’hui on prend comme prétexte le dépôt d’immondice, mais ça peut aller loin. Je ne comprends pas que ça ne leur vienne pas à l’esprit que c’est le risque d’une surveillance généralisée.
Sauf que les raid hard sont 1) plus performant 2) avec batterie intégrée pour les caches, ce qui fait que ce n’est pas la même…
Me dit pas que non, j’ai les 2 et pas des moindres ^_^
La batterie intégrée sur les contrôleurs qui ont un cache peut avoir son intérêt, mais avec les machines modernes bourrées de RAM pas cher et un OS comme Linux qui gère efficacement le cache noyau, l’intérêt est bien moindre. De plus, ZFS ne demande pas de fsck, c’est beaucoup moins gênant si jamais l’OS crashe.
Sans doute que pour toi le RAID hard est préférable, mais pour l’hébergeur que je connais, qui possède une bonne centaine de serveurs dont des serveurs de stockage, depuis l’emploi de ZFS il a arrêté d’utiliser du RAID matériel (à base de carte dédiée) et il n’a aucun souci de performance : il peut écrire sur un de ses SAN iSCSI à 10 Gb/s, peut-être 20 avec le trunking s’il l’a mis en place depuis 2010.
HarmattanBlow a l’air de penser comme moi :
HarmattanBlow a écrit :
D’abord ça coûte moins cher que le RAID (moins d’exigences sur les disques), ensuite cela protège contre davantage d’erreurs que le RAID, et enfin j’imagine que comme avec ZFS à terme il n’est même plus nécessaire de faire du RAID et qu’on se contente de JBOD.
Obidoub a écrit :
Pas forcément.
Linux ne support pas UFS/ZFS (utilisés par FreeBSD)
FreeBSD ne supporte pas ext4/btrfs (utilisés par Linux)
Tout ça pour des questions de licence.
Linux supporte UFS depuis longtemps si je ne m’abuse (je connais la question des licences, en effet c’est le seul souci si jamais), et pour ZFS le support avance de plus en plus.
Le
18/04/2013 à
10h
25
psn00ps a écrit :
Je ne vois pas l’INtérêt de ce nouveau FS…
Il y a du RAID qui gère ça de manière hardware et qui n’impose pas de FS particulier.
Avec un filesystem comme ZFS (créé par Sun), on ne fait même plus de RAID hardware, c’est le filesystem qui gère tout directement, la répartition des écritures comme la vérification de l’intégrité des données (avec des checksum). Testé et approuvé chez un hébergeur.
Ta carte graphique envoie du 32 bits et non du 24.
PS : enfin sous réserve que ton chipset graphique et tes drivers soient compatibles, et que ta connectique le supporte (HDMI, DP ou DVI-DL).
Pour ce qui est de l’utilité réelle d’une LUT sur une dalle de cette qualité comme j’ l’ai dit plus haut, elle est quasi nulle.
Par contre sur une dalle wide gamut qui affiche 10 ou 12 bits par couleur la oui cela se comprends déjà mieux.
Les données de l’image sont stockées en 24 bits dans les formats d’image courants, à moins qu’avec des logiciels particuliers, on monte à plus (genre 30 bits soit 10 bits/composante ce qui doit être indistinguable à l’oeil même dans le vert). Il y a quoi comme information dans les 32 bits que la carte est supposer envoyer ? Mon affichage sous X11 (sous Linux) est censé être en 32 bits mais en fait les pixels sont en 24 bits, les 8 bits restant sont inutilisés (à moins que ça stocke de l’alpha pour de la surimpression vidéo, je ne sais pas si c’est possible).
Note que le wide gamut est indépendant de la finesse des couleurs (8 ou 10 ou 12 bits par composante). A quoi sert une dalle capable d’afficher 12 bits par couleur sans source capable d’exploiter cette finesse ? (et l’oeil ne doit rien distinguer entre 2 couleurs voisines).
Le
17/04/2013 à
09h
46
Yangzebul a écrit :
Ah mais je suis tout à fait d’accord je suis le premier à regarder les types de dalle, Gamuts et la présence ou pas de LUT sur les écrans.
La couleur ça fait parti de mon boulot, des écrans et des sondes j’en ai vu pas mal passer entre mes mains et des étalonnages et caractérisations j’en ai fait des centaines.
Alors oui il y a une LUT hardware… une LUT hardware sur un écran sRGB ça nous fait une belle jambe ! Autant mettre des portières de Maserrati sur une Clio.
Si j’ai bien compris en suivant le lien indiqué dans l’article concernant la LUT (Look Up Table), l’écran dispose donc de cette table (configurée via un logiciel+sonde de calibration) et c’est lui qui effectue la correction à la volée à partir des données envoyées par la carte graphique ? Ce que je ne comprends pas, c’est que la carte graphique envoie du 24 bits (8 bits par composante primaire), je comprends que la LUT en interne gère par exemple du 10 bits pour l’interpolation (surtout dans les valeurs sombres), mais du 14 bits (64 fois plus de précision), à quoi ça sert ?
Le
16/04/2013 à
11h
19
Gandalf_barbones a écrit :
alléchant, mais hors de prix!
Qu’il soit plus cher qu’un 24” 16⁄9 TN, c’est normal… même nettement plus cher… mais là, c’est stratosphérique.
un écran de ce type ne devrait pas dépasser les 350 euros!
Yangzebul a écrit :
750$ pour un écran 8 bits sRGB ??
Ils ont vu la vierge ou quoi ?!
Ca vaut 300 à 350 euros GRAND maximum.
Ces commentaires me laissent toujours perplexe. En quel honneur ça “ne devrait pas dépasser” tel prix ? Vu la concurrence sur ce marché, si le prix est à ce niveau-là, c’est qu’il y a des raisons derrière : procédé de fabrication, contrôle qualité, etc…
De mon point de vue, c’est de trouver des 24 pouces à aussi peu que 250 E qui est dingue. Je préfère acheter de la qualité qui dure, un écran bien calibré, etc.
Car un 20 pouces en 1920 × 1440, moi ça me tenterait bien " />
+1 :-) .
C’est marrant certains commentaires qui ont des exigences non perceptibles et donc sans intérêt (le contraste de 10 000:1 par exemple), ou qui s’attendent à ce que le prix des écrans continue à baisser sensiblement. Le marché étant mûr, le prix ne peut plus guère baisser comme avant, c’est déjà étonnant un bon 24 pouces à ce prix-là, de mon point de vue. Faisant de la photo amateur, si l’écran a un bon DeltaE (colorimétrie fidèle), je suis prêt à payer un supplément non négligeable.
13775 commentaires
PQ321 : ASUS dévoile son premier moniteur 4K IGZO de 31,5 pouces
30/05/2013
Le 31/05/2013 à 09h 48
Le 30/05/2013 à 19h 58
Intel Linux Graphics Installer : mise à jour et support d’Ubuntu 13.04
30/05/2013
Le 30/05/2013 à 19h 49
Novlangue : « vidéosurveillance » contre « vidéoprotection », ça continue
22/05/2013
Le 22/05/2013 à 13h 44
Le 22/05/2013 à 09h 43
Je n’ai plus sous la main le lien vers une étude qui montrait le coût élevé de la vidéosurveillance en France pour un effet quasi nul sur la sécurité, c’est sorti il y a environ 2 ans je crois, il faudrait voir du côté de Jean-Marc Manach.
La vidéosurveillance ne protège rien et son aspect dissuasif est bien faible comme on peut le constater. Dans certains cas, elle peut être utile en permettant de retrouver des auteurs d’actes illégaux (on l’a vu pour certains attentats, mais en l’occurrence ça ne les a pas empêchés).
Le recap’ des tests : prenez en plein les oreilles
20/05/2013
Le 21/05/2013 à 14h 29
A ce prix-là pour les cartes de numérisation Asus, ça ne doit pas être de la top qualité. En plus, pour que ça vaille le coup d’utiliser du 24 bits et 192 kb/s, il faudrait vraiment que la qualité soit à l’avenant et avoir des besoins d’édition pro. Sinon, le 44 kHz et 16 bits c’est plus que suffisant.
Cf cette intéressant (et long et en anglais) article : “24⁄192 Music Downloads… and why they make no sense”http://xiph.org/~xiphmont/demo/neil-young.html et je recommande aussi le lien en note 1.
Non, on ne peut pas transformer une GeForce GTX 680 en GTX 770
14/05/2013
Le 14/05/2013 à 16h 20
Le 14/05/2013 à 14h 05
Blu-Ray High Fidelity Pure Audio : les albums en MP3 et FLAC à la demande
14/05/2013
Le 14/05/2013 à 15h 08
Le 14/05/2013 à 14h 22
Ce “Pure Audio” c’est encore du pipeau marketing, c’est indistinguable d’un CD audio même sur une chaîne HiFi de qualité, ce dernier reproduisant déjà de façon extrêmement fidèle les sons que l’oreille humaine peut capter.
C’est drôle les gens prêts à payer des vinyls, en 2013, en ignorant la qualité apportée par le CD.
Huit pirates inculpés pour un casse de 45 millions de dollars
10/05/2013
Le 10/05/2013 à 14h 44
Le recap’ des tests : un ordinateur pour tous les usages
30/04/2013
Le 01/05/2013 à 21h 36
Haswell : lancement le 4 juin
26/04/2013
Le 30/04/2013 à 10h 09
Le 27/04/2013 à 15h 44
Blu-Ray High Fidelity Pure Audio : Universal se lance le 14 mai
23/04/2013
Le 28/04/2013 à 14h 28
Le 27/04/2013 à 15h 34
Le 26/04/2013 à 21h 17
Le 26/04/2013 à 15h 44
Le 26/04/2013 à 13h 02
Le 25/04/2013 à 15h 03
Le 25/04/2013 à 08h 22
Le 24/04/2013 à 15h 18
Le 24/04/2013 à 13h 14
Le 24/04/2013 à 13h 03
Le 24/04/2013 à 09h 49
Le 24/04/2013 à 09h 47
Le 23/04/2013 à 17h 12
Le 23/04/2013 à 15h 34
Le 23/04/2013 à 13h 21
Le 23/04/2013 à 13h 13
Le 23/04/2013 à 12h 47
Le 23/04/2013 à 12h 29
Le recap’ des tests : quatre PC compacts, dont trois portables
25/04/2013
Le 26/04/2013 à 08h 50
Le 25/04/2013 à 22h 52
J’en profite pour rappeler un bon plan pour ceux qui veulent un ultra-portable très abordable et aux performances correctes, le modèle Asus X201E-KX042DU avec Core i3 Ivy Bridge (et non un Celeron ou Pentium) vendu sous Ubuntu Linux pour moins de 400 E :
cfhttp://www.laptopspirit.fr/127355/promo-379-euros-asus-x201e-kx042du-116-sous-li…
Plus ça se vendra, plus ça incitera les constructeurs à vendre des modèles sous Linux (donc parfaitement supportés), et ça permettra l’économie de la taxe MS-Windows pour tous ceux qui commencent par reformater pour mettre un Linux.
Pour installer Ubuntu 12.10 ou 13.04 (pour avoir Flash plus efficace par exemple), j’ai noté cette page et ses commentaires :http://bach-online.de/2012/12/27/ubuntu-12-10-on-the-asus-f201e-x201e/ .
ASUS 1015E : le retour des mini-portables de 10,1″ à moins de 300 €
22/04/2013
Le 23/04/2013 à 10h 54
Le 23/04/2013 à 08h 55
Le 22/04/2013 à 09h 41
Le 22/04/2013 à 09h 26
Le 22/04/2013 à 08h 59
Des députés veulent plus d’infractions verbalisables par vidéosurveillance
19/04/2013
Le 23/04/2013 à 09h 00
Le 19/04/2013 à 09h 34
Le 19/04/2013 à 09h 17
Le 19/04/2013 à 09h 11
Le 19/04/2013 à 08h 37
Il n’y en a qui n’ont pas lu Big Brother on dirait, en tous cas ils manient la novlangue avec cette vidéo-“protection” qui ne protège rien du tout, au mieux ça permet de surveiller un peu. C’est quand même se mettre sur une pente glissante, aujourd’hui on prend comme prétexte le dépôt d’immondice, mais ça peut aller loin. Je ne comprends pas que ça ne leur vienne pas à l’esprit que c’est le risque d’une surveillance généralisée.
Le système de fichiers ReFS est bien présent dans Windows 8.1
18/04/2013
Le 18/04/2013 à 12h 15
Le 18/04/2013 à 10h 25
NEC P242W-BK : un écran AH-IPS de 24″ en 16:10 avec un hub USB 3.0
16/04/2013
Le 17/04/2013 à 12h 12
Le 17/04/2013 à 09h 46
Le 16/04/2013 à 11h 19
Philips 240PQ4PYNS : un écran IPS de 24″ en 16:10 (1920 x 1200 pixels) à 340 €
09/04/2013
Le 09/04/2013 à 19h 42