J’ai eu une fois un fichier vidéo que j’ai pu voir une fois, ensuite plus rien. mais le fichier gonflait à chaque lecture dont il me fallait interrompre. j’ai su l’effacer en retirant son blocage en écriture
Je n’ai jamais entendu parler d’un phénomène semblable. J’ignore ce que c’est. Mais un fichier qui gonfle (de poids j’imagine) à la lecture, alors qu’il est protégé en écriture (et peut-être en droit) ? Ça ressemble plus à un malware, à un bug qu’à un DRM. Ou alors à une tentative désespérée de lire avec un lecteur vidéo pagefile.sys " />
Le
21/05/2017 à
12h
43
2show7 a écrit :
Ne parle-t-on pas de signature du fichier, détectable pour sa limitation de copie ?
La signature musicale d'un fichier existe de longue date. Elle est stockable dans les métadonnées des formats existants (MP3, FLAC…). Pas besoin de créer un format spécial.
La signature d'achat existe également de longue date, et est stockée de la même manière dans les métadonnées, ou disséminée dans le flux ce qui la rend difficile à retirer. Exemples : les signatures dans les fichiers ePub (format standard), ou encore le watermarking (filigrane) que l'on trouve dans des fichiers FLAC.
La signature ne limite pas la copie, sauf à mettre en place un nouvel environnement logiciel. C'était le cas du DVD Audio. Il était possible d'y mettre un filigrane, et de bloquer les copies si l'appareil détectait le filigrane. On retrouve la même chose avec Cinavia pour les films : le fichier MKV (ou autre) est parfaitement lisible sur les trillions de lecteurs logiciels PC/Android/Mac… mais les platines ou autres appareils peuvent intégrer une détection de signature et bloquer le flux.
La signature d'achat a en revanche un effet bloquant sur les partageurs, qui peuvent hésiter à mettre en ligne le fichier numérique qu'ils viennent d'acheter. La copie est donc techniquement possible, elle est même aussi simple et transparente qu'avant ; il y a en revanche un effet de blocage moral induit par la personnalisation des fichiers achetés, car le primo partageur sait qu'on pourra aisément remonter jusqu'à lui.
Mais je le répète : ces scénarios existent déjà, et il sont greffés sur des formats qui sont standards, ouverts, et parfois même open-source (une vidéo encodée en VP9, avec un son au format FLAC, muxée dans un conteneur MKV est ainsi 100% libre d'un point de vue technologique, mais sa lecture peut être bloquée sur une platine équipée d'un dipositif Cinevia et si une personne a achetée cette vidéo et qu'elle l'a met en partage, il est tout à fait possible d'en identifier l'acheteur originel).
Donc vraiment pas besoin d'un nouveau format pour mettre des signatures partout. Au contraire, mieux vaut (pour les ayants droits) les mettre sur les formats les mieux implémentés, car cela diffusera d'autant mieux les dispositifs de marquage et de traçage :)
Le
21/05/2017 à
12h
17
2show7 a écrit :
Surtout que le but, c’est d’abandonner le Mp3 pour aller vers un format plus protégé (protecteur de droits)
Si tu parles de DRM, je ne pense pas. Les formats proposés par le MPEG n'ont vraiment rien à voir avec les DRM. Ces derniers sont des outils logiciels qui viennent se greffer sur des formats pré-existants, et ils sont développés par des sociétés tierces.
Certaines personnes considèrent encore que l'AAC est un format protégé, parce qu'ils ont découvert ce format avec iTunes, et parce qu'Apple avait l'obligation contractuelle de protéger la propriété intellectuelle des morceaux musicaux vendus. Mais l'AAC existait avant sans protection, et il n'existe aujourd'hui que sans protection. Il en va de même pour les autres formats, y compris les formats libres tels que Vorbis, qui eux aussi ont connu leur épisode DRM (c'est tellement vieux que j'ai du mal à retrouver des sources) :
et il y en avait encore un autre de mémoire, là aussi difficile à exhumer.
L'abandon du MP3 par le grand public ne va pas se traduire par la résurgence des DRM. Ces derniers ont plombé les ventes de fichiers. Je ne vois donc pas comment le public irait spontanément abandonner un format pour utiliser au quotidien un dispositif logiciel qui rend bien plus complexe les opérations de transferts. Il faudrait une sacrée carotte au bout pour que la sauce prenne, et le problème des formats ayant succédé au MP3, c'est qu'ils n'offrent que des mini-carottes (formats un peu plus efficaces, permettant soit de gagner un peu plus de place alors que la capacité mémoire galope d'années en années ce qui en mine évidemment l'intérêt, soit de grappiller un chouilla plus de qualité alors que le MP3 atteint déjà la transparence dans les situations les plus courantes et pour une majorité de ses utilisateurs).
Le
21/05/2017 à
11h
47
2show7 a écrit :
En plus, on vend encore des vinyls (analogique et pas numérique " />)
:)
Et on vend encore plus de compact discs que de vinyles, alors que les brevets d’exploitation du Compact Disc Audio ont expiré en 2003.
Je répète ce que je disais plus haut : les exemples de techniques dépourvues de brevets et qui sont encore massivement utilisées sont tellement nombreux que leur seule énumération donne l’impression d’avancer des arguments cons. On se sert tous du feu, de l’électricité, des portes, des vitres, des couteaux et des tables alors qu’ils devraient être encore plus « morts » que l’est le fraîchement décédé mp3.
Le
21/05/2017 à
09h
51
TexMex a écrit :
C’est simple; Google est ton ami. Suffit de se pencher sur le clavier.
Au pif: YouTubeC’est un condensé, il faudrait des heures de vidéo pour tout passer tout en revue.
J’ai des personnes dans mon entourage qui sont tombées pile dans les cas décris dans cette vidéo.
Merci d’avoir répondu. Si je te demandais de définir « fiasco », qui selon toi défini le médicament générique en France, c’était pour comprendre ce que tu entendais par là. Le chiffre d’affaire du générique en ville (France) se compte en milliards d’euros, ce qui l’éloigne du fiasco tel qu’on l’entends couramment (c’est à dire comme échec commercial).
Il y a un nombre croissant de spécialités qui n’existent plus qu’en générique, tels les antibiotiques de bases. Et à ma connaissance, la consommation des médicaments antibiotiques ne se caractérise pas par la parcimonie…
J’ajoute, en hors sujet toujours, que si tu souhaites donner des arguments pour ou contre dans le domaine médical, la réponse « Google est ton ami » ou les vidéos Youtube ne te donneront aucune, mais vraiment aucune crédibilité. Sais-tu qu’avec des orties et de la bave d’escargot tu peux guérir du cancer, du psoriasis et faire repousser les cheveux => google est ton ami. Démerde toi avec ça, tu trouveras bien une ex-citadine reconvertie dans l’élevage de chèvre tenant au quotidien son blog qui présentera sa recette miracle 100% bio, 100% naturelle et donc 100% bonne pour nous (forcément, puisque c’est naturel, c’est que c’est bon).
Voyons ensemble le lien que tu donnes en argument. La vidéo proposée est faite par un médecin généraliste. Il est médecin certes, et c’est un bon départ. Mais depuis quand un médecin généraliste peut à lui seul remplacer les milliers d’études en pharmacologie et en santé publique réalisées autour du médicament ? Comment il évalue la pharmacodynamique d’un générique par rapport au princeps ? Avec un doigt mouillé ?
Quand à son bouquin, il est publié aux Éditions du Moment ? Tu connais cette maison d’édition ? Pas moi. Elle fait autorité en matière médicale et scientifique ? Voyons ensemble. J’ai jeté un œil sur leurs publications :
Bref, c’est une une maison d’édition qui publie un essai sur Henri Salvador et sur Zlatan Ibrahimovic, mais aussi sur la maîtresse de François Hollande, les « révélations sidérantes » sur les attentats du Bataclan, sur Gad Elmaleh, un tennisman, Stromae, « l’enquête interdite sur le PSG », etc… Les titres sont presque tous racoleurs, les sujets sont hyper variés. Je ne sais pas si toi ça t’inspire confiance, mais moi autant que si le Journal de Mickey avait publié un texte de cet auteur (et encore je pense que Walt Disney est plus scrupuleux quant au choix de leurs auteurs).
Il s’agissait du MP3Pro. Le format ne doublait pas le poids, mais annonçait une réduction de moitié pour une qualité égale (équation très optimiste).
Thomson avait de son côté et en 2009 mis au point le MP3-HD, qui n’avait rien à voir avec de la HD, mais avec le lossless. Il s’agissait d’un encodage MP3 standard, avec création de données de correction qui permettaient au décodeur de regénérer l’original sans perte. Des formats lossless tels que WavPack et OptimFrog proposent cette articulation “lossy + données de correction” depuis plus longtemps encore. Mais avec le MP3HD les données de correction figuraient dans les tags ID3 (ce qui était très original, et permettait de n’avoir qu’un volumineux fichier au lieu de deux plus réduits). L’intérêt du format ? Cela permettait d’avoir un seul encodage, lisible sans perte sous certaines conditions (décodeur adapté), lisible quasi partout ailleurs (il s’agit d’une base MP3).
LAME s’est massivement développé à la fin des années 90 et durant les années 2000, à une époque où les brevets en rapport avec le format était actifs. La fin de la protection intellectuelle ne devrait en toute logique pas avoir d’incidence sur le développement du format, puisque les brevets n’ont jusque là jamais constitué un obstacle.
On peut d’ailleurs constater que l’âge d’or des formats avec pertes est révolu. Il y a 15 ans, il ne se passait pas un mois sans que sorte une nouvelle version de LAME MP3, d’Ogg Vorbis ou l’un de ses forks, de Musepack, de Nero AAC. Il y avait une forte attente : ceux qui rêvaient de transparence à 64 kbps pour stocker toujours plus sur des supports exigus, et ceux qui rêvaient de transparence sur les signaux les plus critiques avec des encodages compris entre 180 et 250 kbps.
Au fil des ans, la mémoire flash a gonflé alors que les prix se sont effondrés. La recherche des petits débits n’intéresse désormais plus le grand public. Les audiophiles intranquilles ont quant à eux basculé vers le lossless. Les développements en audio ne suscitent plus beaucoup d’intérêt, d’autant plus qu’un certain cap franchi, il devient difficile d’obtenir des gains de qualité qui n’entraînent pas occasionnellement des régressions.
Il suffit de comparer l’intérêt que suscitaient le MP3Pro ou l’arrivée de Vorbis au début des années 2000, à la très faible visibilité d’Opus qui semble pourtant être le format le plus avancé du moment, et qui en plus d’être libre a été intégré à des standards industriels. Il a tout pour plaire. Mais même les technophiles s’en fichent d’avoir un encodeur qui offre à 80 kbps une qualité comparable à un AAC à 100 kbps ou qu’un MP3 à 128. Alors les autres…
Le
18/05/2017 à
19h
37
TexMex a écrit :
T’aurais mieux fait d’éviter ce rapprochement vu le fiasco que sont les médicaments génériques en France.
Il faudra que tu précises ce que tu entends pas fiasco " />
Le
18/05/2017 à
13h
09
Fraunhofer sort une connerie, et une partie de la toile la répète obligeant l’autre à la démentir " />
Évidemment que l’expiration d’un brevet n’entraîne pas la disparition du produit concerné. Il suffit d’aller en pharmacie et de voir la longue liste des génériques. On utilise toujours et encore la roue, le papier, le couteau et la fourchette (enfin pas tout le monde). Bref, le syllogisme est tellement con que même les arguments de bon sens donnent l’impression d’être tartes.
En relisant l’article et en suivant les sources citées, je note aussi que vous écrivez :
Un prix test, mais peu de détailsPar qualité « sans perte », la société peut entendre plusieurs choses, la plus probable étant une qualité CD (16 bits et 44,1 kHz).
Alors que les captures d’écran du site Spotify ne laissent pas vraiment planer de doute :
Spotify indique explicitement « Lossless CD quality audio ». Ce qui veut dire 16 bit 44100 Hz en PCM (compressé avec un encodeur au choix et crypté par la suite). Les plates-formes reçoivent des fichiers sans compression (sans perte en tous cas) qu’ils convertissent eux-même. Spotify n’a pas d’effort particulier à faire pour obtenir une bibliothèque lossless, puisqu’ils l’ont déjà. Ils doivent juste renégocier les droits et adapter les logiciels. Et bien sûr communiquer pour convaincre.
Le
02/03/2017 à
20h
36
OlivierJ a écrit :
Je ne pige pas ce que c’est supposé vouloir dire. On ne peut pas inventer du signal qui est absent du fichier (en plus quand c’est déjà un fichier plus riche que nécessaire).
Le principe est déjà ancien. Il était utilisé par le HDCD, format déjà ancien (années 90) qui était compatible avec tous les lecteurs CD et qui pouvait, sur les lecteurs équipés d’un circuit HDCD, sortir du 20 bit.
Je pense que tu sais ce que sont les LSB (Less Significant Bit). Pour les autres : il s’agit des derniers bit d’une information numérique. En audio, plus on augmente la résolution (8 bit -> 16 bit -> 24 voire 32 bit) moins l’apport de cette montée est perceptible. En augmentant de 4 bit un signal codé à 2 bit, on réalise un bon colossal. Mais en augmentant de 4 bit un signal codé à 16 bit, on ne perçoit plus de différence (du moins pas en aveugle). Dans les deux cas pourtant, l’apport est le même : 4 bit. Cela témoigne de la non-linéarité de la qualité perceptible. Sur un fichier riche en information (c’est déjà le cas à 16 bit), les derniers bits ont donc un impact très limité sur la qualité perçue.
Ainsi, sur un fichier en 24 bit, les 8 bit ajoutés aux traditionnels 16 bit (CD audio) n’apportent quasiment rien. Tellement rien qu’on pourrait coder sur ces 8 bit supérieurs un discours de Trump sur les 16 bit d’une sonate pour piano de Mozart, que l’auditeur n’entendrait rien de différent d’un CD habituel.
L’idée du MQA, c’est de coder sur les LSB d’un fichier audio des données informatiques non-audio. Ces données n’apportent que du bruit (mais très faible, situé entre -96 et -120 dB) lors du décodage FLAC. Mais si un décodeur MQA passe par là, il va s’aider de ces données pour recréer des infos (approximatives) et rééchantillonner le tout en 24⁄192.
On obtient donc au final une structure en « origami », mêlant données lossless et données lossy dans une région où notre appareil sensoriel est de toute façon à la ramasse. Le signal n’est donc pas inventé, puisque la partie manquante a été codée (avec pertes).
Le
02/03/2017 à
14h
07
Ça ne sonne pas comme du bullshit marketing. Ç’en est :)
Le format ne m’intéresse pas à titre personnel. Ceci dit, un engouement d’ampleur pour l’irrationnel est tout à fait possible (voir le marché du vinyle par exemple). Le MQA apporte la prétendue haute-résolution dans un contexte de lecture en flux à bande passante limitée. Il y a plein de gogo mélomanes. Les sites de streaming aiment tout le monde, y compris les gogo. Donc il y a moyen de ratisser du monde en proposant un truc qui n’améliore le son que pour ceux qui y croient. Et en plus on peut leur faire payer plus, bien plus que ce qui est nécessaire pour financer le surcoût en bande passante.
Le tour de force du MQA, c’est d’offrir une reconstruction avec pertes des données les moins audibles et de vendre ça comme le graal sonore. A lire les forums audio/idiophiles comme computeraudiophile.com, une partie du public adhère.
Le
02/03/2017 à
13h
42
Tu penses sérieusement que les internautes n’ont pas davantage entendu parler de FLAC (format existant depuis 15 ans, devenu même compatible nativement avec Windows 10, lisible nativement sur Android, utilisé par tous les sites marchands qui vendent du lossless) que du MQA (format qui a un an environ, propriétaire, et dont la carrière commerciale a débuté il y a quelques semaines) ? Ou tu parles peut-être du FLAC HR ?
Le
02/03/2017 à
12h
45
Votre article omet de mentionner une piste : le MQA.
Le MQA est un format audio développé par la société Meridian. Grosso modo, il s’agit un noyau FLAC 24 bit 48 KHz auquel s’ajoute des données non-audionumériques qui permettent à un décodeur de sortir du 24 bit 192 KHz. En gros, c’est un format lossless avec une extension lossy pour les données situées en dehors du spectre audible. Auquel s’ajoute un filtrage qui rend l’opération plus complexe. L’avantage sur le lossless 24⁄192, c’est évidemment le gain d’espace. Parfait pour un service de streaming, qui peut vendre du “meilleur-que-le-cd” à plus de gens. En plus, et c’est un gros avantage, un fichier MQA peut être lu sur l’importe quel logiciel ou matériel décodant le FLAC (il lira du 48 KHz/24 bit avec une qualité équivalent à peu près à du 48⁄18 bit)
Le MQA est un format audio qui s’est imposé chez Tidal depuis deux ou trois semaines. Le service annonce 30000 albums (ou titres, à vérifier) rapidement.
C’est un format qui fait polémique. Des audio/idiophiles le trouvent excellent alors que d’autres trouvent que le format n’apporte rien. Le spectre des DRM refait surface (le format est propriétaire, mais n’importe quel décodeur FLAC reste en capacité de lire le noyau qui reste d’excellente facture).
On n’en a pas beaucoup entendu parler en France, faute d’offres commerciales. Si Meridian signe avec Spotify, cela pourrait changer la donne. Mais c’est une simple hypothèse, qui manquait dans votre article.
Alité et en repos de force, je décide d’opter pour un abonnement Qobuz me permettant d’écouter sur tablette et téléphone (javais jusqu’à récemment un abonnement dit basique, depuis disparu de l’offre tarifaire).
En moins de quatre heures, l’application a planté une demi douzaine de fois. Sur ma tablette, si je bascule de l’application à Opera, me flux s’interrompt. Sur mon téléphone, il arrive fréquemment que la lecture s’arrête à la fin d’une piste, sans daigner passer automatiquement à la suivante. L’enchaînement gapless ne fonctionne nulle part bien que l’option soit cochée. À plusieurs reprises les éléments de la playlist restent vide. Testé sur deux appareils mobiles et même constat : une application mal finie, non testée, qui ne permet pas d’utiliser convenablement un service qui coûte entre 100 et 250 euros par an.
Je pose la question : sont ils totalement à court de moyens et impuissants chez Qobuz, ou totalement irresponsables ? Ils sortent une nouvelle application, les sites d’info leur font un peu de pub, cela draine de nouveaux clients, bref c’est une excellente opportunité qui ne demande pour être opérante qu’une application convaincante. Au lieu de quoi, ils publient sur leur store un machin encore largement buggé, qui ne peut que convaincre de ne pas aller au bout des quinze jours gratuits. Qobuz a bien cinq ans, pas cinq semaines ni cinq mois. Si dans ce laps de temps ils ne parviennent à faire mettre au point une application finalisée, qu’ils fassent comme leur grande sœur Abeille Musique : mettre la clé sous la porte.
C’est vrai pour le profil “High”, c’est celui que je sélectionne pour Handbrake, je ne sais pas quelle contraintes il entraine sur les décompresseurs, je suppose que ça demande plus de puissance, ou peut-être des variantes algorithmiques que tout le monde n’implémente pas par défaut.
Oui, le décodage nécessite plus de ressources et le mode HIGH demande des prérequis qui ne sont peut-être pas implémentés partout. Ceci étant, si Netflix décide d’opter pour ce mode aujourd’hui, c’est que les soucis d’incompatibilités doivent être plutôt modestes. Téléphones, tablettes, GPU PC supportent le mode High depuis longtemps déjà. Ce n’est pas comme s’ils avaient été implémentés il y a deux ou trois ans à peine. D’où ma surprise.
J’imagine toutefois sans peine qu’une société qui veut se développer veut limiter au maximum les frustrations et permettre à tout le monde d’accéder à ses services. Du coup, du 360p en AVC Main permettait vraiment de brasser large le temps que la notoriété de la marque soit bien établie.
Le
09/12/2016 à
11h
16
Il était sans doute temps d’opter pour le profil High, qui existe depuis les débuts du format. Je pensais même que c’était déjà le cas, avec tout le blabla autour du thème Netflix optimise l’encodage…
En gros, la société commence à peine à utiliser ce que les internautes trouvent depuis près de dix ans sur la toile. À ce rythme, l’HEVC pourrait être adopté à l’horizon 2028
On parle, pour une immense majorité d’ouvrages, des titres qui ne sont plus exploités dans le commerce (hors-occasion), et qui ont peu de chances de l’être encore. Et lorsqu’ils le redeviendront, il s’agira très vraisemblablement d’un petit tirage qui mettra des lustres à s’écouler ou simplement par finir au pilon.
Je rappelle que pour ces ouvrages, l’auteur n’a strictement aucun droit d’exploitation : ce droit, il l’a cédé auprès d’un éditeur qui depuis a cessé de commercialiser son travail. Dans le meilleur des cas, il peut récupérer ces droits d’exploitations auprès d’un tribunal qui peut constater le défaut d’exploitation ou de valorisation de l’œuvre qu’il est censé exploiter.
Avant ReLire, les auteurs en question ne gagnaient rien du tout après épuisement du titre (sauf rares exceptions liées à un retirage). Avec ReLire, ils pouvaient bénéficier d’une micro-compensation.
À mon sens l’entorse faire par ReLire au droit d’auteur était une excellente chose : pour tous les lecteurs potentiels, pour une immense majorité d’auteurs au travail jusqu’alors inexploité, pour tous ceux qui n’auront pas à faire je ne sais combien de bornes pour accéder à une bibliothèque universitaire et accéder aux titres convoités.
Il ne faut pas perdre de vue l’essentiel : si ces titres sont sortis du commerce, c’est qu’ils ne se vendaient (quasiment) plus. En les remettant en ligne, ils ne se vendront pas davantage. S’il y a préjudice pour les auteurs, il se chiffrera en dizaine d’euros à l’année (pour les mieux lotis).
Généralement, les capteurs mesurent la fréquence cardiaque : le nombre de battements dans un temps donné (généralement une minute). Le rythme cardiaque est différent : c’est une mesure la régularité. Mon cœur peut battre à 60 battements par minute (c’est sa fréquence) mais s’il fait ses 60 battements en dix secondes et cesse de pomper les 50 secondes suivantes, c’est de l’arythmie. Dans les deux cas, la fréquence cardiaque est identique, mais dans l’un la personne va bien et dans l’autre elle tombe dans les vapes.
La confusion est courante, mais je me permets de vous la faire remonter :)
Certains livres de Science Fiction “Fleuve Noir Anticipation” ont été ré-imprimés et ont subi une inflation importante non justifiée ???
Quant aux ayant droits des auteurs décédés... À quel effort ont-ils participé ?
Toujours à propos du prix du livre en France... Bouquin d'informatique (écrit par un français et publié en France dans une édition française) acheté à Paris en 1989 et quelques mois plus tard je trouve le même bouquin à Koblenz traduit en allemand et imprimé en Allemagne 30% moins cher alors qu'il a eu un travail supplémentaire le traducteur. Je ne pense pas une maison d'édition allemande fasse du piratage.
Je ne vais pas chercher à justifier le prix de certains titres. Commençons pas la SF populaire des années 70. C'était une littérature très prisée par le public. Un éditeur pouvait commercialiser cela dans des éditions peu coûteuses à fabriquer, dans des volumes assez importants, trouver des présentoirs dans des lieux très fréquentés : cela coûtait pas cher parce que cela pouvait se vendre bien.
Aujourd'hui, le contexte n'est plus le même. Ces titres, qui ont parfois mal vieillis (la description en 1970 de l'année 2020 ne peut que faire sourire aujourd'hui), trouvent un public bien moins vaste. Les éditeurs qui se risquent à les rééditer ne sont pas toujours ceux d'origine : rachat de droits, qu'il faudra rentabiliser. SI l'éditeur ne sait pas comment se vendra sa réédition, il publiera cela dans un format plus grand, plus facile à rentabiliser car vendu plus cher.
Aujourd'hui, les titres de SM/érotique light se vendent extrêmement bien. Hier, c'était les histoires de vampires/loup garous. Il y a des modes. Dans trente ans, il est possible qu'un éditeur commercialise les Nuances de Grey à l'attention d'un public nostalgique. Le prix ne sera sans doute plus celui des éditions de poche, mais il faudra enlever un voire deux zéros sur le volume des ventes.
Les droits que touchent les fils et petits-fils ne rentrent pas dans le débat. Je suis contre moi aussi. C'était justifié à une époque où l'État Providence n'aidait pas les veuves et orphelins. Aujourd'hui, c'est surtout une aide économique aux maisons d'éditions (qui touchent l'essentiel des droits), une forme de rente.
Un livre traduit peut aussi coûter moins cher en France que dans son pays d'origine. On cite souvent les États Unis comme le royaume du livre à prix cassé (Les GoT reliés ou électroniques qui s'achètent pour un rien), pourtant j'ai déjà vu des ouvrages de philo ou de sciences humaines dont le prix éditeur était stratosphérique (entre 100 et 150 dollars le livre banal) et qui arrivait chez nous au prix habituel pour ce genre d'ouvrage (entre 25 et 40 euros), malgré les coûts de traduction. Il n'est pas exclu que le public soit plus grand dans un autre pays (parce qu'il raffole de l'auteur, du sujet, du logiciel…) ce qui permet de le vendre plus. Certains éditeurs ont en place des collections à prix fixes qui se vendent bien, et ajoutent des traduction à des prix moindres que l'éditeur dans son pays d'origine.
Un prix est en grande partie arbitraire. Et pour un même texte, il peut y avoir livre et livre. Un éditeur peut publier un ouvrage sur Lightroom sur papier glacé en quadrichromie grand format et relié, ou dans un format plus modeste, noir et blanc, sur du papier basique. Un roman peut être composé à l'arrache et imprimé sur du papier bon marché auprès d'imprimeurs dicount, reliés de façon limite — ou il peut avoir été composé avec soin, sur du papier de choix, en utilisant une police (payante) originale, avec des couvertures plus élaborées, cahiers cousus ou collés avec une colle reconnue. Sans que le prix soit démesuré non plus.
Le
12/09/2016 à
12h
46
alex.d. a écrit :
Sur une ramette de papier, tu paies la TVA à 20% ; sur un livre, elle est à taux réduit. Ce qui fait le taux réduit, c’est donc quand même bien ce qu’il y a d’imprimé sur le papier, pas le fait que c’est du papier.
Le taux réduit est lié au statut culturel accordé au contenu du livre, et dont la ramette de papier est dépourvue. Cela n’empêche pas un fichier de n’être pas assimilable à un objet physique, et de n’avoir pas les mêmes contraintes et impacts sur l’économie du secteur.
Le
12/09/2016 à
12h
43
JeanM64 a écrit :
Personnellement, ce qui m’ennuie le plus c’est le prix actuel des livres : un mauvais exemple, les bouquin de sciences fiction (romans de gare) 5 à 6 francs dans les années 70 est vendu aujourd’hui 15 à 18€, je ne sais pas si le smic a subit la même inflation…
Comme tu le dis, c’est un mauvais exemple. On trouve des textes de SF dans des collections de poche à un prix deux fois moindre que celui que tu avances. D’autres en effet sont réédités à des prix plus élevés. C’est en grande partie liée à leur popularité qui est devenue moindre avec le temps. Les romans de gare sont peu ou prou au même prix qu’il y a trente ans. C’est juste que ce ne sont plus les mêmes textes.
JeanM64 a écrit :
Quant aux livres électroniques avec ou sans DRM c’est le peu de différence de prix entre le document papier et la même chose version électronique où l’on ne devrait payer que ce qui revient à l’auteur et une partie de l’entretien du site de vente.
Et l’éditeur ? Le traducteur ? La société qui a réalisé la version électronique ? La pub et les frais marketing ? Il y a d’autres acteurs en jeu que l’auteur et la boutique marchande. Sauf si l’auteur se passe de tout éditeur, et s’amuse à faire lui-même ses ePub, dessiner ses couvertures, faire sa campagne de pub, se faire distribuer par les boutiques, bref passer plus de temps à vendre son truc qu’à l’écrire.
Je reste cependant d’accord que le prix actuel des livrels est excessif pour ce qu’il représente (un fichier de quelques centaines de Ko).
JeanM64 a écrit :
La TVA sur les livres est aussi un frein à la culture et devrait s’appeler TFM (Taxe pour Favoriser la Médiocrité)
Euh… Je ne vois pas en quoi mettre 5,5% de TVA sur tous les livres sans distinction de contenu serait une manière de favoriser la médiocrité. Payer un livre 19 € au lieu de 20 € ne va pas créer un essor des Lumières en Europe. Bref…
Le
12/09/2016 à
12h
27
alex.d. a écrit :
Non, pour un ebook vendu en pdf non-verrouillé, qu’on peut utiliser comme un vrai livre, je ne suis pas opposé à ce qu’il bénéficie de la TVA réduite du livre. Ce n’est pas forcément le point de vue de la CJUE, mais ça serait logique.
Tu peux caler une table avec un PDF ? Tu peux décorer ton appart avec des PDF ?
Un livre est un objet physique. Un livrel reste un fichier, une séquence binaire. Le contenu du premier peut-être copié domestiquement mais pas sans introduire de grandes différences d’aspect ; le second est duplicable à l’infini.
C’est se mettre des œillères que d’affirmer que les DRM créent une distinction fondamentale qui séparent les usages et qui mettent certains livrels au même niveau que le livre et les autres dans la catégorie des services.
Le
12/09/2016 à
11h
43
Ton raisonnement se tient, sauf que la TVA différenciée concerne le livre numérique en général, et non le livre numérique avec gestion des droits de lecture (DRM).
N’oublie pas d’étendre ton raisonnement à la différence entre livre et ebook sans DRM. Eux non plus ne sont pas les mêmes produits. Mon livre physique n’existe qu’en une copie, alors que mon ebook sans DRM peut-être prêté, revendu, donné sans que j’ai à me séparer de lui. Si je veux trois copie d’un roman pour les mettre dans trois endroits différents (maison, bureau, logement de vacances), je dois acheter trois fois un exemplaire physique alors que l’électronique m’en dispense. En ce sens, le livre numérique devient déjà un service, DRM ou non.
Merci pour l’adresse pas très précise. Head-fi, c’est le forum sur lequel on trouve des internautes publiant des tests très sérieux. Du genre celui-ci :
En résumé : deux fichiers identiques peuvent sonner différemment selon qu’ils aient été copiés l’un avec l’explorateur de Windows, l’autre avec un autre logiciel. Et le mec qui avance ça a fait un test ABX : il a nommé un fichier A, un autre B, un troisième X et a écouté tout ça à la suite… un test ABX " />
Le
07/09/2016 à
16h
41
IhazHedont a écrit :
J’admets que toute la plage de fréquence ne me sera pas forcément audible, ceci dit, lorsque tu actives et désactives le DAC, il y a une réelle différence, surtout dans la restitution des basses (avec EQ neutre), et des hauts médiums.
De manière générale, je trouve simplement que le son est meilleur.
Moi aussi. C’est surtout lié au fait que sans DAC, il n’y a pas de musique d’origine numérique. Alors forcément, une fois activé, la différence est flagrante.
Plus sérieusement, lorsqu’on compare la sortie de son téléphone/baladeur à celle d’un DAC externe, il peut y avoir des différences assez marquées. Mais celles-ci sont plus généralement liées à la puissance de sortie des DAC, meilleure. Même les DAC bas de gamme atteignent de nos jours des performances qui étaient jadis inconcevables sans mettre une petite fortune.
Ce qui reste fondamentalement discriminant en audio de nos jours, c’est l’amplification et surtout les enceintes/casques. Le DAC joue un rôle très modeste en comparaison.
Le
07/09/2016 à
11h
05
« Cela devrait permettre non seulement de délivrer un son de meilleure qualité […] mais aussi de supporter nativement des formats de compression sans perte comme le FLAC, le DSD, l’AIFF et l’ALAC. »
FLAC et ALAC sont des formats de compression sans perte des données PCM. AIFF est du simple PCM (l’équivalent d’Apple des fichiers WAV), encore qu’il existe comme pour le WAV des modes de compressions avec pertes. DSD est un format radicalement différent du PCM, codé sur un bit.
Le DSD connait deux formats: DSF et DFF qui ne sont pas compressés. L’un des deux peut être compressé sans perte au format DST, et à l’heure actuelle aucun baladeur compatible DSD ne décode ce format DST (c’est un gouffre à ressources sur PC).
Je récapitule :
— formats compressés = FLAC et ALAC
— Formats sans compression : AIFF (PCM) et DSD.
Je trouve au passage la formulation quelque peu maladroite. À vous, lire, le quadruple DAC permet autant d’améliorer en théorie le son que de lire du FLAC et les autres formats. Or ce n’est pas le cas. FLAC nécessite très peu de ressources pour être lu (le format demande moins de ressources que du simple MP3) : http://www.rockbox.org/wiki/CodecPerformanceComparison…et le plus petit des processeurs audio dispose des ressources nécessaires pour y arriver :)
Je pense que si on supporte la décompression d’un format, on supporte le format non compressé :-) .
Tout faux. Le WMA n’est pas un format, mais sont des formats qui portent le même nom. WMA lossless est aussi dissemblable du WMA traditionnel que FLAC ressemble à du MP3. Je dois avoir eu quelques baladeurs supportant le WMA et le MP3, aucun ne décodait le WMA lossless, ni le WMA Pro (autre format avec pertes).
“un codage FLAC” ou “une compression FLAC”
“sans le chiffrer à minima”
:-)
NB: J’ai déjà acheté de la musique sur un site français il y a des années, au format FLAC justement. Je n’ai plus le nom en tête, je crois que c’était Starzik, et on pouvait aussi avoir du MP3 sans DRM.
L’achat ne pose pas de problème. En fait, tu ne trouveras pas du FLAC crypté car le format ne supporte pas de mode de cryptage officiel. Un tel FLAC serait lisible nulle part à l’exception d’un logiciel fourni par le vendeur du fichier. Je parlais de streaming FLAC, d’accès illimité à un catalogue très vaste. Qobuz le fait, et s’il était possible de récupérer des fichiers FLAC dans le cache du navigateur, cela se saurait (et rapidement les éditeurs fermeraient le robinet à Qobuz). Donc le support de FLAC dans les navigateurs ne permettrait pas le streaming commercial, car ce dernier exige des techniques de protection additionnelles et étrangères au format.
Le
05/09/2016 à
12h
06
Z-os a écrit :
Si le FLAC arrive à s’imposer cela permettra la disparition des mp3 de mauvaise qualité. " />
Les MP3 de mauvaise qualité ont disparu. LAME 3.90 (sorti il y a plus de 15 ans) et ultérieur est devenu l'encodeur majoritairement utilisé (y compris par les plateformes) — révolue l'époque des BLADE et autres XING qui parfois même à 320 kbps montraient des défauts assez perceptibles.
FLAC n'est pas une solution totale au problème de la qualité : on trouve sans trop de peine des encodages FLAC qui viennent d'une source MP3 :) (de même qu'il y a des rigolos qui réencodent leurs vieilles acquisitions de Napster en MP3 à 320 kbps)
zefling a écrit :
La différence entre le 320 et le Flac est appeine perceptible sur mon matos, mais contre entre le 160 et 320 visiblement j’arrive à faire la différence, et j’ai pas du très bon matos.
Après pour moi l'intérêt c'est que j'ai quasiment plus que du Flac, et ça me fait chier de réencoder pour tel ou tel matos. Si je peux mettre du flac sur mon serveur privé, ça m'arrangerait.
Moi aussi. Le MP3 est assez vite limité à des débits modestes. Après c'est parfois aussi une question d'entrainement.
Dans ton cas, et pour ton utilisation, il semble que l'apport du FLAC soit en effet très grand. Après, est-ce que ton navigateur fourni une bonne base pour lire ta musique (enchaînement gapless, support large des tags…), ça j'en suis moins certain. Mais même si cela dépanne c'est déjà un plus.
Le
05/09/2016 à
11h
20
Papa Panda a écrit :
Donc dire que la qualité apporté est minime c’est soit avoir de la merde dans les oreilles …soit n’avoir jamais écouté un flac fasse à un mp3 …
Ou alors avoir réalisé des tests en aveugle ou double aveugle, auquel cas la différence ressentie s’évapore. Il y a MP3 et MP3 : différences d’encodeurs, de paramétrage, de débit. Parler de la qualité MP3, c’est comme parler de vitesse des voitures. C’est tellement vague que cela n’a aucun sens.
Le
05/09/2016 à
11h
17
OlivierJ a écrit :
C’est dommage, mais 1) vu le coût du support actuellement utilise du WMA non compressé (si ça existe)
Il est peu probable que l’autoradio qui supporte le WMA puisse lire le WMA sans perte. Mais cela vaut la peine d’essayer.
Si l’intérêt est modeste à l’heure actuelle, il n’est pas nul. Un encodage FLAC d’un signal au format Redbook (1411 kbps, soient 176 ko/s) tombe généralement à moins de 1000 kbps. Pour une majeure partie des utilisateurs qui liraient en streaming, l’impact du débit est nul.
Des sites comme Qobuz ou Tidal se démarquent avec le lossless. Ceci dit, pas question pour ces sites de balancer du FLAC ou n’importe quoi d’autre en lossless sans le crypter a minima. Donc le support du format sans perte a vraiment un intérêt des plus modestes pour l’utilisateur final.
Là on tombe dans une des aberrations de la loi sur le prix unique. L’éditeur ne peut fixer le prix de son œuvre qu’au moment de sa sortie, et non le revoir à postériori.
[…]
Le livre numérique, lui, n’a pas cette possibilité (hormis quand il devient gratuit en tombant dans le domaine public, ce qui arrive plus de 50 ans après sa sortie)
Un éditeur peut baisser le prix d’un livre. C’est une pratique moyennement courante dans certains domaines d’édition (livres d’art par exemple).
Quant au livre numérique, son prix peut baisser à tout moment. Il y a systématiquement des “soldes” et des offres spéciales dans le livre numérique — bien plus d’ailleurs que pour l’édition papier (bonjour le bordel du réétiquetage par les libraires).
La seule chose à laquelle est tenue l’éditeur lorsqu’il baisse de prix, c’est de l’appliquer à toutes les enseignes. C’est ça le prix unique : prix unique à un instant T, et non pas prix unique pour l’ensemble de la durée d’exploitation d’une édition d’un ouvrage.
Le
19/07/2016 à
12h
15
Un des freins au renouvellement continu de l’enthousiasme et du recrutement est aussi la faible extension du catalogue. Je m’étais abonné le jour de la sortie de Netflix en France (sept. 2014). C’était sympa mais quand même assez décevant, surtout côté films. Mais c’était le début, et l’entreprise promettait une croissance rapide du catalogue. Je me désabonne l’été suivant (faute de temps pour profiter de l’abonnement, et aussi par déception devant un catalogue toujours aussi terne). Cette semaine j’ai repris un abo (avec de nouveau un mois gratuit, c’est étonnant). Et force est de constater que le catalogue de films me semble toujours bien exigu. Pratiquement deux ans après les promesses du lancement, non tenues à mon sens.
L’intérêt pour Netflix me semble du coup porté par les séries, surtout que l’entreprise produit les siennes. La visualisation avec génériques coupés est vraiment agréable. Mais bon, c’est chronophage, et on peut attendre autre chose d’un site de VOD qu’une avalanche de productions formatées pour la TV.
Les critiques adressées à la Kindle, sur ce topic en particulier mais ailleurs en général, ne concernent pas la maniabilité, la légèreté, la stabilité ou l’autonomie. Les critiques se cristallisent autour de l’écosystème propriétaire (vente de fichiers protégés, sans interopérabilité possible sur la plupart des liseuses d’autres marques, sauf celles où l’application Kindle peut être installée) et du refus obstiné d’Amazon de supporter l’ePub.
Je n’ai pas de Kindle, mais j’avoue que l’argument des formats me concerne peu. Je ne vois pas comment je pourrais utiliser une liseuse sans travailler a minima les métadonnées, et pour cela j’utilise Calibre. À partir de là, tout devient transparent. Il me serait même possible d’acheter sur Amazon et de lire sur Kobo.
L’ePub me semble préférable, car il est un standard de l’IDPF. Ceci dit, le format n’est pas universel (puisque les Kindle, liseuses majoritaires sur les gros marchés, ne le supporte pas). Et l’universalité est perdue avec la mise en place des DRM : les DRM sont propriétaires. Il y a ceux d’Adobe (les plus répandus), ceux de Kobo, ceux d’Apple, et les derniers nés de Care. Pour résumé, l’ePub est un format qui aspire à l’universalité et dont les DRM prennent le chemin inverse. Compte tenu de cette situation, je ne suis guère enclin à soutenir aveuglément ce format :)
Le
23/06/2016 à
14h
09
ErGo_404 a écrit :
J’aimerais bien qu’un constructeur se sorte les doigts pour sortir une liseuse format A4. Sony l’a fait, mais pour un marché très confidentiel avec une liseuse à 1200$ qui n’est disponible que pour les grandes entreprises.
et il y a aussi deux ou trois modèles similaires commercialisés/annoncés cette année.
Pour info, Sony a annoncé cette semaine que son appareil 13” (DPT-S1) n’était plus commercialisé. D’ailleurs ce n’était pas vraiment une liseuse. L’appareil ne supportait pas l’ePub ni aucun autre format ajustable.
numerid a écrit :
J’en vois plus. Mais, à voir comment les propriétaires de smartphone interagissent avec, je subodore très fortement qu’ils ne lisent pas dessus plus que des courts messages.
Les vrais lecteurs ont du papier ou des liseuses.
Je n’en serais pas si sûr. Les enquêtes montrent que les smartphones sont très utilisés pour la lecture. Après qu’est-ce qu’un vrai lecteur ?
Le
23/06/2016 à
13h
47
Le renouvellement semble en effet plus lent que d’autres produits.
Par contre, la concurrence des liseuses pour la lecture ne vient pas tant des tablettes que des smartphones, dont l’usage devient d’autant plus concurrentiel que la diagonale de base frôle désormais celle des écrans eInk. Je pense que dans le métro tu verras plus de smartphone que de liseuses ;)
Avec ma H2O (écran 1440×1080, 265ppp de 6,8 pouces), je trouve l’expérience peu satisfaisante. Mais d’autres utilisateurs ont déjà exprimé leur satisfaction.
J’orienterai les personnes vers des diagonales plus grandes, à condition que l’écran reste très défini (ce qui exclu la Cybook Ocean). Une liseuse pas trop exotique serait la Pocketbook Inkpad (8’, 1600×1200), dont le seul inconvéniant éventuel serait l’absence de support des formats CBR/CBZ (conversion en ePub par Calibre possible en revanche). Il existe des liseuses de plus grandes tailles, mais les marques sont peu distribuées en France (jette un oeil aux liseuses de marque Onyx).
Le
23/06/2016 à
13h
14
Dès 2010 la société eInk a mis sur le marché des dalles eInk Triton permettant l’affichage couleur. Deux liseuses couleurs ont vu le jour :
Une autre de marque très marginale, la Ectaco Jetbook Color :
WikipediaDeux produits, deux fiasco. La couleur ne suffit pas. Il faut encore que les couleurs soient bonnes et plaisantes, ce qui est très loin d’être acquis. Tous les écrans rétro-éclairés ont l’avantage d’offrir des couleurs vives et éclatantes. Ça a d’ailleurs toujours été l’avantage des dispositives (rétro-éclairées) sur le tirage papier, et ça continuera à l’être entre des écrans LCD/OLED et des écrans à technologies d’affichage qui nécessitent une lumière incidente. En d’autres termes, les écrans passifs couleurs vont forcément décevoir plein de gens, qui préféreront les tablettes, ce qui limite le marché potentiel, et fragilise l’éclosion de ces technologies.
On peut encore ajouter les lenteurs de l’eInk et la rémanence qui reste encore d’actualité. Même si des dalles parvenaient à sortir en offrant de belles couleurs saturées, beaucoup trouveraient ces dispositifs lents et manquant de polyvalence. En plus d’être chers.
certaines liseuses permettent d’ajouter des polices de son choix. Entre autres, PocketBook et Kobo. Un simple copier/coller suffit. Pour les malvoyants qui auraient besoin de très gros caractères, prévoir des liseuses de grandes tailles pour pouvoir au moins afficher un mot par ligne. Onyx fait de bonnes liseuses 9”, et ces derniers mois plusieurs liseuses 13” ont vu le jour.
Le
23/06/2016 à
11h
35
Une des nouveautés techniques que ne mentionne pas l’article est l’arrivée du Bluetooth, qui permet la transcription vocale (text to speech) sur cet appareil. En conséquence, cette nouvelle liseuse double sa quantité de RAM pour rendre possible cette fonction.
Le
23/06/2016 à
11h
14
Mathayus a écrit :
Toujours pas d’écran eink couleur… Dommage ça serait quand même intéressant qu’ils développent la technologie. Là ça serait intéressant ;)
Ça a été annoncé par la société eInk il y a quelques semaines. Pas de sortie commerciale avant 2018. Et c’est extrêmement lent (8 rafraichissements par changement d’état). Il y a quelques photos et vidéos qui traînent sur la toile.
Sinon il reste les arlésiennes Liquavista, Mirasol et peut-être d’autres technologies passives concurrentes de l’eInk. Samsung avait acheté la plus prometteuse (Liquavista), puis revendu à Amazon il y a trois ans, et toujours rien en vue.
Et comme les liseuses n’ont pas le vent en poupe (il s’en vend presque deux fois moins qu’il y a trois ans), que les marchés dominants (US et UK) stagnent dans la vente de livres électroniques, il y a très peu de chances que cela décolle.
Le
23/06/2016 à
10h
03
À ce prix, tu as sans doute pris une Paperwhite 3. Avec ta commande, tu auras un écran bien plus défini (300ppp vs 167ppp), au fond plus blanc, meilleur contraste, et en plus un éclairage frontal.
en fait, je dirais que c’est plutôt le contraire, le plus souvent.
Chacun est en capacité de calculer le bénéfice apporté par telle ou telle solution.
La solution proposée par l’abonnement est généralement attirante pour ceux qui aspirent à bénéficier des mises à jours régulières des solutions logicielles qu’il emploie. C’est le cas du moins d’Office 365, c’est le cas des formules d’Adobe.
Il est vrai que mis bout à bout, ces abonnements finissent par totaliser des sommes très éloignées du petit prix mensuel.
En ce qui me concerne, l’abo Adobe me permet d’avoir toutes les nouvelles fonctionnalités de Lightroom au prix de la version boîte. En bonus, j’ai aussi droit à Photoshop dont le prix est stratosphérique et que jamais je n’aurais envisagé d’acheter. Pour espérer faire des économies avec l’achat séparé, je devrais faire faire l’impasse sur une version sur deux du logiciel Lightroom (et renoncer à Photoshop par la même occasion).
Petit truc : j’ai appelé Numericable/SFR pour obtenir des clarifications sur la double augmentation de tarifs (1,19 il y a quelques mois, et 1 € ce mois-ci). Je partais d’un abo iStart à 25 euros. Après la récitation d’usage de mon interlocutrice (SFR a amélioré son service patati patata) et lui rétorquant que de mon côté je n’avais rien noté excepté SFR presse, elle m’a passé le service commercial.
L’interlocuteur, après avoir vérifié mon identité, a relevé la double hausse, et m’a proposé trois euros de remise pendant un an (contre engagement) en précisant que je devais les recontacter dans douze mois pour la prolonger. Il a quand même essayé de me fourguer un abo mobile, mais le moyen imparable de clouer le bec à tout commercial est de leur dire que vous payer 3,99 € par mois en illimité avec 50 GO de 4G " />
En ce qui me concerne, mon abo est très avantageux (100Mbps) et mes goûts m’éloignent de la télévision. Me réengager ne me dérange en rien, tous les concurrents ne pouvant que me proposer de l’ADSL là où je vis, et donc un débit trois à quatre fois moindre dans le meilleur des cas, je n’envisage pas de changer de formule.
Donc si parmi vous certains comptent ne pas changer de fournisseur, un appel téléphonique de quelques minutes devrait vous permettre de faire diminuer la facture.
180 commentaires
Malgré l’annonce de sa mort, le MP3 est encore bel et bien vivant
18/05/2017
Le 21/05/2017 à 13h 06
" />
Le 21/05/2017 à 12h 43
Le 21/05/2017 à 12h 17
Le 21/05/2017 à 11h 47
Le 21/05/2017 à 09h 51
Le 19/05/2017 à 11h 59
Il s’agissait du MP3Pro. Le format ne doublait pas le poids, mais annonçait une réduction de moitié pour une qualité égale (équation très optimiste).
Thomson avait de son côté et en 2009 mis au point le MP3-HD, qui n’avait rien à voir avec de la HD, mais avec le lossless. Il s’agissait d’un encodage MP3 standard, avec création de données de correction qui permettaient au décodeur de regénérer l’original sans perte. Des formats lossless tels que WavPack et OptimFrog proposent cette articulation “lossy + données de correction” depuis plus longtemps encore. Mais avec le MP3HD les données de correction figuraient dans les tags ID3 (ce qui était très original, et permettait de n’avoir qu’un volumineux fichier au lieu de deux plus réduits). L’intérêt du format ? Cela permettait d’avoir un seul encodage, lisible sans perte sous certaines conditions (décodeur adapté), lisible quasi partout ailleurs (il s’agit d’une base MP3).
Wikipedia
Le 18/05/2017 à 19h 58
@EricB
LAME s’est massivement développé à la fin des années 90 et durant les années 2000, à une époque où les brevets en rapport avec le format était actifs. La fin de la protection intellectuelle ne devrait en toute logique pas avoir d’incidence sur le développement du format, puisque les brevets n’ont jusque là jamais constitué un obstacle.
On peut d’ailleurs constater que l’âge d’or des formats avec pertes est révolu. Il y a 15 ans, il ne se passait pas un mois sans que sorte une nouvelle version de LAME MP3, d’Ogg Vorbis ou l’un de ses forks, de Musepack, de Nero AAC. Il y avait une forte attente : ceux qui rêvaient de transparence à 64 kbps pour stocker toujours plus sur des supports exigus, et ceux qui rêvaient de transparence sur les signaux les plus critiques avec des encodages compris entre 180 et 250 kbps.
Au fil des ans, la mémoire flash a gonflé alors que les prix se sont effondrés. La recherche des petits débits n’intéresse désormais plus le grand public. Les audiophiles intranquilles ont quant à eux basculé vers le lossless. Les développements en audio ne suscitent plus beaucoup d’intérêt, d’autant plus qu’un certain cap franchi, il devient difficile d’obtenir des gains de qualité qui n’entraînent pas occasionnellement des régressions.
Il suffit de comparer l’intérêt que suscitaient le MP3Pro ou l’arrivée de Vorbis au début des années 2000, à la très faible visibilité d’Opus qui semble pourtant être le format le plus avancé du moment, et qui en plus d’être libre a été intégré à des standards industriels. Il a tout pour plaire. Mais même les technophiles s’en fichent d’avoir un encodeur qui offre à 80 kbps une qualité comparable à un AAC à 100 kbps ou qu’un MP3 à 128. Alors les autres…
Le 18/05/2017 à 19h 37
Le 18/05/2017 à 13h 09
Fraunhofer sort une connerie, et une partie de la toile la répète obligeant l’autre à la démentir " />
Évidemment que l’expiration d’un brevet n’entraîne pas la disparition du produit concerné. Il suffit d’aller en pharmacie et de voir la longue liste des génériques. On utilise toujours et encore la roue, le papier, le couteau et la fourchette (enfin pas tout le monde). Bref, le syllogisme est tellement con que même les arguments de bon sens donnent l’impression d’être tartes.
Vivaldi 1.8 revoit sa gestion de l’historique et propose une foule d’informations
29/03/2017
Le 29/03/2017 à 15h 41
Question légitime alors.
Originellement en tous cas, la société était située dans le nord de l’Europe :
https://www.crunchbase.com/organization/vivaldi#/entity
Vivaldi is headquartered in Oslo, Norway, with a development office in Reykjavik, Iceland.
Et la société semble insrite en Islande : https://www.rsk.is/fyrirtaekjaskra/leit/kennitala/4509131380
Le 29/03/2017 à 15h 29
VivaldiVu qu’ils et elles viennent tous de Norvège et d’Islande, je doute que la société soit américaine
Spotify teste une offre « haute fidélité », entre 15 et 20 dollars par mois
02/03/2017
Le 03/03/2017 à 04h 46
En relisant l’article et en suivant les sources citées, je note aussi que vous écrivez :
Un prix test, mais peu de détailsPar qualité « sans perte », la société peut entendre plusieurs choses, la plus probable étant une qualité CD (16 bits et 44,1 kHz).
Alors que les captures d’écran du site Spotify ne laissent pas vraiment planer de doute :
https://cdn0.vox-cdn.com/thumbor/usQ_0qb6WwYxotkzj4sTpd3oAVM=/1000x0/filters:no_upscale()/cdn0.vox-cdn.com/uploads/chorus_asset/file/8073563/HiFi.png
site :  The Verge
Spotify indique explicitement « Lossless CD quality audio ». Ce qui veut dire 16 bit 44100 Hz en PCM (compressé avec un encodeur au choix et crypté par la suite). Les plates-formes reçoivent des fichiers sans compression (sans perte en tous cas) qu’ils convertissent eux-même. Spotify n’a pas d’effort particulier à faire pour obtenir une bibliothèque lossless, puisqu’ils l’ont déjà. Ils doivent juste renégocier les droits et adapter les logiciels. Et bien sûr communiquer pour convaincre.
Le 02/03/2017 à 20h 36
Le 02/03/2017 à 14h 07
Ça ne sonne pas comme du bullshit marketing. Ç’en est :)
Le format ne m’intéresse pas à titre personnel. Ceci dit, un engouement d’ampleur pour l’irrationnel est tout à fait possible (voir le marché du vinyle par exemple). Le MQA apporte la prétendue haute-résolution dans un contexte de lecture en flux à bande passante limitée. Il y a plein de gogo mélomanes. Les sites de streaming aiment tout le monde, y compris les gogo. Donc il y a moyen de ratisser du monde en proposant un truc qui n’améliore le son que pour ceux qui y croient. Et en plus on peut leur faire payer plus, bien plus que ce qui est nécessaire pour financer le surcoût en bande passante.
Le tour de force du MQA, c’est d’offrir une reconstruction avec pertes des données les moins audibles et de vendre ça comme le graal sonore. A lire les forums audio/idiophiles comme computeraudiophile.com, une partie du public adhère.
Le 02/03/2017 à 13h 42
Tu penses sérieusement que les internautes n’ont pas davantage entendu parler de FLAC (format existant depuis 15 ans, devenu même compatible nativement avec Windows 10, lisible nativement sur Android, utilisé par tous les sites marchands qui vendent du lossless) que du MQA (format qui a un an environ, propriétaire, et dont la carrière commerciale a débuté il y a quelques semaines) ? Ou tu parles peut-être du FLAC HR ?
Le 02/03/2017 à 12h 45
Votre article omet de mentionner une piste : le MQA.
Le MQA est un format audio développé par la société Meridian. Grosso modo, il s’agit un noyau FLAC 24 bit 48 KHz auquel s’ajoute des données non-audionumériques qui permettent à un décodeur de sortir du 24 bit 192 KHz. En gros, c’est un format lossless avec une extension lossy pour les données situées en dehors du spectre audible. Auquel s’ajoute un filtrage qui rend l’opération plus complexe. L’avantage sur le lossless 24⁄192, c’est évidemment le gain d’espace. Parfait pour un service de streaming, qui peut vendre du “meilleur-que-le-cd” à plus de gens. En plus, et c’est un gros avantage, un fichier MQA peut être lu sur l’importe quel logiciel ou matériel décodant le FLAC (il lira du 48 KHz/24 bit avec une qualité équivalent à peu près à du 48⁄18 bit)
Le MQA est un format audio qui s’est imposé chez Tidal depuis deux ou trois semaines. Le service annonce 30000 albums (ou titres, à vérifier) rapidement.
C’est un format qui fait polémique. Des audio/idiophiles le trouvent excellent alors que d’autres trouvent que le format n’apporte rien. Le spectre des DRM refait surface (le format est propriétaire, mais n’importe quel décodeur FLAC reste en capacité de lire le noyau qui reste d’excellente facture).
On n’en a pas beaucoup entendu parler en France, faute d’offres commerciales. Si Meridian signe avec Spotify, cela pourrait changer la donne. Mais c’est une simple hypothèse, qui manquait dans votre article.
Qobuz revoit son interface sur macOS et Windows, mais il reste du travail
16/02/2017
Le 19/02/2017 à 12h 17
Alité et en repos de force, je décide d’opter pour un abonnement Qobuz me permettant d’écouter sur tablette et téléphone (javais jusqu’à récemment un abonnement dit basique, depuis disparu de l’offre tarifaire).
En moins de quatre heures, l’application a planté une demi douzaine de fois. Sur ma tablette, si je bascule de l’application à Opera, me flux s’interrompt. Sur mon téléphone, il arrive fréquemment que la lecture s’arrête à la fin d’une piste, sans daigner passer automatiquement à la suivante. L’enchaînement gapless ne fonctionne nulle part bien que l’option soit cochée. À plusieurs reprises les éléments de la playlist restent vide. Testé sur deux appareils mobiles et même constat : une application mal finie, non testée, qui ne permet pas d’utiliser convenablement un service qui coûte entre 100 et 250 euros par an.
Je pose la question : sont ils totalement à court de moyens et impuissants chez Qobuz, ou totalement irresponsables ? Ils sortent une nouvelle application, les sites d’info leur font un peu de pub, cela draine de nouveaux clients, bref c’est une excellente opportunité qui ne demande pour être opérante qu’une application convaincante. Au lieu de quoi, ils publient sur leur store un machin encore largement buggé, qui ne peut que convaincre de ne pas aller au bout des quinze jours gratuits. Qobuz a bien cinq ans, pas cinq semaines ni cinq mois. Si dans ce laps de temps ils ne parviennent à faire mettre au point une application finalisée, qu’ils fassent comme leur grande sœur Abeille Musique : mettre la clé sous la porte.
Une partie des programmes de Canal+ à la demande passe enfin… à la HD (720p)
09/02/2017
Le 09/02/2017 à 15h 33
et sans point d’exclamation
Le 09/02/2017 à 15h 33
Pas entre crochets, mais entre parenthèses :
http://www.cnrtl.fr/lexicographie/sic
Dell transforme son XPS 13 en un hybride 2-en-1, vendu dès 999 dollars
03/01/2017
Le 03/01/2017 à 08h 21
Exit par contre le lecteur de cartes SD plein format qui ne prend désormais en charge que les microSD.
Maintenant, un laptop de 13,3 pouces est devenu trop petit pour caser un emplacement pour cartes SD…
Zenbo : le robot compagnon d’ASUS sera en vente le 1er janvier à Taiwan
22/12/2016
Le 22/12/2016 à 10h 21
Ils ont fini par faire un petit, les deux là :
https://s-media-cache-ak0.pinimg.com/originals/59/48/29/594829834fe3437c3ff7e423…
Netflix mise sur H.264 AVCHi et VP9 pour améliorer la qualité des vidéos sur mobile
09/12/2016
Le 09/12/2016 à 13h 32
Le 09/12/2016 à 11h 16
Il était sans doute temps d’opter pour le profil High, qui existe depuis les débuts du format. Je pensais même que c’était déjà le cas, avec tout le blabla autour du thème Netflix optimise l’encodage…
http://techblog.netflix.com/2015/12/per-title-encode-optimization.html
En gros, la société commence à peine à utiliser ce que les internautes trouvent depuis près de dix ans sur la toile. À ce rythme, l’HEVC pourrait être adopté à l’horizon 2028
Livres indisponibles : les différents scénarios pour faire revivre ReLire
25/11/2016
Le 25/11/2016 à 13h 43
On parle, pour une immense majorité d’ouvrages, des titres qui ne sont plus exploités dans le commerce (hors-occasion), et qui ont peu de chances de l’être encore. Et lorsqu’ils le redeviendront, il s’agira très vraisemblablement d’un petit tirage qui mettra des lustres à s’écouler ou simplement par finir au pilon.
Je rappelle que pour ces ouvrages, l’auteur n’a strictement aucun droit d’exploitation : ce droit, il l’a cédé auprès d’un éditeur qui depuis a cessé de commercialiser son travail. Dans le meilleur des cas, il peut récupérer ces droits d’exploitations auprès d’un tribunal qui peut constater le défaut d’exploitation ou de valorisation de l’œuvre qu’il est censé exploiter.
Avant ReLire, les auteurs en question ne gagnaient rien du tout après épuisement du titre (sauf rares exceptions liées à un retirage). Avec ReLire, ils pouvaient bénéficier d’une micro-compensation.
À mon sens l’entorse faire par ReLire au droit d’auteur était une excellente chose : pour tous les lecteurs potentiels, pour une immense majorité d’auteurs au travail jusqu’alors inexploité, pour tous ceux qui n’auront pas à faire je ne sais combien de bornes pour accéder à une bibliothèque universitaire et accéder aux titres convoités.
Il ne faut pas perdre de vue l’essentiel : si ces titres sont sortis du commerce, c’est qu’ils ne se vendaient (quasiment) plus. En les remettant en ligne, ils ne se vendront pas davantage. S’il y a préjudice pour les auteurs, il se chiffrera en dizaine d’euros à l’année (pour les mieux lotis).
Pebble : le firmware 4.3 introduit Kickstart et se concentre sur le rythme cardiaque
24/11/2016
Le 24/11/2016 à 10h 11
Rythme ou fréquence cardiaque ?
Généralement, les capteurs mesurent la fréquence cardiaque : le nombre de battements dans un temps donné (généralement une minute). Le rythme cardiaque est différent : c’est une mesure la régularité. Mon cœur peut battre à 60 battements par minute (c’est sa fréquence) mais s’il fait ses 60 battements en dix secondes et cesse de pomper les 50 secondes suivantes, c’est de l’arythmie. Dans les deux cas, la fréquence cardiaque est identique, mais dans l’un la personne va bien et dans l’autre elle tombe dans les vapes.
La confusion est courante, mais je me permets de vous la faire remonter :)
Ebooks : l’avocat général de la CJUE juge le taux fort de TVA « actuellement » justifié
12/09/2016
Le 14/09/2016 à 07h 07
Le 12/09/2016 à 12h 46
Le 12/09/2016 à 12h 43
Le 12/09/2016 à 12h 27
Le 12/09/2016 à 11h 43
Ton raisonnement se tient, sauf que la TVA différenciée concerne le livre numérique en général, et non le livre numérique avec gestion des droits de lecture (DRM).
N’oublie pas d’étendre ton raisonnement à la différence entre livre et ebook sans DRM. Eux non plus ne sont pas les mêmes produits. Mon livre physique n’existe qu’en une copie, alors que mon ebook sans DRM peut-être prêté, revendu, donné sans que j’ai à me séparer de lui. Si je veux trois copie d’un roman pour les mettre dans trois endroits différents (maison, bureau, logement de vacances), je dois acheter trois fois un exemplaire physique alors que l’électronique m’en dispense. En ce sens, le livre numérique devient déjà un service, DRM ou non.
LG annonce son V20 : deux écrans, trois caméras, Quad DAC et Android 7.0
07/09/2016
Le 07/09/2016 à 17h 24
Merci pour l’adresse pas très précise. Head-fi, c’est le forum sur lequel on trouve des internautes publiant des tests très sérieux. Du genre celui-ci :
http://www.head-fi.org/t/817872/testing-changes-that-could-affect-audio-performa…
En résumé : deux fichiers identiques peuvent sonner différemment selon qu’ils aient été copiés l’un avec l’explorateur de Windows, l’autre avec un autre logiciel. Et le mec qui avance ça a fait un test ABX : il a nommé un fichier A, un autre B, un troisième X et a écouté tout ça à la suite… un test ABX " />
Le 07/09/2016 à 16h 41
Le 07/09/2016 à 11h 05
« Cela devrait permettre non seulement de délivrer un son de meilleure qualité […] mais aussi de supporter nativement des formats de compression sans perte comme le FLAC, le DSD, l’AIFF et l’ALAC. »
FLAC et ALAC sont des formats de compression sans perte des données PCM. AIFF est du simple PCM (l’équivalent d’Apple des fichiers WAV), encore qu’il existe comme pour le WAV des modes de compressions avec pertes. DSD est un format radicalement différent du PCM, codé sur un bit.
Le DSD connait deux formats: DSF et DFF qui ne sont pas compressés. L’un des deux peut être compressé sans perte au format DST, et à l’heure actuelle aucun baladeur compatible DSD ne décode ce format DST (c’est un gouffre à ressources sur PC).
Je récapitule :
— formats compressés = FLAC et ALAC
— Formats sans compression : AIFF (PCM) et DSD.
Je trouve au passage la formulation quelque peu maladroite. À vous, lire, le quadruple DAC permet autant d’améliorer en théorie le son que de lire du FLAC et les autres formats. Or ce n’est pas le cas. FLAC nécessite très peu de ressources pour être lu (le format demande moins de ressources que du simple MP3) : http://www.rockbox.org/wiki/CodecPerformanceComparison…et le plus petit des processeurs audio dispose des ressources nécessaires pour y arriver :)
Firefox 51 gèrera nativement le codec audio FLAC
05/09/2016
Le 05/09/2016 à 16h 47
Le 05/09/2016 à 12h 06
Le 05/09/2016 à 11h 20
Le 05/09/2016 à 11h 17
Netflix : des revenus en hausse malgré des recrutements en pause
19/07/2016
Le 19/07/2016 à 14h 28
Qui, “ils” ?
Le 19/07/2016 à 13h 52
Le 19/07/2016 à 12h 15
Un des freins au renouvellement continu de l’enthousiasme et du recrutement est aussi la faible extension du catalogue. Je m’étais abonné le jour de la sortie de Netflix en France (sept. 2014). C’était sympa mais quand même assez décevant, surtout côté films. Mais c’était le début, et l’entreprise promettait une croissance rapide du catalogue. Je me désabonne l’été suivant (faute de temps pour profiter de l’abonnement, et aussi par déception devant un catalogue toujours aussi terne). Cette semaine j’ai repris un abo (avec de nouveau un mois gratuit, c’est étonnant). Et force est de constater que le catalogue de films me semble toujours bien exigu. Pratiquement deux ans après les promesses du lancement, non tenues à mon sens.
L’intérêt pour Netflix me semble du coup porté par les séries, surtout que l’entreprise produit les siennes. La visualisation avec génériques coupés est vraiment agréable. Mais bon, c’est chronophage, et on peut attendre autre chose d’un site de VOD qu’une avalanche de productions formatées pour la TV.
Amazon : une nouvelle Kindle plus fine, pour le même prix
23/06/2016
Le 25/06/2016 à 21h 31
Les critiques adressées à la Kindle, sur ce topic en particulier mais ailleurs en général, ne concernent pas la maniabilité, la légèreté, la stabilité ou l’autonomie. Les critiques se cristallisent autour de l’écosystème propriétaire (vente de fichiers protégés, sans interopérabilité possible sur la plupart des liseuses d’autres marques, sauf celles où l’application Kindle peut être installée) et du refus obstiné d’Amazon de supporter l’ePub.
Je n’ai pas de Kindle, mais j’avoue que l’argument des formats me concerne peu. Je ne vois pas comment je pourrais utiliser une liseuse sans travailler a minima les métadonnées, et pour cela j’utilise Calibre. À partir de là, tout devient transparent. Il me serait même possible d’acheter sur Amazon et de lire sur Kobo.
L’ePub me semble préférable, car il est un standard de l’IDPF. Ceci dit, le format n’est pas universel (puisque les Kindle, liseuses majoritaires sur les gros marchés, ne le supporte pas). Et l’universalité est perdue avec la mise en place des DRM : les DRM sont propriétaires. Il y a ceux d’Adobe (les plus répandus), ceux de Kobo, ceux d’Apple, et les derniers nés de Care. Pour résumé, l’ePub est un format qui aspire à l’universalité et dont les DRM prennent le chemin inverse. Compte tenu de cette situation, je ne suis guère enclin à soutenir aveuglément ce format :)
Le 23/06/2016 à 14h 09
Le 23/06/2016 à 13h 47
Le renouvellement semble en effet plus lent que d’autres produits.
Par contre, la concurrence des liseuses pour la lecture ne vient pas tant des tablettes que des smartphones, dont l’usage devient d’autant plus concurrentiel que la diagonale de base frôle désormais celle des écrans eInk. Je pense que dans le métro tu verras plus de smartphone que de liseuses ;)
http://www.sne.fr/wp-content/uploads/2016/03/02-Barometre-usages-livre-numerique…
Le 23/06/2016 à 13h 41
Avec ma H2O (écran 1440×1080, 265ppp de 6,8 pouces), je trouve l’expérience peu satisfaisante. Mais d’autres utilisateurs ont déjà exprimé leur satisfaction.
J’orienterai les personnes vers des diagonales plus grandes, à condition que l’écran reste très défini (ce qui exclu la Cybook Ocean). Une liseuse pas trop exotique serait la Pocketbook Inkpad (8’, 1600×1200), dont le seul inconvéniant éventuel serait l’absence de support des formats CBR/CBZ (conversion en ePub par Calibre possible en revanche). Il existe des liseuses de plus grandes tailles, mais les marques sont peu distribuées en France (jette un oeil aux liseuses de marque Onyx).
Le 23/06/2016 à 13h 14
Dès 2010 la société eInk a mis sur le marché des dalles eInk Triton permettant l’affichage couleur. Deux liseuses couleurs ont vu le jour :
Une Pocketbook :
http://www.pocketbook-int.com/fr/products/pocketbook-color-lux
Une autre de marque très marginale, la Ectaco Jetbook Color :
WikipediaDeux produits, deux fiasco. La couleur ne suffit pas. Il faut encore que les couleurs soient bonnes et plaisantes, ce qui est très loin d’être acquis. Tous les écrans rétro-éclairés ont l’avantage d’offrir des couleurs vives et éclatantes. Ça a d’ailleurs toujours été l’avantage des dispositives (rétro-éclairées) sur le tirage papier, et ça continuera à l’être entre des écrans LCD/OLED et des écrans à technologies d’affichage qui nécessitent une lumière incidente. En d’autres termes, les écrans passifs couleurs vont forcément décevoir plein de gens, qui préféreront les tablettes, ce qui limite le marché potentiel, et fragilise l’éclosion de ces technologies.
On peut encore ajouter les lenteurs de l’eInk et la rémanence qui reste encore d’actualité. Même si des dalles parvenaient à sortir en offrant de belles couleurs saturées, beaucoup trouveraient ces dispositifs lents et manquant de polyvalence. En plus d’être chers.
@en réponse à crysalide et jacklejack :
certaines liseuses permettent d’ajouter des polices de son choix. Entre autres, PocketBook et Kobo. Un simple copier/coller suffit. Pour les malvoyants qui auraient besoin de très gros caractères, prévoir des liseuses de grandes tailles pour pouvoir au moins afficher un mot par ligne. Onyx fait de bonnes liseuses 9”, et ces derniers mois plusieurs liseuses 13” ont vu le jour.
Le 23/06/2016 à 11h 35
Une des nouveautés techniques que ne mentionne pas l’article est l’arrivée du Bluetooth, qui permet la transcription vocale (text to speech) sur cet appareil. En conséquence, cette nouvelle liseuse double sa quantité de RAM pour rendre possible cette fonction.
Le 23/06/2016 à 11h 14
Le 23/06/2016 à 10h 03
À ce prix, tu as sans doute pris une Paperwhite 3. Avec ta commande, tu auras un écran bien plus défini (300ppp vs 167ppp), au fond plus blanc, meilleur contraste, et en plus un éclairage frontal.
Le Creative Cloud d’Adobe gagne encore du terrain
22/06/2016
Le 22/06/2016 à 12h 53
SFR : derrière les hausses et l’option Presse au prorata mystère se cache parfois une TVA négative
20/05/2016
Le 20/05/2016 à 17h 18
Petit truc : j’ai appelé Numericable/SFR pour obtenir des clarifications sur la double augmentation de tarifs (1,19 il y a quelques mois, et 1 € ce mois-ci). Je partais d’un abo iStart à 25 euros. Après la récitation d’usage de mon interlocutrice (SFR a amélioré son service patati patata) et lui rétorquant que de mon côté je n’avais rien noté excepté SFR presse, elle m’a passé le service commercial.
L’interlocuteur, après avoir vérifié mon identité, a relevé la double hausse, et m’a proposé trois euros de remise pendant un an (contre engagement) en précisant que je devais les recontacter dans douze mois pour la prolonger. Il a quand même essayé de me fourguer un abo mobile, mais le moyen imparable de clouer le bec à tout commercial est de leur dire que vous payer 3,99 € par mois en illimité avec 50 GO de 4G " />
En ce qui me concerne, mon abo est très avantageux (100Mbps) et mes goûts m’éloignent de la télévision. Me réengager ne me dérange en rien, tous les concurrents ne pouvant que me proposer de l’ADSL là où je vis, et donc un débit trois à quatre fois moindre dans le meilleur des cas, je n’envisage pas de changer de formule.
Donc si parmi vous certains comptent ne pas changer de fournisseur, un appel téléphonique de quelques minutes devrait vous permettre de faire diminuer la facture.