votre avatar

Borée

est avec nous depuis le 31 octobre 2009 ❤️

180 commentaires

Le 06/05/2016 à 12h 00







Ami-Kuns a écrit :



La vente d’occasion est commerciale d’après mon avis perso.





Oui, la vente d’occasion relève d’une transaction commerciale.

Mais il ne s’agit plus vraiment d’exploitation commerciale d’un titre, mais d’une vente exceptionnelle. Si le marché de l’occasion devait entrer dans le concept d’exploitation commerciale, la notion même d’indisponibilité disparaîtrait aussitôt. Pourquoi numériser des œuvres qu’aucun éditeur ne vend, puisque le catalogue reste disponible, disséminé dans les innombrables brocantes, vide-greniers, bouquinistes, plate-formes internet d’occasion… ? pourrait-on rétorquer.


Le 05/05/2016 à 12h 06







ben5757 a écrit :



PErso je trouve certains romain de la littérature française chiant et vide alors qu’ils sont considérés comme des classiques. Mais c’est un débat sur le gout et les couleurs .





De quels Romain tu parles ? Gary ? Jules&nbsp;<img data-src=" />

Sinon l’intérêt du sucre, c’est que c’est majoritairement apprécié, sans même devoir faire un plat. C’est ce que disait Drepanocytose.

Par contre il existe d’authentiques pâtissiers dans la catégorie littérature sucrée — et tous ceux qui surfent dessus avec des productions stéréotypées.


Le 03/05/2016 à 16h 49

Pour commencer, le lauréat annuel du Goncourt est rarement connu du grand public. On n’y trouve ni Nothomb, ni Musso ni Levy et je pense qu’on est pas près de les y voir. Cela reste de la mise en avant, mais c’est le principe du prix littéraire : mettre en lumière un auteur par un jury de personnes de réputation.

Ensuite, les gros éditeurs français ne font pas que du business. C’est toujours le stéréotype : majors = grand public. C’est omettre que Gallimard a un catalogue assez riche d’auteurs confidentiels, et que les Warner/Universal vendent aussi des concertos de Joseph Bodin de Boismortier et d’autres de même renommée. Bien entendu ces maisons d’éditions géantes sont celles qui drainent les plus grands succès de librairie, mais c’est juste la face cachée de l’iceberg. Les ventes d’Harry Potter permettent à d’autres collections de ne pas être totalement asphyxiée et donc de vendre de la philosophie à quelques centaines exemplaires… les années fastes.

Le 02/05/2016 à 18h 51

Le prix unique n’est pas une exception française ; c’est une protection assez courante dans d’autres pays européens et également adoptée sur d’autres continents :

fr.wikipedia.org WikipediaEn revanche, l’extension de ce texte au livre électronique (qui n’est donc pas du fait de Jack Lang mais de l’UMP trente ans plus tard) n’était pas nécessaire. En plus cette extension n’est pas sans poser quelques contradictions avec le droit européen :

http://www.zdnet.fr/actualites/livre-electronique-le-prix-unique-definitivement-…

http://www.lepoint.fr/chroniqueurs-du-point/laurence-neuer/prix-unique-du-livre-…



Ceci étant, la cause du prix élevé (et du faible décollage de l’eBook en France) est à chercher ailleurs. Amazon avait réussi à convaincre dès 2007 les grosses maisons d’édition nord-américaines à fixer le prix des ebook à \(9,99 (contre &gt;\)20 pour les nouveautés). Cela ne résultait pas de la concurrence, mais d’un accord. En France il n’y a rien eu de semblable, et les éditeurs ont trouvé plus pertinent les rabais de 30% ou dans le meilleur des cas à s’aligner sur le prix de l’édition de poche.

Le 28/04/2016 à 11h 39

Je feuillette encore Classica en médiathèque, et Lire peut sans doute m’intéresser. Pour la presse, l’accès à Libé est plutôt une aubaine. Si je n’ai rien d’autres à payer que l’euro d’augmentation de mon abonnement iStart (25€-&gt;26€), l’accès à ce pack est pour moi une bonne affaire.



Par contre, est-ce lisible sur une bonne tablette ? Parce que sur mon laptop en 18’/1080p, l’alternative se fait entre une lisibilité pénible (voire impossible avec Libé) ou une ergonomie inadaptée (navigation constante dans la page, pas de raccourcis claviers pour zoom +/-). C’est une sorte de PDF, sans recomposition possible (comme le ferait un fichier de type ePub). L’expérience de lecture est donc très décevante de mon côté, ce qui me laisse penser que je n’irais plus le fréquenter passé la période des premières heures.



Je viens de voir que les articles sont zoomables, ce qui était décrit dans l’article. Mea Culpa :)

Le 14/04/2016 à 14h 50

Amazon avait supprimé à distance toutes les copies du 1984 d’Orwell que le store avait commercialisé sans en avoir les droits. C’est une affaire assez emblématique, même si face au tollé Jeff Bezos lui même avait affirmé que la société ne referait jamais une telle opération (en effet, il n’y a pas eu de deuxième occurence).

Mais techniquement, c’est possible, et cela a déjà été réalisé.

Le 14/04/2016 à 11h 52

Je poursuis mes propos sur la résolution supérieure d’un papier journal sur une liseuse haute résolution par une illustration photographique.

Je compare ici un numéro du quotidien Le Monde à ma liseuse Kobo H2O (résolution 1430×1080 sur 6,8 pouces). J’ai utilisé sur la liseuse une police similaire, et tenté de faire coïncider la taille (illustration 1 pour comparaison directe). J’a réalisé ensuite une macrophotographie d’un extrait de la liseuse (illustration du milieu) suivi d’une macro d’un extrait du journal (illustration du bas), en utilisant le même facteur d’agrandissement pour chacun des deux clichés. Les extraits ont été redécoupés, sans redimensionnement. Enregistrés en JPEG qualité 100 (le PNG reste trop volumineux pour l’hébergeur)



http://img15.hostingpics.net/pics/973307journalvsliseuseHR.jpg



On voit très bien les fibres et les impuretés du papier journal. L’encre manque de densité, la liseuse présente des caractères plus sombres. Sur l’illustration du haut (liseuse et journal pris en photo simultanément et côte à côte), on peut voir que la liseuse présente un fond un peu plus clair. Donc encre plus sombre et fond plus clair : contraste supérieur pour ma liseuse à écran de génération Carta.&nbsp;

Par contre, pour la définition des caractères, c’est sans appel. Le texte est crénelé, pixelisé sur la liseuse. On peut comparer les accents, c’est vraiment cruel pour l’électronique (même si en conditions réelles, la définition est suffisante et les marches d’escaliers n’apparaissent pas). En tous cas Warfie, je ne pense pas que tu puisses maintenir que le papier journal offre une « définition plus ou moins grossière des pixels » :)

Le 14/04/2016 à 11h 02

Le papier journal, le texte du papier journal plus précisement, explose en résolution le texte d’une liseuse 300ppp. Et explose donc celle d’une liseuse de grande taille, où la définition est souvent de 160ppp.



Une macrophotographie peut aisément trancher le débat. Beaucoup croient que le papier, c’est 200 à 300ppp. C’est vrai pour les impressions couleurs en quadrichromie. C’est sans doute vrai encore pour les illustrations noir et blanc où le tramage dégrade la résolution réelle. En revanche pour l’impression d’un texte seul, monochromatique, la définition est extrêmement fine.

Et là, les liseuses sont plutôt loin derrière. L’affichage d’une police fine, avec empattements et autres fioritures typographiques, passe souvent très mal. D’où le succès des polices dédiées telle Caecilia ou Litterata, assez grossières (dans un sens non péjoratif) mais adaptées au manque de définition et de contraste des écrans.

Le 13/04/2016 à 22h 58

La réactivité se mesure en effet sur ce qui n’est pas fixe : changement de pages, apparition d’un menu/popup, actions de l’utilisateur. Si la réactivité de ta liseuse t’indiffère (et moi aussi, dans une certaine mesure du moins), c’est que tu t’es fait une raison, et qu’au regard des avantages que procure la liseuse et son écran passif, tu lui pardonnes ses lenteurs. Mais pour quelqu’un comme seboquoi qui n’a encore jamais eu de liseuse et qui s’interroge sur la pertinence d’un achat, le choc risque d’être un peu plus rude. Il y a des consommateurs qui ne s’y font pas, et qui ne parviennent pas à comprendre que l’on puisse utiliser ces gadgets aux écrans archaïques et aux performances dignes d’une télécommande (je n’exagère même pas, le processeur&nbsp;Freescale i.MX6 SoloLite est commun aux liseuses et à certaines Logitech Harmony).

&nbsp;

Essaie simplement d’imaginer un smartphone, un ordinateur, une liseuse… dont la latence entre le clic et le résultat se situe entre une demi seconde et une seconde : il y a peu de chance qu’il soit adopté. Introduit un flash noir entre deux états de l’écran : le rejet est presque garanti. Ajoute encore un tactile parfois a-réactif, et c’est la totale. La liseuse est sauvée en partie parce qu’on ne lui demande pas beaucoup, en grande partie aussi parce que l’écran employé est le seul qui trouve grâce aux yeux de beaucoup de lecteurs. Une technologie concurrente mais plus vive pourrait vite valoir à eInk un aller simple au cimetière des entreprises désuètes.

&nbsp;

Sur une des vidéos de l’Oasis consultée aujourd’hui, on peut encore voir le démonstrateur devoir appuyer à deux reprises sur un menu pour que quelque chose se passe. Ce phénomène est commun sur les liseuses. On s’y fait, certes… Mais comme tout le monde on préfère que le progrès se fasse dans le bon sens. Le choix d’une liseuse de plus grande taille marque presque systématiquement un retour vers le passé sur un ou plusieurs critères qualitatifs (contraste, finesse, réactivité, rémanence, mise à distance du flash de rafraîchissement, éclairage, blancheur du fond, noirceur des caractères).



Et comme toi, je serais assez intéressé par une liseuse de plus grande taille dont la qualité d’écran et les fonctionnalités coïncident avec celles des liseuses de poche, pourtant loin de la perfection, mais malgré tout au pinacle de la technologie eInk. Même si je ne suis pas certain de franchir le pas (pour des raisons de taille et de poids — et de prix peut-être aussi — car passé 200 grammes un objet pourtant léger au départ va sembler assez lourd lorsqu’il est tenu ne serait-ce qu’une heure). Ma Kobo H2O est déjà un peu limite, alors qu’elle n’ajoute que 0,8 pouces à la diagonale de base.

Le 13/04/2016 à 17h 27

Je confesse n’avoir jamais vu de manga en provenance directe de l’archipel :) Ils impriment sur du papier toilette ?

Le 13/04/2016 à 17h 05







durthu a écrit :



Je serai un peu moins expéditif.



La pocketbook inkpad de 8 pouces pourrait être interressante.

Elle est assez grande, la résolution est pas trop mauvaise 1600*1200, elle a un éclairage pour la nuit.

Elle reste malgré tout assez chère (enivron 200€) et difficile à trouver.





J’ai hésité à la mentionner. C’est une des liseuses les plus intéressantes pour ce type d’usage. Mes réticences à la recommander ou même la suggérer sont, outre la disponibilité :&nbsp;

— nombreux bugs reportés sur le forum de mobileread (peut-être corrigés pour la plupart, à voir)

— écran d’ancienne génération (sorti il y a 4 ou 5 ans) : moins contrasté, moins réactif, plus de rémanence

— autonomie deux fois plus faible qu’une liseuse traditionnelle&nbsp;

— poids majoré (350 g vs 170…200 pour les modèles 6 pouces)



Et si la personne souhaite également lire des romans, les pocketbook n’ont pas de bon dictionnaire français (de mémoire, un vieux littré incomplet, mais c’est à vérifier).


Le 13/04/2016 à 16h 53

J’ai une H2O, qui a la même résolution et même un écran plus grand, et je ne trouve pas que cela passe nickel. C’est très petit, les textes manquent de définition et de micro-contraste. C’est loin, je trouve, de l’expérience papier. D’ailleurs tu noteras que seboquoi et moi-même ne mentionnons pas les manga, mais les BD (format A4) et les comics (que je connais sous la forme de planches au découpage plus petit que les manga, ce qui explique qu’ils passent parfois mieux sur les écrans de liseuses – et encore…).



Après, chacun son expérience. Je ne récuse pas la tienne. C’est aussi pourquoi j’ai terminé mon message en parlant de “gros risque d’être déçu”, et pas de la certitude de l’être ou de ne pas l’être. Les liseuses à écran eInk, c’est très particulier et vraiment à prendre avec des pincettes.

Le 13/04/2016 à 16h 16

Les BD, tu peux sereinement oublier.

Après, si tes comics sont faits de petites planches, tu peux espérer un rendu correct — mais sans doute pas enthousiasmant. Même les liseuses de plus grandes diagonales sont peu adaptées (les 9,7” ont une résolution moindre que les 6”, comprenne qui pourra ; la réactivité est faible ; le contraste encore plus et c’est d’autant pire que les plus grandes liseuses n’ont pas d’éclairage intégré qui blanchit un peu artificiellement la page).



Les liseuses sont vraiment adaptées au texte redimensionnable et à rien d’autre. Vouloir aller au-delà, c’est courir un gros risque d’être déçu.

Le 13/04/2016 à 15h 44

En fait, l’autonomie de l’Oasis + Cover est de 8 semaines.

L’autonomie de la Kindle Paperwhite 2 fut de… 8 semaines.



Il faudra la charger aussi souvent que les modèles de l’an passé (sachant que la génération actuelle — Voyage et PW3 — a connu une baisse dans l’autonomie annoncée).



L’autonomie est donc inchangée. Le prix en revanche est presque multiplié par trois (mais pour le prix on a une couverture, sinon certains pourraient croire que ce serait une mauvaise affaire <img data-src=" />)

Le 11/04/2016 à 16h 10

Au premier lancement d’Office, j’ai une fenêtre qui s’ouvre et qui me demande que choisir comme format par défaut. Cela fait quelques années que la suite n’impose plus un format mais propose un choix initial. Ton argument ne tient donc pas (même si les arguments présentés par le descriptifs orientent clairement l’utilisateur à opter pour la variante Microsoft du format bureautique — qui est par ailleurs coché par défaut).

Le 11/04/2016 à 15h 31

Client numéricable depuis plus de trois ans, offre internet “iStart” (25 € : fibre/cable à 100Mb/s + tel + chaînes TNT). J’ai reçu le mail il y a quelques jours, mais avec une variante annonçant une hausse des prix :&nbsp;



PLUS DE DIVERTISSEMENTS DANS VOTRE ABONNEMENTNouveaux services, nouvelles offres, la puissance de notre réseau vous donne accès au meilleur du divertissement tout au long de l’année. Numericable SFR vous réserve d’autres nouveautés, mais pour cela il faudra attendre encore quelques semaines…Pour vous permettre de continuer à bénéficier d’un service toujours plus performant,&nbsp;nous sommes amenés à faire évoluer le tarif mensuel de votre abonnement, qui augmentera de un euro à partir du 01/05/2016.&nbsp;



&nbsp;On admirera l’éloquence (« de un euro ») !




 Je m'interroge quand même sur la nature même de l'accès aux documents qui sont ainsi "offerts". J'imagine que ce ne sera pas un PDF librement copiable, mais plus sûrement des fichiers encryptés lisibles avec une application particulière. Quelqu'un en sait davantage ?

Le 09/04/2016 à 12h 30

Comme beaucoup de films, les Star Trek ont été tournés sur pellicule, ou directement en numérique sur certaines scènes. Ensuite les parties générées par ordinateur sont réalisés dans une certaine résolution.

Tu peux trouver des détails techniques sur imdb, dans la partie technical de chaque film&nbsp;:

http://www.imdb.com/title/tt0796366/technical?ref_=tt_dt_spec

http://www.imdb.com/title/tt1408101/technical?ref_=tt_dt_spec



Un master 4K/8K est parfaitement envisageable. Par contre, les parties effets spéciaux sont en 2K :

Digital Intermediate (2K) (master format)



Maintenant, un master à la résolution native ne produit pas des résultats parfaits. Cela s’est vu sur de nombreux Blu-Ray, pour lesquels des masters 2K produisaient des résultats bof-bof (Il Gattopardo de Visconti chez Criterion p.ex) alors que les scans 4K (chez Gaumont), retravaillés dans cette résolution puis repassés en 1080p, sont croustillants de détails. J’ai essayé de retrouvé les captures d’écran sur les sites comparatifs, mais elles ont disparu.

Même si le Blu-Ray UHD s’imposait&nbsp;<img data-src=" />&nbsp;on peut d’ores et déjà parier que d’ici quelques années les mêmes blockbusters resortiraient dans une édition 8K master écrasant les premières sorties pourtant vendues fort chères.

Le 07/04/2016 à 08h 49

2K et 4K font référence à des définitions utilisées dans le cinéma, et qui sont un multiple de 1024.

2K = 2048 pixels de large

4K = 4096 pixels de large



En revanche, la définition choisie pour nos téléviseurs n’est pas tout à fait la même :&nbsp;

1080p = 1920 pixels de large (128 pixels de moins ou 93% du 2K)

UHD = 3840 pixels de large &nbsp;(256 pixels de moins ou 93% du 4K)



En terme de qualité d’image, cela ne change rien.

C’est tellement proche que certains utilisent désormais les “xK” pour définir la résolution de leur écran (2K, 4K, 5K pour Apple) : c’est plus court et plus pratique.

Le 07/04/2016 à 01h 04

D’après la source indiquée dans mon message :&nbsp;



September 26, 1996 -Toshiba announces first home DVD player SD-3000 ($674).

Le 06/04/2016 à 22h 12

Le BR4K utilise en effet une norme de fabrication un peu différente : c’est celle du BD-XL qui existe depuis quelques années sous la forme de media enregistrables. La faible diffusion et les faibles économies d’échelle doivent en effet gonfler la note, mais ce surcoût parfaitement légitime est sans doute loin d’expliquer le prix exigé ici (on parle du prix équivalent à celui d’un dictionnaire pour une simple galette en polycarbonate).



J’ai eu du mal à trouver les prix en 1997 à la sortie des premiers titres en DVD. Il se situait entre 20 et 25 \( (source). Il y a presque 20 ans, donc entre 25 et 30 \) au moins inflation comprise. Sans doute très loin des 48 dollars exigés ici. En outre, le contexte n’est plus le même. Lorsque le DVD sortait, il présentait des très grosses différences par rapport aux médias dominants (VHS surtout, et LaserDisc pour les technophiles). Et c’était le premier changement de format depuis 20 ans (LaserDisc : année 1978 !). Même cher, l’engouement était justifié par le grand bond en avant qu’il permettait.



Aujourd’hui, le public en est à sa troisième itération : DVD / Blu-Ray / Blu-Ray 4K. Il s’est habitué aux prix très bas, il habitué aux changements de résolution dont la valeur marginale diminue à chaque fois, il s’est résigné à voir la valeur symbolique de ses éditions jadis superbes dégringoler : il sait donc qu’en matière de formats vidéo, les rois sont vite destitués. En outre, les premiers titres 4K proviendraient de sources qui n’atteignent pas le potentiel du format. C’est une première dans l’histoire de l’industrie de la vidéo, qui fragilise encore un peu plus la pertinence d’une adoption de cette nouvelle norme.



Il faudra encore attendre un peu pour que ce format trouve sa niche : des titres plus nombreux, en 4K réels, et à un prix fort aligné autour de 25 euros avec la présence au catalogue de titres vendus à prix bien moindre.

Le 08/04/2016 à 08h 36







trekker92 a écrit :



essaies les memes usages avec un firefox datant de 2011… si, essaies, tu verras, t’auras une belle latence, de jolis ralentissements dus a l’exces de ram.. firefox bouffait trop





J’avais redonné une chance à FF il y a un peu plus d’un an. L’expérience était satisfaisante, mais l’interface était sensiblement moins réactive (ouverture/fermeture des onglets entre autres). Je ne pense pas que ce soit lié à une consommation excessive de RAM : ma machine a 16 GB à sa disposition, et je suis très loin de taper dans la mémoire virtuelle. En plus des plantages à répétition m’ont poussé à retourner sous Chrome, puis Opera que je redécouvrais avec plaisir . La différence de réactivité entre FF et Chrome était vraiment saisissante à mes yeux et cruelle pour le navigateur libre.



Mais elle est encore plus cruelle si je compare Opera/Chrome à Vivaldi. Une demi journée à l’utiliser et j’arrive à saturation. Le lag à l’ouverture d’un onglet s’est accentué depuis hier il me semble. Je ne sais pas si c’est dû à un Speed Dial qui s’est un chargé depuis hier, ou au fait que plusieurs onglets sont désormais ouverts. Mais il faut plus d’une seconde aujourd’hui pour qu’un onglet vierge s’ouvre. C’est vraiment très pénible. Je ne me souviens pas d’avoir expérimenté de telles lenteurs dans le passé avec aucun autre navigateur.

Apparemment, le problème [URL=https://vivaldi.net/en-US/forum/suggestion-box/986-laggy-and-slow]est plutôt ancien[/URL]. Je ne sais pas si c’est lié à ma machine (i7 quad-core / 16 GB de Ram / W10), s’il y a un élément qui pose problème chez moi et pas forcément chez d’autres, ou si c’est moi qui ait développé une sensibilité exacerbée au fil des ans. Mais c’est atroce (et aggravé lorsque la machine est occupée par d’autres tâches, comme une conversion vidéo, alors qu’Opera ouvert en simultané reste toujours hyper-rapide).



Pour beaucoup d’opérations, le navigateur est réactif &nbsp;: au changement d’onglet, à l’affichage des pages…Mais un CTRL+T, c’est ~1 seconde avant que quelque chose se passe. J’ai essayé de passer à une version 64 bit dont un message sur le forum affirme qu’elle peut-être 15 à 20% plus rapide, mais je n’ai pas noté de changement en réactivité.



En rédigeant le message, quelques idées me sont venues et je viens de &nbsp;désactiver l’image de fond du SD : c’est déjà largement mieux !! Mais encore plus lent que Chrome/Opera (alors que ce dernier affiche également une image en toile de fond). Je pense qu’on passe de 1000 millisecondes environ à 250 (à vue de nez). Ouf! Cela m’embêterait d’avoir passé une partie de ma soirée à mettre en place favoris et SD pour tout lâcher aujourd’hui. Là ça redevient supportable.



D’ailleurs, je viens de voir que dans le menu (ALT+P) , le changement de catégories (Démarrage/Apparence/etc…) est normal (très rapide donc), sauf pour la catégorie « nouvel onglet ». Le chargement des images qu’il contient ne semble pas très optimisé encore.


Le 07/04/2016 à 12h 42

Merci pour le support, ra-mon. À tout hasard, c’est toi le développeur qui a codé le Speed Dial ?

Le 07/04/2016 à 11h 55

Concernant le manque de réactivité, je penche de mon côté pour un côté un peu moins léché. Par exemple, lorsqu’on crée un onglet :&nbsp;

– sous Opera : il apparait par fondu, et semble sortir de l’onglet voisin immédiatement après le clic

– sous Vivaldi : il surgit brutalement, après un léger lag. Mais j’ai le sentiment que cela s’est nettement amélioré depuis les beta que j’avais rapidement utilisées dans le passé.



Le Speed Dial est pour moi le premier élément que j’évalue (avec un gros coeff pour la note finale). C’est le Speed Dial épuré qui d’ailleurs m’avait fait retourner à Opera il y a un an environ. Plutôt que de mettre des vignettes bariolées qui ne sont que des captures d’écrans réduites, Opera opte pour une cohérence graphique avec (par défaut) uniquement le nom du site sur un fond de couleur changeante. On peut détester, moi j’adore.



Mais le Speed Dial de Vivaldi n’a pas ce raffinement. J’aime néanmoins la possibilité d’organiser plusieurs Speed Dial (comme l’offre l’extension Speed Dial 2 sur Chrome par exemple). Pour l’heure, il y a encore un manque de finition (exemples : lorsqu’on essaye de superposer deux vignettes pour créer un dossier ; lorsqu’on clique pour éditer le titre, on ne peut sélectionner le texte, car le clic + mouvent de la souris provoque le déplacement de la vignette). Mais c’est déjà très fonctionnel à défaut d’être encore pleinement ergonomique à l’usage.



Je suis en train de reconstituer un environnement confortable (favoris, Speed Dial, mots de passe) sous Vivaldi pour réellement lui laisser une chance. Sauf lacune réellement gênante pour moi, je pense être bien parti pour l’adopter. D’ailleurs le module d’importation me fait gagner un temps considérable.



Question : existe-t-il des modules de synchronisation pour Vivaldi (histoire de ne pas perdre ses favoris/vignettes à la réinstallation ou lors d’un changement de machine ?

Le 07/04/2016 à 07h 26

@eXa&nbsp; Merci pour la réponse. J’ai vu que c’est tiré de l’article Wikipedia, qui source un blog brésilien (hmmm…). Je ne sais pas si c’est très fiable@&nbsp;Juju251&nbsp;: j’avais pensé à ça aussi, mais l’hypothèse me semblait guère probable. Le lien entre Vivaldi et l’opéra n’est pas le plus fort qui soit (même si Vivaldi affirme avoir composé 90 opéras, et qu’on en connait une bonne quarantaine, le compositeur vénitien reste fortement associé à ses concertos pour violon). Pour tisser un lien entre Opera et un compositeur, des noms comme Verdi, Puccini (ou Wagner) auraient été plus parlants pour beaucoup.J’imagine qu’un des fondateurs doit fortement apprécier la musique baroque et trouver original de donner à un logiciel un nom à l’héritage culturel un peu plus fort que le sont ceux d’une majorité de logiciels. À quand un traitement de texte nommé Flaubert ? :)

Le 07/04/2016 à 07h 06

Je vais tester cela avec plaisir. Je réutilise Opera depuis près d’un an, et comme j’adore Vivaldi (Antonio) au point d’en posséder une centaine de CD et tous ses opéras&nbsp;<img data-src=" />&nbsp;parus en disque, un navigateur portant ce nom a déjà des atouts de côtés.



Quelqu’un sait à tout hasard pourquoi le nom de Vivaldi a été retenu ?

Le 07/04/2016 à 00h 35

Le Sony Xperia Z3 Compact (et le Z3 aussi je pense, je n’ai pas vérifié) est compatible LTE 700 B28



http://ph.www.sogiworld.com/products/sony_xperia_z3_compact/436

Le 01/03/2016 à 15h 00

Je ne suis pas choqué ni amusé par l’appellation « vraie qualité CD » de bandes antérieures à 1980. À partir du moment où le son a été transféré&nbsp;en 16 bit, 44100 Hertz, PCM — depuis&nbsp;une bande analogique sans avoir été passé par un format induisant des&nbsp;pertes de nature psychoacoustiques (MP3, AAC…) ou prédictives (ADPCM…), ou encore qu’il provienne d’une source numérique à échantillonnage égal ou supérieur — on est bien dans la qualité CD.

Le CD n’a pas de qualité subjective intrinsèque : il n’est qu’un support tributaire des techniques d’enregistrements.



La notion de « vraie » « qualité CD » fait écho à celle de « qualité CD » que de nombreux acteurs informatiques ont utilisé pour désigner des compressions avec pertes jugées inaudibles. La qualité obtenue était jugée perceptuellement identique à celle figurant sur un CD (=PCM 2444100 sans compression). La « vraie qualité CD » désigne quant à elle une qualité techniquement ou mathématiquement identique à celle du support de référence.

Le 12/02/2016 à 19h 21

J’ai longtemps utilisé Opera, et d’ailleurs j’ai recommencé à l’utiliser il y a un an environ.

Je pense que la période payante d’Opera lui a été préjudiciable. À mon avis, si sa gratuité avait été décidée plus tôt, alors le logiciel aurait sans doute pu bénéficier de l’élan dont Firefox a su tirer partie, et qui fut liée pour l’essentiel à l’absence totale de dynamisme d’Internet Explorer.

Opera est devenu gratuit, et de fait réellement attractif, un an après la sortie de Firefox, avec ses fameuses pages de pubs publiées dans le New York Times. La dynamique était exclusivement du côté du panda roux, et allait la conserver jusqu’à la sortie de Chrome, qui a su par d’autres moyens attirer des millions d’utilisateurs.



Après, je te rejoins sur l’idée d’une absence de patriotisme informatique des européens (je doute même qu’il existe un patriotisme européen tout court). Personnellement, je t’avoue me ficher un peu de la provenance de mes logiciels (du moins tant que cela reste entre l’Europe centrale, l’Amérique du Nord, Japon et Corée). J’utilise Opera pour d’autres raisons que la proximité géographique et l’hypothétique parenté culturelle qu’elle suppose.

Le 05/02/2016 à 18h 42

Triste nouvelle, quoique peu surprenante. Lorsqu’on voit la difficulté que connait Microsoft à se faire une place sur ce marché, malgré ses milliards, son marketing, ses offres subventionnées et les possibles synergies avec l’OS le plus utilisé sur machines de bureau, le pari de ces petits poucets est quand même risqué.



Je me demande si proposer des smartphones sous Firefox OS a des consommateurs issus de pays émergents est une bonne idée. Pour beaucoup, l’Occident fait rêver. Utiliser Android, c’est faire comme les occidentaux, avoir les mêmes logiciels, accéder à une boutique qui décuple les possibilités d’un smartphone. Alors que Firefox OS, c’est quand même très maigre. L’an passé j’étais encore sous Symbian. Certes on peut lire de la musique et des vidéos, faire des mails, naviguer sans trop de mal (et encore). Mais quand je souhaitais une application qui comptait le nombre de pas en fin de journée, il n’y avait plus rien. Alors que sur Android, il me faudrait deux semaines pour les essayer toutes.



FInalement, le principal intérêt de Firefox OS est comme le soulignait Jarodd la protection de la vie privée contre le tracking publicitaire. Je me trompe peut-être, mais je pense que cette préoccupation est plutôt dominante dans les pays les plus industrialisés. Même si cela ne séduit qu’une petite fraction des utilisateurs, disons un petit pourcent, cela représente déjà plusieurs millions d’unités à vendre, soit un marché viable. Dommage que Mozilla ait mis un terme si vite à l’aventure.

Le 29/01/2016 à 12h 40







mango a écrit :



Je te rejoins sur certains points quant à la progression du numérique. Il devait cependant faire des progrès à son démarrage pour supplanter l’analogique. Il est maintenant mature. On le maitrise bien mieux et bien d’erreurs commises au début, ont été corrigées.



On ne peut quand même pas jeter la pierre à l'analogique. Elle a tout de même bien fait son travail, dans tous les domaines d'ailleurs et c'est aussi grâce à lui que l'on peut entendre les progrès du numérique. Car l'être humain ne possède pas de convertisseur numérique/analogique dans l'oreille et celle-ci ne perçoit pas de d'information numérisée.      

Il nous faut un convertisseur N/A, un ampli et des HP pour la reproduction sonore que l'on désire entendre.







Je suis d’accord. Les premiers enregistrements numériques étaient réalisés avec des consoles d’enregistrement 16 bit, dont la précision réelle approchait semble-t-il les 14 bit (désolé, je n’ai plus de sources). Comme le soulignait OlivierJ, c’est déjà plus que suffisant pour une écoute transparente. Mais comme l’avait aussi rappelé un autre participant, sur des signaux de faible intensité, c’est tout de même limite, car la précision chute drastiquement avec l’approche du silence (bien qu’en même temps, pour percevoir les éventuelles altérations, il faille pousser le volume d’autant…). Le célèbre enregistrement des Goldberg de Gould de 1981 avait été enregistré en numérique, et a connu 25 ans plus tard une édition surprise émanant d’une console analogique utilisée lors des sessions. Beaucoup préfèrent cette version. Dubitatif, j’ai effectué des tests ABX à l’aide de logiciels dédiés, et la différence est audible sans difficulté : l’enregistrement numérique de 1981 connait un grésillement étrange en arrière-fond, lorsque la version analogique éditée en 2007 en est dépourvue. Les deux présentent du souffle, la version analogique moins (sans doute a-t-elle été nettoyée). Impossible évidemment d’en tirer des conclusions sur la différence analogique/numérique, puisqu’on ignore encore le type d’intervention dont ont bénéficié ces bandes. Mais il n’est pas à exclure que le grésillement agressif de l’un corresponde à un artefact numérique propre à ces toutes premières consoles d’enregistrement de l’ère chiffrée :)



Ensuite sont également venues les erreurs de jeunesse du numérique, où les rééditions d’enregistrements analogiques étaient nettoyés afin que la marque caractéristique du nouvel objet CD, à savoir « le son digital » vierge de souffle, soit également présente sur ces disques. Cela correspondait à l’air du temps. Mais cela a parfois fortement dégradé la qualité sonore. L’image de « son aseptisé », médical, froid, sans vie… est je pense en grande partie né de ces pratiques. D’ailleurs des enregistrements DDD étaient souvent nettoyés, car la présence de souffle natif (lié aux microphones) contredisait les arguments publicitaires qui affirmaient que le CD n’en avait point. C’est une pratique que l’on trouvait dans la musique classique également.



Je tiens aussi à clarifier que je ne jette nullement la pierre aux supports analogiques. Même aujourd’hui, ils sont à même de fournir un son de grande qualité. Je soulignais simplement qu’ils n’ont pu évoluer, car la recherche et l’innovation ont basculé vers le numérique il y a plusieurs décennies. Les dernières innovations dans le domaine du support analogique à disposition du grand public étaient les cassettes audio, avec le Dolby S et les bandes en metal (type IV), qui ont permis de repousser le rapport signal bruit au-delà de ce que permet le microsillon. Puis sont arrivés les graveurs CD. La suite, chacun la connait :)


Le 26/01/2016 à 23h 31

C’est déjà très ancien comme procédé, qui remonte aux années 70 :

en.wikipedia.org WikipediaTa remarque laisse apparaître un des problèmes qui je crois n’a pas été évoqué dans ce long fil de commentaire : celui du progrès. On oppose analogique et numérique, comme si ces paradigmes d’enregistrements avaient une qualité qui leur était propre. Or numérique et analogique sont déclinés en supports qui vont du très médiocre (les rouleaux de cires, les premiers mini-cassettes pour l’analogique, ou encore le GSM pour le numérique).



Le numérique est en continuelle gestation. Du PCM 16 bit / 44.100 Hz, exploité commercialement depuis 35 ans, certains studios disposent de consoles d’enregistrements en DXD (352,8 Khz en 24 bit) et DSD512 (22,5792 Mhz sur 1 bit). Il est même possible d’acheter quelques titres aux spécifications gargantuesques. Plus couramment, l’audio HD à disposition du public va du PCM 96 KHz au 192Khz sur 24 bit, ou le DSD64 et parfois 128. Il est toujours possible de questionner la pertinence de tels formats pour l’écoute, mais leur existence démontre l’existence de progrès constants dont fait preuve le numérique.



Je doute qu’on puisse en dire autant de l’analogique. Et encore moins du vinyle, dont le format est pratiquement figé depuis 1958, date des premiers disques microsillons stéréophonique. Il y a eu une évolution majeure quand même avec la quadriphonie dans les années 70, mais elle n’a pas eu de succès, et je ne suis pas certain qu’elle soit innocente au niveau de la qualité finale.&nbsp;



Vanter la qualité sonore du vinyle, c’est un peu comme chanter les louanges de la télévision analogique noir et blanc de la même époque à l’heure du Blu-Ray UHD. C’est rester figé sur un support dont la technique actuelle permettrait d’accroitre les performances, mais dont l’obsolescence face au numérique rend caduque toute innovation depuis presque quarante ans.&nbsp;

Le 26/01/2016 à 01h 33

Les enceintes sont des ATM SCM12.

J’ai essayé de retrouvé leur prix de vente :&nbsp;

http://www.exaudio.net/criticas/hifinews_may03_scm12sl.pdf

1000 livres sterling en 2003. La paire ou l’unité (plus surement).



Des enceintes pas données mais du domaine de l’abordable je dirais (pour le passionné j’entends).

Et en effet, les enceintes sont aujourd’hui l’élément qui joue le plus grand rôle dans la différentiation d’un système.

Le 26/01/2016 à 00h 20







Noscarius a écrit :



La fidélité d’une reproduction musicale est trop subjective et émotionnelle pour être



  quantifiée.&nbsp;&nbsp;





&nbsp;



Ce n'est pas la fidélité qui est émotionnelle et surtout pas subjective. Divide vient de l'expliquer. La composante émotionnelle &nbsp;— qui est très importante — est celle qui relève du plaisir. Et plaisir et fidélité ne se recouvrent pas toujours, loin s'en faut.      






Pour en revenir avec l'analogie avec la photographie, on trouve ou trouvait sur de nombreux dispositifs de prise de vue photographique des rendus intentionnellement flatteurs : couleurs saturées, contrastes marqués, noirs profonds et bouchés, suppression de tout ce qui peut ressembler à du grain ou du bruit. C'est pas fidèle, mais ça plait à beaucoup. Le vinyle rentre en partie dans cette catégorie. La « loudness war » aussi : si la dynamique compressée est devenu un principe de mastering aussi courant, c'est que le rendu plaît à beaucoup. Le CD est trop froid ou trop métallique ? Non, c'est le signal d'origine qui est ainsi. Si le violon sonne mieux en église que dans le salon, ce n'est pas la faute au CD, mais celle du salon et des enceintes qui s'y trouvent. Et si la version vinyle séduit davantage que le CD dans ce même salon, c'est qu'il introduit une forme de distorsion plaisante qui permet d'oublier le défaut de notre espace d'écoute.      






L'aspect « émotionnel » de la musique est un peu la botte secrète, le joker des audiophiles… et la porte ouverte à toutes les inepties. Lorsqu'une machine évalue objectivement la qualité et donc la fidélité du signal produite par d'autres machines, le mélomane fait parfois la grimace. Et il va opposer l'écoute subjective à l'aspect protocolaire, technique et déshumanisé d'une batterie de mesure, et affirmer que la vérité se trouve dans nos oreilles, meilleures juges que les instruments. Sauf que, en faisant cela, il oppose la fidélité à ses propres goûts (qui n'inclinent pas dans le sens de la fidélité) et à l'impact que peuvent avoir toutes les influences extérieures qui n'apportent rien d'objectif au signal tout en modifiant notre plaisir (la beauté de l'ampli, son prix, son clinquant) — bref, du placebo (qui n'est pas une insulte, mais le phénomène le plus universel qui soit car personne n'y échappe).      






Les tests en aveugles, lorsqu'ils sont réalisés avec un maximum de soin, offrent ainsi des conclusions qui font voler en éclat les évidences les plus solides des personnes intéressées par la hi-fi. Un exemple ici :&nbsp;      



http://matrixhifi.com/ENG_contenedor_ppec.htm



Sur une même paire d'enceintes, on oppose un système très grand public (incluant une platine DVD basique comme source et des cables communs) à un système fortement audiophilé. Le résultat est édifiant : à peu près un tiers du public considère l'un comme meilleur, un autre tiers jure que c'est l'autre, et le dernier tiers ne parvient pas à discriminer les deux systèmes. Il est fort probable qu'à la même comparaison effectuée cette fois sans dissimulation des sources, la quasi-totalité des participants aurait trouvé toute sorte de qualité chantantes &nbsp;(message aéré, finesse des détails, subtilité des medium, bla bla bla…) au système le plus cher et rivalisé de métaphores pour décrire l'émotion procuré par un système hors-norme. C'est humain, nous sommes tous influençables (sinon les protocoles de double aveugle n'auraient aucun intérêt dans la science moderne).

Le 25/01/2016 à 21h 46







Wellit a écrit :



La prédominance du mp3 est quand même pas en faveur de CD high res malheureusement dont le support CD n’a pas changé depuis 15 ans, on a surtout régressé….





J’ai du mal à cerner le sens de ta phrase. Il manque des mots ?


Le 25/01/2016 à 21h 45







Noscarius a écrit :



Sympa de ta part de te soucier de mon audition ;) A 40 ans j’ai un audiogramme parfait, après 30 ans de piano amateur. Par élevé à l’acoustique je voulais dire que j’ai grandi dans une famille de pianistes et que j’ai forcément l’oreille musicale et la sensibilité qui va avec.



 &nbsp;       

A Divide je troll rien, je donne juste mon ressenti sur l'intéret du vinyle, vu que beaucoup de comments ici feraient croire que le vinyle est un attrape couillons ou un truc de hipster/snob :roll:

J'apprécie beaucoup le dématérialisé en flac via un bon dac et la stéréo adhoc, ça a juste pas le charme du vinyle :smack:

Je cite l'extrait d'un test du streamer Linn Klimax (15k€) dans Stéréo &amp; image de juin 2008 :

"Le réalisme de la restitution sonore atteint un niveau inimaginable, avec une précision d'analyse et un respect des timbres que l'on croyait uniquement réservés aux sources analogiques".








Je ne pense pas que citer les propos d'une revue de ce type puisse ici convaincre quiconque mis à part les convaincus. J'apprécie les revues qui donnent des conseils, établissent des guides d'achat et des classements : cela aide, cela rassure, cela fait rêver aussi. Mais en matière de son, toutes les revues typées audiophilie émettent des jugements tellement contraires au bon sens qu'elles finissent par ruiner la confiance de beaucoup de leur lecteurs. Lorsque les mêmes plumes qui te font rêver avec la chronique poétique d'un ampli qui correspond à huit ans de salaire affirment sans rire que tel câble USB fait chanter les aigus et permet d'entendre les respirations encore jamais entendues de telle soprano, se produit comme une fêlure qui te fait sérieusement remettre en question les capacités et le jugement de critiques devant lesquels on s'inclinait bien bas.     





&nbsp;En tous cas j’ai cessé de prêter attention à leur pépiage il y a une décennie (c’était le coup de fichiers FLAC qui manquaient un peu de basse par rapport à leur forme décompressée, tandis que l’Apple Lossless respirait un peu plus — des âneries de cet acabit &nbsp;— qui avait fini de ruiner le peu de confiance que je leur laissait). Le chroniqueur expliquait même que le lossless était sans perte au niveau mathématique mais pas sans perte au niveau auditif&nbsp;<img data-src=" />


Le 25/01/2016 à 19h 49







Noscarius a écrit :



Le vinyle donne un son chaud et charnu, le numérique a tendance à etre froid et métallique. Impossible de reproduire ce son analogique si typique même avec&nbsp; un dac à 15000€ et un master audio en 32Bits/386kHz.





En effet. Démultiplier la résolution ne servira à rien d’autre qu’à accroitre à l’absurde la précision d’enregistrement, alors qu’il faut s’en éloigner pour singer le vinyle.

Mais obtenir un son vinyle, ou un son « tube » est parfaitement envisageable à l’aide d’un filtrage numérique du son.



Le son n’a pas à être chaud ou froid. Pas dans une perspective hi-fi du moins. On demande aux appareils d’être fidèles — libre ensuite au mélomane de l’assaisonner à son goût. Ce qui, au passage, est parfaitement légitime, comme il est parfaitement légitime de trouver du plaisir au souffle et aux crépitements poussiéreux du vinyle.



Il en va de même en photo. Un capteur CCD n’a pas du tout le rendu acidulé d’un Velvia. Mais l’amateur d’anciennes bobines Fuji peut sans peine utiliser l’outil logiciel pour s’en approcher, l’égaler, faire « mieux » selon ses critères. Quant à avoir une image plus chaude que la réalité, cela s’ajuste directement sur le boitier ou en post-prod. Le but, comme en hifi, étant toujours d’avoir une base fidèle dès le départ.



Seule différence entre la photo et la hifi : le photographe chevronné a davantage de lucidité que l’audiophile allumé. S’il existait des audiophiles de la photographie, ils iraient clamer partout où ils vont que la qualité des cartes mémoires impacte le rendu des couleurs, que les lecteurs de ces mêmes cartes seraient sensibles au jitter et nécessitant de fait des supports en bois rare et en ivoire de lémurien pour atténuer vibrations et agitation des électrons, et iraient surtout acheter des cables USB supersoniques à séparation données/courant pour conserver le maximum de pureté aux fichiers raw.





Un exemple de câble, candidat au délire photophile :

http://www.amazon.com/gp/product/B00DU6RTQO/ref=s9_al_bw_g23_i2


Le 25/01/2016 à 13h 03







OlivierJ a écrit :



Si tu as du signal à 90 kHz, il ne vient pas de ton vinyle, en tous cas un vinyl est tout simplement incapable de reproduire une telle fréquence, déjà qu’on ne les enregistre pas dessus, sans parler de l’électronique du lecteur et de sa cellule.&nbsp;





Entièrement d’accord avec toi sur l’incapacité du vinyle a caser des données dans des plages de fréquences revendiquées par certains (les pics &gt; 40KHz sur des repiquages numériques de vinyles correspondent à un signal distordu).

Il est inexact de dire en revanche qu’elles ne sont pas enregistrées. Les microphones n’ont aucune peine à capter ce qui se situe au-delà de 20KHz. Et certains instruments sont connus pour en être plutôt riches (cymbales, clavecin). Les supports HR (SACD, BD-Audio, fichiers PCM/DSD HR) permettent, sur certains enregistrements, d’en faire le constat (de visu évidemment, puisque notre appareil auditif ne peut pas les distinguer).


Le 25/01/2016 à 12h 51







humanproject a écrit :



Non ; Un vinyle est fait à partir du fichier master d’origine en wav. Un vinyle ne peut être fait à partir d’une source 16 bits (du moins, c’est très déconseillé - on peut, mais ça risque d’être un peu moche) ;





&nbsp;Le format WAV est un conteneur, dans lequel il est possible de caser des données codées avec pertes (par exemple, l’ADPCM, et même du MP3¹, beaucoup l’ignorent). Le *.wav tel que tu l’entends, tel qu’on l’utilise couramment, désigne un codage PCM. C’est ce même codage qui est utilisé, à l’identique (mais sans système de fichiers à proprement parler), sur le CD audio (format Red Book).

CD en 16 bit/44.1Khz et WAV en 16bit/44.1 KHz sont donc des formats rigoureusement identiques.



&nbsp;

Dans la mesure où beaucoup d’éditions vinyles sont des productions contemporaines, leur source est nécessairement numérique — tous les studios enregistrant à l’aide de console numériques depuis plusieurs décennies.

Dans le cas de rééditions en vinyles d’enregistrements effectués avant 1980, sur des bandes analogiques, la question peut en effet se poser de savoir quel est la source employée : la bande analogique ou une copie numérique effectuée des années plus tard. Lorsque le vinyle fraichement pressé bénéficie d’un son remasterisé, tu peux être certain que son origine est numérique. Tout simplement parce que tous les outils de traitement du signal utilisés aujourd’hui sont numériques. Et aussi parce que les frais engagés pour une remasterisation devront être amortis en exploitant sur un maximum de support le travail accompli. Ainsi la version remasterisée se trouvera commercialisée sous forme de CD, Blu-Ray Audio, FLAC-HD, MP3/AAC…



Ainsi, une immense majorité des vinyles achetés aujourd’hui ne constitue par ce miracle analogique que les audiophiles vénèrent par opposition au signal appauvri et tronqué « en marche d’escalier » du numérique. Ces vinyles sont au contraire une gravure analogique d’un son préalablement numérisé. Triple peine donc : tous les défauts (chimériques) du numérique + tous les défauts de l’analogique + tous les défauts du microsillon (usure, poussière et craquements qui lui sont propre). Lorsque la fidélité du son est recherchée, c’est du côté du numérique qu’il faut se tourner.



__



¹&nbspen.wikipedia.org Wikipedia


Le 25/01/2016 à 12h 28

J’ai déjà été rendu attentif par d’autres lorsque j’employais il y a une décennie, et comme tu me le suggères aujourd’hui, le terme de « compression » MP3. La compression désigne un procédé de réduction des données qui permet néanmoins de restituer les données d’origine. La compression est donc essentiellement lossless.&nbsp;

Le MP3 consiste bien en un encodage, pas en une compression avec pertes.&nbsp;

fr.wikipedia.org WikipediaSi tu as des éléments qui vont dans le sens inverse, je reste néanmoins preneur.

Le 25/01/2016 à 01h 08

Spotify ne propose rien en lossless (flac ou autre). Le streaming en lossless est diponible sur les plate-formes Qobuz et Tidal.&nbsp;

Je suis étonné qu’on puisse trouvé à la FNAC des disques contenant des fichiers au format FLAC.



Sinon, pour parler de qualité supérieure du Vinyle sur le MP3, c’est rester dans de grandes généralités. Qualité en quel domaine ? Un mp3, même de qualité moyenne, est largement supérieur au vinyle pour tout ce qui concerne les passages les plus calmes d’une musique. Ce dernier a un bruit de surface que même le plus obtus des idiophiles ne peut nier (il dira juste que le souffle et les craquements intermittents, ça apporte un soupçon de vie au son). La musique dite classique, qui laisse la part belle à ces moments qui s’approchent du silence, supporte ainsi plutôt mal ce défaut du vinyle. J’ai à ce titre les chiffres de vente de 2012 d’amazon : seul 0,1% des ventes de vinyle concernait la musique classique. 0,1% d’un genre qui sert habituellement de maître étalon à la haute fidélité, cela donne une autre perspective que les théories brumeuses destinées à prouver que les électrons sont plus énergiques avec le vinyle qu’avec le numérique.

http://www.konbini.com/fr/entertainment-2/infographie-boom-des-ventes-de-vinyles…



Ceci dit, la qualité ne se réduit pas à un critère. Le MP3 a ses défauts, et, plus encore, il y a MP3 et MP3. Parler de la qualité du MP3 sans préciser ni la génération de l’encodeur ni le débit ni la commande, c’est parler dans le vide.

Le 25/01/2016 à 00h 43







bobdu87 a écrit :



Le principe du mp3, est de prendre la musique sous forme d’une somme d’ondes (du fourrier tout ça tout ça) est de ne garder que le plus important. Manque de chance, l’oreille humaine est comme l’oeil : loin d’être parfaite mais très performante dans certain cas… particulièrement la localisation, un truc pratique pour le chasseur/proie. Et justement c’est le type d’information qui est considéré comme négligeable sur une courbe malgré son importance dans la vie.





Tu te contredis dans tes propos. Tu dis (avec justesse) que le principe du MP3 est de ne garder que le plus important pour affirmer dans la foulée qu’il n’aurait cure d’un paramètre ultra-sensible.

Il n’y a jamais eu de problème avec un encodage de qualité au format MP3 concernant la localisation. Plusieurs problèmes sont repertoriés avec les différents encodeurs MP3 (pré-écho essentiellement), confirmés par tests en aveugle, mais si tu trouves un seul test ABX pertinent sur un défaut d’encodage de la stéréophonie, je suis preneur de tout lien.

Certaines formes d’encodages à débits très bas font l’emploi de techniques qui altèrent la spatialisation, afin d’optimiser au maximum la pénurie de bit. Le mode Parametric Stereo, utilisé sur l’HE-AAC v.2 en particulier (~32kbps), ou encore le mode Intensity Stereo (MP3 à débits &lt; 80 kbps).



Pour info, même les encodeurs lossless (flac…) utilisent un mode de codage de la stéréo qui ne correspond pas à la séparation G/D. Le Joint Stereo peut être parfaitement lossless. Il est simplement plus efficient dans la plupart des situations.

en.wikipedia.org Wikipedia


Le 24/01/2016 à 20h 29







bobdu87 a écrit :



Là le plus beau mp3 du monde ressemble au fantôme de la version CD. Perte de détails dans l’image stéréo violent, dans les timbres et la clarté de l’ensemble.&nbsp;&nbsp;





Ce n’est pas dans une diminution de l’image stéréo qu’un enceinte te permettra de discriminer « le plus beau mp3 du monde ». Qu’il puisse y avoir des différences perceptibles induites par la transformation du signal par l’encodeur, c’est de l’ordre du possible, quoiqu’improbable. Mais pas au niveau de la séparation des deux canaux.

Sauf si bien sûr « le plus beau mp3 du monde » est un encodage à faible débit doté produit par un encodeur d’un mode « joint stereo » buggé, comme il en existait dans les années 90.


Le 21/01/2016 à 16h 46

L’argument de la restauration me rappelle les difficultés détaillées par le responsable d’un label de musique classique (Andante), qui produisait des dépoussiérages unanimement salués et un superbe travail éditorial — label aujourd’hui défunt. Il expliquait qu’un enregistrement libre de droit était librement exploitable commercialement par toute entreprise (ce qui est normal), mais que si l’une d’elle consacrait des efforts à sa restauration, n’importe qui pouvait sans vergogne ni rémunération reproduire l’enregistrement restauré à vil prix.



Je me demande quel est le réel statut pour le cinéma ancien. Il existe des versions qui ont bénéficié d’un important travail de restauration (Keaton, Lloyd, Griffith, Feuillade… — Chaplin est toujours protégé par le droit d’auteur semble-t-il, du moins il l’était jusqu’en 2014). Ce travail est parfois co-financés par plusieurs acteurs qui se partagent ensuite les différents marchés nationaux (BFI pour l’Angleterre, Arte, Criterion pour les États-Unis). On ne retrouve pas ces versions travaillées chez des éditeurs économiques spécialisés dans la vente de DVD à quelques euros. Je me demandais si ces travaux éditoriaux ne bénéficiaient déjà pas de législations protectrices.

Le 19/01/2016 à 17h 23







ColinMaudry a écrit :



Si tu fais une interprétation géniale d’un Mozart, rien ne t’empêche de la déclarer à la SACEM&nbsp;



En fait, elle n’a pas besoin d’être géniale. Même si tu enregistres après trois heures de solfège seulement ta sonate mozartienne, tu en es l’auteur (de l’interprétation, pas de la sonate). Et tu disposes dès lors des droits sur sa reproduction (droits que tu peux céder à une maison de disque pour faciliter sa mise à disposition du public).


Le 19/01/2016 à 15h 57

Sans doute la raison pour laquelle son legs a été remastérisé deux fois ces dernières années. Une fois en 2008, et l’autre il y a un an et vendu en 24 Bit. On parle quand même d’une bagatelle de 70CD et quelques…

D’ailleurs sa maison de disques s’est sentie tellement mal comme tu dis qu’elle a même mouru depuis (EMI -&gt; Warner)

Le 19/01/2016 à 13h 32







le podoclaste a écrit :



C’est plus subtil que ça, et ça mérite d’y réfléchir 3 secondes avant d’envoyer l’argument bouler.



Actuellement, quand tu enregistres une chanson qui n’est plus couverte par le droit d’auteur, tu as quand-même les droits voisins (interprètes et éditeurs) qui s’appliquent. Ca n’empêche personne d’autre de reprendre la même chanson, mais tu conserves les droits d’exploitation sur ta version (passages radio, ventes et tout le tintouin).



Là, ce que semble redouter les ayant-droits, c’est qu’en cas d’oeuvre dans le domaine commun, les droits voisins ne puissent plus être appliqué. Est-ce vrai ou pas, je n’en sais rien, mais si ça ne l’est pas, ce n’est pas le fait qu’on puisse encore vendre les oeuvres de Flaubert qui les contredira.





Je pense y avoir réfléchi.

Les amateurs de musique classique (dont je suis) et de jazz ont une autre réaction en lisant l’idée énoncée plus haut. Des pans entiers du legs discographiques sont totalement libres, car les auteurs sont morts depuis plus d’un siècle (70ans + guerre) et les interprètes les ont enregistré depuis plus de 50 ans (ou 70, selon les pays). On va donc interdire à la vente les Duke Ellington et les Alfred Cortot (ou les premiers Karajan) ?

Ces enregistrements sont dans la même situation que les Rouge et le Noir ou Les Fleurs du mal. Ils n’ont plus de droit. D’où mon analogie.



D’ailleurs que se passe-t-il lorsque tous les droits connus tombent et que des artistes très populaires versent dans le giron public ?

Réponse :&nbsp;On prolonge les droits.

&nbsp;http://www.mondomix.com/news/patrick-fremeaux-domaine-public-les-beatles-ont-gag…


Le 19/01/2016 à 13h 03

«&nbsp;l’enregistrement d’un morceau de musique ou d’une chanson qui n’est plus couvert par le droit d’auteur, ne pourra donner lieu à la commercialisation d’un CD ».

&nbsp;Appliqué à la littérature ce précepte est savoureux : ne pourraient ainsi plus être édités en livres les œuvres non couvertes par le droit d’auteur. Exit Balzac, Flaubert, Montaigne, Rimbaud… Mieux que Sarkozy, qui ne s’en était pris qu’à La Princesse de Clèves.

Le 14/01/2016 à 21h 23







domFreedom a écrit :



Et pour lire (ripper) le Ultra-BR sur PC ?

Est-ce qu’une màj de firmware du lecteur LG/Asus sera suffisante, ou faut tout racheter ? <img data-src=" />





Nouveau format, donc nouveaux schémas de protection contre le rip. Ton lecteur Blu-Ray aura du mal à lire des galettes de 100 GB si il a été construit pour lire celles de 50 GB. Donc sa mise à jour risque de ne pas suffire et, dans un premier temps du moins, il faudra patienter jusqu’à ce que les mécanismes de copie aient tous cédés.



Mais sans vouloir casser davantage les rêves, penses-tu que des fabricants comme Asus ou LG vont généreusement développer et offrir des mises à jour ou qu’ils vont saisir l’opportunité pour inciter les consommateurs à racheter un nouveau composant pour leur machine ?


Le 14/01/2016 à 13h 08

Ta question est sérieuse ?

Le HD-DVD a été abandonné il y a huit ans, et aucune continuité n’est donc à espérer. Sinon, en 2016, aucun autre support que le Blu-Ray UHD n’a été annoncé. Il n’y aura pas de guerre des formats comme au temps du lancement du Blu-Ray. La rivalité se fera directement entre support physique et services de téléchargement.

Le 14/01/2016 à 11h 01

Dans la mesure où les BD UHD peuvent atteindre 100 GB, c’est hautement improbable à mon avis, à moins peut-être d’avoir dans son PC un lecteur/graveur de BDXL.&nbsp;