Connexion Abonnez-vous

Spotify a enfin son mode Lossless

Le 10 septembre à 15h57

Après des années de rumeurs et de teasing, le mode Lossless (sans pertes) est désormais disponible dans Spotify, mais pas partout. Les premiers pays concernés incluent les États-Unis, le Royaume-Uni, le Japon, l’Australie, ainsi que plusieurs pays d’Europe comme l’Allemagne et le Portugal. La France n’est pas encore dans la liste, mais Spotify précise dans son annonce que plus de 50 pays auront le nouveau mode dans les semaines qui viennent.

Les personnes ayant un abonnement Premium recevront une notification pour les prévenir de l’activation. Après quoi, le mode Lossless sera accessible dans les réglages de l’application comme une nouvelle option dans le choix de la qualité. On pourra choisir le nouveau venu dans les trois types d’accès : cellulaire, Wi-Fi et téléchargements. Le Lossless est donc fourni sans surcoût.

Pour cette dernière, Spotify a fait le choix du FLAC en 24 bits et 44,1 kHz. C’est du moins la qualité maximale. Selon les titres, il s’agira en fait de 16 ou 24 bits. Spotify affichera cette information, ainsi qu’une estimation de la consommation de données avec cette qualité. En 24 bits, la valeur indicative est de 1 Go par heure d’écoute. De même, les téléchargements en Lossless prendront nettement plus de place.

Techniquement, des services concurrents montent plus haut en qualité. Tidal et Qobuz utilisent le FLAC Hi-Res et peuvent ainsi grimper jusqu’au 24 bits 192 kHz. Apple Music a fait le même choix. Pour détecter une différence, il faut cependant un matériel adapté et une oreille entrainée. Spotify précise d’ailleurs que le Lossless n’est exploitable qu’avec des écouteurs filaires ou des enceintes sans fil exploitant autre chose que le Bluetooth (trop limité en bande passante).

La plupart des produits estampillés Spotify Connect sont censés être compatibles. Spotify ajoute que la compatibilité sera étendue prochainement aux appareils Sonos et Amazon, mais sans plus de précisions.

Le 10 septembre à 15h57

Commentaires (42)

votre avatar
Pour détecter une différence, il faut cependant un matériel adapté et une oreille entraînée.
C'est exactement ce que j'ai pensé. Une majorité de personnes ne verront même pas la diff entre du lossy en HQ et du lossless, car pas le matériel pour et/ou pas une oreille assez entraînée pour discerner les différences (même si, à force d'écouter du lossless, on finit par l'entendre).

Proposer du FLAC Hi-Res en streaming, hormis des usages de niche, c'est surtout et avant tout du marketing à mes yeux. Par contre l'impact sur la bande passante et la conso de données, elle...

Tout ça me fait penser à une anecdote perso où, lors d'une soirée, un "DJ" m'a soutenu que passer un MP3 rippé de YouTube à du FLAC améliorait la qualité sonore xD
Donc ça montre bien qu'il y a tout de même beaucoup de psychoacoustique en jeu quand on parle de perception sonore.
votre avatar
Une majorité de personnes ne verront même pas la diff entre du lossy en HQ et du lossless
Aller, statistiques au doigt mouillées:
- 99,9 % des gens n'ont simplement pas le matériel
- 0,05 % des gens qui ont le matériel ne font pas la différence
- 0,05% restant, ils ont le matériel, et ils entendront une différence avec l’entraînement, mais sans être capable de dire quelle piste est HD et Lossless...

C'est un peu comme les électrosensibles. Ils en parlent, il y a une grosse communauté, ils disent tous ressentir quelquechose, ils dépensent des fortunes (car des malins savent qu'ils sont prêt à acheter n'importe quoi), mais quand tu les mets dans une salle, et dans la salle d'à coté, tu les bombardes d'onde directement avec une parabole directionnelle de 2m de diamètre à 2m de distance à travers le mur, ils sont incapable de dire quand ça émet ou pas...

Donc 100% d'accord avec toi, c'est du marketing.
votre avatar
Pas tout à fait d'accord. J'avais fait l'expérience : j'avais converti des extraits de plusieurs fichiers audio FLAC en MP3 320kbps dans un même dossier. Puis j'ouvrais l'explorateur de fichier, je fermais les yeux, je restais appuyé sur la flèche du bas pendant qq secondes, avant d'appuyer sur Entrée, toujours les yeux fermés. J'écoutais le morceau, je notais la version que je pensais écouter sur un papier, puis j'ouvrais les yeux, et je notais le vrai résultat (le random() du pauvre 😅). J'utilisais un casque audio à ~100€.

Au final j'arrivais à trouver la bonne version dans 70/80% des cas. J'ai aussi compris à l'époque que c'est surtout les percussions font la différence.

Et si au final je préfère effectivement le son en FLAC, je trouve surtout que la différence est vraiment tenue. Je pense que ça ne vaut vraiment pas le coup d'investir dans du matos dédié et de faire exploser sa bande passante (dans le cas du streaming) pour si peu.

Par contre, je pense que beaucoup de gens ont du matos qui peut faire la différence, il suffit d'un casque au-delà des premiers prix, ou d'enceintes un peu volumineuses. Mais s'ils passent par du bluetooth, pas sûr que le débit suffise pour entendre cette différence. Ou peut-être avec le bon codec (genre AptX), mais je n'ai pas poussé l'expérience jusque là.

P.S : à une époque je bossais dans la conversion de fichiers audios et vidéos, du coup ça m'intéressait d'avoir des réponses à ce genre de question.
votre avatar
Attention MP3 320Kb/s, c’est pas AAC 320Kb/s.
votre avatar
Ça me rappelle l'arrivée de la PS3 où j'avais un pote qui disait "t'as vu c'est d'la hachdééééééééééééé" sur sa TV catho en péritel :mdr:
votre avatar
Je trouve qu'on se moque facilement quand on connait la définition des termes techniques sous prétexte que l'on bosse dans le milieu ou qu'on s'y intéresse.

Cela étant factuellement la PS3 sur un écran cathodique ça rendait mieux que la PS2 sur le même écran. Certes la définition n'augmentait pas mais le niveau de réalisme et de détail dans les textures et les modèles, si. Ton pote s'est embrouillé avec le terme "HD" mais il avait raison de penser que le gain visuel était important même sur un écran cathodique.

Perso j'en veut pas aux gens pour ça, tous ces sigles sont extrêmement marketés mais niveau pédagogique c'est zéro : pour la plupart des gens la HD c'était un logo sur un appareil qui voulait dire "c'est plus joli que sans le logo".
votre avatar
me demande si mon amply yamaha pourra utilisé le lossless (vu que je vois même pas comment paramétrer le qualité de base)
votre avatar
Je me pose la même question.
Le site de support de Spotify n'est pas explicite sur ce point. Il ne liste qu'un seul ampli Yamaha comme compatible Spotify Connect, alors qu'il y en a bien plus.
Et le support de Yamaha n'indique rien, et en ce qui me concerne le dernier firmware date de 2017.
votre avatar
je sais pas de quand date le firmware de mon rx-a860 n'est pas tout jeune clairement.

ce serait dommage que ça suive pas vu que c'est généralement sur ce gendre d'install que tu est capable de voir la diff (même sur mes vielle colonne JBL je doute entendre la diff )
votre avatar
R-N500

En dépit de l'âge de mes oreilles, j'entends la différence entre Spotify (compressé avec perte) et le CD (entrée S/PDIF) ou un véritable FLAC sur USB, sachant que dans tous les cas c'est l'ampli qui traite le signal numérique, donc des conditions identiques.

Par contre, je n'entends pas la différence entre 16 bits ou 24 bits, ni 44 ou 48 ou 96 KHz.
votre avatar
Le Flac ou CD via SPDIF, c'est sûrement des composants basiques de très bonne qualité.
Spotify, il n'y a pas d'ASIC ou composant dédié. C'est forcement un microcontroller avec du logiciel pure qu'on peut mettre à jour. Le signal n'est donc peut-être pas généré par les mêmes composants, avant même l'amplification.

Aussi, est-ce que t'es sure que t'es bien en "Spotify premium avec avec bitrate très élevé", correspondant à du AAC 320Kb/s?

Car sincèrement, j'ai du mal à croire qu'il soit humainement possible de dire qu'un son est du AAC 320Kb/s ou du FLAC juste à l'écoute, et d'autant plus avec des enceintes.
votre avatar

"Le signal n'est donc peut-être pas généré par les mêmes composants, avant même l'amplification.
"

Je pense que dans mon ampli, il n'y a qu'un seul DAC et donc que toute source numérique (S/PDIF, USB, Streaming Spotify ou DNLA ou AirPlay...) y passe. En quelque sorte une seule ligne et donc pas de différence dans l'ampli.
Dans cet ampli, même les sources analogiques sont d'abord numérisées, ?travaillées?, puis de nouveaux analogiques. Au début ma platine CD était en RCA, cela faisait un mauvais son : CD Digital, qui sort en RCA analogique, Ampli qui renumérise et reconvertie en analogique. Le branchement de la platine CD en S/PDIF avait été une révélation. Puis je suis passé à SPotify.
Des spécialistes ont ouvert et trouvé le DAC Burr-Brown PCM5101 c.f. https://www.qobuz.com/fr-fr/magazine/story/Hi-Fi/Bancs-d-essai/Yamaha-R-N500174871/

"Aussi, est-ce que t'es sure que t'es bien en "Spotify premium avec avec bitrate très élevé", correspondant à du AAC 320Kb/s?"
Spotify à ma connaissance ne fai(sai)t au mieux que du OGG vers 196kbs, et parfois du simple MP3, donc très loins de l'AAC 256 ou 320.
Par contre, je ne sais pas ce que va chercher mon ampli, avec Spotify Connect le son n'est pas téléchargé par le téléphone mais directement par l'ampli. Le téléphone n'est qu'une télécommande. Donc j'ai tous les settings qualité au max sur le téléphone, mais j'ignore ce que fait l'ampli.

"Car sincèrement, j'ai du mal à croire qu'il soit humainement possible de dire qu'un son est du AAC 320Kb/s ou du FLAC juste à l'écoute, et d'autant plus avec des enceintes."
Je n'ai testé que Spotify (MP3 ou Ogg 196kbs) contre Lossless (CD SPDIF ou FLAC USB), mais là je persiste que j'entends une différence sur certains titres.
Je n'entends plus la différence entre les autres bitrates (44, 48 , 96 kHz ni 16 ou 24 bits). Et je n'ai absolument pas testé AAC 256 contre Lossless car je n'étais pas concerné et n'aurais probablement rien entendu.

Après, j'ai beau entendre la différence (Spotify vs Lossless) l'aspect pratique du streaming fait que je l'utilise bien plus que les CD Lossless. Mais si cette annonce offrait les deux sur mon vieux matériel, je serais content.

Note : j'habite à la campagne et je peux monter le son pour me laisser envelopper ou dépasser par la musique (éventuellement jusqu'au seuil d'inconfort). Quand j'habitais en ville, je détestais quand mes voisons répétaient cela. A la campagne, je peux le faire sans les déranger.
votre avatar
"Spotify à ma connaissance ne fai(sai)t au mieux que du OGG vers 196kbs, et parfois du simple MP3, donc très loins de l'AAC 256 ou 320."

J'ai quelques morceaux téléchargés de Spotify avec l'app OnTheSpot, paramétrée pour enregistrer le fichier tel qu'obtenu par le service (par défaut il transcode), on est sur du OGG 320kbps.
votre avatar
"Le Lossless est donc fourni sans surcoût." -> Pas besoin d'augmenter les tarifs, c'est déjà fait depuis plusieurs mois et à plusieurs reprises :bigssourire: Sont bons quand même
votre avatar
Spotify a enfin son mode Lossless
Naaahhhaaaaannnn !!!! Pas Possibbbb' !!! #SuisCarrémentSkotché !!! :sarcasm:

Perso, pas besoin de tout ce foin payant et privateur. Quand je veux écouter de la musique (les rares moments je ne suis pas en train d'en créer, ou d'écrire des poèmes), je vais sur Fip.

L'avantage de Fip par rapport aux chaînes commerciales, c'est que tu ne peux pas prédire d'avance ce qui va y passer, et ça c'est très bon pour le cerveau : cela le maintient en éveil, et entretient une certaine curiosité.

Depuis quelques années, ils ont ajouté des canaux thématiques, du genre imaginons tu ne veux écouter que du Metal, ou du Reggae, ou... il y a des canaux exprès pour ça.

Sinon lorsque je veux regarder des Artistes ou des groupes en live, je vais sur Arte Concert. (tip: en ce moment, il y a "Pink Floyd à Pompei" restauré... :love: Mais il y a aussi des sons très actuels !)

Bref, pas besoin de merdes sur abonnement.
votre avatar
tu es un peu hors sujet en fait ...comparer la radio avec un bibliotheque musicale...bof
votre avatar
Je ne sais pas si on peut vraiment appeler Spotify "une bibliothèque musicale"...
Mais peu importe, le fait est que l'on peut largement s'en passer, c'était le sens de mon message.
votre avatar
J'avais testé du son HD il y a quelques années avec un casque adapté et des échantillons sonores de qualité différentes. J'arrivais à les classer sans problème du moins bon au meilleur.

Par contre, je n'ai pas du tout aimé les meilleurs enregistrements où on entend parfaitement les respiration des chanteurs ou les doigts sur les cordes des instruments. J'ai trouvé ces détails supplémentaires dérangeants.

Finalement, un MP3 en bitrate variable avec une compression faible et sans chichis fait bien l'affaire dans la majorité des cas. :D

Le 24 bits présente un intérêt uniquement quand on écoute des musiques avec une dynamique très importante. Mise à part les opéras et quelques morceaux des Pink Floyds par exemple, c'est assez rare.

Le passage à 96 kHz ou plus pour l’échantillonnage ouvre par contre un nouveau marché potentiel: les chien et les chats qui sont bien les seuls à pouvoir profiter des fréquences supplémentaires audibles avec cette amélioration. Pour les humains, c'est plus contestable.

Finalement, le problème des détails sonores devenus audibles me fait penser aux problèmes d'arrivée de la HD dans les films de TGV, qui apportaient surtout des détails sur les problèmes de peau des acteurs, ce qui n'est pas franchement attirant, sauf peut-être pour un passionné de dermatologie.
votre avatar
heu les 96Khz n'a rien à avoir avec la fréquence audible. C'est le taux d'échantillonnage. plus il est élevé et plus précis est la numérisation point.

dans les cas "normaux" on prends fréquence max 2 pour déterminer la fréquence d'échantillonnage 20khz (max spectre audible) 2=40khz (arrondi à 44 je ne sais plus pourquoi).

le faire à 96Khz permet en théorie d'avoir des fréquence plus élevé, mais ce n'est pas ce que l'on cherche, le but c'est simplement d'être plus précis dans la reproduction des données analogique.
votre avatar
Techniquement, tu as tout à fait raison, ce sera plus précis et cela peut avoir un intérêt en mixage comme le souligne @beretta_vexee

Là, on parle de diffusion et ce n'est clairement pas nécessaire car cette précision améliorée ne sera pas saisie par les oreilles ou à la marge. Cette petite marge que l'on obtient déjà aux 48 kHz des DAT.

Par contre, la compression en mp3 joue fortement car elle appauvri le son en sélectionnant les sons les plus forts. Elle colore aussi nécessairement car la FFT n'est pas adaptée pour un signal aléatoire, ce qui crée des artefacts de la même manière que la DCT sur le jpeg. Rien qu'en réalisant une FFT et son inverse sur un signal, on l’abîme.

Il faudrait créer un format basé sur la transformée en ondelettes pour compresser avec plus de respect mais peut-être que cela existe déjà.
votre avatar
pour le mastering ça à complétement du sens aucun soucis là dessus, mais la diffusion perso du 48khz why not mais du 96 ça ne sert à rien pour moi.

mais je vois bien la différence quand tu fait de la conversion analogique numérique (donc au record) vu que je l'ai expérimenter pendant mes cours d'électronique au lycée :) (génération d'un signal complexe, et échantillonnage à différentes fréquence pour voir le résultat :)
votre avatar
Je suis dans l'électronique aussi donc je vois bien de quoi tu parles. Pour éviter les problèmes de repliement de spectre liés au sous échantillonnage on met en place des filtres passe bas et tout se passe bien.

Encore une fois, oui, l'oscilloscope permet d'observer une différence nette mais pas notre oreille et c'est l'oreille qu'il faut satisfaire, pas l'électronicien.
votre avatar
Afin de pouvoir reproduire une fréquence de 22KHz, il te faut au minimum deux fois cette fréquence pour l'échantillonnage, soit 44KHz.

Le problèmes concerne principalement le mixage et les effets, comme c'est le strict minimum, en superposant des signaux tu peux te retrouver à perdre des fréquences, idem si tu veux accélérer ou réduire la vitesse de lecture. Plus de problèmes de coupures brutales à 22 kHz si tu veux tire le signale vers les graves.

Avec 96 KHz tu passes à 4 fois 24Hz ce qui donne de la marge aux techniciens sons pour travailler.

Honnêtement, je ne suis pas convaincue que cela change grand-chose pour la diffusion. Une large part de la population ne peut pas entendre les fréquences autour de 22K Hz à cause de l'âge.
votre avatar
Pour le mixage, on est d'accord et c'est bien pour cela que les mixages se font jusqu'à 32 bits @ 192 kHz, exactement comme le fait d'utiliser plus de décimales dans un calcul scientifique avant de réduire la précision des résultats.
votre avatar
Perso ce qui m’a fait quitter Spotify c’est surtout la compression de leurs fichiers. Même en qualité max c’était perceptible (en tout cas il y a quelques années), d’autant plus que j’avais de mon côté une version aac faite de mon côté : gros manque de dynamique… J’imagine qu’il s’agit de questions de normes pour éviter je ne sais quel artefact acoustique, mais au fond je ne sais rien. Je ne comprendrais pas non plus pourquoi on fournirait à Spotify de mauvais fichiers.
Bref, je suis d’accord pour dire qu’entendre la difference entre du 320kps et du FLAC c’est parfois sur le fil, en revanche il faut aussi peut-être se pencher sur d’éventuels traitements appliqués au signal pour que « ça passe bien » dans la machine.
votre avatar
Ayant une certaine habitude de mixer des trucs (sans aucune prétention derrière, c'est juste que ça fait longtemps que je pratique et étudie la question), je pense à un problème de mastering.

En effet, lorsque les titres d'un album sont mastérisés, en général spécialement pour telle ou telle plateforme (chacune à ses exigences de base, avec lesquelles on joue allègrement), lors de cette étape finale donc qu'on appelle "Mastering", les ingés ont tendance utiliser différents effets et outils qui jouent énormément sur la dyamique, dont les fameuuuh compresseurs (il y en a de plusieurs sortes, et quand tu commences à les empiler, ça peut faire vraiment mal).

Sachant que (suivant le style de musique concerné) il y a une compétition pas possible entre les artistes / DJ / compos, un des moyens de se faire remarquer est de "pousser les manettes à fond" afin de faire sonner ton titre le plus fort possible, à l'extrême limite de la saturation.

Et qui dit "extrême limite" dit : "dynamique zéro". Ça sonne fort, mais ultra-plat, sans le début d'un commencement d'ébauche de nuance entre le début d'un morceau, son milieu et sa fin.

Ce que je voudrais dire, c'est que les plateformes elles-mêmes attisent cette vieille compétition, cette "guerre du loudness" qui sinon aurait du être terminée depuis longtemps. Ça fait un bail qu'on a tous les outils pour produire de très beaux masters, mais ça ne va pas dans les intérêts du bizness, donc on ferme notre gueule.

C'est très vrai notamment dans l'électro. Mixer un bel album d'électro pas bâclé est un vrai défi aujourd'hui. Je ne dis pas que c'est impossible, je dis que, pour les prods qui veulent faire des titres EDM qui marchent (ne serait-ce qu'en discothèque), leur permettant au moins de rentrer dans leur frais... bonjour !

Le seul domaine où il y a des normes assez sévères qui empêchent de faire n'importe quoi, où la dynamique des instruments est vraiment, scrupuleusement respectée, c'est la musique de film. Sans rentrer dans les détails techniques, j'ai été épaté du soin avec lequel les studios sont calibrés, le soin dans les prises de son, dans le mixage...

Pour un petit geek du son insignifiant tel que moi, cette trop courte expérience a été comme... arriver au paradis ! :birthday:
votre avatar
Malheureusement cette guerre du loudness a commencé il y bien longtemps, Elektor en parlait déjà à l'age d'or du CD...
votre avatar
C'est vrai (j'étais fan de ce magazine, j'ai soudé mes premiers kits grâce à eux), et ce problème aurait du être dépassé / résolu depuis longtemps, au bénéfice des amateurs de musique (qui ne sont plus hélas que des clients pigeons).

Mais (contrairement au monde du Cinéma) personne n'a vraiment réussi à imposer des normes de loudness / dynamique, et les plateformes en ont profité un max. Pour des raisons tordues que je ne développerai pas ici, cette très vieille guerre leur profite.

Lors de l'émergence de YT, beaucoup de créateurs se sont questionné sur le fait que cette plateforme n'est qu'un intermédiaire qui ne crée rien par elle-même, mais profite (un max) du contenu créé par d'autres. Ce contenu, elle le paie au rabais, et elle peut le faire parce que malheureusement ces intermédiaires quasi-mafieux sont devenus incontournables.

Mais YT, iTunes ou Spotify, le support que tu choisis n'a aucune importance, vu qu'ils fonctionnent tous suivant les mêmes règles : profit maximum, et paiement minimum, voire inexistant aux créateurs.
votre avatar
Tu peux développer pourquoi la gerrre du loudness profite aux plateformes du streaming ?
votre avatar
En gros : diviser pour mieux régner. Les plus grands tubes planétaires sont "créés" par d'énormes boites de prod / labels, qui veulent à tout prix rentrer dans leur frais. Ce qui est devenu carrément difficile, vu qu'un titre qui sort, même d'un nom connu, est menacé d'être noyé dans la masse (gigantesque) de titres qui sortent chaque jour.

Les plateformes en général aiment cet effet de masse, parce que le consommateur a ainsi l'impression d'avoir le plus grand choix possible de titres (Là il y a débat. Peut-on réellement parler de diversité ?). Mais cet effet de masse se fait au détriment des créateurs, qui pour promouvoir leur prod doivent vraiment pédaler dans la choucroute, et une promo bien faite coûte très cher...

Tout cela se fait au détriment... du travail musical et technique sur la musique elle-même ! Dit simplement, on n'a plus le temps de faire du beau travail, on doit speeder le process à mort ! Parce que le temps que met un.e technicien.ne / équipe de prod à finaliser son travail, c'est de l'argent !

(C'est pour cela que tellement de musiciens / DJ / groupes ou autres créateurs en général se débrouillent pour enregistrer, mixer et mastériser eux-mêmes leur titres de A jusqu'à Z, - mais rares sont les artistes auto-produits qui marchent vraiment).

Dernièrement, l'apport de l'IA fait miroiter l'idée d'une production musicale entièrement automatisée, de la composition au mix, ce qui serait idéal en terme de rentabilité (Yeaaah ! :8 :love: ), mais dans la vraie vie, l'intervention humaine est encore (pour combien de temps ?) nécessaire...

Bref : on (certains en tous cas) pourrait faire mieux, mais, rentabilité oblige, on n'a pas le temps. On n'a pas le temps, parce que les plateformes ne payent pas (voire pas du tout) ce temps, et qu'elles privilégient l'effet de masse au détriment de toute singularité.

(A titre anecdotique, il m'est déjà arrivé d'être obligé de finaliser un titre (une cinquantaine de pistes) en deux heures seulement. Ce n'est pas faute d'avoir été très clair quant au résultat, mais si le prod me paye - consciemment - pour deux heures, il obtient exactement ce pourquoi il a payé : de la m...)

(Et c'est aussi pourquoi, à 61 ans bien tassés, j'ai raccroché les gants. Non pas que j'ai fait quoi que ce soit "d'important", pas du tout même, c'est juste que bon, ça va quoi.)

Le travail artisanal est rarement récompensé, en tout cas pas dans les styles populaires / médiatiques tels que Pop, R'n'B, EDM, etc... Je ne dis pas que tout est comme ça, je dis juste que faire du son dans un but lucratif est, dans la plupart des cas, une illusion.

Mieux vaux se concentrer sur ce que tu fais et uniquement sur ce que tu fais (et, si c'est possible, sur le live, festivals and co. Très important !) parce que si tu regardes trop autour ou derrière, ça peut te couper toute inspiration, ou te donner envie de mixer uniquement des bruits de vomi. Ceci dit, pourquoi pas ? :vomi1:
votre avatar
Le loudness, version compensation côté lecteur, était même antérieur: Initialement c'était la touche "magique" des walkmann à K7 audio qui permettait de donner un semblant de dynamique à un mode d'enregistrement qui en manquait.
Avec le CD, ce n'était plus nécessaire... a la limite certains ont pu juger alors qu'il y en avait trop par rapport à leurs habitudes et vouloir faire un son plus plat.
Mais le pb le plus courant aux débuts du CD était la qualité des filtres anti-repliement qui ont fait les beaux jours des vendeurs de platine vinyle alors en pleine déconfiture dans les salons, qui aimaient à faire écouter comparativement les détails perçus côté vinyle et perdus côté CD!
Mais c'était un pb des chaînes de numérisation de l'époque, pas de spécification du CD.
L'audio HD ne sert qu'a prendre plus de place sur les stockages pour un résultat imperceptible si on n'a plus l'oreille d'un gamin de 10 ans.
votre avatar
Beh justement c’était tout le contraire de la course au loudness, plutôt sur des titres expérimentaux et calmes (mais tout de même sortis sur CD, donc masterisés quelque part dans la chaîne) : Éliane Radigue.
votre avatar
Tiens, voilà un nom qu'on n'a pas entendu souvent sur Fun radio ou sur Skyrock ! :mdr2:

Grand respect pour cette pionnière, qui a du s'imposer dans un monde d'hommes. Elle a inventé un truc qu'on utilise énormément dans l’électro : les drones, ces sons continus - pas forcément monotones - qui varient, sont distordus, modulés ou évoluent dans le temps...

Si une telle créatrice sonne mal sur Spotify, c'est peut-être justement parce que le son n'a pas été adapté spécialement à cette plateforme et ses algos ?

Pour te donner un exemple qui me touche particulièrement, je trouve que certains albums de Progressive (ex. : premiers albums de Genesis, Ange... des années 60/70) sonnent assez mal sur Deezer ou Spotify, c'est à dire qu'ils n'ont pas l'ampleur majestueuse des versions CD (Remastered) ou même vinyle...

AMHA cela veut peut-être dire que, indépendamment du codec, ces plateformes ne sont pas adaptées à des musiques un peu spéciales, décalées... marginales ? Dit autrement : qu'elles ne sont pas neutres ?
votre avatar
Hahaha sur Fun Radio c’est sûr 🤣, mais sur NRJ (pun intended) ?
Merci pour vos réponses en tout cas ! Les mentions de normes de dynamique de l’article Wikipedia pourrait expliquer la difference de dynamique ?
votre avatar
en.wikipedia.org Wikipedia :ooo:

Audio normalization per streaming service
Service Loudness (measured in LUFS)
Amazon Music −13 LUFS[36]
Apple Music −16 LUFS[36]
SoundCloud −14 LUFS[36]
Spotify −14 LUFS, −11 and −19 available in premium[37][38]
Tidal −14 (default) or −18 LUFS[39][36]
YouTube −14 LUFS[40]
YouTube Music −7 LUFS[41]

et j'en remet une petit couche :
https://support.spotify.com/fr/artists/article/loudness-normalization/

Je trouve que le 24 bits apporte une meilleure spacialisation des instruments. C'est encore plus évident avec les formats DSD/DSF (sur 1bit au lieu de 24) , ou chaque instrument est bien détaché des autres ça donne une impression d''espace....oui y'a de la subjectivité , mais pas que. (mais a plusieurs centaines de Mo le track de 4minutes ..pas demain qu'on l'aura en streaming )
votre avatar
La partie "Point de vue alternatifs" de la page fr, notamment son dernier paragraphe est à prendre en considération :
"Par ailleurs, il n'est pas prouvé que le public soit sensible à la compression dynamique, comme le suggère un article publié en janvier 2014 par Jens Hjortkjær et Mads Walther-Hansen, dans lequel les auteurs échouent à montrer qu'un panel d'auditeurs considère comme dégradé ou de moins bonne qualité un signal musical de plus en plus compressé".
votre avatar
Autant dire qu'avec mes écouteurs TW, je ne vais entendre aucune différence car le son sera de toute façon recompressé à la volée en AAC par le téléphone...
votre avatar
Faut aussi que le micro qui enregistre soit de qualité et que l'enregistrement d'origine ne soit pas compressé. Hors de nos jours les enregistrements sont quasiment toujours compressés. Le mode non compressé est très souvent absents des propositions.
votre avatar
Je connais assez bien le traitement de l'image, de la captation à la restitution sur écran. Je n'ai, en revanche, qu'une connaissance assez limitée de celui du son.

Par analogie, je m'interroge sur le fait qu'il soit possible d'utiliser de l'IA, en faisant comme certaines cartes graphiques ou logiciels avec l'image. C'est à dire de reconstituer, lors de la lecture, l'information manquante, perdue par le biais de la compression, ou par le choix d'échantillonnage. Bien entendu, ça ne recrée pas l'information perdue de façon exacte, mais ça en restitue une version probable, assez proche de l'original et en haute fidélité. Ça reviendrait à restituer une source Mp3 avec une qualité equivalente à celle obtenue avec un encodage en Flac. Ce serait, comme regarder une source 720p ou 1080p sur un écran 4K, sans artefacts et avec un niveau élevé de details, sans pour autant dénaturer l'image.

Peut être, qu'il y a un obstacle que je ne perçois pas, ou bien que je suis passé à côté de l'info, mais je n'ai vu aucune démarche allant dans ce sens concernant le son.
votre avatar
C’est déjà le cas en tout cas : en faisant une recherche on tombe sur pas mal de sites qui proposent de la restauration sonore.
Après tout, si l’on grossit fort le trait, c’est une question de traitement de signal.
Après ce que ces sites valent…
votre avatar
Cool, ils vont enfin pouvoir écouter des albums masterisés avec le cul en lossless \o/
votre avatar
Nickel, je vais enfin pouvoir exploiter le jus de mon switch audiophile 5ports à 5000boules

Spotify a enfin son mode Lossless

Fermer