On explique dans l’article que les navigateurs s’organisent pour ne plus permettre l’utilisation du plugin. Donc quelqu’un qui a un ordi normal (donc avec navigateur à peu près à jour) ne pourra bientôt plus utiliser flash.
C’est bien ce qui est programmé.
Le
27/07/2017 à
08h
37
Et alors ? C’est quoi le rapport avec la choucroute ? En quoi ça justifie la disparition de flash ?
Le
27/07/2017 à
08h
35
Bon sang ! Mais arrêtez de répondre à côté !
Le problème n’est pas si on peut faire ou pas en flash aujourd’hui ! C’est une évidence que pour faire des choses animées ou interactives on ne va pas utiliser flash aujourd’hui !
Le problème c’est la disparition de l’existant (en particulier d’ailleurs les choses non maintenues. Je ne parles évidement pas de Deezer qui doit préparer ça depuis des années et qui se démerdera pour fournir une solution HTML5 comme ses concurrents bien avant 2020. Je parle des multiples applets flash, dont des jeux comme certains le mentionnent, qu’on ne pourra plus faire fonctionner).
Le combat n’aurait pas dû être pour la mort de flash (ça c’est le combat d’Apple, de Google, etc. pour des raisons uniquement commerciales), mais sa libération. Et c’est perdu. Je ne vois donc pas pourquoi on devrait s’en réjouir.
Pour finir sur ton post initial, je te cite :
« La sécurité, le respect des standards, l’ouverture, la fluidité des pages… » pour répondre à « en quoi c’est un plus que flash disparaisse ? »
Eh bien tu ne réponds pas, car les mêmes qui foutaient du flash bloated partout foutent maintenant du JS bloated partout. On retrouve donc des problèmes de sécu, des problèmes d’ouverture (les JS opacifiés et minifiés de Google par exemple), et bien sûr un web qui rame à mort même sur des gros PC.
Le
27/07/2017 à
08h
24
Je comprends pas ton commentaire : est-ce que ce n’est pas EXACTEMENT de l’obsolescence programmée que de définir la date de fin de vie d’un logiciel ? Je ne te parle pas d’électroménager hein !
Le
26/07/2017 à
17h
58
Effectivement les vidéos en flash c’est une plaie.
Mais historiquement le flash c’est aussi des animations (qui peuvent être interactives). C’est ces contenus qui vont devenir inaccessibles au plus grand nombre (pour pas dire tous) en 2020 (à moins que qu’un des projets de players alternatif ne devienne mature, mais on en est loin !).
Les vidéos, ça devrait être en HTML5, la techno est parfaitement mature. L’existence de flash ne l’empêche pas.
Le
26/07/2017 à
16h
08
??? Non mais tu ne réponds pas à ma question ! Je dis pas qu’il faut truffer les pages de flash ou même qu’il faut l’utiliser. Je dis que sa disparition est un problème dont je ne comprends pas qu’on se réjouisse.
Le
26/07/2017 à
13h
53
Franchement je vois pas ce qui vous réjouis ! Qu’on sache que bientôt tous les contenus faits en flash seront illisibles ? En quoi c’est un plus ?
Et les sites bloated de js ça fait pas chauffer vos CPU ? (moi si !)
Bref, je ne porte pas spécialement flash dans mon cœur mais les réactions me paraissent un peu disproportionnées pour l’annonce d’une obsolescence programmée qui risque de faire disparaître une partie du patrimoine numérique.
Je crois que nous aurons du mal à nous mettre d’accord…. Néanmoins, pour te répondre rapidement :
La contestation de Nyquist est sur l’utilisation du théorème pour justifier le fait que le Redbook du CD suffit pour la qualité audio. Ce théorème s’applique mal à la réalité des DAC semble-t-il.
Je continue d’affirmer que Chris Montgomery a un biais d’influence notamment à cause de son rôle chez Xiph (pour lequel il était salarié de Red Hat).
Et oui je suis d’accord avec toi : l’expérimentation et l’évaluation par les pairs sont parmi les fondements principaux de la science. En conséquence, le lien que tu donnes de Chris Montgomery ne peut être accepté comme scientifique. Au contraire de l’étude vers laquelle j’ai pointé (non pas que cette étude est le Graal. Elle doit être discutée et contestée, il n’en reste que ce n’est pas de la littérature « Grise », c’est à dire non évaluée, et sans expé, mais bien de la littérature scientifique).
Sens-toi libre d’avoir le dernier mot.
Le
30/03/2017 à
08h
50
1- [HS] je redis que si il y a de la subjectivité dans la science. C’est les méthodes qui doivent être objectives (et encore, c’est difficile à prouver). Le choix des problèmes, les hypothèses sélectionnés, les conclusions tirées des mesures sont toujours subjectives. Dès qu’on considère qu’il n’y a plus de discussion, on sort de la science pour aller dans le scientisme (croyance dans la technologie).
2- Le post de Montgomery repose sur l’utilisation de Shannon-Nyquist. Comme je l’écris plus haut, l’utilisation qui est faite du théorème de Shannon Nyquist pour justifier le Redbook de la qualité CD est bien contestée. Notamment sur différent biais concernant la restitution possible des DAC (quantité de ressources nécessaire à la restitution « parfaite », prévue par Nyquist, mais aussi qualité du filtrage par les DAC).
3- Le post de Montgmoery repose aussi sur notre connaissance actuelle des capacités auditives. Sachant que là encore ce ne sont pas des certitudes (notamment de nombreuses études soulignent les variations individuelles et les effets cognitifs).
4- Je ne suis pas (du tout) spécialiste du signal, de l’audio etc. Par contre, j’ai bien plus confiance en une publication scientifique (en plus une meta-review, qui te permet aussi d’aller consulter les 18 autres publications) évaluée par d’autre scientifiques à un billet posté sur internet par une personne en conflit d’intérêt potentiel (c’est ce que j’essayais de souligner en te donnant un lien d’un post d’un ingénieur de Qobuz, lui aussi en conflit d’intérêt).
Pour conclure : il me parait plus prudent d’admettre le doute et de considérer que peut-être la Hi-Res apporte quelque chose, plutôt que d’affirmer avec certitude le contraire.
Le
30/03/2017 à
08h
36
L’argumentaire de Chris Montgomery fait aussi l’objet de critiques (notamment sur la fait que la restitution « parfaite » telle que prévue par Nyquist est contestable). Et oui, le fait qu’il soit le promoteur d’un algo qui n’encode pas au delà de 16⁄44 est un biais.
Ensuite tu écris « c’est de la science pas une opinion » je crois que ça dépense ces questions de restitution audio, mais la science c’est exactement des opinions. Contestables et contestées (et même tout chose non contestable sort du champ scientifique. Cf. Karl Popper).
« Je ne comprends pas en quoi la conclusion du résumé remet en cause ce qui a été dit sur l’inutilité de dépasser la qualité CD ». C’est pourtant clairement ce qu’elle dit et ce que l’étude montre. Lis le papier.
Le
30/03/2017 à
06h
59
Je ne crois pas.
Certes Chris Montgomery (Monty, l’auteur du billet que tu pointes dans ton lien) est l’un des créateurs de l’OGG (codec à perte libre), mais c’est aussi son emploi principal ! Il me semble que ça le rend moins objectif que tu le prétends.
Mais, ce que je voulais dire surtout, c’est que ces articles sur internet ont quand même une valeur assez limitée en raison de leurs biais nombreux (méthodologiques, conflits d’intérêt, inexactitudes, etc.). Je pense qu’il vaut mieux se référer aux articles de recherche (avec évaluation par les pairs).
Un peu plus loin, je cite l’étude la plus récente que je connaisse qui est justement un meta-review de nombreux articles de recherche (18 études de 1980 à 2016) sur les tests d’écoute en qualité CD et au delà. Je pense que la lecture pourrait t’intéresser :http://www.aes.org/e-lib/browse.cfm?elib=18296
Je cite la conclusion : « Overall, there was a small but statistically significant ability to discriminate between standard quality audio (44.1 or 48 kHz, 16 bit) and high resolution audio (beyond standard quality). When subjects were trained, the ability to discriminate was far more significant. »
Le
29/03/2017 à
18h
18
Malheureusement pour ton argumentaire, des tests ont été faits : des différences sont observées par une part significative de la population, qui peut augmenter grâce à de l’entrainement… Tu pourras lire une meta-review récente de ces tests menés par des chercheurs :http://www.aes.org/e-lib/browse.cfm?elib=18296
La conclusion du résumé : « The overall conclusion is that the perceived fidelity of an audio recording and playback chain can be affected by operating beyond conventional levels¹. »
¹ « high resolution audio » (cf. reste de l’article et notamment la conclusion)
Ouai, c’est connu ça les ingés ça respecte les cahiers des charges… pile poil… Et la NASA, elle, ne fait jamais d’erreur, et surtout pas des grosses bourdes évidentes (du genre je sais pas… mélanger des unités métriques et impériales)…
AMHA tu idéalise un peu trop l’ingénierie. Non, dans le monde scientifique et industriel tout n’est pas maitrisé et tout le monde ne sait pas toujours bien ce qu’il fait.
Et oui, parfois des cons comme nous (mais je n’ai pas non plus l’impression que l’audience de ce genre d’article sur ce genre de site réunisse les plus cons de la planète) ont un point de vue qui peut être intéressant.
Le
23/03/2017 à
10h
13
C’est bien des déchirures dont je parlais ! (pas des trous d’origine)
Par exemple la liste des NAS synology éligibles aux applications récentes (mailplus) dans laquelle ne figurait pas mon DS713+ de 4 ans et pourtant haut de gamme (même s’il n’a que 2 baies). Il a fallu que les utilisateurs gueulent pour qu’il soit rajouté → il fait partie des NAS en voie d’abandon… Mais, c’est vrai que je suis peut-être subjectif car j’ai été très déçu par la politique logicielle/maj de Syno (ex. Timebackup qui vient de dégager sans solution capable de poursuivre les mêmes backups. Ce n’est qu’un ex. parmi bien d’autres.).
Le
13/03/2017 à
11h
22
Ouf mon TS-509 pro n’est pas dans la liste ! On ne peut qu’apprécier que 7 ans après ce modèle bénéficie toujours de MAJ (et de toutes les fonctionnalités). On est loin de Synology qui coupe les MAJ au bout de ~3 à 4 ans (cf. mon DS 713+ au bord de l’abandon par Synology).
Je connais bien Gnome et KDE (j’utilise les deux, mais le premier seulement quand j’y suis obligé) et mon message était quand bien ponctué d’un beau smiley… Mais pour être plus sérieux, tu écris : « Simple et efficace pour GNOME » et je me permets de te dire que si les utilisateurs ressentent en majorité le besoin d’y rajouter des extensions, il faut peut-être retirer l’adjectif « efficace ». → :-) ←
Le
08/03/2017 à
21h
21
Si c’est pour refaire KDE à partir de Gnome (avec des formulaires de config à rallonge) autant utiliser directement KDE :-)
Le
08/03/2017 à
10h
17
dandrz a écrit :
A ce jeu là, Ubuntu répond très bien. A la limite y aurait besoin de
rien d’autre… sauf que je pige queue dalle au fonctionnement d’Unity.
Alors j’utilise Mint et elementary OS.
Je te le redis,
si la diversité est un problème, alors c’est bien les (x)buntu (et Mint &co) qu’il faut
élaguer car elles sont venues parasiter les utilisateurs/développeurs d’autres
distrib’ bien installées et très bien foutues comme Mandriva (devenue Mageia) ou Suse.
Bref, deux choses l’une :
soit tu considères que la diversité est un problème → dans ce cas les (x)buntu (et Mint & co) sont des parasites et doivent disparaitre au profit de leurs ainées.
soit tu considères qu les (x)buntu (et Mint &co) sont de bonnes solutions → dans ce cas, tu confirmes que la diversité est bénéfique.
Pour l’instant j’ai l’impression que tu manques un peu de cohérence (tu critiques le diversité, mais tu prônes une distrib’ sortie de nulle part dans un écosystème déjà riche et fonctionnel).
Le
07/03/2017 à
20h
52
dandrz a écrit :
… comme 90% des distri dont on se demande à quoi elles peuvent servir à part faire plaisir à ceux qui les “conçoivent”. Plus de 200 distri et pas 20 qui soient utiles (on va me dire qui je suis pour écrire cela, je répondrais une simple personne avec un peu de bon sens).
Bref belle exemple de dispersion de talent, d’effort et de temps.
Va dire ça aux gens qui ont créé Ubuntu à une époque où il y avait moult distribs’ d’excellente facture (dont Mandriva qui est l’ascendante directe de la Mageia) !
Il y a aussi depuis un an ou deux des maj très fréquentes sur QNAP (quelque chose comme tous les deux ou trois mois max.)… Mais, aucun système n’est invulnérable : il faut être plus que vigilant en particulier sur les trucs connectés en permanence. Les maj auto par exemple ça semble assez imprudent en général.
À noter quand même quelques erreurs dans l’article sur le bond de version, puisque le kernel actuel de la MGA 5 est le 4.4.6, le Chromium est le 49 et que dès que la version ESR (45) de FF sera sortie, elle sera aussi mise à jour dans la MGA 5.
En quoi la fréquence plus ou moins élevée des MAJ justifie d’en parler ou non sur NxI ? Justement en parler quelque soit la fréquence permettrait aux gens de voir s’il y a une différence entre les principaux constructeurs du marché.
Avant les MAJ de QNAP étaient rares… Mais il semble que depuis peu ça devienne exactement l’inverse. Et ça, on ne l’apprend pas sur NxI ce qui est dommage parce que je pense que c’est exactement ce genre de choses qu’on attend de NxI.
Pour finir, je crains que les infos sur Syno soient plus fréquentes tout simplement parce que le service presse de Syno est plus actif. Et si c’est le cas, c’est décevant de la part de NxI, qui devrait dans ce cas, IMHO, mettre systématiquement en perspective les communiqués de presse avec ce que font (ou justement ne font pas) les concurrents.
Le
30/10/2015 à
12h
33
Et ? Parce que 5% des utilisateurs seulement déclarent avoir un NAS on en parle pas ? En tout cas, cette stat ne va pas s’inverser (au profit de QNAP) si Ni continue à ne parler (presque) que de Syno…
Le
30/10/2015 à
11h
27
Et vous ne parlez pas de la MAJ des QNAP ??? (d’ailleurs vous n’en parlez quasi jamais… Vous attendez les communiqués de presse ou quoi ?)
Eh bien en fait non, ça n’explique pas par quelle magie la valeur de User-Agent va être exécutée par bash sur le QNAP. Cette valeur est juste utile soit pour les logs, soit parfois pour envoyer une réponse différenciée selon le User-Agent (en comparant ce UA avec des motifs, rien à voir avec son exécution).
L’article linuxfr précise bien : “avoir un service qui écoute le réseau et qui va exécuter bash” (et j’ajoute : avec des données envoyées, et pas n’importe lesquelles).
Le fait que OpenVPN et FTP soient dans le liste des programmes vulnérables est fâcheux (et m’étonne aussi).
Justement, les contenus des variables d’environnement reçues par apache (comme l’user-agent) sont passées à bash dans certains cas (quand apache a besoin de lancer d’autres programmes par exemple, ce qu’il fait via le shell)… En détail tu as ça:http://blog.cloudflare.com/inside-shellshock/
Le
02/10/2014 à
19h
06
OlivierJ a écrit :
Est-ce que tu as compris par quel mécanisme, la chaîne de caractère de l’User-Agent se retrouve exécutée par bash sur le QNAP ? " />
Oui bien sûr ! C’est une des attaques de base liées à Shellschock dans laquelle Apache est utilisé comme passe plat pour transmettre via des variables d’environnement des instructions qui seront exécutées… cf.https://linuxfr.org/news/une-faille-nommee-shellshock qui explique ça très bien.
Toi et d’autres ici vous avez une vu d’esprit limitée au bout de votre idéologie de libriste, et vous ne voyez pas plus loin que ça.
On voit bien que tu trolle comme un fou… Mais, pas de fumée sans feu ! Donc pour conclure: les aspects pdm conquête du marché & co, comprends bien que même si ça semble intéresser au plus haut point, d’autres s’en foutent et n’ont absolument aucun besoin de s’en occuper. Le LL est devenu leader dans bien des domaines sans ce souci à l’esprit et s’il redevient confidentiel, c’est pas grave on fera comme avant qu’il soit leader.
Le
26/09/2014 à
08h
09
JR_Ewing a écrit :
Et ouais, c’est des branquignols chez Mozilla, ne vous en déplaise! RIEN est fait pour conquérir de nouvelles parts de marché
En fait, j’ai l’impression que tu ne veux pas comprendre… Il me semble que le but premier de Mozilla est de proposer un outil libre pour surfer sur un web le plus libre possible. Et non comme les autres éditeurs de navigateurs qui ont une démarche commerciale (gagner de l’argent) qui repose sur la part de marché.
Perso, j’en ai rien à foutre que Firefox ou ma distrib’ Linux ou Libreoffice ne soit pas utilisé par les gens comme toi et seulement par une petite minorité: c’est votre problème.
Pour finir: je suis totalement contre les EME (ou toute forme de DRM) dans les outils libres.
La gamme pro de Tohsiba (surtout dans les ultraportables de la gamme Portégé Z) est vraiment impressionnante en qualité ! Avec en plus des prix en deçà de la concurrence directe (Lenovo, Apple).
Ainsi, je ne suis pas surpris qu’ils aient décidé de se concentrer sur ces gammes-là.
Je reviens de Corée du Sud (et je suis allé récemment en Chine et c’était pareil) et clairement la plupart des gens rencontrés dans le métro ou dans la rue, dans les grandes villes comme en province, ont une phablette ou une tablette. Tellement que les gens ne rangent plus cet accessoire (dans un sac ou une poche): ils le portent à la main toute la journée. Du coup, la coque joue un rôle central et il y a vraiment des trucs extravagants (et très gros) comme coques.
Size matters… Moi avec mon Z1 Compact, je passais pour un rigolo…
Peux-tu me donner la source indiquant que ce geste est un salut “Nazi” ? Tant qu’à faire une source fiable et “historique”.
Comme dans tout: c’est l’intention qui compte. Par ailleurs, j’en ai rien à foutre des «quenelles». De mon point de vue c’est surtout un truc de gros branleurs.
marquis a écrit :
Edit :
Mais je vois que tu n’as retenu que ce que tu voulais de mon intervention.
Bien sûr ! Et si tu voulais pas écrire que tu ne savais pas si Dieudonné était antisémite, il fallait…. pas l’écrire. Grandir c’est aussi assumer.
Le
02/01/2014 à
11h
23
marquis a écrit :
Non, j’ai fait exprès de ne porter aucun jugement sur l’homme, ses idées.
??? quel est l’intérêt de ton intervention alors ? sinon une pub gratuite sur quelqu’un dont tu prétends ne pas connaître grand chose ?
marquis a écrit :
Tout ce que je sais c’est qu’il s’est fait flinguer pour un sketch chez Fogiel.
Je ne connais pas ce sketch, ni ce qu’il a fait depuis.
Tout ce que je connais de lui c’est ce qu’on nous rabache depuis une semaine.
Renseigne-toi, c’est pas bien compliqué et ça donnera un peu de poids à tes propos.
marquis a écrit :
Pour grandir, c’est trop tard pour moi. Bien trop longtemps que j’ai passé la puberté
L’âge ne suffit pas.
Le
02/01/2014 à
10h
40
marquis a écrit :
D’appréciation du degré de provocation ?" />
Quel rapport avec le fait que tu dises ne pas savoir si Dieudonné est antisémite ? C’est de la provocation de dire que tu ne sais pas qu’il est antisémite alors que tu le sais ? Non, vraiment, faut grandir un peu !
Le
02/01/2014 à
09h
51
marquis a écrit :
antisémite ? je n’en sais rien
Problème de cognition, sans doute…
Le
02/01/2014 à
08h
33
Melchizedech_06 a écrit :
Je vais peut-être paraître ignare (mais bon, on en apprend tous les jours). Il existe quoi comme réseaux sociaux cocorico ?
je veux bien les 2000 euros par mois qui vont avec, la medaille, c’est cadeau, ils peuvent la garder
Faut pas dire n’importe quoi non plus, on dirait Dieudonné ! Avoir la Légion dHonneur rapporte entre 6,10€ et 36,59€/mois et seulement pour les Légions attribuées à titre militaire (ce qui n’est pas le cas ici)…
96 commentaires
Adobe enterrera Flash fin 2020
26/07/2017
Le 27/07/2017 à 08h 39
Non.
On explique dans l’article que les navigateurs s’organisent pour ne plus permettre l’utilisation du plugin. Donc quelqu’un qui a un ordi normal (donc avec navigateur à peu près à jour) ne pourra bientôt plus utiliser flash.
C’est bien ce qui est programmé.
Le 27/07/2017 à 08h 37
Et alors ? C’est quoi le rapport avec la choucroute ? En quoi ça justifie la disparition de flash ?
Le 27/07/2017 à 08h 35
Bon sang ! Mais arrêtez de répondre à côté !
Le problème n’est pas si on peut faire ou pas en flash aujourd’hui ! C’est une évidence que pour faire des choses animées ou interactives on ne va pas utiliser flash aujourd’hui !
Le problème c’est la disparition de l’existant (en particulier d’ailleurs les choses non maintenues. Je ne parles évidement pas de Deezer qui doit préparer ça depuis des années et qui se démerdera pour fournir une solution HTML5 comme ses concurrents bien avant 2020. Je parle des multiples applets flash, dont des jeux comme certains le mentionnent, qu’on ne pourra plus faire fonctionner).
Le combat n’aurait pas dû être pour la mort de flash (ça c’est le combat d’Apple, de Google, etc. pour des raisons uniquement commerciales), mais sa libération. Et c’est perdu. Je ne vois donc pas pourquoi on devrait s’en réjouir.
Pour finir sur ton post initial, je te cite :
« La sécurité, le respect des standards, l’ouverture, la fluidité des pages… » pour répondre à « en quoi c’est un plus que flash disparaisse ? »
Eh bien tu ne réponds pas, car les mêmes qui foutaient du flash bloated partout foutent maintenant du JS bloated partout. On retrouve donc des problèmes de sécu, des problèmes d’ouverture (les JS opacifiés et minifiés de Google par exemple), et bien sûr un web qui rame à mort même sur des gros PC.
Le 27/07/2017 à 08h 24
Je comprends pas ton commentaire : est-ce que ce n’est pas EXACTEMENT de l’obsolescence programmée que de définir la date de fin de vie d’un logiciel ? Je ne te parle pas d’électroménager hein !
Le 26/07/2017 à 17h 58
Effectivement les vidéos en flash c’est une plaie.
Mais historiquement le flash c’est aussi des animations (qui peuvent être interactives). C’est ces contenus qui vont devenir inaccessibles au plus grand nombre (pour pas dire tous) en 2020 (à moins que qu’un des projets de players alternatif ne devienne mature, mais on en est loin !).
Les vidéos, ça devrait être en HTML5, la techno est parfaitement mature. L’existence de flash ne l’empêche pas.
Le 26/07/2017 à 16h 08
??? Non mais tu ne réponds pas à ma question ! Je dis pas qu’il faut truffer les pages de flash ou même qu’il faut l’utiliser. Je dis que sa disparition est un problème dont je ne comprends pas qu’on se réjouisse.
Le 26/07/2017 à 13h 53
Franchement je vois pas ce qui vous réjouis ! Qu’on sache que bientôt tous les contenus faits en flash seront illisibles ? En quoi c’est un plus ?
Et les sites bloated de js ça fait pas chauffer vos CPU ? (moi si !)
Bref, je ne porte pas spécialement flash dans mon cœur mais les réactions me paraissent un peu disproportionnées pour l’annonce d’une obsolescence programmée qui risque de faire disparaître une partie du patrimoine numérique.
Qobuz nous parle de Sublime+ (streaming 24 bits) à 349,99 € par an et vise de nouveaux marchés
29/03/2017
Le 30/03/2017 à 09h 05
Je crois que nous aurons du mal à nous mettre d’accord…. Néanmoins, pour te répondre rapidement :
La contestation de Nyquist est sur l’utilisation du théorème pour justifier le fait que le Redbook du CD suffit pour la qualité audio. Ce théorème s’applique mal à la réalité des DAC semble-t-il.
Je continue d’affirmer que Chris Montgomery a un biais d’influence notamment à cause de son rôle chez Xiph (pour lequel il était salarié de Red Hat).
Et oui je suis d’accord avec toi : l’expérimentation et l’évaluation par les pairs sont parmi les fondements principaux de la science. En conséquence, le lien que tu donnes de Chris Montgomery ne peut être accepté comme scientifique. Au contraire de l’étude vers laquelle j’ai pointé (non pas que cette étude est le Graal. Elle doit être discutée et contestée, il n’en reste que ce n’est pas de la littérature « Grise », c’est à dire non évaluée, et sans expé, mais bien de la littérature scientifique).
Sens-toi libre d’avoir le dernier mot.
Le 30/03/2017 à 08h 50
1- [HS] je redis que si il y a de la subjectivité dans la science. C’est les méthodes qui doivent être objectives (et encore, c’est difficile à prouver). Le choix des problèmes, les hypothèses sélectionnés, les conclusions tirées des mesures sont toujours subjectives. Dès qu’on considère qu’il n’y a plus de discussion, on sort de la science pour aller dans le scientisme (croyance dans la technologie).
2- Le post de Montgomery repose sur l’utilisation de Shannon-Nyquist. Comme je l’écris plus haut, l’utilisation qui est faite du théorème de Shannon Nyquist pour justifier le Redbook de la qualité CD est bien contestée. Notamment sur différent biais concernant la restitution possible des DAC (quantité de ressources nécessaire à la restitution « parfaite », prévue par Nyquist, mais aussi qualité du filtrage par les DAC).
3- Le post de Montgmoery repose aussi sur notre connaissance actuelle des capacités auditives. Sachant que là encore ce ne sont pas des certitudes (notamment de nombreuses études soulignent les variations individuelles et les effets cognitifs).
4- Je ne suis pas (du tout) spécialiste du signal, de l’audio etc. Par contre, j’ai bien plus confiance en une publication scientifique (en plus une meta-review, qui te permet aussi d’aller consulter les 18 autres publications) évaluée par d’autre scientifiques à un billet posté sur internet par une personne en conflit d’intérêt potentiel (c’est ce que j’essayais de souligner en te donnant un lien d’un post d’un ingénieur de Qobuz, lui aussi en conflit d’intérêt).
Pour conclure : il me parait plus prudent d’admettre le doute et de considérer que peut-être la Hi-Res apporte quelque chose, plutôt que d’affirmer avec certitude le contraire.
Le 30/03/2017 à 08h 36
L’argumentaire de Chris Montgomery fait aussi l’objet de critiques (notamment sur la fait que la restitution « parfaite » telle que prévue par Nyquist est contestable). Et oui, le fait qu’il soit le promoteur d’un algo qui n’encode pas au delà de 16⁄44 est un biais.
Ensuite tu écris « c’est de la science pas une opinion » je crois que ça dépense ces questions de restitution audio, mais la science c’est exactement des opinions. Contestables et contestées (et même tout chose non contestable sort du champ scientifique. Cf. Karl Popper).
« Je ne comprends pas en quoi la conclusion du résumé remet en cause ce qui a été dit sur l’inutilité de dépasser la qualité CD ». C’est pourtant clairement ce qu’elle dit et ce que l’étude montre. Lis le papier.
Le 30/03/2017 à 06h 59
Je ne crois pas.
Certes Chris Montgomery (Monty, l’auteur du billet que tu pointes dans ton lien) est l’un des créateurs de l’OGG (codec à perte libre), mais c’est aussi son emploi principal ! Il me semble que ça le rend moins objectif que tu le prétends.
Mais, ce que je voulais dire surtout, c’est que ces articles sur internet ont quand même une valeur assez limitée en raison de leurs biais nombreux (méthodologiques, conflits d’intérêt, inexactitudes, etc.). Je pense qu’il vaut mieux se référer aux articles de recherche (avec évaluation par les pairs).
Un peu plus loin, je cite l’étude la plus récente que je connaisse qui est justement un meta-review de nombreux articles de recherche (18 études de 1980 à 2016) sur les tests d’écoute en qualité CD et au delà. Je pense que la lecture pourrait t’intéresser :http://www.aes.org/e-lib/browse.cfm?elib=18296
Je cite la conclusion : « Overall, there was a small but statistically significant ability to discriminate between standard quality audio (44.1 or 48 kHz, 16 bit) and high resolution audio (beyond standard quality). When subjects were trained, the ability to discriminate was far more significant. »
Le 29/03/2017 à 18h 18
Malheureusement pour ton argumentaire, des tests ont été faits : des différences sont observées par une part significative de la population, qui peut augmenter grâce à de l’entrainement… Tu pourras lire une meta-review récente de ces tests menés par des chercheurs :http://www.aes.org/e-lib/browse.cfm?elib=18296
La conclusion du résumé : « The overall conclusion is that the perceived fidelity of an audio recording and playback chain can be affected by operating beyond conventional levels¹. »
¹ « high resolution audio » (cf. reste de l’article et notamment la conclusion)
Le 29/03/2017 à 17h 53
Quitte a citer des liens sur le net :
http://www.qobuz.com/fr-fr/info/magazine-actualites/hi-fi-pratique/la-musiqu…
Celui
que tu donnes provient d’un promoteur d’un codec à perte, celui que je
donne provient d’un promoteur du Hi-Res… Les deux sont donc biaisés, mais ça rééquilibre un peu le débat.
Sur Mars, une des roues de Curiosity montre de nouveaux signes d’usure
23/03/2017
Le 23/03/2017 à 11h 29
Ouai, c’est connu ça les ingés ça respecte les cahiers des charges… pile poil… Et la NASA, elle, ne fait jamais d’erreur, et surtout pas des grosses bourdes évidentes (du genre je sais pas… mélanger des unités métriques et impériales)…
AMHA tu idéalise un peu trop l’ingénierie. Non, dans le monde scientifique et industriel tout n’est pas maitrisé et tout le monde ne sait pas toujours bien ce qu’il fait.
Et oui, parfois des cons comme nous (mais je n’ai pas non plus l’impression que l’audience de ce genre d’article sur ce genre de site réunisse les plus cons de la planète) ont un point de vue qui peut être intéressant.
Le 23/03/2017 à 10h 13
C’est bien des déchirures dont je parlais ! (pas des trous d’origine)
Le 23/03/2017 à 10h 05
Oui, j’avais vu ces ouvertures, mais je parlais des déchirures que l’on observe en arrière de la roue ! Mais l’article cité ci-dessus http://www.planetary.org/blogs/emily-lakdawalla/2014/08190630-curiosity-wheel-da… me donne toutes les infos → effectivement c’est grave !
Le 23/03/2017 à 09h 49
Je rêve ou sur la photo on vois que l’arrière de la roue est carrément perforé ? (on voit l’arrière plan à travers la roue !)
QTS 4.3 bêta de QNAP : lecteur optique (Blu-ray/DVD) USB, clap de fin pour certains NAS
13/03/2017
Le 16/03/2017 à 10h 24
Par exemple la liste des NAS synology éligibles aux applications récentes (mailplus) dans laquelle ne figurait pas mon DS713+ de 4 ans et pourtant haut de gamme (même s’il n’a que 2 baies). Il a fallu que les utilisateurs gueulent pour qu’il soit rajouté → il fait partie des NAS en voie d’abandon… Mais, c’est vrai que je suis peut-être subjectif car j’ai été très déçu par la politique logicielle/maj de Syno (ex. Timebackup qui vient de dégager sans solution capable de poursuivre les mêmes backups. Ce n’est qu’un ex. parmi bien d’autres.).
Le 13/03/2017 à 11h 22
Ouf mon TS-509 pro n’est pas dans la liste ! On ne peut qu’apprécier que 7 ans après ce modèle bénéficie toujours de MAJ (et de toutes les fonctionnalités). On est loin de Synology qui coupe les MAJ au bout de ~3 à 4 ans (cf. mon DS 713+ au bord de l’abandon par Synology).
Mageia 6 : après des mois de retard, la version de stabilisation 2 est là
07/03/2017
Le 09/03/2017 à 19h 21
Je connais bien Gnome et KDE (j’utilise les deux, mais le premier seulement quand j’y suis obligé) et mon message était quand bien ponctué d’un beau smiley… Mais pour être plus sérieux, tu écris : « Simple et efficace pour GNOME » et je me permets de te dire que si les utilisateurs ressentent en majorité le besoin d’y rajouter des extensions, il faut peut-être retirer l’adjectif « efficace ». → :-) ←
Le 08/03/2017 à 21h 21
Si c’est pour refaire KDE à partir de Gnome (avec des formulaires de config à rallonge) autant utiliser directement KDE :-)
Le 08/03/2017 à 10h 17
Le 07/03/2017 à 20h 52
Vie privée : Ghostery appartient désormais à la société allemande Cliqz
16/02/2017
Le 16/02/2017 à 16h 35
Les NAS QNAP avec QTS touchés par une faille de sécurité, un correctif arrive
19/01/2017
Le 19/01/2017 à 11h 06
Il y a aussi depuis un an ou deux des maj très fréquentes sur QNAP (quelque chose comme tous les deux ou trois mois max.)… Mais, aucun système n’est invulnérable : il faut être plus que vigilant en particulier sur les trucs connectés en permanence. Les maj auto par exemple ça semble assez imprudent en général.
Mageia 6 : une première alpha disponible, le portage ARM pour « bientôt »
28/03/2016
Le 28/03/2016 à 15h 20
À noter quand même quelques erreurs dans l’article sur le bond de version, puisque le kernel actuel de la MGA 5 est le 4.4.6, le Chromium est le 49 et que dès que la version ESR (45) de FF sera sortie, elle sera aussi mise à jour dans la MGA 5.
Qobuz a enfin trouvé son repreneur, Xandrie (Allbrary)
29/12/2015
Le 29/12/2015 à 18h 19
NAS Synology : mise à jour de sécurité pour DSM 5.2 et Surveillance Station 7.1
30/10/2015
Le 30/10/2015 à 16h 53
En quoi la fréquence plus ou moins élevée des MAJ justifie d’en parler ou non sur NxI ? Justement en parler quelque soit la fréquence permettrait aux gens de voir s’il y a une différence entre les principaux constructeurs du marché.
Avant les MAJ de QNAP étaient rares… Mais il semble que depuis peu ça devienne exactement l’inverse. Et ça, on ne l’apprend pas sur NxI ce qui est dommage parce que je pense que c’est exactement ce genre de choses qu’on attend de NxI.
Pour finir, je crains que les infos sur Syno soient plus fréquentes tout simplement parce que le service presse de Syno est plus actif. Et si c’est le cas, c’est décevant de la part de NxI, qui devrait dans ce cas, IMHO, mettre systématiquement en perspective les communiqués de presse avec ce que font (ou justement ne font pas) les concurrents.
Le 30/10/2015 à 12h 33
Et ? Parce que 5% des utilisateurs seulement déclarent avoir un NAS on en parle pas ? En tout cas, cette stat ne va pas s’inverser (au profit de QNAP) si Ni continue à ne parler (presque) que de Syno…
Le 30/10/2015 à 11h 27
Et vous ne parlez pas de la MAJ des QNAP ??? (d’ailleurs vous n’en parlez quasi jamais… Vous attendez les communiqués de presse ou quoi ?)
DSM 4.3 et 5.x : Synology corrige la faille Shellshock, mais de manière partielle
02/10/2014
Le 02/10/2014 à 21h 37
Le 02/10/2014 à 19h 06
Le 02/10/2014 à 10h 21
Pour compléter ce qui est dit dans l’article: QNAP, dont les NAS (Japon, Corée et US principalement) sont spécifiquement la cible d’attaquants via Shellshock http://www.fireeye.com/blog/technical/2014/10/the-shellshock-aftershock-for-nas-… ) a publié un nouveau fix :http://forum.qnap.com/viewtopic.php?f=73&t=98188 (notamment pour les CVE-2014-6271, CVE-2014-7169, CVE-2014-6277, CVE-2014-7186, et CVE-2014-7187).
Lecteur HTML5 / EME : Canal s’y met à la fin de l’année, Firefox dans le flou
25/09/2014
Le 27/09/2014 à 10h 12
Le 26/09/2014 à 08h 09
PC : Toshiba licencie 20 % de son effectif et mise sur le marché pro
18/09/2014
Le 19/09/2014 à 05h 36
La gamme pro de Tohsiba (surtout dans les ultraportables de la gamme Portégé Z) est vraiment impressionnante en qualité ! Avec en plus des prix en deçà de la concurrence directe (Lenovo, Apple).
Ainsi, je ne suis pas surpris qu’ils aient décidé de se concentrer sur ces gammes-là.
Menacé par Twitter, Twitpic fermera ses portes le 25 septembre
05/09/2014
Le 05/09/2014 à 13h 07
Et hop: une tonne de liens morts…
Téléphoner avec sa tablette, une pratique de plus en plus courante en Asie ?
22/08/2014
Le 22/08/2014 à 09h 42
Je reviens de Corée du Sud (et je suis allé récemment en Chine et c’était pareil) et clairement la plupart des gens rencontrés dans le métro ou dans la rue, dans les grandes villes comme en province, ont une phablette ou une tablette. Tellement que les gens ne rangent plus cet accessoire (dans un sac ou une poche): ils le portent à la main toute la journée. Du coup, la coque joue un rôle central et il y a vraiment des trucs extravagants (et très gros) comme coques.
Size matters… Moi avec mon Z1 Compact, je passais pour un rigolo…
François Hollande est de retour sur Twitter et Facebook
02/01/2014
Le 02/01/2014 à 12h 10
Le 02/01/2014 à 11h 23
Le 02/01/2014 à 10h 40
Le 02/01/2014 à 09h 51
Le 02/01/2014 à 08h 33
La Légion d’honneur décernée à Muriel Marland-Militello et Pascal Rogard
02/01/2014
Le 02/01/2014 à 09h 48
Le 02/01/2014 à 09h 22
Moi aussi, je suis disponible pour recevoir la légion d’honneur…
Deux millions d’iPhone 5 écoulés en Chine le temps d’un week-end
17/12/2012
Le 17/12/2012 à 13h 23
Drôle d’écho à l’enquête d’Envoyé Spécial sur Foxconn !
PC INpact