Borée
est avec nous depuis le 31 octobre 2009 ❤️
Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?
180 commentaires
La loi française sur la numérisation des livres indisponibles devant la justice européenne
Le 06/05/2016Le 06/05/2016 à 12h 00
Victime du géoblocage des ebooks, un sénateur a appris « à pirater »
Le 02/05/2016Le 05/05/2016 à 12h 06
Le 03/05/2016 à 16h 49
Pour commencer, le lauréat annuel du Goncourt est rarement connu du grand public. On n’y trouve ni Nothomb, ni Musso ni Levy et je pense qu’on est pas près de les y voir. Cela reste de la mise en avant, mais c’est le principe du prix littéraire : mettre en lumière un auteur par un jury de personnes de réputation.
Ensuite, les gros éditeurs français ne font pas que du business. C’est toujours le stéréotype : majors = grand public. C’est omettre que Gallimard a un catalogue assez riche d’auteurs confidentiels, et que les Warner/Universal vendent aussi des concertos de Joseph Bodin de Boismortier et d’autres de même renommée. Bien entendu ces maisons d’éditions géantes sont celles qui drainent les plus grands succès de librairie, mais c’est juste la face cachée de l’iceberg. Les ventes d’Harry Potter permettent à d’autres collections de ne pas être totalement asphyxiée et donc de vendre de la philosophie à quelques centaines exemplaires… les années fastes.
Le 02/05/2016 à 18h 51
Le prix unique n’est pas une exception française ; c’est une protection assez courante dans d’autres pays européens et également adoptée sur d’autres continents :
https://fr.wikipedia.org/wiki/Prix_unique_du_livre
En revanche, l’extension de ce texte au livre électronique (qui n’est donc pas du fait de Jack Lang mais de l’UMP trente ans plus tard) n’était pas nécessaire. En plus cette extension n’est pas sans poser quelques contradictions avec le droit européen :
http://www.zdnet.fr/actualites/livre-electronique-le-prix-unique-definitivement-…
http://www.lepoint.fr/chroniqueurs-du-point/laurence-neuer/prix-unique-du-livre-…
Ceci étant, la cause du prix élevé (et du faible décollage de l’eBook en France) est à chercher ailleurs. Amazon avait réussi à convaincre dès 2007 les grosses maisons d’édition nord-américaines à fixer le prix des ebook à \(9,99 (contre >\)20 pour les nouveautés). Cela ne résultait pas de la concurrence, mais d’un accord. En France il n’y a rien eu de semblable, et les éditeurs ont trouvé plus pertinent les rabais de 30% ou dans le meilleur des cas à s’aligner sur le prix de l’édition de poche.
SFR Presse est disponible : comment ça marche ?
Le 28/04/2016Le 28/04/2016 à 11h 39
Je feuillette encore Classica en médiathèque, et Lire peut sans doute m’intéresser. Pour la presse, l’accès à Libé est plutôt une aubaine. Si je n’ai rien d’autres à payer que l’euro d’augmentation de mon abonnement iStart (25€->26€), l’accès à ce pack est pour moi une bonne affaire.
Par contre, est-ce lisible sur une bonne tablette ? Parce que sur mon laptop en 18’/1080p, l’alternative se fait entre une lisibilité pénible (voire impossible avec Libé) ou une ergonomie inadaptée (navigation constante dans la page, pas de raccourcis claviers pour zoom +/-). C’est une sorte de PDF, sans recomposition possible (comme le ferait un fichier de type ePub). L’expérience de lecture est donc très décevante de mon côté, ce qui me laisse penser que je n’irais plus le fréquenter passé la période des premières heures.
Je viens de voir que les articles sont zoomables, ce qui était décrit dans l’article. Mea Culpa :)
Liseuse Kindle Oasis : meilleure prise en main et autonomie, à partir de 289,99 euros
Le 13/04/2016Le 14/04/2016 à 14h 50
Amazon avait supprimé à distance toutes les copies du 1984 d’Orwell que le store avait commercialisé sans en avoir les droits. C’est une affaire assez emblématique, même si face au tollé Jeff Bezos lui même avait affirmé que la société ne referait jamais une telle opération (en effet, il n’y a pas eu de deuxième occurence).
Mais techniquement, c’est possible, et cela a déjà été réalisé.
Le 14/04/2016 à 11h 52
Je poursuis mes propos sur la résolution supérieure d’un papier journal sur une liseuse haute résolution par une illustration photographique.
Je compare ici un numéro du quotidien Le Monde à ma liseuse Kobo H2O (résolution 1430×1080 sur 6,8 pouces). J’ai utilisé sur la liseuse une police similaire, et tenté de faire coïncider la taille (illustration 1 pour comparaison directe). J’a réalisé ensuite une macrophotographie d’un extrait de la liseuse (illustration du milieu) suivi d’une macro d’un extrait du journal (illustration du bas), en utilisant le même facteur d’agrandissement pour chacun des deux clichés. Les extraits ont été redécoupés, sans redimensionnement. Enregistrés en JPEG qualité 100 (le PNG reste trop volumineux pour l’hébergeur)
http://img15.hostingpics.net/pics/973307journalvsliseuseHR.jpg
On voit très bien les fibres et les impuretés du papier journal. L’encre manque de densité, la liseuse présente des caractères plus sombres. Sur l’illustration du haut (liseuse et journal pris en photo simultanément et côte à côte), on peut voir que la liseuse présente un fond un peu plus clair. Donc encre plus sombre et fond plus clair : contraste supérieur pour ma liseuse à écran de génération Carta.
Par contre, pour la définition des caractères, c’est sans appel. Le texte est crénelé, pixelisé sur la liseuse. On peut comparer les accents, c’est vraiment cruel pour l’électronique (même si en conditions réelles, la définition est suffisante et les marches d’escaliers n’apparaissent pas). En tous cas Warfie, je ne pense pas que tu puisses maintenir que le papier journal offre une « définition plus ou moins grossière des pixels » :)
Le 14/04/2016 à 11h 02
Le papier journal, le texte du papier journal plus précisement, explose en résolution le texte d’une liseuse 300ppp. Et explose donc celle d’une liseuse de grande taille, où la définition est souvent de 160ppp.
Une macrophotographie peut aisément trancher le débat. Beaucoup croient que le papier, c’est 200 à 300ppp. C’est vrai pour les impressions couleurs en quadrichromie. C’est sans doute vrai encore pour les illustrations noir et blanc où le tramage dégrade la résolution réelle. En revanche pour l’impression d’un texte seul, monochromatique, la définition est extrêmement fine.
Et là, les liseuses sont plutôt loin derrière. L’affichage d’une police fine, avec empattements et autres fioritures typographiques, passe souvent très mal. D’où le succès des polices dédiées telle Caecilia ou Litterata, assez grossières (dans un sens non péjoratif) mais adaptées au manque de définition et de contraste des écrans.
Le 13/04/2016 à 22h 58
La réactivité se mesure en effet sur ce qui n’est pas fixe : changement de pages, apparition d’un menu/popup, actions de l’utilisateur. Si la réactivité de ta liseuse t’indiffère (et moi aussi, dans une certaine mesure du moins), c’est que tu t’es fait une raison, et qu’au regard des avantages que procure la liseuse et son écran passif, tu lui pardonnes ses lenteurs. Mais pour quelqu’un comme seboquoi qui n’a encore jamais eu de liseuse et qui s’interroge sur la pertinence d’un achat, le choc risque d’être un peu plus rude. Il y a des consommateurs qui ne s’y font pas, et qui ne parviennent pas à comprendre que l’on puisse utiliser ces gadgets aux écrans archaïques et aux performances dignes d’une télécommande (je n’exagère même pas, le processeur Freescale i.MX6 SoloLite est commun aux liseuses et à certaines Logitech Harmony).
Essaie simplement d’imaginer un smartphone, un ordinateur, une liseuse… dont la latence entre le clic et le résultat se situe entre une demi seconde et une seconde : il y a peu de chance qu’il soit adopté. Introduit un flash noir entre deux états de l’écran : le rejet est presque garanti. Ajoute encore un tactile parfois a-réactif, et c’est la totale. La liseuse est sauvée en partie parce qu’on ne lui demande pas beaucoup, en grande partie aussi parce que l’écran employé est le seul qui trouve grâce aux yeux de beaucoup de lecteurs. Une technologie concurrente mais plus vive pourrait vite valoir à eInk un aller simple au cimetière des entreprises désuètes.
Sur une des vidéos de l’Oasis consultée aujourd’hui, on peut encore voir le démonstrateur devoir appuyer à deux reprises sur un menu pour que quelque chose se passe. Ce phénomène est commun sur les liseuses. On s’y fait, certes… Mais comme tout le monde on préfère que le progrès se fasse dans le bon sens. Le choix d’une liseuse de plus grande taille marque presque systématiquement un retour vers le passé sur un ou plusieurs critères qualitatifs (contraste, finesse, réactivité, rémanence, mise à distance du flash de rafraîchissement, éclairage, blancheur du fond, noirceur des caractères).
Et comme toi, je serais assez intéressé par une liseuse de plus grande taille dont la qualité d’écran et les fonctionnalités coïncident avec celles des liseuses de poche, pourtant loin de la perfection, mais malgré tout au pinacle de la technologie eInk. Même si je ne suis pas certain de franchir le pas (pour des raisons de taille et de poids — et de prix peut-être aussi — car passé 200 grammes un objet pourtant léger au départ va sembler assez lourd lorsqu’il est tenu ne serait-ce qu’une heure). Ma Kobo H2O est déjà un peu limite, alors qu’elle n’ajoute que 0,8 pouces à la diagonale de base.
Le 13/04/2016 à 17h 27
Je confesse n’avoir jamais vu de manga en provenance directe de l’archipel :) Ils impriment sur du papier toilette ?
Le 13/04/2016 à 17h 05
Le 13/04/2016 à 16h 53
J’ai une H2O, qui a la même résolution et même un écran plus grand, et je ne trouve pas que cela passe nickel. C’est très petit, les textes manquent de définition et de micro-contraste. C’est loin, je trouve, de l’expérience papier. D’ailleurs tu noteras que seboquoi et moi-même ne mentionnons pas les manga, mais les BD (format A4) et les comics (que je connais sous la forme de planches au découpage plus petit que les manga, ce qui explique qu’ils passent parfois mieux sur les écrans de liseuses – et encore…).
Après, chacun son expérience. Je ne récuse pas la tienne. C’est aussi pourquoi j’ai terminé mon message en parlant de “gros risque d’être déçu”, et pas de la certitude de l’être ou de ne pas l’être. Les liseuses à écran eInk, c’est très particulier et vraiment à prendre avec des pincettes.
Le 13/04/2016 à 16h 16
Les BD, tu peux sereinement oublier.
Après, si tes comics sont faits de petites planches, tu peux espérer un rendu correct — mais sans doute pas enthousiasmant. Même les liseuses de plus grandes diagonales sont peu adaptées (les 9,7” ont une résolution moindre que les 6”, comprenne qui pourra ; la réactivité est faible ; le contraste encore plus et c’est d’autant pire que les plus grandes liseuses n’ont pas d’éclairage intégré qui blanchit un peu artificiellement la page).
Les liseuses sont vraiment adaptées au texte redimensionnable et à rien d’autre. Vouloir aller au-delà, c’est courir un gros risque d’être déçu.
Le 13/04/2016 à 15h 44
En fait, l’autonomie de l’Oasis + Cover est de 8 semaines.
L’autonomie de la Kindle Paperwhite 2 fut de… 8 semaines.
Il faudra la charger aussi souvent que les modèles de l’an passé (sachant que la génération actuelle — Voyage et PW3 — a connu une baisse dans l’autonomie annoncée).
L’autonomie est donc inchangée. Le prix en revanche est presque multiplié par trois (mais pour le prix on a une couverture, sinon certains pourraient croire que ce serait une mauvaise affaire " />)
Linus Torvalds : « Le desktop n’a pas été vraiment conquis »
Le 11/04/2016Le 11/04/2016 à 16h 10
Au premier lancement d’Office, j’ai une fenêtre qui s’ouvre et qui me demande que choisir comme format par défaut. Cela fait quelques années que la suite n’impose plus un format mais propose un choix initial. Ton argument ne tient donc pas (même si les arguments présentés par le descriptifs orientent clairement l’utilisateur à opter pour la variante Microsoft du format bureautique — qui est par ailleurs coché par défaut).
SFR Presse : derrière l’abonnement unifié offert, la question de la TVA
Le 11/04/2016Le 11/04/2016 à 15h 31
Client numéricable depuis plus de trois ans, offre internet “iStart” (25 € : fibre/cable à 100Mb/s + tel + chaînes TNT). J’ai reçu le mail il y a quelques jours, mais avec une variante annonçant une hausse des prix :
PLUS DE DIVERTISSEMENTS DANS VOTRE ABONNEMENTNouveaux services, nouvelles offres, la puissance de notre réseau vous donne accès au meilleur du divertissement tout au long de l’année. Numericable SFR vous réserve d’autres nouveautés, mais pour cela il faudra attendre encore quelques semaines…Pour vous permettre de continuer à bénéficier d’un service toujours plus performant, nous sommes amenés à faire évoluer le tarif mensuel de votre abonnement, qui augmentera de un euro à partir du 01/05/2016.
On admirera l’éloquence (« de un euro ») !
Star Trek arrivera en Ultra HD Blu-ray le 14 juin pour… 48 dollars
Le 06/04/2016Le 09/04/2016 à 12h 30
Comme beaucoup de films, les Star Trek ont été tournés sur pellicule, ou directement en numérique sur certaines scènes. Ensuite les parties générées par ordinateur sont réalisés dans une certaine résolution.
Tu peux trouver des détails techniques sur imdb, dans la partie technical de chaque film :
http://www.imdb.com/title/tt0796366/technical?ref_=tt_dt_spec
http://www.imdb.com/title/tt1408101/technical?ref_=tt_dt_spec
Un master 4K/8K est parfaitement envisageable. Par contre, les parties effets spéciaux sont en 2K :
Digital Intermediate (2K) (master format)
Maintenant, un master à la résolution native ne produit pas des résultats parfaits. Cela s’est vu sur de nombreux Blu-Ray, pour lesquels des masters 2K produisaient des résultats bof-bof (Il Gattopardo de Visconti chez Criterion p.ex) alors que les scans 4K (chez Gaumont), retravaillés dans cette résolution puis repassés en 1080p, sont croustillants de détails. J’ai essayé de retrouvé les captures d’écran sur les sites comparatifs, mais elles ont disparu.
Même si le Blu-Ray UHD s’imposait " /> on peut d’ores et déjà parier que d’ici quelques années les mêmes blockbusters resortiraient dans une édition 8K master écrasant les premières sorties pourtant vendues fort chères.
Le 07/04/2016 à 08h 49
2K et 4K font référence à des définitions utilisées dans le cinéma, et qui sont un multiple de 1024.
2K = 2048 pixels de large
4K = 4096 pixels de large
En revanche, la définition choisie pour nos téléviseurs n’est pas tout à fait la même :
1080p = 1920 pixels de large (128 pixels de moins ou 93% du 2K)
UHD = 3840 pixels de large (256 pixels de moins ou 93% du 4K)
En terme de qualité d’image, cela ne change rien.
C’est tellement proche que certains utilisent désormais les “xK” pour définir la résolution de leur écran (2K, 4K, 5K pour Apple) : c’est plus court et plus pratique.
Le 07/04/2016 à 01h 04
D’après la source indiquée dans mon message :
September 26, 1996 -Toshiba announces first home DVD player SD-3000 ($674).
Le 06/04/2016 à 22h 12
Le BR4K utilise en effet une norme de fabrication un peu différente : c’est celle du BD-XL qui existe depuis quelques années sous la forme de media enregistrables. La faible diffusion et les faibles économies d’échelle doivent en effet gonfler la note, mais ce surcoût parfaitement légitime est sans doute loin d’expliquer le prix exigé ici (on parle du prix équivalent à celui d’un dictionnaire pour une simple galette en polycarbonate).
J’ai eu du mal à trouver les prix en 1997 à la sortie des premiers titres en DVD. Il se situait entre 20 et 25 \( (source). Il y a presque 20 ans, donc entre 25 et 30 \) au moins inflation comprise. Sans doute très loin des 48 dollars exigés ici. En outre, le contexte n’est plus le même. Lorsque le DVD sortait, il présentait des très grosses différences par rapport aux médias dominants (VHS surtout, et LaserDisc pour les technophiles). Et c’était le premier changement de format depuis 20 ans (LaserDisc : année 1978 !). Même cher, l’engouement était justifié par le grand bond en avant qu’il permettait.
Aujourd’hui, le public en est à sa troisième itération : DVD / Blu-Ray / Blu-Ray 4K. Il s’est habitué aux prix très bas, il habitué aux changements de résolution dont la valeur marginale diminue à chaque fois, il s’est résigné à voir la valeur symbolique de ses éditions jadis superbes dégringoler : il sait donc qu’en matière de formats vidéo, les rois sont vite destitués. En outre, les premiers titres 4K proviendraient de sources qui n’atteignent pas le potentiel du format. C’est une première dans l’histoire de l’industrie de la vidéo, qui fragilise encore un peu plus la pertinence d’une adoption de cette nouvelle norme.
Il faudra encore attendre un peu pour que ce format trouve sa niche : des titres plus nombreux, en 4K réels, et à un prix fort aligné autour de 25 euros avec la présence au catalogue de titres vendus à prix bien moindre.
Vivaldi : la version finale d’un navigateur qui vise les power users
Le 07/04/2016Le 08/04/2016 à 08h 36
Le 07/04/2016 à 12h 42
Merci pour le support, ra-mon. À tout hasard, c’est toi le développeur qui a codé le Speed Dial ?
Le 07/04/2016 à 11h 55
Concernant le manque de réactivité, je penche de mon côté pour un côté un peu moins léché. Par exemple, lorsqu’on crée un onglet :
– sous Opera : il apparait par fondu, et semble sortir de l’onglet voisin immédiatement après le clic
– sous Vivaldi : il surgit brutalement, après un léger lag. Mais j’ai le sentiment que cela s’est nettement amélioré depuis les beta que j’avais rapidement utilisées dans le passé.
Le Speed Dial est pour moi le premier élément que j’évalue (avec un gros coeff pour la note finale). C’est le Speed Dial épuré qui d’ailleurs m’avait fait retourner à Opera il y a un an environ. Plutôt que de mettre des vignettes bariolées qui ne sont que des captures d’écrans réduites, Opera opte pour une cohérence graphique avec (par défaut) uniquement le nom du site sur un fond de couleur changeante. On peut détester, moi j’adore.
Mais le Speed Dial de Vivaldi n’a pas ce raffinement. J’aime néanmoins la possibilité d’organiser plusieurs Speed Dial (comme l’offre l’extension Speed Dial 2 sur Chrome par exemple). Pour l’heure, il y a encore un manque de finition (exemples : lorsqu’on essaye de superposer deux vignettes pour créer un dossier ; lorsqu’on clique pour éditer le titre, on ne peut sélectionner le texte, car le clic + mouvent de la souris provoque le déplacement de la vignette). Mais c’est déjà très fonctionnel à défaut d’être encore pleinement ergonomique à l’usage.
Je suis en train de reconstituer un environnement confortable (favoris, Speed Dial, mots de passe) sous Vivaldi pour réellement lui laisser une chance. Sauf lacune réellement gênante pour moi, je pense être bien parti pour l’adopter. D’ailleurs le module d’importation me fait gagner un temps considérable.
Question : existe-t-il des modules de synchronisation pour Vivaldi (histoire de ne pas perdre ses favoris/vignettes à la réinstallation ou lors d’un changement de machine ?
Le 07/04/2016 à 07h 26
@eXa Merci pour la réponse. J’ai vu que c’est tiré de l’article Wikipedia, qui source un blog brésilien (hmmm…). Je ne sais pas si c’est très fiable@ Juju251 : j’avais pensé à ça aussi, mais l’hypothèse me semblait guère probable. Le lien entre Vivaldi et l’opéra n’est pas le plus fort qui soit (même si Vivaldi affirme avoir composé 90 opéras, et qu’on en connait une bonne quarantaine, le compositeur vénitien reste fortement associé à ses concertos pour violon). Pour tisser un lien entre Opera et un compositeur, des noms comme Verdi, Puccini (ou Wagner) auraient été plus parlants pour beaucoup.J’imagine qu’un des fondateurs doit fortement apprécier la musique baroque et trouver original de donner à un logiciel un nom à l’héritage culturel un peu plus fort que le sont ceux d’une majorité de logiciels. À quand un traitement de texte nommé Flaubert ? :)
Le 07/04/2016 à 07h 06
Je vais tester cela avec plaisir. Je réutilise Opera depuis près d’un an, et comme j’adore Vivaldi (Antonio) au point d’en posséder une centaine de CD et tous ses opéras " /> parus en disque, un navigateur portant ce nom a déjà des atouts de côtés.
Quelqu’un sait à tout hasard pourquoi le nom de Vivaldi a été retenu ?
4G à 700 MHz : lancement demain pour Bouygues Telecom, les smartphones compatibles
Le 05/04/2016Le 07/04/2016 à 00h 35
Le Sony Xperia Z3 Compact (et le Z3 aussi je pense, je n’ai pas vérifié) est compatible LTE 700 B28
http://ph.www.sogiworld.com/products/sony_xperia_z3_compact/436
Les Beatles arrivent sur Qobuz en « vraie qualité CD »
Le 01/03/2016Le 01/03/2016 à 15h 00
Je ne suis pas choqué ni amusé par l’appellation « vraie qualité CD » de bandes antérieures à 1980. À partir du moment où le son a été transféré en 16 bit, 44100 Hertz, PCM — depuis une bande analogique sans avoir été passé par un format induisant des pertes de nature psychoacoustiques (MP3, AAC…) ou prédictives (ADPCM…), ou encore qu’il provienne d’une source numérique à échantillonnage égal ou supérieur — on est bien dans la qualité CD.
Le CD n’a pas de qualité subjective intrinsèque : il n’est qu’un support tributaire des techniques d’enregistrements.
La notion de « vraie » « qualité CD » fait écho à celle de « qualité CD » que de nombreux acteurs informatiques ont utilisé pour désigner des compressions avec pertes jugées inaudibles. La qualité obtenue était jugée perceptuellement identique à celle figurant sur un CD (=PCM 24⁄44100 sans compression). La « vraie qualité CD » désigne quant à elle une qualité techniquement ou mathématiquement identique à celle du support de référence.
Opera 36 bêta améliore nettement son interface
Le 11/02/2016Le 12/02/2016 à 19h 21
J’ai longtemps utilisé Opera, et d’ailleurs j’ai recommencé à l’utiliser il y a un an environ.
Je pense que la période payante d’Opera lui a été préjudiciable. À mon avis, si sa gratuité avait été décidée plus tôt, alors le logiciel aurait sans doute pu bénéficier de l’élan dont Firefox a su tirer partie, et qui fut liée pour l’essentiel à l’absence totale de dynamisme d’Internet Explorer.
Opera est devenu gratuit, et de fait réellement attractif, un an après la sortie de Firefox, avec ses fameuses pages de pubs publiées dans le New York Times. La dynamique était exclusivement du côté du panda roux, et allait la conserver jusqu’à la sortie de Chrome, qui a su par d’autres moyens attirer des millions d’utilisateurs.
Après, je te rejoins sur l’idée d’une absence de patriotisme informatique des européens (je doute même qu’il existe un patriotisme européen tout court). Personnellement, je t’avoue me ficher un peu de la provenance de mes logiciels (du moins tant que cela reste entre l’Europe centrale, l’Amérique du Nord, Japon et Corée). J’utilise Opera pour d’autres raisons que la proximité géographique et l’hypothétique parenté culturelle qu’elle suppose.
Mozilla détaille la fin de Firefox OS pour smartphone et du Marketplace
Le 05/02/2016Le 05/02/2016 à 18h 42
Triste nouvelle, quoique peu surprenante. Lorsqu’on voit la difficulté que connait Microsoft à se faire une place sur ce marché, malgré ses milliards, son marketing, ses offres subventionnées et les possibles synergies avec l’OS le plus utilisé sur machines de bureau, le pari de ces petits poucets est quand même risqué.
Je me demande si proposer des smartphones sous Firefox OS a des consommateurs issus de pays émergents est une bonne idée. Pour beaucoup, l’Occident fait rêver. Utiliser Android, c’est faire comme les occidentaux, avoir les mêmes logiciels, accéder à une boutique qui décuple les possibilités d’un smartphone. Alors que Firefox OS, c’est quand même très maigre. L’an passé j’étais encore sous Symbian. Certes on peut lire de la musique et des vidéos, faire des mails, naviguer sans trop de mal (et encore). Mais quand je souhaitais une application qui comptait le nombre de pas en fin de journée, il n’y avait plus rien. Alors que sur Android, il me faudrait deux semaines pour les essayer toutes.
FInalement, le principal intérêt de Firefox OS est comme le soulignait Jarodd la protection de la vie privée contre le tracking publicitaire. Je me trompe peut-être, mais je pense que cette préoccupation est plutôt dominante dans les pays les plus industrialisés. Même si cela ne séduit qu’une petite fraction des utilisateurs, disons un petit pourcent, cela représente déjà plusieurs millions d’unités à vendre, soit un marché viable. Dommage que Mozilla ait mis un terme si vite à l’aventure.
Les platines vinyles reviennent en force, sur fond de nostalgie
Le 23/01/2016Le 29/01/2016 à 12h 40
Le 26/01/2016 à 23h 31
C’est déjà très ancien comme procédé, qui remonte aux années 70 :
https://en.wikipedia.org/wiki/Laser_turntable
Ta remarque laisse apparaître un des problèmes qui je crois n’a pas été évoqué dans ce long fil de commentaire : celui du progrès. On oppose analogique et numérique, comme si ces paradigmes d’enregistrements avaient une qualité qui leur était propre. Or numérique et analogique sont déclinés en supports qui vont du très médiocre (les rouleaux de cires, les premiers mini-cassettes pour l’analogique, ou encore le GSM pour le numérique).
Le numérique est en continuelle gestation. Du PCM 16 bit / 44.100 Hz, exploité commercialement depuis 35 ans, certains studios disposent de consoles d’enregistrements en DXD (352,8 Khz en 24 bit) et DSD512 (22,5792 Mhz sur 1 bit). Il est même possible d’acheter quelques titres aux spécifications gargantuesques. Plus couramment, l’audio HD à disposition du public va du PCM 96 KHz au 192Khz sur 24 bit, ou le DSD64 et parfois 128. Il est toujours possible de questionner la pertinence de tels formats pour l’écoute, mais leur existence démontre l’existence de progrès constants dont fait preuve le numérique.
Je doute qu’on puisse en dire autant de l’analogique. Et encore moins du vinyle, dont le format est pratiquement figé depuis 1958, date des premiers disques microsillons stéréophonique. Il y a eu une évolution majeure quand même avec la quadriphonie dans les années 70, mais elle n’a pas eu de succès, et je ne suis pas certain qu’elle soit innocente au niveau de la qualité finale.
Vanter la qualité sonore du vinyle, c’est un peu comme chanter les louanges de la télévision analogique noir et blanc de la même époque à l’heure du Blu-Ray UHD. C’est rester figé sur un support dont la technique actuelle permettrait d’accroitre les performances, mais dont l’obsolescence face au numérique rend caduque toute innovation depuis presque quarante ans.
Le 26/01/2016 à 01h 33
Les enceintes sont des ATM SCM12.
J’ai essayé de retrouvé leur prix de vente :
http://www.exaudio.net/criticas/hifinews_may03_scm12sl.pdf
1000 livres sterling en 2003. La paire ou l’unité (plus surement).
Des enceintes pas données mais du domaine de l’abordable je dirais (pour le passionné j’entends).
Et en effet, les enceintes sont aujourd’hui l’élément qui joue le plus grand rôle dans la différentiation d’un système.
Le 26/01/2016 à 00h 20
Le 25/01/2016 à 21h 46
Le 25/01/2016 à 21h 45
Le 25/01/2016 à 19h 49
Le 25/01/2016 à 13h 03
Le 25/01/2016 à 12h 51
Le 25/01/2016 à 12h 28
J’ai déjà été rendu attentif par d’autres lorsque j’employais il y a une décennie, et comme tu me le suggères aujourd’hui, le terme de « compression » MP3. La compression désigne un procédé de réduction des données qui permet néanmoins de restituer les données d’origine. La compression est donc essentiellement lossless.
Le MP3 consiste bien en un encodage, pas en une compression avec pertes.
https://fr.wikipedia.org/wiki/Compression_de_données
Si tu as des éléments qui vont dans le sens inverse, je reste néanmoins preneur.
Le 25/01/2016 à 01h 08
Spotify ne propose rien en lossless (flac ou autre). Le streaming en lossless est diponible sur les plate-formes Qobuz et Tidal.
Je suis étonné qu’on puisse trouvé à la FNAC des disques contenant des fichiers au format FLAC.
Sinon, pour parler de qualité supérieure du Vinyle sur le MP3, c’est rester dans de grandes généralités. Qualité en quel domaine ? Un mp3, même de qualité moyenne, est largement supérieur au vinyle pour tout ce qui concerne les passages les plus calmes d’une musique. Ce dernier a un bruit de surface que même le plus obtus des idiophiles ne peut nier (il dira juste que le souffle et les craquements intermittents, ça apporte un soupçon de vie au son). La musique dite classique, qui laisse la part belle à ces moments qui s’approchent du silence, supporte ainsi plutôt mal ce défaut du vinyle. J’ai à ce titre les chiffres de vente de 2012 d’amazon : seul 0,1% des ventes de vinyle concernait la musique classique. 0,1% d’un genre qui sert habituellement de maître étalon à la haute fidélité, cela donne une autre perspective que les théories brumeuses destinées à prouver que les électrons sont plus énergiques avec le vinyle qu’avec le numérique.
http://www.konbini.com/fr/entertainment-2/infographie-boom-des-ventes-de-vinyles…
Ceci dit, la qualité ne se réduit pas à un critère. Le MP3 a ses défauts, et, plus encore, il y a MP3 et MP3. Parler de la qualité du MP3 sans préciser ni la génération de l’encodeur ni le débit ni la commande, c’est parler dans le vide.
Le 25/01/2016 à 00h 43
Le 24/01/2016 à 20h 29
Loi Numérique : les députés disent non au domaine commun informationnel
Le 21/01/2016Le 21/01/2016 à 16h 46
L’argument de la restauration me rappelle les difficultés détaillées par le responsable d’un label de musique classique (Andante), qui produisait des dépoussiérages unanimement salués et un superbe travail éditorial — label aujourd’hui défunt. Il expliquait qu’un enregistrement libre de droit était librement exploitable commercialement par toute entreprise (ce qui est normal), mais que si l’une d’elle consacrait des efforts à sa restauration, n’importe qui pouvait sans vergogne ni rémunération reproduire l’enregistrement restauré à vil prix.
Je me demande quel est le réel statut pour le cinéma ancien. Il existe des versions qui ont bénéficié d’un important travail de restauration (Keaton, Lloyd, Griffith, Feuillade… — Chaplin est toujours protégé par le droit d’auteur semble-t-il, du moins il l’était jusqu’en 2014). Ce travail est parfois co-financés par plusieurs acteurs qui se partagent ensuite les différents marchés nationaux (BFI pour l’Angleterre, Arte, Criterion pour les États-Unis). On ne retrouve pas ces versions travaillées chez des éditeurs économiques spécialisés dans la vente de DVD à quelques euros. Je me demandais si ces travaux éditoriaux ne bénéficiaient déjà pas de législations protectrices.
Contre les communs, l’argumentaire de Fleur Pellerin adressé à des députés
Le 19/01/2016Le 19/01/2016 à 17h 23
Le 19/01/2016 à 15h 57
Sans doute la raison pour laquelle son legs a été remastérisé deux fois ces dernières années. Une fois en 2008, et l’autre il y a un an et vendu en 24 Bit. On parle quand même d’une bagatelle de 70CD et quelques…
D’ailleurs sa maison de disques s’est sentie tellement mal comme tu dis qu’elle a même mouru depuis (EMI -> Warner)
Le 19/01/2016 à 13h 32
Le 19/01/2016 à 13h 03
« l’enregistrement d’un morceau de musique ou d’une chanson qui n’est plus couvert par le droit d’auteur, ne pourra donner lieu à la commercialisation d’un CD ».
Appliqué à la littérature ce précepte est savoureux : ne pourraient ainsi plus être édités en livres les œuvres non couvertes par le droit d’auteur. Exit Balzac, Flaubert, Montaigne, Rimbaud… Mieux que Sarkozy, qui ne s’en était pris qu’à La Princesse de Clèves.
Les premiers disques Ultra HD Blu-ray arrivent en boutique, dès 29,99 dollars
Le 13/01/2016Le 14/01/2016 à 21h 23
Le 14/01/2016 à 13h 08
Ta question est sérieuse ?
Le HD-DVD a été abandonné il y a huit ans, et aucune continuité n’est donc à espérer. Sinon, en 2016, aucun autre support que le Blu-Ray UHD n’a été annoncé. Il n’y aura pas de guerre des formats comme au temps du lancement du Blu-Ray. La rivalité se fera directement entre support physique et services de téléchargement.
Le 14/01/2016 à 11h 01
Dans la mesure où les BD UHD peuvent atteindre 100 GB, c’est hautement improbable à mon avis, à moins peut-être d’avoir dans son PC un lecteur/graveur de BDXL.