Les connaissances de bases ne font pas de toi un expert dans le domaine (quelqu’un qui n’arrive pas à sortir un plat correct même en ayant la recette sous les yeux n’est pas fait pour être cuisinier quelles que soient ses connaissances des produits et des méthodes de cuisson).
Par contre, tu seras toujours fortement avantagé dans un domaine si tu as les connaissances de base plutôt que si tu ne les as pas. Tu pourras toujours essayer de compenser par de l'expérience mais cela demandera plus d'efforts, et tu seras moins adaptatif aux changements.
La question est : la connaissance de la programmation constitue-t-elle une connaissance de base à l'utilisation d'un PC ? La connaissance de la mécanique est-elle une base de la conduite ou du pilotage ? Je ne vois pas en quoi il s'agit de base. Pour moi, ce sont des domaines voisins, séparés d'ailleurs mais voisin.
Quelqu’un qui connait la mécanique pourra en effet faire des liens avec la pratique de la conduite, et déterminer par lui-même des modifications dans sa conduite qui pourra perfectionner sa conduite. Mais…
— il faut faire des liens, et ce n’est pas automatique.
— cette connaissance peut parfaitement être acquise par celui qui ne connait rien à la mécanique. C’est ainsi que l’éco-conduite s’enseigne dans les auto-écoles, que les automobilistes vont chercher des conseils sur internet ou auprès d’amis, ou qu’elle s’acquiert en faisant usage des débitmètres ou des ordinateurs de bord des voitures.
Au final, ce qui différencie les uns des autres, ce n’est pas le savoir mais une certaine indépendance par rapport au savoir. Je n’ai pas fait médecine, mais je sais qu’il n’est pas sain de fumer. Quant aux avantages à connaître à fond des langage de programmation dans la maîtrise de Photoshop, j’ai encore du mal à comprendre.
Si mon propos n’est pas clair, il faut bien voir qu’on peut remonter la chaîne des savoirs et des savoirs faire. Si la mécanique est la base de la conduite, alors la métallurgie est la base de la mécanique. Et à la base de la métallurgie, le savoir minier. Du savoir minier, la géologie ? De la géologie, l’astrophysique ?
On n’est donc pas « fortement avantagé » dans un domaine en ayant des connaissances dans un domaine voisin. Ni même en ayant des connaissances de pointe. Il y a par exemple des diplômés en marketing/commerce qui sont incapables de faire vivre correctement un commerce, et foirent chacune de leur tentatives. À l’inverse, des immigrés pratiquement illettrés qui ont un meilleur sens des affaires, et entretiennent un commerce florissant. La capacité à faire des liens entre un savoir théorique et un savoir-faire peut ainsi manquer au premier, malgré une tête pleine de savoirs. Son avantage est nul.
Lorsque j’étais jeune et bossais en usine en payer mes études, j’ai vu des ouvriers mieux connaître les machines que les ingénieurs les ayant conçus et venus fixer des problèmes. La différence : l’expérience, travailler tous les jours avec.
Le
09/06/2017 à
15h
51
Mihashi a écrit :
Si tu sais comment fonctionne ta voiture tu conduiras certainement mieux (meilleure consommation, meilleure maîtrise du véhicule, etc.).
Est-ce vraiment le cas ? J’ai des amis très branchés en mécanique, et ce sont pas des as en éco-conduite " />
Plus sérieusement, si la mécanique permet de mieux comprendre certains phénomènes, elle n’est pas une condition nécessaire pour maîtriser ces phénomènes. On peut exceller dans le pilotage, ou dans l’éco-conduite, par simple expérience.
En plus, si l’on parle de voiture, mieux vaut ne pas oublier que les véhicules ont de plus en plus de systèmes électroniques et une informatique embarqués. Faut-il en conclure qu’en apprenant l’électronique et l’informatique (donc en sachant coder et souder des claviers aussi) on devient meilleur conducteur ? Qu’en apprenant la chimie (le pneumatique) aussi ? Si tu mets un pilote de F1 face à sa monoplace en kit, il ne saura strictement rien en faire. Et les mécano des paddocks ne sont pas meilleurs pilotes qu’eux.
De manière générale, c’est la simple expérience qui fait des personnes des champions dans leurs domaines. Les grands chefs n’ont ni master en biologie et ne savent rien de l’agriculture. Les coureurs kenyans s’entraînent, ils sont coachés par des spécialistes mais eux-même n’enseignent pas l’anatomie et la physiologie en université : ils courent beaucoup et mangent ce qu’on leur conseille de manger. C’est ça qui explique leur niveau.
Le
08/06/2017 à
22h
35
sr17 a écrit :
Réalisez quand même qu’on a tous fait au minimum des années d’étude à l’école justement pour apprendre à écrire et à s’exprimer.
" />
Tu es vraiment un as. Tu nous parles de l’histoire et de l’évolution des langues hier, et aujourd’hui tu affirmes qu’il faut faire « des années d’études à l’école » pour « apprendre à s’exprimer ». Tu réalises seulement à quel point c’est con ? Qu’il y a eu sur cette terre des milliards de personnes qui ont su s’exprimer avant même l’invention de l’école ?
Bravo.
Je renonce à discuter avec toi. Désolé, mais la plupart de tes arguments sont médiocres. Continue à croire que l’avenir est dans la programmation, et que l’informatique est surtout une affaire de codage plutôt que d’utilisation des ordinateurs. Bye
Le
08/06/2017 à
22h
31
sr17 a écrit :
Raisonner uniquement par le nombre n’est pas rationalité.
Sous prétexte que les codeurs ne sont pas majoritaires, on pourrait ignorer complètement leurs besoins, voir même se moquer de ce qui pourrait engendrer des problèmes de santé au travail ?
Relis mes messages plus haut, j’ai explicitement écrit que les besoins des codeurs ne devaient pas être ignorés. Et j’ai dit cela pour répondre à tes propos qui disaient que les majuscules accentuées étaient un besoin d’académiciens grabataires.
Quand à ma précision sur la définition de majorité, c’était simplement pour te faire comprendre que tu réponds systématiquement à côté lorsqu’on emploie ce concept que même un collégien pige sans difficulté. On te dit qu’en France il n’y a pas majorité de codeurs, et tu réponds que c’est faux parce que les codeurs sont nombreux. Là encore tu sembles t’obstiner, ce qui en dit long sur ton incapacité à t’ouvrir à la pensée des autres.
« Selon le rapport européen, dans la catégorie des professions utilisant l’informatique, les employés des centres d’appels sont ceux qui payent le plus lourd tribut. »
N’en déplaise à ton égo, ce sont des utilisateurs de PC aux préoccupations très éloignés du codage qui semblent souffrir de problèmes. Et il n’est pas certain que ce soit la disposition des touches qui posent problème. Les études sur le sujet ne sont pas très nombreuses.
sr17 a écrit :
La différence, c’est justement que les joueurs peuvent choisir leur matériel a loisir. Les codeurs et autres employés dans un contexte professionnel n’ont pas toujours cette chance. […]
Imagine un parc de 50 machines sur lequel un informaticien peut intervenir… avec chacune leur layout de clavier personnalisé, avec des étiquettes à moitié effacées collées sur les touches…
S’il y a un standard, ce n’est pas juste pour faire beau…
Ah bon, il y a des codeurs pro chez qui on interdit explicitement de modifier le layout du clavier ? Dans quelle entreprise ? Il y a aussi des codeurs qui passent leurs journées sur 50 machines différentes ?
Tes arguments n’ont plus aucun sens. Je t’ai clairement expliqué que les joueurs peuvent utiliser des outils adaptés (claviers issus du commerce), que les développeurs qui généralement maîtrisent l’outil informatique peuvent personnaliser logiciellement leur clavier. Finalement, les seuls à être démunis sont monsieur et madame tout le monde. C’est essentiellement pour eux qu’il est nécessaire de faire quelque chose. Pas pour les joueurs, pas pour les programmeurs, en grande majorité autonomes sur ces sujets.
sr17 a écrit :
Il peut m’arriver cependant de contribuer gratuitement à des projets libre quand je sens quelque chose de prometteur dans ce qui est déjà proposé. Mais la, ce n’est clairement pas le cas.
Ce qui est déjà publié ne me plait pas du tout, donc je ne participe pas.
C’est déjà un argument mieux construit et plus subtil que le précédent qui affirmait qu’en payant des impôts on n’avait pas à remuer le petit doigt à l’œil.
sr17 a écrit :
Définir un standard pour les claviers est un problème trop complexe.
Je pense que dans ce contexte une simple consultation ne peut pas remplacer de vraies études scientifiques poussées. Une étude scientifique aboutit aussi à consulter les gens, mais avec un cadre et une rigueur qui permet de contextualiser les données, de relativiser les avis par rapport à un ensemble de données connues sur l’activité des personnes.
OK. Juste une question : tu disais que tu allais abandonner l’AZERTY. Tu comptes aller vers quelle disposition ? Parce que des dispositions réalisées à l’aide de l’arsenal hautement scientifique requis, je doute qu’il en existe une au monde. La disposition Dvorak est le fruit de deux personnes. Le BÉPO est un travail d’amateurs passionnés, pas d’un contingent de scientifiques. Quant au QWERTY et tout ce qui en dérive, encore moins.
sr17 a écrit :
Ah, les attaques personnelles quand on manque d’arguments…
Excuse moi de te mettre en face de tes contradictions, monsieur qui préfère passer des heures sur un forum dire que les propositions de changement sont nulles plutôt que de refuser l’aide et les avis sollicités par ceux qui tentent de faire bouger les choses.
C’est sur ta logique que j’attaque, pas sur ta personne.
Mea culpa. Dans ce débat pour l’amélioration de l’AZERTY, je ne fais pas partie du clan des programmateurs, mais de celui des typographeurs :) D’où la confusion j’imagine.
Je voulais parler des programmistes bien sûr !
Le
08/06/2017 à
14h
37
sr17 a écrit :
Visiblement, tu n’as pas lu ce que j’ai écrit. Je vais justement en profiter pour abandonner l’Azerty, que ce soit l’ancien ou le nouveau.
" />
Alors là, c’est le pompon. Tu prétends connaître l’informatique du temps où il fallait souder les claviers, tu affirmes savoir coder depuis plus longtemps que beaucoup ici seraient nés, tu t’arroges même le titre de maîtrise des ordinateurs par ta compétence de programmateur, et là tu nous sors sans rire que tu envisages juste maintenant de quitter l’AZERTY ?
" />" />" />
T’es sérieux ?? Il t’a fallu trente ans pour arriver à cette initiative ? À un gourou de l’informatique comme toi ? Trente ans que tu souffres de TMS, des lacunes et du manque d’optimisation de l’AZERTY, en bossant un nombre d’heures quotidiennes que tu déclares ici être inimaginables pour le commun ?
Et beh, il était temps…
Le
08/06/2017 à
14h
28
sr17 a écrit :
Désolé, mais les programmeurs sont suffisamment nombreux et pratiquent de manière suffisamment intensive pour qu’on tienne compte des problèmes de disposition les concernant.
Outre la problématique de productivité qui affecte les entreprises et donc l’économie, une disposition inadaptée peut engendrer des TMS qui sont coûteux pour la collectivité.
Vous n’imaginez pas combien de temps un programmeur peut parfois passer d’affilée derrière son clavier.
Personne ne dit qu’il ne sont pas nombreux. On est au moins deux personnes sur ce forum à te parler de majorité. Pour quelqu’un qui semble maîtriser le codage, je pensais que ce terme ferait écho dans un esprit rationnel. Majorité, ce n’est pas juste un grand nombre, ce n’est même pas forcément être un grand nombre, c’est un nombre relatif à une somme. En France et dans le monde, il n’y a pas un grand public qui code et une minorité qui ne code pas. C’est l’inverse. Même s’il y a un million de codeurs, il y aura au moins 40 millions de non-codeurs.
sr17 a écrit :
Vous n’imaginez pas combien de temps un programmeur peut parfois passer d’affilée derrière son clavier.
Les joueurs aussi. Sauf qu’eux ne se plaignent pas, ils achètent des claviers qui leurs conviennent et ferment leur fraise, étrangers au débat, et heureux de leur périphériques. J’avais aussi cru comprendre que les codeurs informatiques sont assez doués pour optimiser eux-même leur layout et l’adapter à leurs besoins sans devoir rien acheter.
sr17 a écrit :
J’estime que dans ce pays, on paye déjà suffisamment d’impôts, de taxes et de charges pour ne pas devoir en plus donner de son temps gratuitement.
Ben voyons… Imbéciles de bénévoles, tiens ! Et répondre sans être payé à une consultation qui peut m’aider dans mes besoins, c’est tellement insensé. Pourquoi pas aller voter gratuitement tant qu’on y est, avec tous les énarques et leurs assistants qu’on finance avec nos impôts…
sr17 a écrit :
Il ne faut pas confondre la langue et la manière de l’écrire.
Regardez combien de nouveaux mots sont ajoutés au dictionnaire tous les ans et dont l’origine n’a rien à voir avec des “experts”.
Et ? Qui décide de l’orthographe de ces mots? Qui l’officialise, ou la standardise ?
sr17 a écrit :
Mais une norme, c’est quelque chose qui a vocation à imposer. Et la, il est logique qu’on se sente concerné.
Tellement concerné que tu rejettes l’idée de contribuer gratuitement en répondant à un questionnaire (mais par contre passer des plombes à écrire sur un forum de manière stérile, là tu peux).
Le
08/06/2017 à
13h
59
sr17 a écrit :
Sans fondement ? Les dégâts on les constate tous les jours.
L’informatique est le seul domaine ou l’on cultive l’utopie de pouvoir faire des choses sans rien apprendre.
Dans tous les autres domaines, on apprends les bases et le fonctionnement avant de prétendre à quoi que ce soit… et tout le monde trouve cela logique.
Mais voila, en informatique, il y a eu le rouleau compresseur des fabricants qui ont fait des monstrueuses campagnes pour faire croire à la simplicité dans le but de vendre leurs machines.
Du coup, les utilisateurs qui déballent leur premier clavier se prennent pour des dieux.
La catastrophe de ces idées reçues, on la constate tous les jours…
Ah bon, fallait faire des sauvegardes ? " />
Génial, vraiment génial comme raisonnement. Donc si je comprends bien, l’apprentissage du codage te permet de savoir utiliser pleinement un ordinateur. Donc ça t’apprends à sauvegarder, ça t’apprends à changer le disque dur, ça t’apprends à faire du montage vidéo, ça t’apprends toutes les ficelles de la retouche photo, ça t’apprends à faire de la modélisation 3D, ça t’apprends aussi à jouer, ça t’apprends sans doute aussi à composer de la musique." />
Tu réalises à quel point tu es déconnecté de ce monde ? Tu réalises à quel point tu t’enferres dans un égoïsme quasi autistique en faisant du codage la clé de voûte de l’informatique ? T’es au courant que tu es sur Nextinpact, un site où l’on ne parle pratiquement que d’informatique et pratiquement jamais de codage ?
Apprendre à coder, ça t’apprends à coder. Point barre. Tu peux affirmer que sans compétence en codage, on ne saurait utiliser pleinement un ordinateur. C’est vrai, il manquera une des compétences exploitables avec un ordinateur. Mais il est vrai aussi que sans maîtrise des outils de création vidéo, le codeur ne saura pas lui non plus se servir pleinement d’un ordinateur.
Et tu crois vraiment que dans un futur proche chacun saura coder ? Parce que l’école primaire donne une initiation ? " />" />" />
Tu veux bien essayer de prendre un peu de recul sur l’école ? Sept années d’apprentissage en LV1 et beaucoup ne savent pas mener une conversation courante ? Douze années de français et les règles de grammaire de base souvent ignorées ? Dix années d’histoire et quasi personne qui ne saurait parler de la 3ème République ou dire qui était Henri IV ? Quatre années de musique et presque personne ne sait lire une partition. C’est ça l’école de nos jours : de beaux projets, qui parviennent à féconder une petite minorité d’élèves dans certains domaines, et qui ne laissent aucun souvenir à l’immense majorité.
Quant à dire qu’en informatique on permet de croire aux gens qu’ils peuvent faire des choses sans rien apprendre est là encore totalement déconnecté de la réalité. Va passer un après midi dans une association, qui permet à des personnes n’ayant jamais utilisé un ordinateur de s’y familiariser. Tu verras leurs difficultés, tu verras que presque tout ce qui te paraît normal et inné (le double clic, le scroll des fenêtres, l’usage des menus contextuels, jusqu’au maniement d’une souris…) nécessite un apprentissage de plusieurs heures. Même pour un usage des plus basiques, il faut avoir appris d’une manière ou d’une autre à le faire.
Le
08/06/2017 à
01h
12
sr17 a écrit :
Quand on parle de changer une chose aussi importante qu’une norme et qu’on voit ce qui nous est présenté, franchement, ça ne rends pas optimiste.
Parce que dédier une touche entière au signe “1⁄2”, passez moi l’expression, ça me troue le cul…
OK, ça fait une touche, moins de 2% de l’ensemble. Mais il y en a peut-être d’autres qui te sidèrent. Tu peux cependant t’exprimer via le formulaire de l’AFNOR, qui n’a pas eu la prétention de produire dans son coin une disposition idéale mais qui a l’intelligence de solliciter l’avis des autres.
Je rappelle que l’AFNOR a clairement indiqué les orientations définies par le ministère :
Le présent document décrit un clavier informatique particulièrement adapté à la saisie de la langue française dans un contexte multilingue où le recours à d’autres langues latines est fréquent.
(c’est moi qui souligne)
Dans ce contexte, utiliser une touche pour les fractions (½ ¼) n’est pas du tout absurde.
Le
08/06/2017 à
01h
01
sr17 a écrit :
Cela fait bien longtemps que même les titres ne sont plus en majuscules.
Explique moi. Il me faut une minute pour trouver deux contre exemples à ton argument…
sr17 a écrit :
Oui, par exemple l’écriture.
Car l’écriture implique d’énormes changements par rapport à l’oral.
Il me semble avoir demander quel moyen technique avait obligé une population à renoncer à des signes ou à simplifier des règles. Tu réponds par l’écriture. Explique moi quels sont les signes “oraux” qui ont disparus, tu veux bien ? Et tu penses vraiment que le passage de l’écrit à l’oral à simplifié les règles ? Non mais sérieux ? L’écrit serait selon toi une simplification de l’oral ??? On fait moins de faute en écrivant qu’en parlant, c’est bien connu…
sr17 a écrit :
Non, la proportion de codeurs n’est pas notoirement faible.
D’autant que dans le futur, tout le monde saura coder. Tous les jeunes apprennent dorénavant à coder.
Parce que celui qui ne sait pas coder ne saura jamais utiliser correctement un ordinateur.
(désolé pour ceux qui veulent se bercer d’illusions)
Tu veux bien redescendre sur Terre une minute ? Ou tu crois vraiment que dans la population française qui possède un PC, il y a une majorité de codeurs ?
Au sujet du codage à l’école, sache que c’était le cas déjà dans les années 80. On apprenait ainsi le logo. On apprend aussi la flûte à bec au collège depuis 30 ans au moins. Mais ça fait pour autant de la France une nation de musiciens ou de flûtiste ? Je ne sais pas de quoi l’avenir sera fait, mais je doute qu’il soit constitué d’une nation de codeurs informatiques.
sr17 a écrit :
Etant donné qu’il y a plus de caractères que de touches… cela implique forcément des choix.
Sauf qu’en prenant n’importe quel cas de figure, les majuscules accentuées ne représentent qu’un très faible pourcentage des caractères. Donc il serait idiot de leur réserver un accès direct au détriment de caractères très utilisés.
Qui parle d’accès direct ? Tu as regardé la disposition prévue ? Elle fait un usage massif des combinaisons de touche. Et il y a assez de place sur les claviers pour faire ça. Il n’y a même pas d’accès direct aux majuscules non accentuées sur un clavier, donc en effet ça serait idiot d’en prévoir pour É, È et À " />
Le
08/06/2017 à
00h
42
inextenza a écrit :
C’est quoi ce parallèle bidon?! Si tu veux faire une comparaison littéraire, essaye au moins de parler des langues, et pas de la formulation de mots… bref…
Je suis prêt à admettre que mon argument n’est pas bon et que la logique que j’ai dégagé du tien n’est pas la bonne. Par contre, essaie d’argumenter s’il te plaît.
inextenza a écrit :
Qu’est-ce qui est étrange de revoir tout le mapping d’un clavier qu’on sait avoir été pensé pour être volontairement anti ergonomique, et pas juste quelques touches???
Si tu es rétif à l’argument déjà donné plus haut, je dirais simplement : le poids des habitudes, la somme d’emmerdes et d’incompréhension si un tel changement était au programme, la perte de productivité initiale pour les entreprises, et pour ces raisons l’inutilité d’impulser une réforme non-contraignante si l’on sait que quasiment personne n’optera pour ces nouveaux claviers.
inextenza a écrit :
Sérieux, entre rien faire et juste déplacer 3 touches, je préfère autant ne rien faire
Ta pratique est-elle cohérente avec ta réflexion ? Tu refuses par principe de produire le caractère € par la combinaison de touche ALT GR + E, fruit d’une modification mineure et non d’un bouleversement radical du layout ?
Le but affiché par l’entreprise n’est pas juste de déplacer trois touches. Il est surtout d’introduire des signes manquants dans la disposition actuelle. Et si une telle modification doit figurer comme nouvelle norme, il est naturel que l’AFNOR s’interroge sur les autres usages possibles, sur les possibles permutations de signes :) On ne peut pas changer la norme tous les six mois, alors mener une réflexion menant au-delà des quelques signes maintes fois cités ici et ayant motivés le changement.
Le
08/06/2017 à
00h
16
sr17 a écrit :
Il est effectivement difficile de changer un standard.
Pour autant, l’AZERTY est loin d’être parfait. Par exemple, les chiffres qui ne sont pas en accès direct, c’est très pénalisant dans certains cas de figure.
Pour ma part, je pense que c’est possible de trouver et d’imposer un meilleur standard que l’AZERTY.
Mais encore faut t’il partir des bonnes considérations pour travailler sur le sujet.
Penser que l’important c’est de pouvoir mettre des accents sur les majuscules, c’est carrément se tromper de priorités.
Nous voulons un clavier qui nous apporte un plus dans notre quotidien, pas un standard pour faire plaisir aux vieux académiciens conservateurs… qui ne toucheront jamais à un ordinateur.
Je partage ton avis initial, mais je me permet de te poser deux questions : sur quoi se fondent ces bonnes considérations ? Qu’est ce qui permet de rendre une priorité pertinente et de déclarer qu’une autre relève de l’erreur ?
Et si les majuscules accentuées sont un combat de vieux académiciens, j’ai le droit de participer à mon tour à la caricature et de dire qu’on s’en fout des besoins d’une poignée d’informaticiens boutonneux et passablement incultes ?
Franchement, ça ne fait pas avancer le débat de dénigrer les autres, de les caricaturer, de sous-estimer leur nombres et d’invalider leurs besoins.
Le
07/06/2017 à
23h
59
sr17 a écrit :
Mais franchement, qui de nos jours s’amuse à écrire ses textes tout en majuscules ?
Cela ne correspond à aucun usage courant.
Tu l’as dit juste avant, dans la vie tout est question de juste milieu et ne passe pas d’un extrême à l’autre. Le besoin d’écrire une phrase en majuscule (pour un titre, une emphase…) n’implique pas que l’on souhaite subitement la mise à mort des minuscules dans sa pratique quotidienne :)
sr17 a écrit :
Rappelons que dans l’histoire des langues, c’est l’usage qui a façonné le langage… et donc a créé la règle.
Au cours du temps, le langage et la manière de l’écrire ont évolué en permanence. Il suffit de lire un texte écrit en ancien français pour s’en convaincre.
Rappelle moi quel autre dispositif technologique a obligé une population à renoncer à des signes ou des règles jusqu’alors utilisées ? C’est de ça dont il est question, pas de l’évolution de la langue tout court.
sr17 a écrit :
Même chez ceux qui souhaitent les utiliser, les majuscules accentuées représentent un usage faible.
Et pour ceux qui ne les utilisent pas, c'est du gaspillage pur et simple.
Dans un clavier, si l'on gaspille des touches, on en paye le prix : ce sont des caractères utiles qui sont forcément sacrifiés. Les programmeurs comprendront ce que je veux dire.
Qui décide de ce qui est utile et ce qui ne l’est pas ? J’ai jamais codé de ma vie, il y a des signes qui ne me servent jamais. Et mon petit doigt m’indique que la proportion de codeurs parmi les utilisateurs de PC est notoirement faible et que je me place dans l’immense majorité. En suivant ta logique, je devrais donc affirmer que ces touches représentent du gaspillage pur et dur. Et pourtant non, je ne le fais pas. Je ne cherche pas à me convaincre que mon usage prévaut sur les autres, et qu’au final on pourrait se passer de certaines choses parce que MOI je ne les utilise pas, quand bien même MON usage est vraisemblablement celui de la majorité.
• Un clavier est un outil polyvalent : s’il doit changer, ce n’est pas pour pénaliser les uns ou les autres. Il me semble d’ailleurs que la consultation de l’AFNOR va dans ce sens : demander aux codeurs de commenter les propositions actuelles qui ont été motivées par d’autres usages (la saisie typographiquement correcte).
• Le clavier AZERTY est un outil imparfait. J’ai cru comprendre que certains codeurs s’en plaignent. Les personnes ne codant pas du tout s’en plaignent.
• Donc le clavier AZERTY est un outil perfectible. Il n’est alors pas déraisonnable de chercher à le modifier dans certaines proportions et trouver un compromis entre les habitudes établies et les apports possibles. Or il reste suffisamment de place sur le clavier pour permettre l’accès à des caractères de la langue française sans rien sacrifier pour les autres usages.
Le reste est du bla bla que je trouve puéril. Essayer de se convaincre que les majuscules accentuées ou que les caractères ligaturés n’ont pas leur place est une simple moue de l’esprit qui ne veut pas considérer qu’il existe d’autres usages possibles que le sien.
Le
07/06/2017 à
23h
38
" />
En plus ça à l’air super fastoche à mettre en place " />
Le
07/06/2017 à
23h
19
v1nce a écrit :
Il n’y a aucune raison d’écrire ces phrases en majuscules. Sauf la première lettre évidemment. Si tu veux vraiment les écrire en “majuscules” parce que ce sont des titres, il suffit d’utiliser la feuille de style qui va bien.
" />
Voilà, la solution toute simple pour éviter le problème des majuscules accentuées : écrire en minuscule et opter pour des feuilles de styles ! C’est encore plus accessible et intuitif que ALT + 212…
Et si j’ai envie d’envoyer un courrier électronique en mettant l’emphase sur une expression à l’aide de majuscules, tu m’expliques comment je fais pour utiliser la feuille de style sur yahoo mail, gmail ou outlook.com ? Et si j’ai envie de rajouter un texte (en majuscule pour l’impact) sur une photo avant impression, je l’active comment la feuille de style sur le logiciel de retouche photo ?
Le
07/06/2017 à
21h
07
sr17 a écrit :
Je ne voudrait pas pas être méchant, mais les majuscules accentuées, je m’en tamponne le coquillard" />
En pratique, il n’y a pas d’inconvénient notable à ne pas les mettre alors autant se simplifier la vie : Et n’en déplaise aux puristes, un problème de moins, ça participe à l’amélioration de la qualité de vie. " />
En gros, si l’on supprimait tous les accents, minuscules comprises, ainsi que les règles grammaticales et d’accord en particulier, si l’on virait aussi tous les mots inutiles du dico, synonymes, mots voisins, mots techniques et mots surannés, ne supprimerait-on pas plein de problèmes inutiles et n’améliorerait-t-on pas ainsi la qualité de vie ?
Les accents précisent le sens des mots, que ce soit sur des majuscules ou des minuscules :
AUCHAN VEND DU POISSON SALE
S’il est salé, on s’en fout. S’il est sale, ça pose problème.
PSYCHIATRIE : UN INTERNE TUE
Va savoir si c’est un interné qui tue, qui est tué ou encore si c’est un interne qui a été tué, ou qui a tué.
EMMANUEL MACRON VOLE
Nouvelle affaire ou président dévalisé ?
MAIS ECLATE NON BEURRE MAIS CARAMELISE
C’est un trouble du langage ou la promesse d’un régal pour papilles ?
Même si en pratique, on peut facilement deviner le sens sans que les accents soient placés, il y a des exceptions où ils compliquent la compréhension. Donc il y a des problèmes à les supprimer, même s’ils ne sont pas « notables » comme tu l’as précisé.
Mais au-delà, il y a le respect des règles existantes. Tu as fait l’effort de communiquer par un message argumenté, structuré, avec un respect pour les règles de grammaire et l’orthographe. Ce sont des règles communes à chacun, et même si elles sont malmenées au quotidien, elles demeurent et fixent une norme à laquelle chacun peut se rattacher. Est-ce que certaines règles doivent être modifiées pour s’adapter à l’informatique, ou c’est l’informatique qui doit s’adapter au langage ? La question est légitime. Je me positionne en faveur de cette dernière proposition. Ce n’est pas parce que les correcteurs informatiques ne parviennent pas à modéliser l’ensemble des difficultés du français qu’il faut simplifier la langue. Ce n’est pas parce que les programmes seraient plus rapides à exécuter et prendraient moins de place qu’il faudrait écrémer le dictionnaire.
Les majuscules non accentuées sont un non problème. Ceux qui préfèrent ne pas en mettre n’en mettront pas, même si des touches leur étant dédiées occuperaient la moitié du clavier. Ceux qui souhaitent en mettre doit pouvoir aisément en mettre. C’est aisé (techniquement) à mettre en place. C’est aisé à mettre en commun pour que les utilisateurs de n’importe quel système ou marque puissent par les mêmes gestes les produire. Il faut juste le normaliser et, pour que cela fonctionne, rendre cette introduction la moins pénalisante.
Le
07/06/2017 à
19h
07
fred42 a écrit :
Ne pas confondre le législateur et le gouvernement et ne pas oublier la séparation des pouvoirs.
Oui, sauf que le gouvernement bosse dans le seul but de transformer son action ou sa réflexion en loi. Mais en effet, il n’est pas stricto sensu le législateur.
Le
07/06/2017 à
19h
03
slasher-fun a écrit :
Définition “de facto” à l’usage. Même les claviers AZERTY vendus par Microsoft en France ne comportent pas une touche “shift lock” (qui est le comportement utilisé dans MS Windows) mais “caps lock”. Si même Microsoft ne respecte pas les standards du matériel qu’ils vendent…
Merci de répondre. Ça n’a donc été défini nulle part et on ne peut blâmer un industriel de ne suivre que ce qui a été défini.
Le
07/06/2017 à
18h
53
Aristide Rutilant a écrit :
Il n’y a pas de législateur impliqué dans ces travaux à ma connaissance.
« Dans cette optique, et sur l’impulsion du ministère de la Culture et de la Communication, l’organisme français de normalisation AFNOR initie un projet normatif pour élaborer une norme française de claviers correspondant à ces attentes. La présente publication revient sur les origines du clavier que l’on utilise aujourd’hui et présente en détail ses lacunes pour la saisie de texte en français et dans les langues fréquemment utilisées sur le territoire. Elle représente la position officielle de l’État sur ces questions. »
C’est bien une initiative gouvernementale qui a impulsé ces travaux :)
Le
07/06/2017 à
18h
50
Aristide Rutilant a écrit :
Qui parle de législateur ? Il n’y a pas de législateur impliqué dans ces travaux à ma connaissance. On parle juste d’une norme, tout à fait facultative par les fabricants de clavier et les développeurs d’OS.
J’ai répondu à un message qui stipulait qu’un certain type de clavier devait être « imposé ». Or qui, hormis le législateur, a le pouvoir d’imposer ceci ?
Le
07/06/2017 à
18h
44
2show7 a écrit :
Oui mais enfin, venant de Belgique, si je veux aller à Paris, je ne vais certainement pas faire via Bordeaux " />" />
Pas compris, désolé
Le
07/06/2017 à
18h
34
inextenza a écrit :
Quitte à inventer un nouveau mapping, autant aller au bout de l’idée, non? Sinon, achète un qwertz ou un qwerty canadien (accentué) ;)
Logique étrange. Selon toi, chaque modification, chaque amélioration doit s’accompagner d’un bouleversement des pratiques ? Si l’on veut simplifier l’orthographe, autant aller au bout de l’idée et réécrire le dico ou il te semble plus pertinent de limiter la réforme à quelques mots ciblés ?
Lorsqu’on veut améliorer une situation, il est généralement préférable de perturber le moins possible les habitudes. Sinon, on provoque la grogne, le rejet, et cela débouche sur l’échec. C’est une question de pragmatisme.
Le
07/06/2017 à
18h
27
CryoGen a écrit :
Tout le monde sous Linux ou Mac ne connait pas la combine du capslock pour les majsucules accentuées. D’ailleurs, à cause de çà, certains pensent qu’on n’a pas besoin d’accentuer les majuscules en français…
Exact. D’où l’importance de sérigraphier ces majuscules, pour indiquer au moins la possibilité d’en produire à l’aide d’une combinaison de touche. Si le caractère € n’était pas apparu aux regards de tous, je pense que beaucoup écriraient en toutes lettres l’unité monétaire européenne.
Quand j’ai questionné mon entourage, beaucoup m’ont répondu fermement que les majuscules n’étaient jamais accentuées, et citaient doctement leur instituteur ou institutrice " /> Les renvoyer vers l’Académie Française me permet généralement de remporter le débat.
J’en connais d’autres qui répondent que c’est moche une majuscule avec un accent.
Le problème est antérieur à l’informatique. À l’ère de la composition des pages à l’aide de caractères en plomb, il y avait déjà des lacunes. Il semblerait — à vérifier — que cela vienne de l’origine anglo-saxonne du matériel d’imprimerie de l’époque.
Le
07/06/2017 à
17h
55
slasher-fun a écrit :
Euh non, là il est juste demandé à un éditeur de SE de respecter l’agencement du clavier tel qu’il a été défini :) C’est justement parce qu’il n’est pas respecté que les utilisateurs de Windows ne peuvent pas facilement taper de majuscules accentuées.
Intéressant. Ça a été défini où et par qui, tu le sais ?
Le
07/06/2017 à
17h
47
slasher-fun a écrit :
Ah mais il suffit que Windows interprète correctement le “verr. maj” du clavier AZERTY français comme tel et non comme un “verr. shift” pour que les utilisateurs de Windows puissent taper des majuscules accentuées facilement, pas besoin d’un nouvel agencement pour ça…
On peut tenter de déplacer le problème et demander à un éditeur d’OS de palier aux lacunes du clavier tel qu’il existe. Il restera d’autres problèmes typographiques à règler : guillemets à chevrons (« »), apostrophe typographique (’), æ, œ, Ç…
Le problème est à traiter à sa base, à savoir le clavier, sans demander à tous les éditeurs de logiciels de programmer des rustines.
Le
07/06/2017 à
17h
42
marba a écrit :
BÉPO !
Ce qu’il serait bien aussi c’est qu’ils imposent le format matriciel des claviers. Ça permettrait à tout le monde de changer de claviers sans trop de soucis, et c’est bien plus adapté à la frappe !
Donc selon toi, le législateur doit imposer le format de clavier ? Leur couleur aussi, ou c’est trop libertaire ?
Le
07/06/2017 à
17h
41
Je suis aussi partisan d’une sérigraphie des majuscules accentuées. La combinaison touche morte + voyelle/consonne est très loin d’être populaire. Il ne suffira pas de généraliser ces combinaisons, il faudra communiquer sur l’existence d’une telle possibilité. Des combinaisons de touches spécifiques et explicites pour les caractères É È À permettraient de répondre à l’immense majorité des besoins pour des majuscules accentuées.
Une suspension d’antenne aussi se gère budgétairement. 24 heures sans revenus publicitaires, ou trois semaines avec privation de pub sur un créneau horaire assez étendu, lequel est le pire ?
Wikipedia parle de deux heures d’émission du lundi au vendredi, auxquelles il faut rajouter 30 minutes d’interdiction en marge de l’émission : ça ferait 150 minutes × 15 jours [3semaines×5jours] d’interdiction = 2250 minutes soient 37,5 heures de privation de pubs/revenus. Sans oublier qu’il s’agit de 37 heures de grande antenne, alors que l’interdiction sur un nycthémère comporte beaucoup d’heures vides engendrant peu de revenus publicitaires.
Il est certain qu’un écran noir durant 24H aurait eu une portée symbolique plus forte. Peut-être trop forte d’ailleurs : un blackout total d’une chaîne, soit certain que la presse du monde entier va en faire le relais tellement la sanction est rare et titille les consciences occidentales très sensibles à ce qui touche à la censure.
En plus, compte tenu du soutien obstiné des patrons de la chaîne pour une émission qui semble unanimement considérée comme dégradante avec les dérapages ou la vulgarité de son animateur, je pense que le choix de frapper surtout au portefeuille plutôt qu’au symbole est une bien meilleure décision. Et ce d’autant plus que le CSA peut continuer multiplier ce type de sanction si les dérapages se poursuivent. Aucune entreprise ne peut longtemps accepter qu’un de ses employés lui fasse perdre des millions de revenus chaque semaine. Soit lui et ses congénères rentrent dans le rang, soit ils finiront par se faire virer même si l’audimat devait exploser. Car sur une chaîne gratuite, l’audimat sans pub n’est que peu de choses.
Le
08/06/2017 à
21h
32
Ces statistiques sont aussi un reflet : les sujets sur la télévision sont bien plus fédérateurs que les sujets relatifs aux questions techniques du déploiement de la téléphonie mobile. D’autant plus qu’ils engagent des thèmes davantage féconds, car la nouvelle soulève des questions éthiques et morales, juridiques, sociétales. Cela invite davantage à la discussion que les actualités purement techniques. Qu’il y ait un déluge de commentaires sur un sujet en marge de l’informatique n’est finalement guère étonnant. Sans oublier qu’un fil actif a sa propre dynamique qui entretient le flux de commentaires, alors que l’inertie invite moins à participer et à réagir. Le fait que toi et moi intervenons sur un sujet qui n’intéresse pas (j’ai dû regarder moins de 5 heures la télé en 2017, je n’ai jamais regardé une émission sur C8 ni une émission de l’animateur décrié — mais les 300 commentaires m’interpellent autant que la sanction, rare, du CSA).
En disant cela, je ne critique nullement ta position, ni celle du site d’ailleurs. Je comprends d’autant mieux tes interrogations sur l’identité de NextInpact que moi aussi je ne m’intéresse pas plus que ça à l’orientation juridique et politique du site. Les commentaires sont un passe temps pour moi (chronophage). Je viens surtout ici pour l’actualité technologique. Le reste m’intéresse peu, et ne me motive guère à m’abonner. Mais je comprends aussi le choix de la rédaction, et à mes yeux ce sujet à sa place sur NextInpact.
Le
08/06/2017 à
13h
58
127.0.0.1 a écrit :
Même la langue française ostracise les handicapés… y’a pas de terme spécifique. " />
" />
Il convient de dire personne en situation de handicap.
Et donc le mot qui conviendrait d’utiliser pour désigner l’inimitié pour ces personnes est personnensituationdehandicapophobe.
Quand à l’HEIF, j’arrive pas à comprendre l’intérêt face au JPEG … c’est nouveau donc c’est mieux ? le jpeg a atteint ses limites ?
Oui. Le JPEG est déjà ancien. Et en informatique, un format multimédia vieux de 25 ans peut difficilement rivaliser avec les techniques mises au point ces dernières années. L’industrie et les gens encodent en h264 et désormais en h265. Personne n’envisage plus d’utiliser le MPEG-1 vidéo, contemporain du JPEG.
Le JPEG n’est sans doute pas loin de ses limites théoriques. Mozilla, Google… cherchent encore à l’optimiser un peu, mais de manière générale, il n’y a plus de progrès significatif à attendre de lui. S’il est encore l’objet de développement, c’est surtout parce que les tentatives de renouvellement ont été jusqu’à présent vaines.
L’HEIF doit permettre de produire des images visuellement satisfaisante à un poids moindre. Vu le nombre de photos qui sont prises chaque jour, qui s’accumulent mois après mois, en étant rarement imprimées d’ailleurs, le changement de format peut représenter un plus important au regard de nos espaces de stockage (local ou réseau). Sur un dispositif Apple, en particulier iOS, ce n’est d’ailleurs pas si mal, compte tenu de l’espace non extensible et du surcoût des modèles dotés de capacités supérieures.
En outre, l’HEIF a des fonctionnalités intéressantes (animation mais bien supérieure au GIF, rafales contenues dans un fichier, photo avec son associée dans un même standard, etc…).
Le
06/06/2017 à
09h
15
Arka_Voltchek a écrit :
C’est un des problèmes. Si tous les navigateurs s’y mettent, la transition peut avoir lieu. S’ils ne le peuvent pas, alors les gestionnaires des sites n’ont pas d’intérêt à perdre de l’audience en collant des images qui ne s’afficheront pas sur des dizaines ou des centaines de millions de machines. Or on a des millions de machines qui ne sont pas à jour (vieux OS, vieux navigateurs). On a aussi des millions (ou un milliard ?) de smartphones équipés de petits navigateurs compatibles HTML5, qui suffisent actuellement, et qui devront là aussi subir une mise à jour. Le renouvellement de la totalité du parc actuel met une bonne dizaine d’années.
Et quid de Firefox ? Mozilla ne veut ou ne peut pas de l’HEVC. Ça coûte des sous. Alors le HEIF, je vois pas… Le JPEG fonctionne bien, et si l’on veut le remplacer par un truc plus efficace, il existe au moins un équivalent libre. En plus Mozilla a bossé pour optimiser le JPEG avec son MozJPEG.
Alors il reste pour les navigateurs la possibilité de s’appuyer sur les OS si ceux ci disposent de décodeurs. Mais là encore, est-on certain que l’HEIF rentre dans les cartons de Microsoft et de Google ? Ce dernier a mis au point le WEBP. Le format n’a certes pas pris du tout et Google pourrait très bien en sortir une nouvelle version ne s’appuyant pas sur le VP8 mais le VP9 voire le VP10, histoire d’avoir des performances un peu plus attirantes pour tout le monde.
Quant à Microsoft, l’entreprise a les ressources pour payer une licence et la coller sur Windows et Edge. Mais le souhaite-t-elle vraiment ? Là encore, Microsoft semble aussi plaider pour des formats ouverts :
Il n’empêche que l’arrivée de l’HEIF sur un écosystème majeur va déjà permettre d’en évaluer la pertinence mais aussi les éventuels problèmes. Peut-être que les gains en espace pourront être suffisants pour faire envie aux utilisateurs d’autres plateformes. Cela soulagera les cartes mémoires des smartphones Android, cela permettra de transférer plus rapidement sur le Cloud et de saturer moins vite son espace personnel. À voir…
Le
06/06/2017 à
08h
17
Je partage également ton enthousiasme pour cette annonce. Les rares tentatives pour supplanter le JPEG n’ont jamais pris, faute d’acteurs majeurs pour donner l’impulsion.
J’émets quelques réserves sur la possibilité de chasser le JPEG. En 2004 je crois, Apple permet à l’AAC (qui était normalisé depuis 1999 au sein de la famille MPEG-4) d’accéder à une popularité sans égale. Même si le format a bien pris depuis, il n’en demeure pas moins que le MP3 est loin d’avoir disparu. Au contraire, il reste le format audio le plus emblématique, sans doute le plus utilisé et le plus recherché.
Il pourrait très bien arriver la même chose avec l’image. Je ne doute pas qu’Apple va faire bouger les frontières en popularisant l’HEIF, mais cela n’exclu pas une longue cohabitation avec le JPEG.
Le cœur de la guerre se fera au niveau de l’affichage web et des navigateurs. Nul doute que les facebook et Cie vont supporter l’HEIF… en importation, mais pour l’affichage les photos seront très certainement au format JPEG. Finalement, que les iPhones compressent directement en HEIF ne va pas vraiment inciter à une transformation du web. Tout au plus les logiciels de visualisations d’images vont être incitées à supporter le format. Et quid des licences dans ce cas ?
Outre ces spéculations sur l’avenir, je serais également curieux de connaître le bénéfice réel du format sur le JPEG pour des images hautes résolutions faiblement compressées. Les démonstrations s’efforcent de montrer la supériorité manifeste de l’HEVC pour des images de poids faible, utiles pour le web. Or le JPEG a d’évidentes limites, et ses performances s’effondrent rapidement passé un certain seuil. Et c’est sous ce seuil que les démonstrations ont lieu, que l’effet “wow” se produit.
Pour en revenir avec l’analogie en audio, certains se souviennent des MP3Pro et d’autres formats (Vorbis, Opus, HE-AAC) qui écrasaient le MP3… à 64 kbps. Pourtant, ces formats peinent toujours à convaincre à 128 kbps, où pourtant le MP3 est plutôt limite :
Je ne doute cependant pas que l’HEIF (quel nom…) soit supérieur techniquement au JPEG, je doute cependant que le bénéfice soit franchement marqué pour un usage photographique grand public (les passionnés conservent le RAW). Un peu comme le MP3, qui fait suffisamment bien son job pour qu’une majorité d’utilisateurs lui maintienne sa préférence.
(pour info, je n’utilise plus le MP3 depuis une dizaine d’années pour mes encodages codages avec pertes, et ma collection primaire est codée sans pertes).
L’intérêt dépend du contexte. Une rame de métro est un espace public fréquenté au quotiden par des milliers de personnes. En période épidémique, les surfaces de cette rame peuvent rapidement devenir des réservoirs de bactéries pathogènes, qui peuvent y survivre plusieurs heures. Ainsi, les germes d’une personne malade peuvent en contaminer plusieurs autres, alors même que ces personnes ne se sont jamais approchées les unes des autres. C’est ce qu’on nomme la transmission croisée. Une friction hydroalcoolique au sortir de la rame permet d’éviter ce problème. Si toutes les personnes étaient aussi scrupuleuses en terme d’hygiène des mains, les épidémies seraient plus lentes et moins étendues, et aussi moins coûteuses pour la collectivité, voire moins irrationnelles pour le grand public.
En dehors de ces périodes à risques, l'intérêt des SHA (miaou!) dans la situation décrite peut sembler plus discutable, car le risque de contamination devient alors largement moindre en fréquentant le métro. Des millions de trajets sont en effet réalisés au quotidien en France dans les transports en communs, et au final une minorité silencieuse doit tomber malade suite à ça, sans même que les personnes puissent en identifier la cause. C'est bien la preuve qu'on ne risque pas vraiment sa vie en utilisant les transports en commun en dehors des périodes épidémiques identifiées.
Je conçois donc que cela peut faire sourire de voir des utilisateurs se désinfecter les mains. De mon côté, je n’utilise pas de SHA en dehors de mon boulot, même s’il y a des moments où je regrette de ne pas en avoir sur moi. Il faut dire que le prix même en grande surface est plutôt élevé, et qu’une utilisation cohérente de cette solution peut demander à vider un à plusieurs flacons de 100 ml en une journée.
Par cohérente, je veux dire que si une utilisation du SHA est faite en sortant du métro qui comporte des surface souillées, il faudrait également en faire usage après avoir tourné une poignée de porte, allumé un interrupteur, touché des pièces de monnaies, pris en main un article dans un supermarché… qui sont également porteurs de germes. Ça peut sembler fastidieux ou exagéré, mais il suffit de se dire que dans le milieu hospitalier, les soignants peuvent réaliser une trentaine de frictions par heure (soit quinze minutes toutes les heures consacrées à la seule hygiène des mains : on comprend aisément que les 30 secondes n'y soient pas toujours respectées). Se frictionner les mains en sortant du métro, pourquoi pas. Mais est-ce réellement efficace si on ne le fait plus ensuite ?
Le
30/05/2017 à
17h
27
zitrams a écrit :
Ce n’est pas parce qu’il n’y a pas de vie que ce n’est pas gênant. Par exemple, il y a pas mal de déchets en orbite et c’est un problème pour les satellites. Pourtant il n’y a pas beaucoup de vie là-haut.
Si c’est un problème, c’est en raison du passage d’objets techniques lancés, commandés, et utilisés par des êtres vivants.
La question morale de savoir si l’humanité peut exporter ses déchets sur une autre planète me paraît pertinente. Je ne me sens pas gêné plus que ça par le principe. Bien au contraire, je trouve que cela fait sens (en dehors de tous les aspects techniques et économiques de la chose).
Nous opérons de manière semblable à une échelle plus réduite, en centralisant les lieux de production, de pollution et de traitement des déchets. Je consomme une électricité qui est produite à une centaine de kilomètres par une centrale dont les voisins paieront fort le prix en cas de faille. J’utilise un ordinateur fait de terres rares dont l’exploitation sur d’autres continents est cause de problèmes environnementaux et humains à des milliers de kilomètres de mon domicile. Quand ce dernier sera HS, il risque fort d’arriver sur un autre continent où il sera encore source de problème que je n’aurais pas à assumer. Au final, tous mes déchets, du marc de café à la boulette de papier en passant par les emballages et les appareils électriques sont emmenés loin de chez moi et hors de ma vue — mais pas hors de la vue de tout le monde. Et ça vaut pour presque tout le monde (en tous cas en milieu urbain). Et finalement cela arrange tout le monde d’avoir un logement 100% fonctionnel, bien rangé et propre, sans avoir à assumer individuellement le coût de notre pollution.
Si l’on procède ainsi au niveau local, où se situe le problème moral à changer d’échelle et à déplacer nos ordures sur une autre planète ? Et si ce déplacement ne se fait au détriment d’aucune autre forme de vie consciente et même d’aucune forme de vie tout court, où se trouve le problème ? Sur quoi se fonde-t-il ?
Le
30/05/2017 à
14h
22
skankhunt42 a écrit :
C’est surtout de la daube commerciale pour le grand publique ont vivait très bien avant…
Je ne pense pas que les solutions hydroalcooliques vendues dans le commerce soient ce que tu décrits. Celles que j'ai vu répondent à la norme EN1500, comme les solutions hospitalières (qui demandent parfois d'autres certifications, en raison de la flore pathogène assez spécifique du milieu hospitalier).
Le problème n'est pas ici dans la solution hydroalcoolique mais dans la friction hydroalcoolique. Le geste joue un rôle capital : il s'apprend, il n'est pas intuitif, et les trente secondes de friction ne sont pas vraiment respectées (même par les soignants…).
Je comprends cependant l'accusation de gadget commercial à destination du grand public. On a tous des lavabos et du savon chez nous, des serviettes à peu près propres, et ça suffit la plupart du temps. Mais la plupart du temps seulement. En cas d'épidémie, la solution hydroalcoolique est d'un réel apport : on peut l'appliquer n'importe où et à n'importe quel moment. Cela évite de récolter des germes pathogènes sur ces mains, de les inhaler et de tomber malade deux jours après, et dans le laps de temps de les disséminer un peu partout. Cela a un impact économique (les arrêts maladies, les hospitalisations, les frais médicaux), sanitaire, et touche à la santé publique. Je cite à nouveau Didier Pittet, issu de l'ouvrage de Thierry Crouzet mentionné plus haut :
« Si l’hygiène des mains s’améliore dans la communauté, nous aurons moins d’infections et nous prescrirons moins d’antibiotiques. Voilà l’autre bombe sanitaire. À force de prescrire des antibiotiques, on provoque des résistances et on fragilise la population mondiale. L’hygiène des mains est le meilleur moyen de limiter l’usage des antibiotiques. C’est une façon d’attaquer le problème par sa racine. Tout simplement en réduisant le réservoir de maladies infectieuses ». (pp. 129-130)
On renverse donc l’argumentaire précédent. Les solutions hydroalcoolique ne favorisent pas les résistances microbiennes, elles permettent de les réduire :)
Niktareum a écrit :
On vivait avec plus de maladies, infections, virus etc… Les sha en réduisent la propagation.
Il n'y a pas si longtemps, on mourrait d'une simple égratignure hein
Exactement.
Je cite un dernier extrait d'un ouvrage qui peut être lu gratuitement et sans snober son lectorat :
« On n’est jamais trop propre, surenchérit Didier. Bien entendu, il existe des malades de l’hygiène. Des femmes qui se lavent trop peuvent développer des problèmes vaginaux ou faire des eczémas. À part ces cas rarissimes, je n’ai jamais vu de complications chez les gens qui se lavent trop. Mais chez ceux qui ne se lavent pas, j’en ai vu, beaucoup. La vérité est cruelle : on est moins propre aujourd’hui que nos grands-parents. Ils étaient plus conscients que nous des dangers du manque d’hygiène. Comme nous sommes moins souvent malades qu’eux, nous faisons moins attention, puis nous lançons des théories absurdes, et dans les cafés, parce que les clients ne se lavent pas les mains quand ils vont aux toilettes, nous retrouvons des bactéries urinaires sur les cacahuètes. »p. 133
extraits de : Thierry Crouzet, Le Geste qui Sauve, (cc) by-nc-nd, 2014, l'Âge d'Homme et Thierry Crouzet
Le
30/05/2017 à
12h
47
zitrams a écrit :
Pour le triclosan, effectivement je n'ai pas dit que les SHA en contenaient mais il me semble que certains en contiennent. Mon propos n'est pas de critiquer les SHA mais de dire que certains pourraient créer éventuellement une résistance, en tout cas ce n'est pas si absurde d'y penser.
En fait, la SHA contient, comme son nom l'indique, de l'alcool (ethanol ou isopropanol) et de l'eau. Cela suffit. On y ajoute communément du glycérol pour protéger les mains, et du péroxyde d'hydrogène qui permet de purifier l'alcool car ce dernier n'est pas absolument pur.
Ces quelques ingrédients de base constituent la recette de l'OMS :
C'est l'occasion de rappeler que la solution hydroalcoolique n'est pas brevetée. Son inventeur (ou ses co-inventeurs) ont souhaité offrir le produit à l'humanité, et en faciliter la production au niveau local dans le monde entier. Thierry Crouzet a écrit un joli petit livre très facile à lire et bien documenté sur toute l'invention du produit. Il peut notamment intéresser les utilisateurs de logiciels libres, dont la logique est d'ailleurs citée dans l'ouvrage. L'auteur a d'ailleurs permis à son lectorat d'y accéder gratuitement :
Page 133, on y trouve un argument qui concerne notre discussion (la citation entre guillemet est de Didier Pittet, médecin aux HU de Genève et "inventeur" de la SHA) :
« Une idée sous-jacente à ces discours rétrogrades, absolument non vérifiée, est de dire que si tu désinfectes trop souvent la peau, tu vas finir par remplacer la flore bactérienne naturelle par une autre. Justement, c’est faux pour l’alcool. On a prouvé qu’il protège la flore native¹. Il ne tue les bactéries qu’en superficie et n’empêche pas celles des couches profondes de continuer à vivre et à migrer vers la surface. Le déséquilibre n’est pas du tout démontré. » Pour résumer, l’alcool élimine les bactéries transitoires qui arrivent de l’extérieur. Il n’effectue aucune sélection de la flore microbienne à la surface des mains. ¹ « WHO Guidelines on Hand Hygiene in Health Care », partie I, chapitres 5 et 6.
Thierry Crouzet, Le Geste qui Sauve, (cc) by-nc-nd, 2014, l'Âge d'Homme et Thierry Crouzet
Concernant les additifs ajoutés aux différentes formules de SHA (tu parlais du tricolosan), ils ne majorent que marginalement l'efficacité du produit (parfois la diminuent). L'ajout de chlorexidine par exemple permet de retarder le retour de la flore sur les mains. C'est totalement inutile dans le monde du soin et dans la vie de tous les jours. Dans le monde du soin, la friction hydroalcoolique se fait plusieurs fois ou plusieurs dizaines de fois par heure. Et dans la vie domestique, il ne s'écoule pas trente secondes avant que les mains désinfectées entrent en contact avec une surface qui les souillera à nouveau. Par contre, au bloc opératoire où les mains du chirurgien ou des assistants sont lavées (6 minutes) puis protégées par un gant stérile durant parfois des heures, cette caractéristique de la chlorexidine peut être pertinente.
De toute manière, même si une souche bactérienne développait une résistance à un additif, il n'y aurait aucun problème puisque ce sont bel et bien l'alcool, l'eau et la friction mécanique qui effectuent le travail de désinfection des mains :)
Concernant la chlorexidine, et le développement d'une résistance à un antibiotique, c'est tout à fait possible mais je n'en ai jamais entendu parler.
zitrams a écrit :
J'avais compris ton intention, qui est louable.
Le
29/05/2017 à
22h
10
zitrams a écrit :
Dire que penser à un développement d’une résistance est une absurdité logique me paraît un peu excessif ! Le mode d’action du lavage à l’eau et au savon n’est pas le même.
L’absurdité n’est pas de penser qu’une telle résistance soit possible, mais de l’affirmer comme une évidence ou un fait établi et de baser une conduite sur de telles supputations.
Pour être plus clair, voici le raisonnement décomposé :
1/ fait établi: certains micro-organismes jusqu’alors affectés par les antibiotiques deviennent résistants à ces mêmes antibiotiques, et il convient de les utiliser avec parcimonie.
2/ corollaire qui fait sens mais qui n’est pas du tout établi : certains micro-organismes détruits par les SHA vont naturellement s’adapter aux SHA, et il convient donc de les utiliser avec parcimonie.
C’est parfaitement logique, mais en l’absence de preuves, c’est absurde.
Car en effet, sans preuve derrière, c’est toute forme de lutte qui est condamnée par la même logique :
3/ certaines techniques d’hygiène comme le lavage simple permettent de réduire le niveau de sa flore bactérienne, donc celle ci va finir par s’adapter et résister. Et il convient donc pratiquer l’hygiène des mains et du corps avec parcimonie.
C’est logique et en même temps parfaitement absurde: plus on ferait d’effort pour être propre et plus on risque d’être sale.
Quand tu parles de soupçons, là encore sois plus précis. Tu mentionnes une étude relative à autre chose que la solution hydroalcoolique. Je répète, je comprends qu’on veuille extrapoler et être méfiant, mais un soupçon n’est pas une preuve. Merci pour le lien quand même :)
Le
29/05/2017 à
20h
50
Fyr a écrit :
Exactement ! D’autant que le …1% restant c’est le plus résistant et le plus emmerdant ce genre de “savon” accélère l’apparition de souche ultra résistante de bactérie.
Ah bon ? Je suis assez étonné. Tu ne confondrais pas avec les mécanismes de résistance aux antibiotiques ? Des bactéries résistantes aux antibio, des bactéries multirésistantes et des bactéries hautement résistantes aux antibiotiques sont très documentées. En revanche, les bactéries résistantes aux solutions hydro alcooliques (SHA), je n’en ai jamais entendu parlé dans la littérature médicale et dans les publications des hygiénistes.
Les SHA sont massivement utilisées dans les hôpitaux, et si des mécanismes naturels de résistance étaient à l’oeuvre, je pense qu’ils se seraient déjà manifestés.
Ceci dit, je comprends la méfiance qui s’exprime. À vouloir mal utiliser notre arsenal de lutte contre les agents pathogènes, on peut craindre une perte d’efficacité. Il n’empêche que parler de résistance aux gels hydroalcooliques semble être une contre vérité scientifique.
Et aussi une absurdité logique. Car dans ce cas, on peut aussi craindre une adaptation microbienne à l’eau et au savon, et demander aux gens d’arrêter de se laver les mains pour éviter des problèmes à l’avenir. Bref, quand on ne fait plus rien pour lutter, on ne renforce pas l’ennemi. Mais il remporte la partie, ce qui nous fait une belle jambe…
Autant je partage l’idée qu’une friction hydroalcoolique à domicile est généralement sans intérêt (le premier stylo, la première poignée de porte, la première touche de clavier touchée et votre main redevient septique) et que l’eau et le savon suffisent alors dans la plupart des situations domestiques, autant je suis dérangé par les arguments pseudo scientifiques qui viennent étayer cette inutilité.
Dernière précision pour finir, la solution hydro alcoolique ne remplace pas l’eau et le savon. En effet, la friction hydroalcoolique est inefficace contre les macro salissures (essayez de vous frictionner des mains boueuses avec du gel…). Elle est aussi inefficace dans deux cas bien précis: contre la gale et contre le clostridium difficile (alors que l’eau et le savon sont recommandés dans ce cas).
J’en cite une partie au milieu pour que tu aies déjà un aperçu :
[…]
La fin d’un modèle
L’industrie pharmaceutique, depuis la fin de la guerre, s’est appuyée sur le modèle économique suivant: Développer des médicaments qui soignent les maux chroniques très répandus dans les pays riches. Antibiotiques, vaccins, antidépresseurs, médicaments contre l’hypertension, anti-inflammatoires, par exemple.
Le développement d’un médicament coûte très cher; à la recherche elle-même, il faut ajouter de nombreux tests et essais cliniques, en vue d’obtenir l’agrément des différentes autorités sanitaires nationales. Un médicament sur 5000 finit ce processus avant d’être commercialisé, mais il a fallu dépenser pour tous les autres. L’amortissement de ce coût passait par les volumes, la vente de grandes quantités de pilules à un prix unitaire modique. A l’échéance du brevet, le médicament devient générique et il faut en trouver d’autres.
Ce modèle a tellement bien fonctionné qu’il est victime de son succès: il n’y a plus guère aujourd’hui de maladie chronique suffisamment répandue qui pourrait bénéficier d’un médicament blockbuster. Les coûts de développement ont, de leur côté, considérablement augmenté, en partie en raison de l’accroissement exponentiel de la complexité de la réglementation pour obtenir les agréments des autorités sanitaires nationales.
[…]
En effet, la recherche pharmaceutique n’est pas optimale. Elle est guidée par le profit, ce qui est une formidable source de stimulation pour certains domaines très lucratifs (et qui heureusement concernent un maximum de personnes), et un frein tout aussi formidable pour la pathologies plus rares.
Il y a aussi un formidable gâchis de ressources lié à la compétition. Quand cinq grands groupes pharmaceutiques travaillent sur les mêmes projets, on multiplie par cinq les mêmes essais cliniques, les mêmes voies sans issues, les mêmes pistes. Et au final, un seul est récompensé (parfois le plus rapide, celui qui aura aussi bâclé les essais, etc…).
C’est vrai que la réglementation à bon dos, mais heureusement qu’elle existe (le plus libéral des économistes serait le premier à chialer si un de ses mômes mourrait suite à la prise d’un sirop antitussif insuffisamment testé suite à une réglementation laxiste). Or lequel présente le plus fort surcoût : la bureaucratie et les normes drastiques de pharmacovigilance, ou le gâchis de ressources imputable à une économie basée sur la concurrence et la course à l’innovation ? La mutualisation de la recherche et la coopération seraient peut-être plus efficaces en terme de santé publique d’une part, et de dépenses de santé d’autre part.
Le
23/05/2017 à
15h
18
TexMex a écrit :
se retrouvent en général avec les même quantités que les princeps.
Seulement en général? Merci
Oui, en général. On peut toujours trouver des exceptions qui invalident une règle.
TexMex a écrit :
Juste que c’était marqué dans la notice dans la section des effets secondaires indésirables. Donc testé sur le plan clinique. non?
Les effets indésirables ne concernent que le principe actif. Si le générique indique que les céphalées, maux de ventre et vomissements peuvent survenir après la prise du médicament, tu trouveras les mêmes effets sur la forme princeps. Or tes arguments étaient très clairs :
— ta mère se sentait mal suite à la consommation d’un générique
— elle se sentait mieux en retournant à la forme princeps
— donc c’est la faute des excipients
Il y a tout un raisonnement qui ne tient pas la route, du point de vue scientifique, et même logique.
Juste pour info, les troubles habituels de presque tous les médicaments sont : céphalés, gastralgies, vomissements… Les monographies médicamenteuses (VIDAL…) sont il me semble dans l’obligation de publier toutes les données transmises. En somme, si un médicament m’est prescrit, et que dans les deux heures j’ai mal au bide, et que j’en parle au médecin ou à un pharmacien, et enfin que ce dernier remontre l’info à l’aide d’un formulaire dédié, la gastralgie figurera dans la liste des effets indésirables.
TexMex a écrit :
Tu veux dire qu’une officine de pharmacie a un intérêt financier à vendre des produits qui sont moins chers et qui dégagent moins de marge ?
Si
on les intéresse oui. C’est une entreprise. La gestion des stocks n’est
pas tant un problème. Le système de distribution dédié au pharmacies
est plus efficace que celui d’Amazon si on veut en rire un peu. Il n’est
pas rare de voir des camions livrer des pharmacies suivant que le
médicament est plus ou moins difficile a conserver etc.
Pas un problème. Voyons voir d’un point de vue pratique ce que ça donne :
— Une pharmacie A décide que les stocks ne sont plus tant un problème, ce qui lui permet de payer un loyer moindre, car la surface est considérablement moindre. En effet, les médicaments sont livrés dans les 6 heures qui suivent la commande. Génial à tout point de vue, économiquement imparable.
— TexMex a besoin d’un médicament. Il se rend à la pharmacie à 10h, enrhumé et algique, on lui demande de repasser à 16h, où il sera encore plus enrhumé et algique. Pas pratique, n’est-ce pas ? Le même scénario se reproduit trois ou quatre fois, et TexMex, malgré son enthousiasme pour le système de distribution, décide de se rendre désormais à la pharmacie B, où cette fois-ci il y a du stock en permanence, ce qu lui évite à chaque fois d’inutiles déplacements, surtout que les rares fois il se rend à la pharmacie c’est dans un état de santé qui ne lui permet justement pas de se rendre à la pharmacie.
—> En peu de temps, la pharmacie A aura perdu une grande partie de sa clientèle.
Donc la gestion des stocks n’est pas un mince problème pour une officine de pharmacie : c’est un problème majeur tant pour sa viabilité économique que pour la santé des personnes.
En milieu rural, il n’y a parfois qu’une pharmacie, et les personnes âgées doivent faire de gros efforts pour s’y rendre lorsqu’elles peuvent encore le faire. Chaque fois qu’un médicament ou un autre produit n’est pas en stock, c’est un problème pour ces personnes vulnérables.
TexMex a écrit :
économise surement un paquet non négligeable de fric là dessus ?
Oui mais pas suffisamment par rapport à la porté disponible. Très largement insuffisant. On ne compte pas cette économie en milliards. Dommage.
Quel dommage. Surtout qu’on s’embête pas à donner des chiffres…
« En moyenne, 30 % moins chers que les médicaments d’origine, les médicaments génériques ont permis d’économiser 7 milliards d’euros en 5 ans. »
Ça concerne la période 2010…2014. Et chaque année, le nombre de molécules perdant ses brevets devient plus important. Et ce n’est qu’en 2012 que la prescription des génériques est devenue obligatoire sauf exceptions.
En tous cas, sept milliards d’euros en 5 ans, c’est ce que tu sembles appeler un fiasco.
TexMex a écrit :
Et qui a dit que le médicament générique allait sauver la sécu ?
Prenons
la question a l’envers. Qui a dit le contraire??? bref. Cela fait un
moment que le sujet est sur le tapis et cela ne serai pas passé sans
qu’il y a un certain prosélytisme dessus.
Comment dire…
C’est toi qui a affirmé plus haut que la mission des génériques était de combler le trou de la sécu, et que n’y étant pas parvenu, le générique était un fiasco. Je te demande de me dire qui a affirmé cela, et en guise de réponse, tu me questionnes sur savoir qui a dit le contraire ??!!
Comme les bactéries résistantes et multirésistantes aux antibio deviennent de plus en plus nombreuses et de plus en plus courantes, ce genre de traitement ne vont pas concerner qu’une poignée de malades dans les années à venir. Ça aussi, cela explique pourquoi les dépenses de santé sont difficiles à équilibrer, malgré la consommation de plus en plus importantes de génériques.
(et dans des pays moins développés, le prix est encore largement moindre)
(c’est un simple rapprochement : les antibiothérapies ne sont pas interchangeables, et les processus d’industrialisations d’un antibio découvert il y a 40 ans sont largement plus efficaces que pour ceux découverts il y a peu. Il y a, dans une certaine mesure, une légitimité pour les labos à demander des prix élevés).
Le
23/05/2017 à
11h
49
OlivierJ a écrit :
Par ailleurs, il y a des sociétés qui ont l’air de s’être spécialisées dans le générique (biogaran par exemple je crois), je ne sais pas ce qu’en dira Borée qui a l’air de maîtriser.
[…]
("Marinade", pas mal trouvé, je pense que tu fais référence à une blonde délétère)
Il y a des marques spécialisées en effet. Une des plus visible est Mylan, et elle ne semble pas être le produit d’un groupe pharmaceutique pré-existant :
Dans le lot, plusieurs ou peut-être la majorité ne font pas que des médicaments génériques, mais participent à la recherche et à la commercialisation de nouvelles molécules.
Le générique est pour les grands groupes une manière de maintenir le chiffre d’affaire et de continuer à gagner sur des médocs pas chers quelques centimes qui, rapportées à un marché immense, finissent par faire un joli pactole. Si l’on croise les chiffres indiqués dans les deux liens, Mylan aurait un CA de 7 milliards de dollars, et ne représente pourtant que 8% du marché du générique. Ça donne une idée de la masse d’argent phénoménale brassée par l’industrie de la santé même lorsqu’on touche à des produits épargnés par la propriété intellectuelle.
Pour Marinade, oui :) Mais elle n’a pas le monopole du populisme, des raccourcis imbéciles et des solutions miracles. Suis-je méchant et populiste à mon tour en prétendant qu’ils étaient onze réunis autour d’un plateau télé il y a pas si longtemps à être plus ou moins dans le même cas ? ;)
FLAC et Vorbis sont nativement supportés dans Android depuis des années, sans avoir à installer de lecteurs dédiés ou d’applications tierces.
FLAC est gratuit et open source, au même titre que Vorbis (tous les deux sont sous la coupelle de la XIPH Fondation).
Pour pinailler et finir, OGG désigne un conteneur, pas un format audio (les formats audio avec l’exension OGG sont Vorbis, Opus, Speex mais aussi FLAC — encore que pour ce dernier, le conteneur OGG n’est que rarement utilisé).
:)
Le
22/05/2017 à
11h
10
tpeg5stan a écrit :
via les caméras de surveillance du magasin dans lequel il a acheté le DVD, en se basant sur le numéro de série du DVD et le jour où il a été vendu ? Je comprends pas trop l’astuce…
Mon message manquait peut-être de clarté : je faisais allusion au filigrane d’achat. Si quelqu’un achète une vidéo sous forme de fichier, et même si cette vidéo utilise des formats déjà existants et libres, la présence d’un marquage permet de remonter à l’acheteur dès lors que la vidéo se retrouve en partage sur les réseaux d’échange.
Cela répondait à l’argument selon lequel la fin du MP3 devait inciter la migration vers d’autres formats qui permettent de contrôler les copies.
J’espère que c’est plus clair.
Le
21/05/2017 à
14h
20
TexMex a écrit :
1/ Les laboratoires ont obtenu de pouvoir fabriquer eux même les médicaments passés en mode générique. On prends les mêmes et on recommence. Youpi pour les labos qui finalement conservent leur brevet tacitement. Plus simplement cela s’appelle une chasse gardée.
Je suis en total désaccord avec ta manière de voir et nommer les choses. Un molécule libre de droits devient commercialement exploitable par tout le monde, y compris son inventeur et jusqu’alors unique fabricant. Une chasse gardée aurait impliqué que seul le labo d’origine puisse fabriquer une forme génériquée. Ça n’a jamais été le cas.
TexMex a écrit :
2/ Deux cas se sont présenté concernant les forme:
2a/ Aucun substitut de l’excipient ne pouvait être utilisable. Donc c’est le même en moins cher. Sauf que les contenances par boite ou le dosage différaient de la version originale. Exemple simple: même si le prix de la boite du générique était moins chère, le nombre par boite de gélule / pilule (ou leur dosage) était moins grand / fort. Donc il fallait plus de boites pour le même traitement. Le rapport économique n’était donc pas bon car la facture finale du générique était moins performante que la version originale. Doh!!!!
Je trouve tes propos ahurissants. La quantité de médicaments par boite est dans certains cas réglementés. Par exemple, tu ne peux acheter en pharmacie de ville un paquet contenant plus de 8g de paracétamol. Pour ce qui est des autres spécialités, les génériques se retrouvent en général avec les même quantités que les princeps.
Quant au dosage, dire qu’il est moins fort, excuse moi, mais tu ne dois vraiment pas savoir sur quel terrain tu t’avances. Indique moi quel médicament générique aurait diminué de moitié ce dosage pour vendre deux fois plus de boite ?
TexMex a écrit :
2b/ Un excipient pouvait être remplacé ou ajouté. Le labo est trop content de sa trouvaille. La version originale ne change pas mais la version générique a un excipient qui provoque mots de tête, aigreurs d’estomac, bourdonnement, jusqu’à étourdissement. Ma charmante mère qui s’est fait prescrire ces génériques à eu les problèmes cités. Cela aurait pu très mal finir. Retour à la version originale fissa. En comparant les deux versions j’ai constaté qu’il y avait excipient supplémentaire qui n’avait aucune raison d’être là.
Des mots de tête ? " />
Les excipients ne sont pas censés provoqués d’interactions médicamenteuses.
Mais s’il est vrai que certains excipients peuvent avoir des effets notoires, il faudra qu’on m’explique par quel miracle ils seraient l’exclusivité d’un générique. Ces derniers peuvent très bien retenir une formule qui convenant bien mieux à des personnes, alors que la version princeps provoquerait le catalogue des maux que tu énonces plus haut.
Moi aussi il m’arrive de me sentir mal après un médicament : ça peut-être lié à un effort, à ce que j’ai mangé ou bu avant. Évidemment, il est plus facile de se dire que c’est la faute de l’amidon utilisé en excipient dans le générique…
Sans nier les difficultés rencontrées par ta mère, cette expérience n’a, isolée, aucune validité. Ta mère aurait eu les mêmes symptômes si elle n’avait pas su qu’elle prenait un générique ? Ce n’est pas certain. C’est la raison pour laquelle les études procèdent avec des tests en aveugle, voire en double aveugle (lorsque la personne qui administre le médicament ne sait pas davantage si la forme galénique contenant le principe actif est génériqué ou princeps). C’est la base de l’expérience scientifique.
(au moins, en parlant de tests en aveugle, on retrouve plus ou moins le sujet de départ, à savoir le MP3 " />)
TexMex a écrit :
3/ Les pharmaciens on été intéressés financièrement à distribuer du générique.
Même plus besoin de commerciaux qui vont en consultation chez les médecins pour passer les produits devant; c’est le pharmacien qui le fait. Il doit bien y avoir un Vidal ou deux qui s’en retourne dans son tiroir poussiéreux. C’est juste moralement vomitif quand il s’agit d’un médicament nivelé en gamme.
Tu veux dire qu’une officine de pharmacie a un intérêt financier à vendre des produits qui sont moins chers et qui dégagent moins de marge ? C’est très étonnant d’apprendre que les règles économiques des pharmacies sont à ce point différentes de celles du sens commun.
Et elle a aussi intérêt à reformer son personnel, à supporter le coût de la réorganisation ? À se dire chouette, on manquait déjà de place, et maintenant on va avoir en stock des boites de générique et des boites de princeps qui continuent à être prescrites ? Et à devoir gérer l’incompréhension, la colère, la peur de leurs clientèles qui ne comprennent pas pourquoi la boite qu’ils cherchent depuis 10 ans a changé d’aspect et ne porte pas le même nom, et qui menace d’aller ailleurs pour retrouver leur antihypertenseur et antidiabétique oral ?
TexMex a écrit :
Sur le papier le médicament générique est une très bonne idée mais elle n’a pas produit les économies promises. On la compte en dizaine de millions aujourd’hui alors que la puissance du système aurait du produire DES MILLIARDS D’ÉCONOMIE (sinon des dizaines). D’ailleurs la cours des comptes ne voit toujours pas un retour à l’équilibre de la sécu en 2018. Alors que c’était prévu pour 2016 grâce au sauveur que devait être le générique.
La part de marché du générique en 2013 est de 15% en valeur et 30% en quantité. Clairement pas une réussite pour le contribuable! Loin de la. Et surtout le retour à l’équilibre ne sera tout simplement pas attribuable au médicament générique.
Là encore j’ai du mal à piger. Tu dis t’en foutre des milliards que représente le marché du générique, sans qu’il te vienne à l’esprit que s’il se vend pour des milliards d’euro de médicaments moins chers, la sécu économise surement un paquet non négligeable de fric là dessus ?
Le marché du générique n’est peut-être que de 15% en valeur : forcément, ils sont nettement moins chers. 30% en volume ? C’est peu, quand on sait que seule une fraction des médicaments n’a plus de propriété intellectuelle à la patte ?
Et qui a dit que le médicament générique allait sauver la sécu ? C’est quoi cette Marinade ? La population vieillit, une journée en chambre d’hôpital coûte plus de 1000 euros à la sécu, une série de chimiothérapie peut dépasser les 5000 euros… C’est ça le gros poste de dépense de la sécu. Le déremboursement de certains médicaments et l’obligation des génériques sont des miettes en comparaison. Mais ces miettes ont pour unité de mesure le milliard d’euros, ce qui les rend appréciables au final.
Le
21/05/2017 à
14h
06
TexMex a écrit :
3/ Les pharmaciens on été intéressés financièrement à distribuer du générique.
Même plus besoin de commerciaux qui vont en consultation chez les médecins pour passer les produits devant; c’est le pharmacien qui le fait. Il doit bien y avoir un Vidal ou deux qui s’en retourne dans son tiroir poussiéreux. C’est juste moralement vomitif quand il s’agit d’un médicament nivelé en gamme.
C’est bien évident que les laboratoires n’allaient pas accepter cela avec un grand sourire sans réagir. Ils ont usé de toutes les digressions possible pour stopper la machine. Aujourd’hui le bilan du générique n’est pas si reluisant que cela. Se baser sur le fait que cela chiffre en milliards est une absurdité notoire. C’est combien la sécurité sociale économise qui est important dans ce cas.
Sur le papier le médicament générique est une très bonne idée mais elle n’a pas produit les économies promises. On la compte en dizaine de millions aujourd’hui alors que la puissance du système aurait du produire DES MILLIARDS D’ÉCONOMIE (sinon des dizaines). D’ailleurs la cours des comptes ne voit toujours pas un retour à l’équilibre de la sécu en 2018. Alors que c’était prévu pour 2016 grâce au sauveur que devait être le générique.
La part de marché du générique en 2013 est de 15% en valeur et 30% en quantité. Clairement pas une réussite pour le contribuable! Loin de la. Et surtout le retour à l’équilibre ne sera tout simplement pas attribuable au médicament générique.
Enfin il faut pas se fier au maisons d’éditeur comme tu sembles le faire, mais plutôt à l’auteur. Il y a des maisons dites sérieuses qui éditent BHL, Alain Minc ou Jacques Attali… Faut pas déconner…
180 commentaires
Amazon rachète les supermarchés Whole Foods pour 13,6 milliards de dollars
16/06/2017
Le 16/06/2017 à 16h 09
Je sens qu’ils vont encore changer de nom : hier Amazon Premium, aujourd’hui Amazon Prime, demain Amazon Primeurs !
AZERTY : l’AFNOR veut votre avis sur le prochain clavier français
07/06/2017
Le 09/06/2017 à 17h 51
Le 09/06/2017 à 15h 51
Le 08/06/2017 à 22h 35
Le 08/06/2017 à 22h 31
Le 08/06/2017 à 15h 36
Le 08/06/2017 à 15h 14
Le 08/06/2017 à 14h 37
Le 08/06/2017 à 14h 28
Le 08/06/2017 à 13h 59
Le 08/06/2017 à 01h 12
Le 08/06/2017 à 01h 01
Le 08/06/2017 à 00h 42
Le 08/06/2017 à 00h 16
Le 07/06/2017 à 23h 59
Le 07/06/2017 à 23h 38
" />
En plus ça à l’air super fastoche à mettre en place " />
Le 07/06/2017 à 23h 19
Le 07/06/2017 à 21h 07
Le 07/06/2017 à 19h 07
Le 07/06/2017 à 19h 03
Le 07/06/2017 à 18h 53
Le 07/06/2017 à 18h 50
Le 07/06/2017 à 18h 44
Le 07/06/2017 à 18h 34
Le 07/06/2017 à 18h 27
Le 07/06/2017 à 17h 55
Le 07/06/2017 à 17h 47
Le 07/06/2017 à 17h 42
Le 07/06/2017 à 17h 41
Je suis aussi partisan d’une sérigraphie des majuscules accentuées. La combinaison touche morte + voyelle/consonne est très loin d’être populaire. Il ne suffira pas de généraliser ces combinaisons, il faudra communiquer sur l’existence d’une telle possibilité. Des combinaisons de touches spécifiques et explicites pour les caractères É È À permettraient de répondre à l’immense majorité des besoins pour des majuscules accentuées.
C8 sanctionnée par le CSA, Touche Pas à Mon Poste sans pub pendant trois semaines
08/06/2017
Le 08/06/2017 à 22h 03
Une suspension d’antenne aussi se gère budgétairement. 24 heures sans revenus publicitaires, ou trois semaines avec privation de pub sur un créneau horaire assez étendu, lequel est le pire ?
Wikipedia parle de deux heures d’émission du lundi au vendredi, auxquelles il faut rajouter 30 minutes d’interdiction en marge de l’émission : ça ferait 150 minutes × 15 jours [3semaines×5jours] d’interdiction = 2250 minutes soient 37,5 heures de privation de pubs/revenus. Sans oublier qu’il s’agit de 37 heures de grande antenne, alors que l’interdiction sur un nycthémère comporte beaucoup d’heures vides engendrant peu de revenus publicitaires.
Il est certain qu’un écran noir durant 24H aurait eu une portée symbolique plus forte. Peut-être trop forte d’ailleurs : un blackout total d’une chaîne, soit certain que la presse du monde entier va en faire le relais tellement la sanction est rare et titille les consciences occidentales très sensibles à ce qui touche à la censure.
En plus, compte tenu du soutien obstiné des patrons de la chaîne pour une émission qui semble unanimement considérée comme dégradante avec les dérapages ou la vulgarité de son animateur, je pense que le choix de frapper surtout au portefeuille plutôt qu’au symbole est une bien meilleure décision. Et ce d’autant plus que le CSA peut continuer multiplier ce type de sanction si les dérapages se poursuivent. Aucune entreprise ne peut longtemps accepter qu’un de ses employés lui fasse perdre des millions de revenus chaque semaine. Soit lui et ses congénères rentrent dans le rang, soit ils finiront par se faire virer même si l’audimat devait exploser. Car sur une chaîne gratuite, l’audimat sans pub n’est que peu de choses.
Le 08/06/2017 à 21h 32
Ces statistiques sont aussi un reflet : les sujets sur la télévision sont bien plus fédérateurs que les sujets relatifs aux questions techniques du déploiement de la téléphonie mobile. D’autant plus qu’ils engagent des thèmes davantage féconds, car la nouvelle soulève des questions éthiques et morales, juridiques, sociétales. Cela invite davantage à la discussion que les actualités purement techniques. Qu’il y ait un déluge de commentaires sur un sujet en marge de l’informatique n’est finalement guère étonnant. Sans oublier qu’un fil actif a sa propre dynamique qui entretient le flux de commentaires, alors que l’inertie invite moins à participer et à réagir. Le fait que toi et moi intervenons sur un sujet qui n’intéresse pas (j’ai dû regarder moins de 5 heures la télé en 2017, je n’ai jamais regardé une émission sur C8 ni une émission de l’animateur décrié — mais les 300 commentaires m’interpellent autant que la sanction, rare, du CSA).
En disant cela, je ne critique nullement ta position, ni celle du site d’ailleurs. Je comprends d’autant mieux tes interrogations sur l’identité de NextInpact que moi aussi je ne m’intéresse pas plus que ça à l’orientation juridique et politique du site. Les commentaires sont un passe temps pour moi (chronophage). Je viens surtout ici pour l’actualité technologique. Le reste m’intéresse peu, et ne me motive guère à m’abonner. Mais je comprends aussi le choix de la rédaction, et à mes yeux ce sujet à sa place sur NextInpact.
Le 08/06/2017 à 13h 58
Apple : macOS High Sierra, iOS 11, iMac Pro, iPad Pro 10,5″, Siri partout et enceinte HomePod
05/06/2017
Le 06/06/2017 à 18h 24
Le 06/06/2017 à 09h 15
Le 06/06/2017 à 08h 17
Je partage également ton enthousiasme pour cette annonce. Les rares tentatives pour supplanter le JPEG n’ont jamais pris, faute d’acteurs majeurs pour donner l’impulsion.
J’émets quelques réserves sur la possibilité de chasser le JPEG. En 2004 je crois, Apple permet à l’AAC (qui était normalisé depuis 1999 au sein de la famille MPEG-4) d’accéder à une popularité sans égale. Même si le format a bien pris depuis, il n’en demeure pas moins que le MP3 est loin d’avoir disparu. Au contraire, il reste le format audio le plus emblématique, sans doute le plus utilisé et le plus recherché.
Il pourrait très bien arriver la même chose avec l’image. Je ne doute pas qu’Apple va faire bouger les frontières en popularisant l’HEIF, mais cela n’exclu pas une longue cohabitation avec le JPEG.
Le cœur de la guerre se fera au niveau de l’affichage web et des navigateurs. Nul doute que les facebook et Cie vont supporter l’HEIF… en importation, mais pour l’affichage les photos seront très certainement au format JPEG. Finalement, que les iPhones compressent directement en HEIF ne va pas vraiment inciter à une transformation du web. Tout au plus les logiciels de visualisations d’images vont être incitées à supporter le format. Et quid des licences dans ce cas ?
Outre ces spéculations sur l’avenir, je serais également curieux de connaître le bénéfice réel du format sur le JPEG pour des images hautes résolutions faiblement compressées. Les démonstrations s’efforcent de montrer la supériorité manifeste de l’HEVC pour des images de poids faible, utiles pour le web. Or le JPEG a d’évidentes limites, et ses performances s’effondrent rapidement passé un certain seuil. Et c’est sous ce seuil que les démonstrations ont lieu, que l’effet “wow” se produit.
Pour en revenir avec l’analogie en audio, certains se souviennent des MP3Pro et d’autres formats (Vorbis, Opus, HE-AAC) qui écrasaient le MP3… à 64 kbps. Pourtant, ces formats peinent toujours à convaincre à 128 kbps, où pourtant le MP3 est plutôt limite :
http://listening-tests.hydrogenaud.io/sebastian/mf-128-1/results.htm
Je ne doute cependant pas que l’HEIF (quel nom…) soit supérieur techniquement au JPEG, je doute cependant que le bénéfice soit franchement marqué pour un usage photographique grand public (les passionnés conservent le RAW). Un peu comme le MP3, qui fait suffisamment bien son job pour qu’une majorité d’utilisateurs lui maintienne sa préférence.
(pour info, je n’utilise plus le MP3 depuis une dizaine d’années pour mes encodages codages avec pertes, et ma collection primaire est codée sans pertes).
La folle histoire d’une bactérie inconnue à bord de la Station Spatiale Internationale
29/05/2017
Le 30/05/2017 à 19h 20
L’intérêt dépend du contexte. Une rame de métro est un espace public fréquenté au quotiden par des milliers de personnes. En période épidémique, les surfaces de cette rame peuvent rapidement devenir des réservoirs de bactéries pathogènes, qui peuvent y survivre plusieurs heures. Ainsi, les germes d’une personne malade peuvent en contaminer plusieurs autres, alors même que ces personnes ne se sont jamais approchées les unes des autres. C’est ce qu’on nomme la transmission croisée. Une friction hydroalcoolique au sortir de la rame permet d’éviter ce problème. Si toutes les personnes étaient aussi scrupuleuses en terme d’hygiène des mains, les épidémies seraient plus lentes et moins étendues, et aussi moins coûteuses pour la collectivité, voire moins irrationnelles pour le grand public.
Je conçois donc que cela peut faire sourire de voir des utilisateurs se désinfecter les mains. De mon côté, je n’utilise pas de SHA en dehors de mon boulot, même s’il y a des moments où je regrette de ne pas en avoir sur moi. Il faut dire que le prix même en grande surface est plutôt élevé, et qu’une utilisation cohérente de cette solution peut demander à vider un à plusieurs flacons de 100 ml en une journée.
Le 30/05/2017 à 17h 27
Le 30/05/2017 à 14h 22
Le 30/05/2017 à 12h 47
Le 29/05/2017 à 22h 10
Le 29/05/2017 à 20h 50
Malgré l’annonce de sa mort, le MP3 est encore bel et bien vivant
18/05/2017
Le 23/05/2017 à 15h 33
Le 23/05/2017 à 15h 18
Le 23/05/2017 à 12h 44
Encore mieux, un des derniers antibio découvert : l’avibactam, commercialisé sous le nom de ZAFICEFTA©.
Voici l’avis rendu par la HAS (Haute Autorité de Santé), qui indique un « service médical rendu important » :
https://www.has-sante.fr/portail/jcms/c_2730818/fr/zavicefta-ceftazidime/avibact…
Le prix reste à négocier dans toute l’UE. Aux États-Unis, une antibiothérapie de 5 jours coûte… 12000 dollars :
http://pharmacie.ma/article/5084/Un nouvel antibiotique bientôt dis…
Comme les bactéries résistantes et multirésistantes aux antibio deviennent de plus en plus nombreuses et de plus en plus courantes, ce genre de traitement ne vont pas concerner qu’une poignée de malades dans les années à venir. Ça aussi, cela explique pourquoi les dépenses de santé sont difficiles à équilibrer, malgré la consommation de plus en plus importantes de génériques.
Le 23/05/2017 à 12h 36
Autre exemple, en rapport au prix des antibiotiques. On parvient à inventer une poignée de nouveaux antibiotiques, de plus en plus rarement. Le tézodolide est apparu il y a tout juste trois ou quatre ans, commercialisé sur le nom de SIVEXTRO©.
Une idée du prix ?
http://www.antibiolor.org/wp-content/uploads/2016/11/Avis-CSAI-Sivextro-def-mef….
1200 euros pour six jours de traitement.
Pour comparaison, le prix d’une autre antibiothérapie très commune et génériquée :
Google
5 euros les 14 comprimés
(et dans des pays moins développés, le prix est encore largement moindre)
(c’est un simple rapprochement : les antibiothérapies ne sont pas interchangeables, et les processus d’industrialisations d’un antibio découvert il y a 40 ans sont largement plus efficaces que pour ceux découverts il y a peu. Il y a, dans une certaine mesure, une légitimité pour les labos à demander des prix élevés).
Le 23/05/2017 à 11h 49
Le 22/05/2017 à 18h 50
@gallean:
https://developer.android.com/guide/topics/media/media-formats.html
FLAC et Vorbis sont nativement supportés dans Android depuis des années, sans avoir à installer de lecteurs dédiés ou d’applications tierces.
FLAC est gratuit et open source, au même titre que Vorbis (tous les deux sont sous la coupelle de la XIPH Fondation).
Pour pinailler et finir, OGG désigne un conteneur, pas un format audio (les formats audio avec l’exension OGG sont Vorbis, Opus, Speex mais aussi FLAC — encore que pour ce dernier, le conteneur OGG n’est que rarement utilisé).
:)
Le 22/05/2017 à 11h 10
Le 21/05/2017 à 14h 20
Le 21/05/2017 à 14h 06