Ce que je ne comprends pas en revanche, c’est qu’ils ne puissent même pas essayer de réexploiter leurs programmes originaux. Il me semble pourtant que cela ne représentait pas une partie négligeable ?
Attends l’article sur le fond quand il paraîtra et tu as encore des critiques à ce moment là, fais les, je les lirais avec attention. Mais tant que le document technique détaillant vraiment les failles n’est pas public, il est difficile de faire un article de fond. Ce document ne sortira que quand AMD aura corrigé ces failles ou après un temps raisonnable qui aurait permis de le faire.
Cela a toujours été la politique de NXI : publier à leur rythme, pas en fonction de la concurrence.
Quand je suis mécontent de NXI, je n’hésite pas à le dire. Je ne suis pas un fanboy, comme on a encore pu le voir récemment.
Là est bien justement le problème : en l’occurence NXI a publié un article très largement en deça de son niveau habituel, contrairement à leur politique qui est plutôt “when it’s done”.
Pire, le ton de l’article est nettement plus incisif que lors des articles sur Meltdown/Spectre, alors même qu’il ne traite le sujet que de manière superficielle.
Considérant toutes les alertes levées ailleurs, on aboutit donc à un article à la limite de la fausse information, qui a pourtant été propagé sur plusieurs autres sites (et continuera à être propagé), amenant ainsi une dégradation d’image indûe pour AMD, qui n’en a pourtant pas besoin.
Quelqu’en soit la raison (flemme/manque de temps/simple inattention/parti pris éditorial), NXI fait ici le jeu des short-sellers et d’Intel, nuisant gratuitement à AMD dans l’immédiat (en légitimant du bullshit par la manière dont est traitée la news) et à nous à moyen terme (perte d’image = moindre concurrence).
Un traitement digne de NXI, ça aurait été soit une brève “Une société de sécurité publie un communiqué selon lequel plusieurs failles importantes auraient été découvertes dans les processeurs d’AMD. Nous reviendrons plus tard en détail sur le sujet, après analyse des informations fournies”.
Soit attendre et publier directement un article aussi fourni que ce qui a été fait pour les failles d’Intel.
Soit même simplement réécrire la présente news en pointant vers différentes sources françaises qui examinent dans le détail la réalité et la portée des failles décrites, comme Hardware.fr (pourquoi réinventer la roue ?).
Mais pas “je reprends limite tels quels les éléments de langage d’un communiqué en rajoutant une couche par dessus pour faire style que j’ai traité le sujet a minima en validant l’information, et basta”.
Si la news n’a pas été sévèrement corrigée d’ici cet après-midi, je serai, pour ma part, obligé de considérer ça non plus comme un simple loupé par manque de temps, mais comme une illustration supplémentaire du biais de David en faveur d’Intel, déjà relevé plusieurs fois par le passé, ou un simple manque de professionnalisme. Libre à chacun de se faire sa propre opinion. :)
Le
14/03/2018 à
18h
05
Ce que tu dis est assez vrai (100% pour le contenu, à moitié pour le chapô, moins pour le titre).
Mais au-delà de ça, c’est plus un problème de principe : la ligne éditoriale a toujours été me semble-t-il “laisser les charognards du web se jeter sur la première apparence d’information, laisser décanter tranquillement pour voir ce qu’il en reste”.
Et au vu des réactions lues à travers le web, les éléments immédiatement disponibles auraient dû suffire, pour un “amateur éclairé” ou professionnel (au vu de son métier et de la spécialisation de NXI, David est au moins dans la première catégorie), à lever un drapeau jaune et prendre le temps d’approfondir avant de publier.
Mais peu importe dans le fond, si une MAJ suit rapidement : il y avait effectivement beaucoup de sujets intéressants à traiter hier donc je peux comprendre qu’un sujet soit traité plus vite qu’il ne faudrait réellement. Mais dans ce cas prévoir une revue rapidement pour corriger le tir à la volée afin d’éviter de contributer à la propagation d’informations possiblement douteuses, pour rester diplomate.
D’où nos commentaires.
Le
14/03/2018 à
15h
40
Clairement, pour avoir pu prendre le temps de compulser un peu d’autres sources…
Désolé David d'être vexant mais le titre et le chapô sont des "putaclics" dignes de 01.net.
Je n'engage aucun préjugé d'intention, je suppose que tu as juste été trop court sur le temps disponible à consacrer à cet article particulier. Cela n'est pas pour autant acceptable.
L'intérêt de NXI, du moins pour moi et du ressenti que j'ai généralement, c'est justement que vous préférez publier des trucs intéressants, approfondis et FIABLES plutôt que de surfer sur l'urgence informative du moment, cf par exemple les excellents dossiers (ou gros articles de 4 pages, un peu rudes à lire mais qui me rassurent sur la pertinence du soutien ;)).
Et, je pense ne pas être minoritaire au sein de la communauté (en tout cas d'abonnés) en disant ça, je préfère 10000 fois (je les ai comptées) un article qui traite un sujet 5 jours après, mais bien, qu'un article comme ça qui paraît à peu près en même temps que les autres mais reste aussi superficiel...
Compte tenu de la visibilité et influence grandissantes de NXI à travers différentes sphères, une MAJ serait plus que nécessaire AMA pour… 1. Mettre un titre reflétant mieux le manque de fiabilité de l’étude. 2. Indiquer dans le chapô les différents éléments troublants relevés par la communauté en général (disclaimer “on a été payés” notamment). Ça me paraît le minimum pour que cet article soit digne de la réputation de NXI.
Le
13/03/2018 à
19h
51
Action sponsorisée par Intel? " />
De ce que j’en comprends, les failles ne touchent pas directement au code produit par AMD, mais par des technologies embarquées issues de tiers ? Ca leur apprendra à déléguer… " />
M’est avis que si les problèmes s’avéraient réels, les juristes vont fourbir leurs armes plumes bics claviers de tous les côtés…
Ca ne m’aurait pas étonné de toute façon qu’on découvre encore des bugs ou failles au coeur de Ryzen vu que c’est la première itération new-gen d’une boîte qui doit lutter avec 100 fois moins de moyens qu’Intel et nVidia…
Mais j’espère pour eux (et ahem pour moi " />) que ces éventuels soucis seront réglés à temps pour la mise en production de Ryzen 2. Même une MAJ de firmware a posteriori ce serait craignos vraiment…
EDIT : Après lecture en speed, et de ce que je peux comprendre, un bon gros tiers des failles ne concerne que des cartes-mères spécifiques donc je serais tenté de dire que ce n’est pas la faute d’AMD. En revanche, certains problèmes ont l’air intimement liés au coeur de processeur lui-même. :/
(Le bon côté des choses, c’est que ça arrive maintenant, plutôt qu’après mise en production/distribution de Ryzen 2. Tant mieux pour AMD quelque part).
A un jour près c’était la morale du jour ! " /> (coucou à nos ami-e-s féministes" />)
Le
09/03/2018 à
12h
55
Excellente nouvelle, l’arnaque est enfin présentée au grand jour…
Reste que je ne parierais pas sur une migration de masse, plutôt au mieux un mouvement d’environ 2-3% des gens actuellement sur ce type d’offre…
Déjà, si ça les dérangeait VRAIMENT de payer ce prix là, les mécaniques apportées par les lois de droit de conso des dix dernières années leur aurait permis de partir voir ailleurs en payant moins (tarif dégressif sur l’engagement restant). Ensuite, je doute fortement que le marché potentiel ait la même taille qu’à l’époque de la bataille Free/SFR. Beaucoup d’eau a coulé sous les ponts, les offres se sont gravement améliorées, les téléphones sont devenus suffisamment puissants et versatiles pour qu’un modèle de milieu de gamme de 2014 tienne encore bien la route aujourd’hui…
Où pourrait-on trouver une source indiquant la ventilation du marché selon le type d’offres ?
Les utilisateurs avertis savent très bien qu’il ne faut jamais acheter un produit le jour de sa sortie mais toujours quelques temps après, une fois la période de rodage et des premiers problèmes passés.
Pour ma part, je ne fonctionne plus que de cette manière.
Les problèmes à la sortie, il y en a toujours eu et il y en aura toujours, les clients étant toujours impatients d’acheter, les commerciaux impatients de vendre. entre les deux, il y a tout le microcosme technique/opérationnel/support qui ne cesse d’hurler qu’il faille corriger divers points, mais que personne ne veut écouter.
Je suis d’accord avec toi sur le principe général mais là ce n’est pas applicable. On ne parle pas de “soucis nuisant à l’utilisation du produit” type bug de pilotes ou quoi, on parle de ne pas pouvoir utiliser le produit DU TOUT !!
Pour le coup c’est proprement inacceptable de la part d’AMD et profondément débile de leur part. Je me doute bien que la responsabilité du désastre est partagée entre AMD, partenaires constructeurs de cartes mères et distributeurs (LDLC mérite une baffe également, l’information est clairement insuffisante dans le cas présent, ça dépasse largement ce qu’un utilisateur, même averti, peut anticiper comme difficultés sur l’achat de matos au détail)…
Mais dans les faits, AMD ne pouvait prétendre ne pas savoir qu’il serait le premier pointé du doigt en cas de soucis. Ca reste leur produit avant tout. Ils auraient dû s’assurer que tous les constructeurs étaient d’équerre, que les stocks d’anciens étaient en voie d’épuisement ou épuisés, et agir eux-mêmes dans le cas contraire… En retardant la mise sur le marché des nouveaux processeurs.
Cela aurait toujours mieux valu d’attendre 3 mois de plus et ouvrir les vannes pour que tout le monde y boive, que de les ouvrir au jour prévu et risquer un reflux de type “buvez pas cette eau elle est dégueulasse” durable…
Bref, AMD a clairement réglé ses problèmes internes dans les équipes de dev, et a aussi beaucoup progressé côté marketing même si il y a encore des trucs bien fumeux. Reste plus qu’à s’attaquer à l’équipe commerciale…
Arriver à se tirer une roquette dans les couilles en tenant le bazooka qui pouvait proprement dézinguer la concurrence sur tout un pan de marché, fût-il petit, c’est digne du AMD des pires années… :/
Là, c’est pas une critique, c’est une exécution sommaire.
Et ça confirme la piètre opinion que l’on pouvait avoir du film au vu de sa bande-annonce…
Il faut justement leur reconnaître cette qualité : ils font des trailers suffisamment révélateurs de la qualité d’ensemble pour ne pas nous faire culpabiliser de ne pas leur donner leur chance. " />
Charly32 a écrit :
Ce qui est vrai. Le film est bon, mais ça aurais très bien pu être les aventures de Jean-Michel et Jean-Jacques dans le désert que ça n’aurait pas changé grand chose.
De toute façons, je reste persuadé que le BD avec le style de l’école de Marcinelle ne sont pas adaptables au cinéma sans dénaturer l’œuvre : trop de gags graphiques et d’humour subtil intranscriptible.
A la limite en dessin animé, ça passe mieux, car on garde le côté graphique (même si des blagues passent à l’as).
Marrant, j’aurais dit exactement le contraire moi. Si tu vires environ 10 mn réparties sur le film qui sont effectivement de purs clins d’oeil en mode “private joke” de Chabat et ses potes, ou des longueurs dispensables (type combat entre architectes), dans l’ensemble le film respecte aussi fidèlement l’esprit de l’oeuvre d’origine que peut le faire en général un film adaptant une bd (ou un film d’animation en l’occurence, que je trouve absolument mythique).
Prends par exemple la scène de la construction “sous potion” : reprendre la musique d’origine ? Casse-gueule (sans parler des soucis de droits). Délaisser cette scène magistrale ? Trop dommage.
La mise en scène d’Alain Chabat garde complètement l’esprit de la scène d’origine (construction sous amphet, c’est la fête !) tout en la “traduisant” avec les codes culturels du cinéma d’époque, notamment en bande-son.
La pyramide ? C’est limite trop fidèle pour le coup, même les “plans de caméra” sont pour beaucoup copiés sur le dessin animé. Mais du coup ça produit un effet madeleine de Proust.
Même les scènes “rajoutées”, si elles transpirent clairement la patte “Chabat” et pas la patte “Astérix”, collent suffisamment dans le sens où ça reste généralement de l’humour relativement fin. Il n’y a que deux-trois trucs de type “Itineris j’te capte plus” qui, quoique bien trouvés, cassent complètement l’immersion pour le coup…
Pour ma part, ça restera insuffisamment intéressant parce que je
veux vraiment une machine polyvalente “dans la puissance”, y compris sur le taff, et mes
usages “multithreads” vont en s’intensifiant… Donc je ne couperai pas
au 8 coeurs si je monte une toute nouvelle machine…
Mais quand je vois le public de gamers potentiels, assez investis dans leur loisir pour vouloir de la qualité, mais assez raisonnables (intelligents ? Je sais préjuger c’est mal) pour ne pas claquer des fortunes juste pour le principe du concours de bite de Gigaflops….
Que je vois une puce qui propose des performances tout à fait décentes dans tous les domaines, et suffisamment de ports pour couvrir 70% des besoins courants sous réserve d’un hub USB pour le jeu (manettes ^^) ou usages pro nécessitant périphériques dédiés…
Et que j’y associe la (2ème ? 3ème ? Peut-être la bonne cette fois) tentative de constructeurs d’enfin proposer le demi-graal de tout gamer soumis à de fortes contraintes de mobilité, à savoir la carte graphique déportée (même si on perd en perfs malgré tout, et que la marge de progression en termes d’encombrement reste, pour être poli, confortable " />), je vois bien un fort potentiel, en combinant différents publics de niche (qui ont tendance à être prescripteurs pour leur entourage)…
les gens dont la machine principale doit être un portable…
les gens qui veulent un serveur web/cloud/multimédia/émulateur/jeux DIY
ceux qui veulent juste un truc qui marche correctement pour les besoins courants
ceux qui ont un besoin précis mais un budget limité et acceptent de rogner un peu sur le temps d’exécution ou le rendu dans les grosses charges (certes, pas ceux dont le gagne-pain dépend des perfs du coup ^^)
ceux qui, sans avoir un réel besoin concret de compacité, le recherchent quand même pour des raisons pratiques et esthétiques…
Le public ainsi rassemblé est pas dégueu. :)
Le
13/02/2018 à
21h
43
Non mais je ne critiquais pas le bien fondé du constat porté par ta phrase en elle-même, c’était factuel. " />
On a en effet toujours plus de chances de trouver son public quel qu'il soit en période de rentrée (même si généralement post-vacances les économies sont bien entamées XD).
Je n'ai sans doute pas utilisé la meilleure tournure de phrase. :)
Disons alors que les hausses de prix relativement certaines ouvrent des perspectives intéressantes pour ces APU pour compenser le loupé de créneau initial.
(Soit dit en passant, ne serait-ce pas par exemple un compromis idéal en utilisation multimédia de salon avec option déport d’un Steam sur bête de course ? Je sais que le Steam Link fait à priori le taff, mais ça reste limité… Et le Raspberry Pi, même si le ticket d’entrée total (en comptant le reste des pièces) reste d’environ 6 fois inférieur pour un encombrement de même gamme, me semble avoir des performances (et donc une diversité d’usages) bien bien inférieure, non ?
Le
13/02/2018 à
01h
34
“Au final, ces APU basés sur l’architecture Ryzen
semblent intéressants. Ils arrivent un peu tard sur le marché, mais
intègrent des évolutions bienvenues de l’architecture, tant du côté de
la gestion de l’énergie que de la fréquence, ainsi qu’une finesse de
gravure légèrement améliorée.”
Vraiment ?
J’aurais plutôt tendance à dire que c’est ce qui va leur donner un boost…
Certes, la rentrée et les fêtes de fin d’année, deux périodes propices aux gros investissements, sont passées, et avec elles une bonne fenêtre de tir…
Mais le marché était-il vraiment là ?
Les gamers désireux de se payer une config durable n’auraient de toute façon pas regardé dans cette direction, quand le meilleur combo, et de très très loin, est un Rizen 1700/1800x (ouioui, bien ça, pas un i7) avec une 1080 de Nvidia.
Les personnes normales, désireuses de se payer un pc multimédia, se seront sans doute pour une majorité tournées vers des offres préassemblées, faute de connaissance ou d’envie de s’y plonger.
Mais aujourd’hui ?
Pour toute l’année à venir, on nous promet au mieux une stabilisation, au pire une poursuite de la flambée des prix sur tous les composants en général, et la carte graphique + mémoire vive en particulier…
Pour tous ceux qui veulent / requièrent une mise à jour, le ticket a globalement pris minimum 30% par rapport à l’année dernière, même sur une cible “pc multimédia”.
A ce titre, AMD est le seul à proposer une solution tout en un capable de pleinement satisfaire aussi bien les besoins bureautiques classiques (navigation internet, suites bureautiques, compression de fichiers) que les besoins professionnels courants.
Exemple :
communication = jonglage entre retouche photo, montage vidéo, administration de site web ou
dev = une machine virtuelle, deux ou trois serveurs applicatifs (dev/preprod/copie de prod), navigateur multitâche (chat/bugtracker/board).
designer = retouche photo et vidéo, gestion de projets, mails etc…
Certes, dans l’absolu pour un développeur par exemple on préférera investir dans une machine plus puissante au moins niveau CPU, idem version GPU pour les graphistes, mais cette alliance de puissance et de diversité
permettrait à un gestionnaire envisageant le renouvellement des machines une montée en gamme pour >40% du personnel (dans le pire des cas. Dans le meilleur, ça pourrait grimper à >70%), à faible coût et sans se poser de questions.
Moins d’hétérogénéité = moindre coût d’achat (+ de volume = + de rabais), moindre complexité d’entretien et de maintenance, on pourrait même pousser le vice et partir sur des mini-machines : soit pour une raison de sécurité (facile à transporter et stocker, donc dans salle sécurisée), soit pour une raison de flexibilité (un salon ? Le PC de démo dans la poche, manque plus que l’écran en tube déroulable façon papyrus ^^).
Quand je vois les pc qu’on s’est traîné dans mon ancienne boîte pendant des années (pourtant d’édition logicielle) sous prétexte que c’était cher… Pour ce type de management dur à la comprenette (le bon outil ne fait pas le taff pour nous, mais il nous aide bien quand même XD), c’est un excellent produit.
Encore faut-il que la démarche commerciale suive… Et là on tombe dans la grosse faiblesse d’AMD : image ternie par des années de vache maigre, puissance de frappe commerciale bien faiblarde comparée à Intel…
Pareil pour le particulier : si les constructeurs sont pas trop débiles, ils vont bien proposer des machines petites et complètes à 500 boules ttc. Et maintenant que les gens n’associent plus “petitesse” et “puissance famélique” et au contraire recherche le faible encombrement (ou au moins l’esthétisme), il y a aussi un gros marché.
Pour le coup je ne partage pas ton “optimisme” (ce n’est pas le mot approprié mais tu vois ce que je veux dire).
Autant je comprends que Macron aie tendance à mépriser les journalistes “en général” (je lis des torchons à peu près sur tous les “grands journaux d’information”, il y a des “journalistes” qu’il faudrait renvoyer en primaire), autant je ressens tout de même une tendance de fond à vouloir réellement contrôler l’information qui circule.
Si tu ajoutes à ce ressenti, tout à fait personnel il est vrai, la haine viscérale et factuelle que portent bon nombre de politiques et de dirigeants de grands groupes envers un média qui a, par essence, le moyen de 1) leur mettre le nez devant leur propre merde, comme les chatons et 2) s’assurer que les gros foutages de gueule réellement mauvais pour le monde en général persistent dans la mémoire collective…
Je trouve que ce type de disposition, sous couvert de “regardez on est raisonnable d’ailleurs on fait appel à des gens normaux” constitue un parfait cheval de Troie pour un contrôle d’opinion plus insidieux (et àma plus efficace) que de “simples” désindexations ou blocages.
Pour ma part, Firefox 52 ESR, session d’environ 120 onglets dont ~20 chargés, 1 Go, fluide, sous Windows…
Sous Linux, la machine encaisse 4 ou 5 profils lancés concurremment avec chacun des dizaines d’onglets et ça ne bronche pas (jamais regardé la conso de RAM par contre ^^).
Firefox a toujours été le meilleur de tous pour moi, spécialement au niveau de la RAM consommée (avec Chrome en mode gros boulet derrière, 1 Go pour genre 10 onglets ouverts, n’imp), même si sur le rendu des pages clairement il a toujours été lent par rapport à Chrome… Mais bien suffisant pour mon usage.*
* A quoi sert d’avoir une page qui se charge super vite si de toute façon on la précharge en nouvel onglet pendant qu’on en lit une autre ? J’ai toujours ressenti de “l’instantané” grâce à cette méthode. " />
Les fichiers personnels, placés opportunément dans un dossier “Personnel et Confidentiel”, ne PEUVENT PAS être lus par un employeur, que ce soit manuellement ou automatiquement. C’est ILLEGAL (sauf bien sûr mandat obtenu dans le cadre d’une action en justice).
Je ne sais même plus si l’employeur peut t’obliger à ouvrir ton dossier pour qu’il le consulte en ta présence : il me semble que cela ne doit être possible que s’il peut démontrer de fortes présomptions de présence de contenu illégal, mais pour le coup je laisse les INpactiens qui bossent dans le domaine du droit social préciser/corriger (mes connaissances sont trop vieilles, je ne fais plus de veille ^^).
Et il est tout à fait illusoire, même contre-productif, de demander à ce qu’un employé évite toute donnée personnelle. À fortiori lorsque le réseau de l’entreprise bloque un certain nombre de sites externes de type hébergeur distant de données ou webmail.
L’employé perdra bien plus de temps à essayer de placer ses données dans un endroit “non-professionnel” plutôt que juste claquer tout en vrac temporairement dans un dossier privé qu’il nettoiera/videra plus tard, potentiellement à son départ.
Donc oui, la question de données personnelles au boulot a du sens, et il est inacceptable que l’on subisse des conditions d’utilisations pour un logiciel que l’on est forcé d’utiliser.
(Je dis on par empathie, moi j’ai pas de soucis, j’ai choisi une entité où ils savent apprécier les vrais OS efficaces pour le taff et respectueux de leurs users " />).
L’employeur a le droit de surveiller les connexions réseaux, et c’est une bonne pratique de gestion. En revanche il n’a jamais le droit d’aller consulter le contenu d’un fichier qui serait issu de ton webmail perso par exemple.
Je tourne régulièrement avec 3 ou 4 instances de Firefox correspondant à des profils différents, chacun ayant une session dépassant allègrement les 60 onglets (ça peut monter facile à 150 en pointe dans la journée quand je fais des recherches tous azimuts) et mon système n’a jamais bronché.
Il est vrai que…
Je suis sous Linux.
Je n’ai que les trois extensions qui changent la vie : Tree Style Tabs, Multiple Tabs Handler, HUGO (qui ne sera pas porté sur 57+).
Pour moi Firefox a toujours été le plus robuste des navigateurs, et ce depuis 10 ans.
Chrome est certes incomparablement plus rapide à charger une page unitaire bien lourde, mais il flippe dès qu’on commence à charger la barque, et coule en tout juste 40 onglets (chez moi en tout cas ^^)… " />
Le
24/01/2018 à
14h
32
DHMO a écrit :
« Aaaargh ! un “iels”, je suis agressée ! » (La langue française.)
C’est vrai que c’est brutal comme procédé. " />
Patch a écrit :
Parce qu’agresser volontairement la langue francaise à coup de féminazisme parfaitement débile, c’est mieux? " />
Heu désolé Patch mais pour le coup je suis d’accord avec lui (même si l’écriture inclusive m’horripile tout autant que toi), ta réaction est disproportionnée dans les grandes largeurs. Bref…
Pour en revenir au sujet, je suis bien content pour eux, mais personnellement j’ai complètement lâché Firefox… 57+.
Trop d’extensions encore insuffisantes, et je me suis fait piéger par la MAJ forcée d’Ubuntu à cause de Meltdown (bande de putain de gros bâtards qui mettent à jour TOUS les paquets de manière forcée alors que seul le noyau suffisait -et sans prévenir en plus-).
Les politiques de terre brûlée ça va un moment. Certes ils ont eu une communication correcte mais ils auraient vraiment mieux fait de faire une “branche” dédiée ou alors fournir un mécanisme propre de revert en cas de soucis constatés avec les extensions déjà installées.
Bien qu’étant moi-même suffisamment “connecté” pour ne pas souffrir du système actuel, je ne peux qu’approuver une telle mesure dans le principe.
Hélas, on retrouve le travers quasi-systématique du pouvoir central "après moi le déluge" : s'ils ne prévoient pas de compenser le manque à gagner, s'ils ne prévoient pas un délai raisonnable de mise en oeuvre avant coercition (2-3 ans), on risque d'être confronté en tant que citoyen à des hausses brutales de taxes locales...
Mais c'est sûr, ça les concerne bien moins, puisque pour les administrés qui ne cherchent pas à s'informer (j'ose -hélas- affirmer que ça recouvre une majorité), il n'y aura pas de corrélation, juste d'un côté "le gentil gouvernement a forcé les méchantes administrations à se rendre gratuites", de l'autre "les méchantes administrations ont augmenté le poids fiscal".
EDIT : Je n’avais pas relevé à première lecture ce passage savoureux :
Je crois qu’il y a cet engagement qui vise à penser que nos concitoyens, pour l’immense majorité d’entre eux, ne sont pas, ou des fraudeurs, ou des gens qui souhaitent profiter du système,
À replacer dans le contexte ambiant de contrôle accru des chômeurs parce que eux en revanche, évidemment ce sont tous de potentiels profiteurs en puissance… " />
Non je ne fume pas, je ne suis pas encore assez con pour payer pour voir ma santé partir en fumée. Pour les chiffres des soins, va voir n’importe quel service des urgences, ils se feront un plaisir de te répondre. Par contre ne sois pas étonné, généralement ca se compte quand c’est pas cher à qques dizaines de milliers d’€, uniquement pour la partie urgences.
Par contre j’ai déjà vu un mec qui avait la peau du pied retournée (déchirée au niveau du haut du talon jusqu’au milieu du pied), j’ai juste failli dégueuler dans la seconde qui suivait… Et lui n’était pas sûr de pouvoir reposer son pied à terre un jour, ni d’arrêter d’avoir mal. Il a chuté à environ 30km/h. En tongs. Mais tu as totalement raison, les bottes comme le reste, ca sert à rien.
Essaie de crever proprement et à un endroit facile à nettoyer, alors. Ca fera moins de frais pour nous.
PS : ce n’est pas du cynisme ni du sarcasme, je suis très sérieux quand on me raconte des énormités comme ca.
J’ai enfin rattrapé les 250 commentaires de retard, je n’ai malheureusement rien à ajouter de pertinent, mais je veux au moins mettre un gros +10 à ce commentaire.
Tant pis si on me traite de cynique ou de crevard, mais les gens qui cherchent les emmerdes, j’aime autant qu’ils se loupent pas, il y a bien assez à faire avec les gens qui se prennent des problèmes de santé sans raison. :bye:
Pareil pour les fumeurs : si cela était techniquement possible sans monter une putain d’usine à gaz -un comble pour lutter contre la clope-, je serais gravement pour le fait de virer les taxes mais avoir un suivi de consommation, et le mec qui dépasse les 300 clopes à l’année en moyenne, bah il n’a juste droit à aucun remboursement des frais médicaux quand il se prend son cancer. Qui sème le vent…
Mais entre le fait qu’un cancer peut avoir plusieurs causes, le tabagisme passif qu’on ne peut éviter (coucou les enfants ! " />), et le fait qu’il serait en pratique ingérable de mettre un tel contrôle en place sans avoir des caméras partout… On va laisser tomber. ^^
Le
09/01/2018 à
12h
37
Et sinon, vous pouvez aussi réaliser qu’il y a un mouvement de fond visant à bouter la voiture hors des villes et des campagnes (la pertinence de ce mouvement est un autre débat dans lequel je n’entrerai pas), et qu’il s’agit d’un des moyens les plus fourbes mais les plus efficaces pour ce faire… " />
Autant en campagne il n’y a vraiment pas le choix, autant en ville, sérieusement, le vélo électrique c’est le bien dans 80% des situations ;). Restent les cas d’usage “courses d’un mois”, “taxi privé” (déposer/reprendre des gamins), “déménagements”, “distance supérieure à 15 Km” et quelques autres qui m’échappent pour lesquels les vélos (problème de confort/temps) comme les transports en communs (problème de desserte) sont inopérants, faute de pouvoir combiner les deux…*
* Sauf à investir dans un vélo à la fois électrique et pliable, et ne pas avoir d’autres trucs à transporter en plus, ce qui réduit ‘achement le public potentiel quand même tristement…
Une vraie politique publique de transport écolo, ce ne serait pas seulement des pistes cyclables, mais aussi faciliter l’intermodalité avec des rames adaptées… M’enfin ça arrivera dans 30 ans. :)
Le
09/01/2018 à
11h
40
Boarf…
Limitation de vitesse à 80 km/h, connerie sans nom : ça n’empêchera pas les accidents vu qu’à cette vitesse, si tu as un accident, c’est très généralement dû à l’inattention ou le non-respect du code par un conducteur, donc 10 Km/h ne changeront rien à l’affaire. Et sinon c’est vraiment la faute à pas de chance (obstacle impossible à anticiper genre animal qui surgit brutalement) donc ça ne changera rien non plus.
Ce qui changera, c’est la gravité de l’accident : dans une petite proportion des cas, on évitera les morts.
Ce qui coûtera plus cher à la Sécurité sociale au final, et il n’est même pas dit que l’issue soit plus heureuse pour les accidentés non plus (paraplégique à vie ou mort instantanée ? Je laisse chacun choisir).
Bref, pour que réellement la mesure puisse être considérée comme utile, il faudrait de vraies courbes statistiques montrant une baisse significative sur toute l’échelle de gravité (accidents mortels, accidents “séquelles à vie”, accidents “arrêts longue durée”, etc) rendant le choix pertinent à tous points de vue.
Quant à la suspension de permis…
Au-delà du bien-fondé de principe (lutter contre l’inattention au volant) et la putain d’hypocrisie de fond qui l’accompagne (GPS sur mobile, manipulations des auto-radios, kits mains libres, autres causes d’accident bien plus importantes etc)…
Je ne serais pour qu’à condition que la sanction ne puisse être prise qu’en cas de contrôle direct, et non pas vidéo-verbalisation : parce qu’au moins là il y a un humain qui aura pu prendre la pleine mesure du contexte pour jauger de la gravité de la faute en fonction de la situation.
Mais franchement, à ce compte là, ce n’est pas le permis qu’il faudrait suspendre, c’est la voiture : parce qu’on peut conduire une voiture sans permis, mais on peut difficilement conduire une voiture sans voiture " />
Très vrai, j’avais oublié ça (d’autant plus con que j’ai déjà eu l’occasion d’en croiser). " />
Et effectivement pour le coup ça me semblerait bien plus pertinent comme investissement quitte à remplacer des panneaux… Sauf qu’il faut prévoir la logistique qui va avec derrière si on veut vraiment exploiter l’idée de vitesse limite adaptative en fonction de l’état de la circulation. ;)
Je serais donc curieux de connaître le coût total de possession d’un système de signalétique de vitesse dynamique. ^^
Le
10/01/2018 à
14h
34
esver a écrit :
Vivement les voitures autonomes… Ils pourront augmenter les vitesses quand tout le monde en sera équipé.
Heu, ne rêve pas, la voiture autonome comme moyen de locomotion individuel, ça n’arrivera jamais, et heureusement : c’est une hérésie totale en termes économiques et environnementaux, sans parler des enjeux majeurs en termes de sécurité intérieure.
Notamment parce qu’au final, le véhicule individuel en soi est devenu un concept non soutenable au 21ème siècle du fait de l’explosion démographique et de tout l’accroissement de la consommation des ressources naturelles en général. Heureusement, les nouvelles générations arrivent bien plus détachées de la voiture que nos générations et celles d’au-dessus : les constructeurs ont beau marteler leur marketing pour te vendre la voiture comme extension de soi, le budget n’étant pas extensible, le coût de possession étant de plus en plus élevé, on va plutôt vers une réduction du parc, au grand dam des boulets (pardon, patrons) qui ont préféré se mettre des oeillères plutôt qu’anticiper une reconversion dès les années 90.
Ce qui va arriver et a un sens, c’est le véhicule autonome décliné en de multiples variations en termes d’espace et d’aménagement intérieur pour grandement renforcer l’offre de service de transports actuelle (notamment les taxis / cars) et venir combler tous les usages de niche…
Par exemple : transport ville à ville sur une durée de 8 à 10 heures effectuée de nuit : actuellement on a le train de nuit (grosse limitation sur les trajets desservis et horaires, prix), car de nuit (moindre limitation et moindre prix mais confort nettement inférieur). Plus le coût d’entretien dédié dans le premier cas.
Si demain une entreprise aux reins solides lance une flotte de taille adaptée au périmètre géographique couvert (ex 50 000 véhicules pour des trajets internes à la France), tu peux très bien imaginer un service de “taxi longue durée” porte à porte, dans un véhicule aménagé façon chambre d’hôtel (cf notamment le concept de Toyota E-Palette, eux ont parfaitement pigé le véritable potentiel du véhicule autonome).
Ou encore covoiturage adaptatif pour une flotte localisée, un système central permettant d’optimiser un parcours agrégeant de multiples trajets individuels (des villes proposent déjà du “transport individuel à la demande”, les voitures autonomes pourront faire beaucoup pour ça).
ArchangeBlandin a écrit :
Je le vois plutôt comme ça :
On pourra dormir au lieu de se faire chier pendant des heures à surveiller son compteur de vitesse et les limitations qui changent tout le temps des fois pour pas grand chose, même sur autoroute (faire le tour d’Angers donne une idée du problème).
Et il faudrait que tout le monde change de véhicule, et il y aurait encore les voitures dites “de collection” je pense qu’on revoit ça dans 30 ans minimum pour faire le point sur la situation.
Sinon, on peut aussi se dire qu’avec le réseau autoroutier qu’on a, on pourrait déjà augmenter les vitesses, et ça n’est pas l’automatisation des voitures le plus grand progrès, mais l’efficacité du freinage des voitures, la réduction notable des dégâts constatés sur les mannequins dans les crash tests, la tenue de route générale.
Bien sûr, pas tous les tronçons d’autoroute, mais on pourrait avoir des limitations variables, comme font les allemands, sur des autoroutes sélectionnées avec soin. Quand c’est chargé, les limitations s’affichent (comme on fait déjà pour la régulation du trafic sur l’A6 en fait), pareil quand il pleut, qu’il gèle, et quand tout est clair, la limitation peut être augmentée (ou retirée).
Dans un autre monde, on aurait pu tenter de responsabiliser les gens et de leur faire adapter leur conduite à la situation, mais apparemment, la proportion de personnes qui suit plus les panneaux de limitation que le virage qui suit ou le manque de visibilité est trop importante. Parce que ralentir avant un virage ou par manque de visibilité, ça n’est pas naturel pour tous.
Cf ci-dessus pour l’aberration de la voiture autonome individuelle.
Quant à l’augmentation de la vitesse sur les routes, c’est tout autant une aberration. Même en mettant de côté l’impact sur la consommation (soyons optimistes et considérons que les batteries des véhicules électriques vont doubler leur autonomie effective d’ici 20 ans, pas forcément déraisonnable quand on voit la multitude d’essais sur de nouvelles technos) et la pollution (idem, on peut parier sur des progrès en réduction d’émission de polluants), il serait contre-productif d’augmenter la vitesse de manière générale tout simplement à cause de la recherche d’optimisation du débit.
Si tu augmentes la vitesse sur autoroute, tu réduis le temps nécessaire pour la traverser, donc tu augmentes mécaniquement la concentration de véhicules en agglomération à une même période donnée. A fortiori dans le cas hypothétique où tout le monde serait en 100% autonome, avec une sécurité tellement efficace et fiable que tu n’as pas besoin de trop augmenter la distance de sécurité en proportion. Et à fortiori en tenant compte du fait que les contraintes en agglomération sont fixes (on ne pourra jamais aller au-delà de 50 simplement pour des questions de sécurité envers les personnes non motorisées, et la tendance est même à diminuer la vitesse).
Le choix initial des limitations de vitesse, c’était un équilibre délicat à déterminer en fonction des technologies et contextes d’urbanisation de l’époque, entre maintien de la sécurité des citoyens et maximisation de la fluidité de la circulation.
Qu’est-ce qui a changé entre-temps ?
La sécurité issue des technologies de conception a bien augmenté : on pourrait donc dire qu’on peut augmenter le débit en réduisant la distance de sécurité, ou en augmentant la vitesse max, ou les deux.
Cependant, la population a également bien augmenté, dans une proportion sans commune mesure. La concentration de population dans les grandes agglomérations encore plus.
La taille et le nombre des voies à grande vitesse a certes également augmenté, mais pas du tout dans les mêmes proportions.
De fait, le ratio “quantité d’éléments à faire passer” / “infrastructure effective” n’a pas évolué dans un sens permettant d’augmenter la vitesse pour toute la population, bien au contraire… :)
Ce qui serait envisageable en revanche, à moyen/long terme, ce serait une voie réservée à tous les transports en commun autonomes (même si “individualisés” comme la voiture autonome évoquée plus haut) pour laquelle la vitesse est totalement débridée. Mais compte tenu de tout ce que ça implique en termes d’aménagements nécessaires (et accessoirement d’évolutions des mentalités et des pratiques) ce ne sera pas pour tout de suite. ^^
Et c’est pour quand la même chose pour tous les Android qui ne sont jamais mis à jour
Car la bon ok il y a ralentissement mais ils sont à jour
Rien à voir à priori, les ralentissements peuvent provenir…
De l’usure naturelle de la mémoire interne (note : je serais grave pour une possibilité de la remplacer facilement, mais c’est un autre sujet).
De l’usure naturelle de la batterie (et là tu ne peux vraiment t’en prendre qu’à toi-même si tu as un Android : tu n’avais qu’à avoir l’intelligence de privilégier un téléphone pérenne avec batterie accessible en deux mouvements plutôt qu’un téléphone kikolol “oh mon dieu qu’il est fin je kiffe”).
De l’incapacité (pour quelque raison que ce soit) des concepteurs de tes différentes applications installées à sécuriser/enrichir leurs applications sans leur faire consommer plus de ressources.
misterB a écrit :
Apple devrait, comme bcp d’autres constructeurs, simplement ne plus mettre a jours les anciens models, ça éviterait les problèmes " />
Apple devrait, comme tout constructeur respectueux des consommateurs et l’environnement, concevoir des téléphones dont on peut changer soi-même les pièces à courte durée de vie comme la batterie, ça éviterait les problèmes.
(En bref on pousse rapido un patch bourrin qui “comble” la faille sans distinction de proc, et quand après AMD propose un “patch de patch” juste pour préserver ses processeurs on le met à la saint-glinglin alors que le “correctif” affecte lourdement ses performances sans raison puisque la faille n’est pas présente).
Ça m’intéresserait de connaître les raisons de cette gestion, si c’est juste du La Rache comme souvent ou s’il y a des enjeux cachés derrière. ;)
Le
03/01/2018 à
12h
45
[QUOTE]Intel, qui a participé aux correctifs, semble directement concerné, AMD ayant de son côté indiqué ne pas être touché. [/QUOTE]
Ça prouve bien ce qu’on savait depuis longtemps : ce sont AMD les meilleurs ingénieurs mais plombés par un marketing pourri, tandis que c’est l’inverse chez Intel " />" />
Sinon, j’espère sincèrement qu’AMD en profitera, qu’on rééquilibre autant que possible les parts de marchés (même juste 1-3% ferait toujours plaisir). ^^
les gars, même quand ils publient les données, vous ralez. Tout le
monde n’est pas à l’aise avec les formats de données info, dans la vie :
c’est pas parce qu’on pond une loi que du jour au lendemain vous aurez
des données structurées propres en csv ou en base SQL….
Maintenant les données sont la, donc si vous voulez les exploiter vous vous sortez les doigts…
+1000
Vous n’êtes jamais contents, alors que c’était tellement prévisible…
Je trouve d’ailleurs dommage le dernier paragraphe de l’article en mode “on vous a à l’oeil” alors que, considérant la somme des données et le “passif relationnel” entre NXI et HADOPI, je trouve le délai de traitement de 3 semaines plus que raisonnable.
Un p’tit “Cette première étape de la mise en oeuvre de l’open data doit être saluée, et constitue sans doute le point de départ d’une industrialisation de fond” (ou autre truc du genre) aurait été bien plus approprié.
Ça ne fait pas table rase du passé, mais ça montre qu’on est prêt à reconnaître l’effort nouveau et essayer d’avancer ensemble dans une direction positive.
Mais bon, il semble difficile à l’équipe de prendre du recul sur leurs problèmes relationnels personnels. ^^
Sheepux a écrit :
Je viens de voir le CSV… j’ai vomi quand j’ai vu du multi structure. Des “titres” de section, aléatoirement en colonne 1 ou 2.
Une envie de rager simple.
Je verrai en fin de journée si j’ai suffisamment la rage pour préparer un powerquery qui exploite tout ça automatiquement
Voilà le résultat, à critiquer sans recul les réticences des administrations à fournir les données, on se prend une déconvenue pourtant ultra-prévisible…
Il n’y a pas seulement des gens qui craignent que les données mettent en relief leurs éventuels échecs ou défaillances…
Il y a aussi des gens responsables qui sont pleinement conscients du fait que leurs données sont dans des formats dégueulasses, et qu’il faudra(it) un bon gros chantier des familles pour mettre tout ça d’équerre afin de les rendre exploitable par le citoyen sans nécessiter un bagage d’ingénieur informaticien (ou analyste confirmé)…
Il est donc illusoire et relativement vain (en plus de relever d’un comportement un poil infantile) d’espérer que les administrations publient au plus vite toutes leurs données : ça ne ferait que laisser un goût amer pour tout le monde : côté citoyen qui récupère un truc inexploitable, et l’administration qui aurait consacré un certain poids d’investissement pour au final se faire rembarrer par le citoyen.
(Ce n’est pas toi que je vise ici hein, mais tous ceux qui gueulent en général sur le fait que “ouh c’est trop lent”: à tous ceux là, je renvoie la politique Debian: when it’s -well- done).
Cela dit, je te remercie de ton initiative à titre personnel. ;)
Très bonne année à tous, longue vie à NextInpact ;)
A propos de la Presse Libre, il pourrait être intéressant de faire “remonter” en tête les news/dossiers que vous y aviez consacré pour ceux -ahem comme moi- qui voudraient (re)découvrir le système et l’offre. Ce serait aussi l’occasion de faire un retour d’expérience “groupé” des cofondateurs comme des nouveaux arrivants par un article ou interview dédié(e).
Bref, bon courage pour cette nouvelle année, en espérant que la courbe des abonnements poursuive sa croissance ;)
Ah pardon, à tou.t.e.s (j’aurai essayé cette merde infâme chouette innovation idée intéressante pour la trêve de Noël mais en vrai, il suffit de dire à toutes et à tous… :))
Gaffe à pas trop abuser du foie gras / chocolat / champagne / autre, n’oublions pas qu’au fond, Noël n’est qu’une préparation au Nouvel An (avec plus de cadeaux et plus de règlements de comptes familiaux XD).
Sur ces paroles d’optimisme, je vous laisse, vais finir d’emballer les cadeaux (15mn avant le moment fatidique, on est large ;)).
J’ai beau trouver à titre personnel dommage que l’on empile des dossiers en plus au Conseil d’Etat, je ne peux que respecter (approuver ? :)) la démarche, en espérant simplement que la réponse du Conseil d’Etat sera aussi constructive (pas de sanction financière mais rappel à la loi pour marquer le coup, éventuellement assorti de délai d’exécution).
J’apprécie particulièrement l’information que vous apportez sur la plate-forme open data, dont j’avais loupé l’existence (vu que vous en aviez certainement parlé). Cela ne résout pas le problème de fond (structurer dans le temps la mise en publicité) mais pour une urgence ponctuelle, effectivement…
Le souci néamoins reste dans la portée de la loi adoptée : si je ne me trompe pas, les données mises à disposition doivent l’être dans un format ouvert et réutilisable. Il est logique et bienvenu que ce soit l’objectif final, mais du coup que se passera-t-il pour une administration qui aura fait l’effort de mettre à disposition ses données peu après communication individuelle, mais du coup au format “pourri” Microsoft ou PDF par exemple ?
Je regrette également que n’aient pas été mis à part les questions relatives au code source des logiciels utilisés. La plupart n’ont jamais été prévus pour être publiés. Pour ceux qui fonctionnent en vase clos, je suppose que le risque est moindre, mais ceux qui sont exposés sur internet seront non seulement vulnérables aux failles de sécu, probablement nombreuses (manque de moyens de bout en bout pour assurer la qualité de code), mais en plus ils risquent de créer des points d’entrée pour attaquer plus avant dans le système (enfin, là je parle en théorie. Aucune idée de la surface d’attaque en réel, considérant le gros boulot de documentation et d’accompagnement de l’ANSSI).
Tu racontes n’importe quoi, mais ce n’est pas étonnant pour un Freeboy
1- En 3G avant Free tous les opérateurs couvraient déjà très bien le territoire (90%). Ils ont eu du retard à l’allumage mais ont été rappelés à l’ordre par l’ARCEP (donc indépendamment de Freeà
2- Quand à la 4G, les licences ont été attribuées en même temps que l’arrivée de Free et la pour le coup tous les opérateurs ont été en avance sur les obligations fixées par l’ARCEP
3- En parlant de s’engraisser tu peux nous dire quel est le taux de déploiement de la couverture fixe de Free à l’époque ?
Free se contentait de desservir les zones les plus rentables, se gardant bien d’investir dans celles les plus reculées (en gros Free à fait dans le fixe, ce que tu reproches aux 3 gros dans le mobile)
Pfff. J’ai rédigé une vraie belle réponse mais en édit du com précédent, et du coup oublié la limite d’édition…
Tant pis je vais la faire courte.
Jamais dit le contraire, mais c’est bien le problème : ils se bougent le cul qu’avec le flingue sur la tête, c’est pitoyable.
Bien sûr, c’était le seul moyen d’éviter l’hémorragie : trouver un moyen de proposer un ratio qualité / prix significativement meilleur que Free, et le seul moyen c’était la 4G (tout comme la fibre a été le seul moyen de contrer Free sur le fixe).
Si tu veux comparer, fais le d’une manière qui ait du sens : prend les 5 années de déploiement à partir de la pose de première antenne pour chaque opérateur, en le mettant en regard du taux de population fourni et du poids économique de chaque entité. Gaffe quand même, la conclusion risque de pas te plaire…
Pov chou, obligé de coller des étiquettes aux gens pour se consoler. Dommage pour toi je suis pas Freeboy, sinon je ne serais pas chez Orange pour le fixe. ;) Je prends juste l’offre de meilleure qualité par rapport à mon contexte. Et là pour le mobile, c’est Free Mobile, de très loin. S’tout. ^^
Le
30/11/2017 à
20h
04
Hahaha, tu m’as bien épinglé, GG ;)
Je voulais évidemment dire 3G
Le
30/11/2017 à
14h
29
wanou2 a écrit :
30 millions de clients avec un ARPU en baisse de 120€ par an sur 5 ans = 18 milliards de parti en fumée.
A mettre au regard du coût du déploiement de la fibre en France.
wanou2 a écrit :
120€ par an économisé pour (en gros) s’acheter des Smartphones plus performants… la valeur s’est quand même évaporé pour la nation française !
Conserver cette valeur en France pour faire du réseau et améliorer la productivité du tissu économique est beaucoup plus important pour l’ensemble que les 10/20€ économisé par mois individuellement.
Mais je suis un indécrottables joueur collectif !
Lol
Je te félicite d’être allé faire du porte-à-porte aux 60 millions de Français pour t’assurer que l’argent économisé d’un côté a été investi dans un meilleur smartphone et non pas en musique/vidéo/jeux/autres loisirs/nourriture/transport/logement/taxes/etc…
Heureusement que les trois crevures ont des gens pour pleurer pour eux, car pour ma part je passe…
Faut-il rappeler à quel point l’investissement en 4G était MINABLE avant l’arrivée de Free ? A quel point l’investissement en qualité d’internet fixe était INEXISTANT avant l’arrivée de Free ?
Les mecs se sont toujours engraissés au maximum en investissant le minimum, et uniquement quand un concurrent est venu les bousculer ou que l’ARCEP faisait les gros yeux en leur soufflant dans le dos (menaces de sanctions pour retard dépassant les bornes).
Ils n’ont qu’à ne plus verser de dividendes aux actionnaires. Rien que ça libérera une bonne portion de crédit (cela dit, valorisation =/= trésorerie donc j’admets que la solution a ses limites).
revker a écrit :
Free s’en fiche, ils font si peu d’investissements sur la fibre. Ils attendent que les autres fassent le boulot, c’est une stratégie qui leur a réussi.
Pour revenir à la news, six ans et un réseau toujours aussi famélique (sauf à être à 500m de l’antenne maximum).
Je préfère payer plus cher chez Sosh mais quand je mets Netflix/Youtube en 4G, je peux réellement regarder mon contenu sans coupure toutes les deux secondes. Waze idem.
Abonné Freebox depuis plus de dix ans car la Révolution est la meilleure Box qui existe, je sais que je n’obtiendrai pas la fibre par eux étant donné qu’ils ne font rien en dehors de Paris ou d’autres grandes villes. J’attends donc qu’Orange arrive chez moi pour résilier totalement Free.
S’pax faux, mais n’oublions pas qu’à la base Free s’était fait tout un plan stratégique sur 5 à 10 ans qui comprenait notamment les revenus du mobile pour aider au financement du fixe. Avec le retard de 3-4 ans qu’ils se sont pris, ils ont dû prioriser. Bien que ça m’ait gravement emmerdé à titre perso (comme la plupart des gens ici je pense) qu’ils aient complètement mis en stase l’investissement fixe, au global en termes de qualité d’accès à internet nous sommes tout de même largement gagnants. Même si ce n’est pas sur le même mode (nomade vs fixe). D’ailleurs ayant quitté Toulouse pour Lille voici un mois pour le taff, et pour l’instant SDF, j’ai utilisé la 4G de Free comme seul accès internet et aucun souci notable : bon, en heure de pointe le débit tombait à 200Ko/s, juste assez pour Netflix stable, et les périodes à >5Mo étaient également très rares, mais globalement j’ai toujours pu regarder Netflix sans soucis, ainsi que télécharger les fucking mises à jour de X Go des jeux steam (~95 Go de conso en un mois, qui dit mieux ? " />)
Mais la solution qui est claire, propre et fiable existe depuis longtemps : le paywall + abonnement.
Tous ceux qui font autrement passent leur temps à bricoler et empiler des solutions dégueulasses et souvent très peu rentables pour s’en sortir : faire payer avec des données personnelles (trackers), avec du temps de cerveau disponible (pub/publirédac) ou, comme dans le cas des mineurs, pomper TON électricité…
Le problème avec le paywall est que l’achat devient conscient et, donc, le “client” va commencer à regarder un peu les dents du cheval qu’on essaie de lui refourguer. Et si c’est pourri, il va pas acheter.
Au final, il risque d’y avoir une sacrée purge dans les sites d’infos dans les prochaines années… Mais il y a des chances que ceux qui resteront seront plus qualitatifs et plus solides financièrement.
Franchement, je me dis que ça serait pas un mal…
Complètement. " />
Stel a écrit :
Malheureusement c’est la conséquence direct du “ tout adblock “.
Nonnon, c’est juste la conséquence du matraquage complètement débile et irrespectueux qui n’a cessé de croître. Ne pas confondre la cause et l’effet… " />
Adblock n’est pas la cause de la perte de revenus ayant conduit à cette stupidité, il n’est que l’effet causé par l’irrespect grandissant des régies publicitaires qui nous a pourri la vie pendant des années jusqu’à franchir le point de rupture qui a marqué le début des hostilités technologiques.
Oser dire que sous prétexte qu’on “peut” techniquement regarder la télévision sur l’ordinateur il est “logique” de taxer, c’est faire preuve d’exactement la même ultime mauvaise foi intellectuelle que le coup de la taxe copie privée sur les supports professionnels.
Taxer la simple possession d’une télévision au profit de la télévision publique fait sens parce que tu ne peux à priori rien faire d’autre avec. (je mets à priori car les gens qui cherchent juste un écran de très grande taille pour console/pc se font bien baiser, mais c’est effectivement une minorité de la population).
Donc, si tu l’as acheté, c’est qu’à priori tu comptais regarder la télévision. Partant de là, la probabilité pour que tu regardes, même sporadiquement, une chaîne publique peut être suffisante pour justifier la taxe (enfin, perso je ne trouve pas, mais je comprends la logique du raisonnement surtout pour l’époque : très peu de chaînes, 0 moyen efficace de jauger les usages).
Là, on parle d’ordinateurs et de téléphones, sur lesquels regarder la télévision n’est ni l’usage principal, ni l’usage secondaire, ni même probablement l’usage tertiaire.
Même en termes de consommation de contenus vidéos, les chaînes publiques ne doivent pas représenter plus de 0,1% de toutes les vidéos vues dans une période donnée : le gros, c’est Youtube + Netflix & co + Twitch.
Au-delà de ça, il serait extrêmement facile aujourd’hui de s’assurer que la télévision publique n’est pas regardable sans payer la taxe : soit en joignant les informations fiscales, soit en faisant un accès par abonnement.
Arrêtons de prendre les gens pour des pigeons / portefeuilles sur pattes, surtout pour quelque chose d’aussi accessoire que la télévision publique quand on a tellement de sujets mille fois plus importants pour lesquels prendre l’argent du contribuable (éducation, recyclage, urbanisation écolo, etc).
Proposez nous plutôt une solution (autre que la guillotine) pour assainir structurellement les administrations (j’avoue que j’ai pas trouvé de solution n’impliquant aucune violence). Une fois que les problèmes de fond en terme de management auront été gérés, tous ces sujets pourront avancer bien plus vite. " />
Le
30/10/2017 à
16h
32
La barbe…
Vous frôlez limite la mauvaise foi “à charge” là…
Vous ne pouvez pas oser écrire…
Il y a certes un besoin d’anonymisation, de caviardage des mentions portant atteinte au secret industriel et commercial, etc. Mais on ne parle même pas de cela ici, puisque les différentes occultations ont en principe déjà été réalisées lorsqu’un document est communiqué au citoyen.
Quand vous avez écrit juste au-dessus…
Le texte porté par Axelle Lemaire n’a finalement que consolidé cet édifice, en le faisant entrer dans une nouvelle dimension. Dès lors qu’un document administratif existe au format électronique, il a (pour simplifier) vocation à être mis en ligne tôt ou tard, dans un format compatible avec les standards de l’Open Data.Pour être plus précis, les administrations d’au moins 50 agents sont tenues de mettre automatiquement en ligne, « dans un standard ouvert, aisément réutilisable et exploitable par un système de traitement automatisé » :
Les documents qu’elles communiquent suite à des demandes CADA individuelles, « ainsi que leurs versions mises à jour » – depuis le 7 avril 2017.
Les documents qui figurent dans leur répertoire d’informations publiques (qui sont censés recenser leurs principaux documents administratifs) – depuis le 7 octobre 2017.
Leurs bases de données – à compter du 7 octobre 2018 « au plus tard ».
Leurs données « dont la publication présente un intérêt économique, social, sanitaire ou environnemental » – à compter du 7 octobre 2018 « au plus tard ».
Les « règles définissant les principaux traitements algorithmiques » servant à prendre des décisions individuelles (de type attribution d’allocation ou calcul d’impôt) – à compter du 7 octobre 2018 « au plus tard ».
Le point sur lequel vous prenez bien le soin d’appuyer n’est qu’un élément parmi de très (TRES) nombreux.
Et honnêtement, plutôt que de taper sur les administrations maintenant, vous auriez mieux fait de taper sur le rapporteur du texte ou les députés ayant influencé le choix des délais. Ceux ci sont tout simplement ridicules, à s’en taper le cul par terre (Surtout que la loi Numérique elle-même est venue ajouter un flou non
artistique aux obligations concrètes des administrations, comme le
relève la CADA elle-même dans votre propre article mis en lien). Ils ont juste été choisis pour que les parlementaires en cause puissent se faire mousser (“vous voyez avec moi l’Open Data est à nos portes, ça avance à grand pas”).
Rien que dans les entreprises que j’ai pu fréquenter, pour la plupart de petite taille, les bases de données et autres éléments ayant potentiellement un intérêt à être communiqués à des tiers/partenaires/clients, ou simplement tenus correctement pour être analyés en interne, étaient dans un état proche de l’inexploitable.
Alors les bases de données des administrations… Entre les problèmes de format (probablement des bons vieux tableaux Excel avec masse de macros écrites à l’arrache dans beaucoup d’administrations), les problèmes de pertinence (vérifier que les informations sont encore pertinentes et lisibles), l’hébergement (prévoir l’emplacement en ligne et le débit) qui touchent n’importe quelle entité, et les problèmes inhérents à l’administration qui affectent son efficacité au quotidien (querelles de pouvoir interne, étouffement par circulaires façon gavage d’oies, absence de stratégie de communication et collaboration horizontale ou verticale -enfin, ça existe, mais généralement il s’agit d’initiatives isolées-)…
Sans parler du reste des éléments de la liste, rien que les bases de données il faudrait probablement deux années à plein temps pour les mettre d’équerre (c’est à dire publiable d’une manière qui permette réellement leur exploitation). Et encore, pour les administrations de taille suffisante pour pouvoir au moins libérer des ressources pour ça. Allez donc en parler aux collectivités locales qui galèrent déjà à budgétiser le service minimum pour voir (encore, heureusement que la plupart des municipalités sont épargnées, les maires se tireraient une balle)…
Et il faudrait avoir 100% de la liste au-dessus publiée au plus tard fin 2018 ?
Autant croire au Père Noël ça ira plus vite…
Je le répète : pointer du doigt des dysfonctionnements ponctuels (fussent-ils fréquents au sein de certaines administrations) issus uniquement d’une mauvaise volonté, c’est une bonne chose, et je vous en remercie. Utiliser les soucis d’accès à des documents censément publics pour montrer l’arbre (les soucis) qui cache la forêt (absence structurelle de collaboration et problèmes d’ingérence politique), c’est toujours utile.Mais critiquer la non-réalisation d’objectifs irréalisables, c’est faire preuve d’absence de recul d’une débilité sans nom, indigne de la qualité de réfléxion à laquelle vous nous habituez. Cela revient à prendre un citoyen lambda qui a passé 15 ans à bosser dans une SSII ou autre entreprise au management structurellement merdique et, faute de temps/organisation (par sa faute ou celle de son management) foutre tous ses documents en vrac dans Bureau, les formater à la main et en mode minimum, à rédiger des mails en mode malpropre (pas d’objet ou objet pourri, pas de signature, mal écrit, malpoli)…
Et lui dire “ok mec, dans un mois je veux un ordi clean avec tous les éléments multimédia triés par album et taggués correctement, en flac, les documents réécrits en LibreOffice et lisibles et étiquettés selon l’interlocuteur, le sujet et le mois et année d’écriture, et les mails proprement rangés dans des sous-dossiers avec des objets et en-têtes/signatures corrects… Sans quoi on va grave se foutre de ta gueule pour incompétence notoire. Ah, et, bien entendu, tu fais ça sur ton temps libre hein, faut toujours que t’assures ton job en plus de ça.”.
" />" />
Ou, tiens, pour prendre un exemple qui vous parlera plus : imaginez que pour une raison ou une autre vous soyez forcés de mettre à disposition toutes vos données “dans un format standard” au titre de l’Open Data : quand aurions-nous enfin accès à l’intégralité des anciennes news et commentaires de news, dans une archive zip comprenant des fichiers xml, avec chaque élément taggué pour comprendre les métadonnées essentielles de type date, auteur, catégories, news liée, profil lié etc… ? Hmm ?
Perso je parie sur 18 mois. GRAND MINIMUM. Tout simplement parce que ce ne serait légitimement pas un truc prioritaire pour vous au regard de la mission d’information qui vous échoit au quotidien, sans compter l’absence de moyens à y consacrer (ou alors, paye ton stage de qualitay).
Et on parle quand même d’un truc vachement limité là (sans être péjoratif hein, c’est juste un truc sans conséquence légale, qui ne touche potentiellement qu’une -très- petite partie de population, et dont la taille ne doit pas monter au delà de 50 000 news et 800 000 commentaires à vue de nez -hors Inpact Virtuel " />-).
Je fais partie des premiers à prendre froid ces jours-ci pour cause de poil constamment hérissé de voir tous les trucs qui merdent plus ou moins violemment dans la société française en générale, et les rouages administratifs en particulier. C’est pourquoi je supporte d’autant moins les décharges personnelles d’aigreur de journaliste masquées sous des oripeaux de juste dénonciation.
J’avoue que c’est la seule raison pour laquelle je ne croyais qu’à un demi-succès de la console (soit nettement mieux que la Wii U, pas mais la folie constatée) : à mon sens, l’atout majeur de la console c’était l’aspect “console portable de qualité, avec option déport sur grand écran”, et l’autonomie merdique scandaleuse lamentable très limitée allait brider les volontés d’achat. Plus quelques autres détails qui n’en sont pas forcément (comme la différence de rendu et de perfs en mode dock/portable).
De toute évidence comme d’autres j’ai sous-estimé…
la puissance de Zelda comme system-seller.
l’attractivité de la console en elle-même (notamment pour sa légèreté et l’écran qui est excellent).
l’argument du “console nomade avec des jeux de salon” (le plus drôle étant que ça avait été l’argument phare d’une des portables Sony, PSP ou Vita je sais plus, mais qu’elles avaient quand même fait un four).
et, très probablement, la durée moyenne des trajets loin de toute prise des utilisateurs.*
*Parce qu’au Japon, je n’avais aucun doute sur le raz-de-marée vu qu’ils vivent pour les consoles portables et vivent dans un monde ultra connecté et “électrisé” si j’ose dire. Mais en Occident ? Il faut croire qu’il y a plus d’avions/trains/bus équipés en prises électriques que je ne croyais, ou alors les gens l’ont acheté pour les trajets quotidiens…
Le
30/10/2017 à
11h
02
Quel dommage qu’il soit aussi difficile (pour ne pas dire impossible) d’acheter des actions japonaises.
Même en tenant compte de la lourde perte dûe à tous les intermédiaires et leurs ponctions, il y avait moyen de se faire du blé… " />
Bref, félicitations à Nintendo pour avoir enfin réussir à sortir la Wii U (bah ouais, franchement, c’est ce niveau de mobilité que la Wii U aurait dû offrir dès le départ).
Même si c’est un peu triste de se dire que ça les dissuadera sans doute pour les vingt ans à venir de retenter le coup de “on laisse la place aux éditeurs tiers pour le lancement”. Quant à ces derniers, ils doivent encore bien sentir la baffe… " />
Belle utilisation d’une technique de négociation classique : on commence par poser une idée qui semble équilibrée, histoire d’inciter l’interlocuteur à croire que l’on a un point de vue posé, construit, intelligent, qui comprend et intègre tous les points de vue et tous les intérêts pour proposer un compromis efficace…
Puis on balance sa grosse bouse 100% intérêt propre 0% intérêt commun en espérant que l’amalgame se fera… " />
Bon. Je ne suis plus dans la sphère juridique à proprement parler depuis un moment, donc mes souvenirs de procédure civile et pénale sont très limités. Toutefois…
Depuis quand peut-on choisir son tribunal ? Dans mes souvenirs, seul un accord contractualisé entre deux parties éclairées peut déterminer arbitrairement, parfois même selon un système conditionnel, la compétence de tel ou tel tribunal, et uniquement dans un cadre déterminé (je pense pas qu’on puisse choisir pour n’importe quel type de litige, tout comme à ma connaissance on ne peut déroger à une disposition d’ordre public). Autrement, en droit commun, ce sont les qualités des parties et l’enjeu de l’action en justice qui déterminent la compétence. En droit pénal il me semble que quoi qu’il arrive c’est le droit commun qui détermine la compétence territoriale.
Alors, d’où vient cette crainte ?
Le principe essentiel du droit, participant notamment de la sauvegarde des libertés fondamentales, n’est-il pas justement que les décisions soient intégralement publiques ? Après tout, les juges ne sont que l’expression institutionnalisée -et professionnalisée, certes- du peuple français. N’est-il pas normal que les citoyens puissent donc consulter ces décisions ?
Je n’ai rien trouvé sur le sieur en lui-même, donc peut-être n’est-ce qu’un sinistre préjugé de ma part, mais cette proposition me donne tout l’air d’une mesure de prévention destinée à couvrir les politiques de leurs crasses (comprendre = espérer qu’il soit plus difficile de ressortir les dossiers lorsqu’untel essaye de se faire mousser).
Je te remercie pour les noms de films d’horreur, vais voir si je peux mater ça…
Mais honnêtement tu éclaircis le tableau par amour du cinéma.
Le fait est qu’il y a beaucoup de sombres merdes. Sur le principe pourquoi pas, après tout, c’est en forgeant qu’on devient forgeron, donc il faut bien laisser les jeunes acteurs/réalisateurs/monteurs etc se faire la main avec un ou deux longs-métrages à ambition commerciale.
En revanche, quand on voit des films à gros budget qui sont des nanars pires que des films d’étudiant, pour lesquels les acteurs touchent des centaines de milliers d’euros “parce qu’ils sont connus”… Et que personne ne trouve rien à y redire… C’est qu’il est temps de jeter le système.
Je dis bien jeter, pas réformer : car le problème n’est pas que structurel, il est aussi humain. Et les humains se démerdent toujours pour passer au travers des mailles de la réforme. Alors que quand tu montes un nouveau truc de zéro, ça s’accompagne généralement d’un rejet de l’ancien système qui permet d’éviter que les rats ne montent sur le nouveau navire (enfin, les rats de l’ancien système. Evidemment, il peut y en avoir de nouveaux qui ont flairé le filon).
Quant à Netflix… Ils ont clairement tout compris, eux, en revanche je ne serais pas si positif sur leur offre. Les doublages sont souvent à l’ouest (particulièrement sur les oeuvres japonaises, c’est un scandale, même moi je ferais généralement mieux alors que mon japonais se limite à une vague compréhension générale), et s’agissant de leur catalogue propre, on varie entre l’excellent et le tout pourri, avec toute la gamme de nuances entre les deux.
Cela dit, là tout de suite si on me demandait qui contribue le plus à l’enrichissement culturel général entre le CNC et Netflix, je réponds Netflix, sans la moindre hésitation.
Le
20/10/2017 à
14h
27
« On n’a pas conscience de la révolution que l’on est en train de se
prendre dans la figure. Nous ne sommes pas organisés pour faire face à Netflix, à Amazon Prime Video. On manque d’organisation, on ne se projette pas assez dans l’avenir ».”
C’est vrai, pauvres gens, ils n’ont eu que 15 ans pour se préparer… " />
La seule chose qui m’empêche d’apprécier pleinement leur agonie, c’est que la plate-forme qui rafle la mise est américaine, avec l’état d’esprit qui va avec (si un jours ils obtiennent la masse critique pour devenir pseudo-monopolistiques sur le marché, on va en chier derrière niveau tarifs et conditions d’utilisation).
Mais à chaque fois que quelqu’un tentait quelque chose d’intelligent en France il s’est fait fusiller par les ayants droits. Faut pas venir chouiner maintenant. “Qui sème le vent…”
Heu… Ahem… T’es trop subtil pour moi là, je pige pas la blague… " />
Le
20/10/2017 à
10h
45
Et là, dans l’article, le jugement de valeur, la métrique de
l’évaluation si j’ose dire qui justifie l’emploi “d’expérience
utilisateur” et pas simplement “d’utilisation”, c’est justement tout le
changement induit par ces modifications, jaugé selon le présupposé (qui
se vérifie assez souvent) que les utilisateurs sont rétifs au
changement car celui-ci induit une perte d’efficacité plus ou moins forte et plus ou moins longue dans le temps.
Le
20/10/2017 à
10h
36
Bref, tu joues sur les mots encore plus que les anglais quoi. " />
Ou alors tu fais un pavé qui fait chier tout le monde (désolé, mais c'est la stricte vérité : si la sauce prend avec "expérience utilisateur", c'est justement parce que tu fais rentrer un ensemble de notions cohérent en deux petits mots).
Et une fois encore tu réduis à un aspect particulier.
"L'interface", c'est quelque chose qui n'est pas inscrit dans le temps, ni inscrit dans un contexte de jugement : c'est neutre, factuel.
"L'expérience utilisateur", dans le cadre logiciel, c'est l'évaluation intégrale depuis le moment où un utilisateur découvre l'interface jusqu'au moment où celle-ci lui est "acquise" (compréhension suffisante des mécaniques, automatismes d'utilisation imprégnés). Et dans le cadre d'un logiciel offrant un service commercial, tout ce qui va inclure de la relation humaine également.
Et cette évaluation s’appuie nécessairement, intrinsèquement, sur des préconceptions portant sur ce qu’attend le public utilisateur du logiciel, et la manière dont on suppose qu’il va vouloir l’utiliser (ou, plus fourbe, sur la manière dont on souhaite qu’il l’utilise).
OlivierJ a écrit :
[quote:5948437:Citan666][QUOTE]Si des éléments comme le Dash ou la barre de menu globale disparaissent,
leurs fonctionnalités sont en fait réparties d’une autre manière. Bien
que l’on passe par une phase d’ajustement, on ne se retrouve pas
démuni, même si certains risquent de pester un peu contre ces multiples
modifications dans l’expérience utilisateur.[/QUOTE]
-> dans l'usage
-> dans l'utilisation
-> à l'utilisation
-> les habitudes d'utilisation
Faudrait par exemple regarder quand MS-Office est passé au bandeau, ce
qu’on en disait. Ça m’étonnerait beaucoup qu’on ait parlé à l’époque
“d’expérience”.
(en plus, "dans l'expérience", ça ne rime pas à grand chose)
Quand on parle de l'utilisation des commandes au volant d'une voiture,
ou d’une modification de l’ergonomie (terme souvent utilisé), on ne
parle pas “d’expérience” non plus, ou parle de changement de conception,
aussi.
Ce n'est toujours pas la même chose.
Les mots que tu utilises pour remplacer sont “neutres”. “L’expérience utilisateur” induit également, et surtout, un jugement de valeur, une évaluation “qualitative”.
Peut-être parce que les gens qui se sont fait perquisitionner sans raisons ont plutôt le réflexe d’éviter de faire des vagues plutôt que de publiciser ça à tout va, par crainte de représailles ?
Tu n’as qu’à voir le documentaire Nothing to Hide, pour faire le lien : il est assez facile de fabriquer une image d’un citoyen qu’on veut vraiment pourrir, pour que les différents rouages judiciaires se mettent en branle sans sourciller. Tout comme il est très facile désormais de museler son expression sur le net (un p’tit coup de “trouble à l’ordre public” et c’est réglé o/).
Mais bon, tu as raison, tout va bien, cette loi est parfaite dans le meilleur des mondes, et si plusieurs dizaines d’association de défense des libertés des droits fondamentaux, non seulement françaises mais également européennes et même internationales, ont envoyé des avertissements publics et forts sur les risques qu’engendrait cette loi… C’est juste pour justifier leur existence… " />
4446 commentaires
Nolife, c’est fini
03/04/2018
Le 03/04/2018 à 15h 51
Bien triste nouvelle.
Ce que je ne comprends pas en revanche, c’est qu’ils ne puissent même pas essayer de réexploiter leurs programmes originaux. Il me semble pourtant que cela ne représentait pas une partie négligeable ?
Historique des appels et SMS : Facebook détaille son recueil du consentement
26/03/2018
Le 26/03/2018 à 14h 11
C’est le putain de commentaire de l’année 2018. " />
13 failles de sécurité trouvées dans l’ensemble des processeurs Ryzen/EPYC d’AMD et leurs chipsets
13/03/2018
Le 15/03/2018 à 12h 19
Le 14/03/2018 à 18h 05
Ce que tu dis est assez vrai (100% pour le contenu, à moitié pour le chapô, moins pour le titre).
Mais au-delà de ça, c’est plus un problème de principe : la ligne éditoriale a toujours été me semble-t-il “laisser les charognards du web se jeter sur la première apparence d’information, laisser décanter tranquillement pour voir ce qu’il en reste”.
Et au vu des réactions lues à travers le web, les éléments immédiatement disponibles auraient dû suffire, pour un “amateur éclairé” ou professionnel (au vu de son métier et de la spécialisation de NXI, David est au moins dans la première catégorie), à lever un drapeau jaune et prendre le temps d’approfondir avant de publier.
Mais peu importe dans le fond, si une MAJ suit rapidement : il y avait effectivement beaucoup de sujets intéressants à traiter hier donc je peux comprendre qu’un sujet soit traité plus vite qu’il ne faudrait réellement. Mais dans ce cas prévoir une revue rapidement pour corriger le tir à la volée afin d’éviter de contributer à la propagation d’informations possiblement douteuses, pour rester diplomate.
D’où nos commentaires.
Le 14/03/2018 à 15h 40
Clairement, pour avoir pu prendre le temps de compulser un peu d’autres sources…
Compte tenu de la visibilité et influence grandissantes de NXI à travers différentes sphères, une MAJ serait plus que nécessaire AMA pour… 1. Mettre un titre reflétant mieux le manque de fiabilité de l’étude. 2. Indiquer dans le chapô les différents éléments troublants relevés par la communauté en général (disclaimer “on a été payés” notamment). Ça me paraît le minimum pour que cet article soit digne de la réputation de NXI.
Le 13/03/2018 à 19h 51
Action sponsorisée par Intel? " />
De ce que j’en comprends, les failles ne touchent pas directement au code produit par AMD, mais par des technologies embarquées issues de tiers ? Ca leur apprendra à déléguer… " />
M’est avis que si les problèmes s’avéraient réels, les juristes vont fourbir leurs armes plumes bics claviers de tous les côtés…
Ca ne m’aurait pas étonné de toute façon qu’on découvre encore des bugs ou failles au coeur de Ryzen vu que c’est la première itération new-gen d’une boîte qui doit lutter avec 100 fois moins de moyens qu’Intel et nVidia…
Mais j’espère pour eux (et ahem pour moi " />) que ces éventuels soucis seront réglés à temps pour la mise en production de Ryzen 2. Même une MAJ de firmware a posteriori ce serait craignos vraiment…
EDIT : Après lecture en speed, et de ce que je peux comprendre, un bon gros tiers des failles ne concerne que des cartes-mères spécifiques donc je serais tenté de dire que ce n’est pas la faute d’AMD. En revanche, certains problèmes ont l’air intimement liés au coeur de processeur lui-même. :/
(Le bon côté des choses, c’est que ça arrive maintenant, plutôt qu’après mise en production/distribution de Ryzen 2. Tant mieux pour AMD quelque part).
Saisie par Free, la Cour de cassation met un coup de pied dans les mobiles subventionnés
09/03/2018
Le 10/03/2018 à 01h 36
Le 09/03/2018 à 12h 55
Excellente nouvelle, l’arnaque est enfin présentée au grand jour…
Reste que je ne parierais pas sur une migration de masse, plutôt au mieux un mouvement d’environ 2-3% des gens actuellement sur ce type d’offre…
Déjà, si ça les dérangeait VRAIMENT de payer ce prix là, les mécaniques apportées par les lois de droit de conso des dix dernières années leur aurait permis de partir voir ailleurs en payant moins (tarif dégressif sur l’engagement restant). Ensuite, je doute fortement que le marché potentiel ait la même taille qu’à l’époque de la bataille Free/SFR. Beaucoup d’eau a coulé sous les ponts, les offres se sont gravement améliorées, les téléphones sont devenus suffisamment puissants et versatiles pour qu’un modèle de milieu de gamme de 2014 tienne encore bien la route aujourd’hui…
Où pourrait-on trouver une source indiquant la ventilation du marché selon le type d’offres ?
APU Raven Ridge d’AMD : LDLC baisse le tarif de la mise à jour des cartes mères
24/02/2018
Le 23/02/2018 à 15h 02
Bandes-annonces : La Forme de l’eau, Spirou et Fantasio, Ready Player One et Cobra Kai (Karaté Kid)
20/02/2018
Le 21/02/2018 à 18h 12
APFS : un bug avec les images disques peut entraîner des pertes de données
20/02/2018
Le 20/02/2018 à 12h 32
Idem, je la trouve parfaitement adaptée. " />
AMD Raven Ridge : ce qu’il faut retenir des APU « Desktop » avec Radeon RX Vega intégrée
12/02/2018
Le 13/02/2018 à 21h 58
Pour ma part, ça restera insuffisamment intéressant parce que je
veux vraiment une machine polyvalente “dans la puissance”, y compris sur le taff, et mes
usages “multithreads” vont en s’intensifiant… Donc je ne couperai pas
au 8 coeurs si je monte une toute nouvelle machine…
Mais quand je vois le public de gamers potentiels, assez investis dans leur loisir pour vouloir de la qualité, mais assez raisonnables (intelligents ? Je sais préjuger c’est mal) pour ne pas claquer des fortunes juste pour le principe du concours de bite de Gigaflops….
Que je vois une puce qui propose des performances tout à fait décentes dans tous les domaines, et suffisamment de ports pour couvrir 70% des besoins courants sous réserve d’un hub USB pour le jeu (manettes ^^) ou usages pro nécessitant périphériques dédiés…
Et que j’y associe la (2ème ? 3ème ? Peut-être la bonne cette fois) tentative de constructeurs d’enfin proposer le demi-graal de tout gamer soumis à de fortes contraintes de mobilité, à savoir la carte graphique déportée (même si on perd en perfs malgré tout, et que la marge de progression en termes d’encombrement reste, pour être poli, confortable " />), je vois bien un fort potentiel, en combinant différents publics de niche (qui ont tendance à être prescripteurs pour leur entourage)…
Le public ainsi rassemblé est pas dégueu. :)
Le 13/02/2018 à 21h 43
Non mais je ne critiquais pas le bien fondé du constat porté par ta phrase en elle-même, c’était factuel. " />
(Soit dit en passant, ne serait-ce pas par exemple un compromis idéal en utilisation multimédia de salon avec option déport d’un Steam sur bête de course ? Je sais que le Steam Link fait à priori le taff, mais ça reste limité… Et le Raspberry Pi, même si le ticket d’entrée total (en comptant le reste des pièces) reste d’environ 6 fois inférieur pour un encombrement de même gamme, me semble avoir des performances (et donc une diversité d’usages) bien bien inférieure, non ?
Le 13/02/2018 à 01h 34
“Au final, ces APU basés sur l’architecture Ryzen
semblent intéressants. Ils arrivent un peu tard sur le marché, mais
intègrent des évolutions bienvenues de l’architecture, tant du côté de
la gestion de l’énergie que de la fréquence, ainsi qu’une finesse de
gravure légèrement améliorée.”
Vraiment ?
J’aurais plutôt tendance à dire que c’est ce qui va leur donner un boost…
Certes, la rentrée et les fêtes de fin d’année, deux périodes propices aux gros investissements, sont passées, et avec elles une bonne fenêtre de tir…
Mais le marché était-il vraiment là ?
Les gamers désireux de se payer une config durable n’auraient de toute façon pas regardé dans cette direction, quand le meilleur combo, et de très très loin, est un Rizen 1700/1800x (ouioui, bien ça, pas un i7) avec une 1080 de Nvidia.
Les personnes normales, désireuses de se payer un pc multimédia, se seront sans doute pour une majorité tournées vers des offres préassemblées, faute de connaissance ou d’envie de s’y plonger.
Mais aujourd’hui ?
Pour toute l’année à venir, on nous promet au mieux une stabilisation, au pire une poursuite de la flambée des prix sur tous les composants en général, et la carte graphique + mémoire vive en particulier…
Pour tous ceux qui veulent / requièrent une mise à jour, le ticket a globalement pris minimum 30% par rapport à l’année dernière, même sur une cible “pc multimédia”.
A ce titre, AMD est le seul à proposer une solution tout en un capable de pleinement satisfaire aussi bien les besoins bureautiques classiques (navigation internet, suites bureautiques, compression de fichiers) que les besoins professionnels courants.
Exemple :
Certes, dans l’absolu pour un développeur par exemple on préférera investir dans une machine plus puissante au moins niveau CPU, idem version GPU pour les graphistes, mais cette alliance de puissance et de diversité
permettrait à un gestionnaire envisageant le renouvellement des machines une montée en gamme pour >40% du personnel (dans le pire des cas. Dans le meilleur, ça pourrait grimper à >70%), à faible coût et sans se poser de questions.
Moins d’hétérogénéité = moindre coût d’achat (+ de volume = + de rabais), moindre complexité d’entretien et de maintenance, on pourrait même pousser le vice et partir sur des mini-machines : soit pour une raison de sécurité (facile à transporter et stocker, donc dans salle sécurisée), soit pour une raison de flexibilité (un salon ? Le PC de démo dans la poche, manque plus que l’écran en tube déroulable façon papyrus ^^).
Quand je vois les pc qu’on s’est traîné dans mon ancienne boîte pendant des années (pourtant d’édition logicielle) sous prétexte que c’était cher… Pour ce type de management dur à la comprenette (le bon outil ne fait pas le taff pour nous, mais il nous aide bien quand même XD), c’est un excellent produit.
Encore faut-il que la démarche commerciale suive… Et là on tombe dans la grosse faiblesse d’AMD : image ternie par des années de vache maigre, puissance de frappe commerciale bien faiblarde comparée à Intel…
Pareil pour le particulier : si les constructeurs sont pas trop débiles, ils vont bien proposer des machines petites et complètes à 500 boules ttc. Et maintenant que les gens n’associent plus “petitesse” et “puissance famélique” et au contraire recherche le faible encombrement (ou au moins l’esthétisme), il y a aussi un gros marché.
Lutte contre la haine : un rapport invite le gouvernement à réformer le statut des hébergeurs
06/02/2018
Le 06/02/2018 à 18h 53
Pour le coup je ne partage pas ton “optimisme” (ce n’est pas le mot approprié mais tu vois ce que je veux dire).
Autant je comprends que Macron aie tendance à mépriser les journalistes “en général” (je lis des torchons à peu près sur tous les “grands journaux d’information”, il y a des “journalistes” qu’il faudrait renvoyer en primaire), autant je ressens tout de même une tendance de fond à vouloir réellement contrôler l’information qui circule.
Si tu ajoutes à ce ressenti, tout à fait personnel il est vrai, la haine viscérale et factuelle que portent bon nombre de politiques et de dirigeants de grands groupes envers un média qui a, par essence, le moyen de 1) leur mettre le nez devant leur propre merde, comme les chatons et 2) s’assurer que les gros foutages de gueule réellement mauvais pour le monde en général persistent dans la mémoire collective…
Je trouve que ce type de disposition, sous couvert de “regardez on est raisonnable d’ailleurs on fait appel à des gens normaux” constitue un parfait cheval de Troie pour un contrôle d’opinion plus insidieux (et àma plus efficace) que de “simples” désindexations ou blocages.
Firefox 59 mettra l’accent sur les développeurs et les extensions
01/02/2018
Le 03/02/2018 à 10h 19
Pour ma part, Firefox 52 ESR, session d’environ 120 onglets dont ~20 chargés, 1 Go, fluide, sous Windows…
Sous Linux, la machine encaisse 4 ou 5 profils lancés concurremment avec chacun des dizaines d’onglets et ça ne bronche pas (jamais regardé la conso de RAM par contre ^^).
Firefox a toujours été le meilleur de tous pour moi, spécialement au niveau de la RAM consommée (avec Chrome en mode gros boulet derrière, 1 Go pour genre 10 onglets ouverts, n’imp), même si sur le rendu des pages clairement il a toujours été lent par rapport à Chrome… Mais bien suffisant pour mon usage.*
* A quoi sert d’avoir une page qui se charge super vite si de toute façon on la précharge en nouvel onglet pendant qu’on en lit une autre ? J’ai toujours ressenti de “l’instantané” grâce à cette méthode. " />
Microsoft veut aller plus loin sur la vie privée, notamment avec un explorateur de télémétrie
25/01/2018
Le 25/01/2018 à 11h 45
T’es complètement à la rue toi. " />
Les fichiers personnels, placés opportunément dans un dossier “Personnel et Confidentiel”, ne PEUVENT PAS être lus par un employeur, que ce soit manuellement ou automatiquement. C’est ILLEGAL (sauf bien sûr mandat obtenu dans le cadre d’une action en justice).
Je ne sais même plus si l’employeur peut t’obliger à ouvrir ton dossier pour qu’il le consulte en ta présence : il me semble que cela ne doit être possible que s’il peut démontrer de fortes présomptions de présence de contenu illégal, mais pour le coup je laisse les INpactiens qui bossent dans le domaine du droit social préciser/corriger (mes connaissances sont trop vieilles, je ne fais plus de veille ^^).
Et il est tout à fait illusoire, même contre-productif, de demander à ce qu’un employé évite toute donnée personnelle. À fortiori lorsque le réseau de l’entreprise bloque un certain nombre de sites externes de type hébergeur distant de données ou webmail.
L’employé perdra bien plus de temps à essayer de placer ses données dans un endroit “non-professionnel” plutôt que juste claquer tout en vrac temporairement dans un dossier privé qu’il nettoiera/videra plus tard, potentiellement à son départ.
Donc oui, la question de données personnelles au boulot a du sens, et il est inacceptable que l’on subisse des conditions d’utilisations pour un logiciel que l’on est forcé d’utiliser.
(Je dis on par empathie, moi j’ai pas de soucis, j’ai choisi une entité où ils savent apprécier les vrais OS efficaces pour le taff et respectueux de leurs users " />).
L’employeur a le droit de surveiller les connexions réseaux, et c’est une bonne pratique de gestion. En revanche il n’a jamais le droit d’aller consulter le contenu d’un fichier qui serait issu de ton webmail perso par exemple.
Firefox 58 renforce ses performances et ses fonctionnalités
24/01/2018
Le 25/01/2018 à 11h 39
Je tourne régulièrement avec 3 ou 4 instances de Firefox correspondant à des profils différents, chacun ayant une session dépassant allègrement les 60 onglets (ça peut monter facile à 150 en pointe dans la journée quand je fais des recherches tous azimuts) et mon système n’a jamais bronché.
Il est vrai que…
Pour moi Firefox a toujours été le plus robuste des navigateurs, et ce depuis 10 ans.
Chrome est certes incomparablement plus rapide à charger une page unitaire bien lourde, mais il flippe dès qu’on commence à charger la barque, et coule en tout juste 40 onglets (chez moi en tout cas ^^)… " />
Le 24/01/2018 à 14h 32
L’Assemblée s’apprête à mettre fin aux appels surtaxés vers les services publics
17/01/2018
Le 17/01/2018 à 10h 59
Bien qu’étant moi-même suffisamment “connecté” pour ne pas souffrir du système actuel, je ne peux qu’approuver une telle mesure dans le principe.
EDIT : Je n’avais pas relevé à première lecture ce passage savoureux :
Je crois qu’il y a cet engagement qui vise à penser que nos concitoyens, pour l’immense majorité d’entre eux, ne sont pas, ou des fraudeurs, ou des gens qui souhaitent profiter du système,
À replacer dans le contexte ambiant de contrôle accru des chômeurs parce que eux en revanche, évidemment ce sont tous de potentiels profiteurs en puissance… " />
La piste de la suspension du permis de conduire pour ceux qui téléphonent au volant
09/01/2018
Le 11/01/2018 à 22h 41
Le 09/01/2018 à 12h 37
Et sinon, vous pouvez aussi réaliser qu’il y a un mouvement de fond visant à bouter la voiture hors des villes et des campagnes (la pertinence de ce mouvement est un autre débat dans lequel je n’entrerai pas), et qu’il s’agit d’un des moyens les plus fourbes mais les plus efficaces pour ce faire… " />
Autant en campagne il n’y a vraiment pas le choix, autant en ville, sérieusement, le vélo électrique c’est le bien dans 80% des situations ;). Restent les cas d’usage “courses d’un mois”, “taxi privé” (déposer/reprendre des gamins), “déménagements”, “distance supérieure à 15 Km” et quelques autres qui m’échappent pour lesquels les vélos (problème de confort/temps) comme les transports en communs (problème de desserte) sont inopérants, faute de pouvoir combiner les deux…*
* Sauf à investir dans un vélo à la fois électrique et pliable, et ne pas avoir d’autres trucs à transporter en plus, ce qui réduit ‘achement le public potentiel quand même tristement…
Une vraie politique publique de transport écolo, ce ne serait pas seulement des pistes cyclables, mais aussi faciliter l’intermodalité avec des rames adaptées… M’enfin ça arrivera dans 30 ans. :)
Le 09/01/2018 à 11h 40
Boarf…
Limitation de vitesse à 80 km/h, connerie sans nom : ça n’empêchera pas les accidents vu qu’à cette vitesse, si tu as un accident, c’est très généralement dû à l’inattention ou le non-respect du code par un conducteur, donc 10 Km/h ne changeront rien à l’affaire. Et sinon c’est vraiment la faute à pas de chance (obstacle impossible à anticiper genre animal qui surgit brutalement) donc ça ne changera rien non plus.
Ce qui changera, c’est la gravité de l’accident : dans une petite proportion des cas, on évitera les morts.
Ce qui coûtera plus cher à la Sécurité sociale au final, et il n’est même pas dit que l’issue soit plus heureuse pour les accidentés non plus (paraplégique à vie ou mort instantanée ? Je laisse chacun choisir).
Bref, pour que réellement la mesure puisse être considérée comme utile, il faudrait de vraies courbes statistiques montrant une baisse significative sur toute l’échelle de gravité (accidents mortels, accidents “séquelles à vie”, accidents “arrêts longue durée”, etc) rendant le choix pertinent à tous points de vue.
Quant à la suspension de permis…
Au-delà du bien-fondé de principe (lutter contre l’inattention au volant) et la putain d’hypocrisie de fond qui l’accompagne (GPS sur mobile, manipulations des auto-radios, kits mains libres, autres causes d’accident bien plus importantes etc)…
Je ne serais pour qu’à condition que la sanction ne puisse être prise qu’en cas de contrôle direct, et non pas vidéo-verbalisation : parce qu’au moins là il y a un humain qui aura pu prendre la pleine mesure du contexte pour jauger de la gravité de la faute en fonction de la situation.
Mais franchement, à ce compte là, ce n’est pas le permis qu’il faudrait suspendre, c’est la voiture : parce qu’on peut conduire une voiture sans permis, mais on peut difficilement conduire une voiture sans voiture " />
Prévention, téléphone, surveillance, le volet cyber du plan Sécurité routière
10/01/2018
Le 10/01/2018 à 22h 25
Très vrai, j’avais oublié ça (d’autant plus con que j’ai déjà eu l’occasion d’en croiser). " />
Et effectivement pour le coup ça me semblerait bien plus pertinent comme investissement quitte à remplacer des panneaux… Sauf qu’il faut prévoir la logistique qui va avec derrière si on veut vraiment exploiter l’idée de vitesse limite adaptative en fonction de l’état de la circulation. ;)
Je serais donc curieux de connaître le coût total de possession d’un système de signalétique de vitesse dynamique. ^^
Le 10/01/2018 à 14h 34
Obsolescence programmée : Apple visée en France par une enquête préliminaire
09/01/2018
Le 09/01/2018 à 11h 46
Google détaille trois failles, qui ont leur site dédié : après Intel, ARM confirme être touché
04/01/2018
Le 04/01/2018 à 15h 09
Cool merci pour l’info ;=)
Le 03/01/2018 à 17h 25
@NXI : auriez-vous par hasard le temps de creuser un peu la question soulevée dans les commentaires de la news Phoronixhttps://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/998750-f… qui semble relever une gestion quelque peu curieuse du patch relatif pour le noyau Linux ?
(En bref on pousse rapido un patch bourrin qui “comble” la faille sans distinction de proc, et quand après AMD propose un “patch de patch” juste pour préserver ses processeurs on le met à la saint-glinglin alors que le “correctif” affecte lourdement ses performances sans raison puisque la faille n’est pas présente).
Ça m’intéresserait de connaître les raisons de cette gestion, si c’est juste du La Rache comme souvent ou s’il y a des enjeux cachés derrière. ;)
Le 03/01/2018 à 12h 45
[QUOTE]Intel, qui a participé aux correctifs, semble directement concerné, AMD ayant de son côté indiqué ne pas être touché. [/QUOTE]
Ça prouve bien ce qu’on savait depuis longtemps : ce sont AMD les meilleurs ingénieurs mais plombés par un marketing pourri, tandis que c’est l’inverse chez Intel " />" />
Sinon, j’espère sincèrement qu’AMD en profitera, qu’on rééquilibre autant que possible les parts de marchés (même juste 1-3% ferait toujours plaisir). ^^
Hadopi : les chiffres de la riposte graduée en Open Data suite à une demande CADA
03/01/2018
Le 03/01/2018 à 11h 38
L’équipe de Next INpact vous souhaite une bonne année 2018 !
01/01/2018
Le 01/01/2018 à 17h 43
Très bonne année à tous, longue vie à NextInpact ;)
A propos de la Presse Libre, il pourrait être intéressant de faire “remonter” en tête les news/dossiers que vous y aviez consacré pour ceux -ahem comme moi- qui voudraient (re)découvrir le système et l’offre. Ce serait aussi l’occasion de faire un retour d’expérience “groupé” des cofondateurs comme des nouveaux arrivants par un article ou interview dédié(e).
Bref, bon courage pour cette nouvelle année, en espérant que la courbe des abonnements poursuive sa croissance ;)
L’équipe de Next INpact vous souhaite un joyeux réveillon de Noël 2017 !
24/12/2017
Le 24/12/2017 à 22h 43
Joyeux Nowel à tous !
Ah pardon, à tou.t.e.s (j’aurai essayé cette merde infâme chouette innovation idée intéressante pour la trêve de Noël mais en vrai, il suffit de dire à toutes et à tous… :))
Gaffe à pas trop abuser du foie gras / chocolat / champagne / autre, n’oublions pas qu’au fond, Noël n’est qu’une préparation au Nouvel An (avec plus de cadeaux et plus de règlements de comptes familiaux XD).
Sur ces paroles d’optimisme, je vous laisse, vais finir d’emballer les cadeaux (15mn avant le moment fatidique, on est large ;)).
Open Data « par défaut » : Next INpact traîne deux ministères devant le Conseil d’État
06/12/2017
Le 06/12/2017 à 23h 09
Bonsoir ;)
Cette fois… Rien à dire !
Article posé, factuel, construit, sourcé…
J’ai beau trouver à titre personnel dommage que l’on empile des dossiers en plus au Conseil d’Etat, je ne peux que respecter (approuver ? :)) la démarche, en espérant simplement que la réponse du Conseil d’Etat sera aussi constructive (pas de sanction financière mais rappel à la loi pour marquer le coup, éventuellement assorti de délai d’exécution).
J’apprécie particulièrement l’information que vous apportez sur la plate-forme open data, dont j’avais loupé l’existence (vu que vous en aviez certainement parlé). Cela ne résout pas le problème de fond (structurer dans le temps la mise en publicité) mais pour une urgence ponctuelle, effectivement…
Le souci néamoins reste dans la portée de la loi adoptée : si je ne me trompe pas, les données mises à disposition doivent l’être dans un format ouvert et réutilisable. Il est logique et bienvenu que ce soit l’objectif final, mais du coup que se passera-t-il pour une administration qui aura fait l’effort de mettre à disposition ses données peu après communication individuelle, mais du coup au format “pourri” Microsoft ou PDF par exemple ?
Je regrette également que n’aient pas été mis à part les questions relatives au code source des logiciels utilisés. La plupart n’ont jamais été prévus pour être publiés. Pour ceux qui fonctionnent en vase clos, je suppose que le risque est moindre, mais ceux qui sont exposés sur internet seront non seulement vulnérables aux failles de sécu, probablement nombreuses (manque de moyens de bout en bout pour assurer la qualité de code), mais en plus ils risquent de créer des points d’entrée pour attaquer plus avant dans le système (enfin, là je parle en théorie. Aucune idée de la surface d’attaque en réel, considérant le gros boulot de documentation et d’accompagnement de l’ANSSI).
Six ans après l’arrivée de Free Mobile, des forfaits de 1 à 10 euros pour tenter d’attirer le client
30/11/2017
Le 30/11/2017 à 20h 18
Le 30/11/2017 à 20h 04
Hahaha, tu m’as bien épinglé, GG ;)
Je voulais évidemment dire 3G
Le 30/11/2017 à 14h 29
Pour se financer, StreetPress tente le minage de crypto-monnaie par les visiteurs
23/11/2017
Le 23/11/2017 à 19h 10
Le ministère de la Culture a lancé des « travaux » en vue d’une réforme de la redevance TV
31/10/2017
Le 01/11/2017 à 10h 01
“Il faut arrêter de faire les hypocrites”.
Commence donc par toi-même !!!
Oser dire que sous prétexte qu’on “peut” techniquement regarder la télévision sur l’ordinateur il est “logique” de taxer, c’est faire preuve d’exactement la même ultime mauvaise foi intellectuelle que le coup de la taxe copie privée sur les supports professionnels.
Taxer la simple possession d’une télévision au profit de la télévision publique fait sens parce que tu ne peux à priori rien faire d’autre avec. (je mets à priori car les gens qui cherchent juste un écran de très grande taille pour console/pc se font bien baiser, mais c’est effectivement une minorité de la population).
Donc, si tu l’as acheté, c’est qu’à priori tu comptais regarder la télévision. Partant de là, la probabilité pour que tu regardes, même sporadiquement, une chaîne publique peut être suffisante pour justifier la taxe (enfin, perso je ne trouve pas, mais je comprends la logique du raisonnement surtout pour l’époque : très peu de chaînes, 0 moyen efficace de jauger les usages).
Là, on parle d’ordinateurs et de téléphones, sur lesquels regarder la télévision n’est ni l’usage principal, ni l’usage secondaire, ni même probablement l’usage tertiaire.
Même en termes de consommation de contenus vidéos, les chaînes publiques ne doivent pas représenter plus de 0,1% de toutes les vidéos vues dans une période donnée : le gros, c’est Youtube + Netflix & co + Twitch.
Au-delà de ça, il serait extrêmement facile aujourd’hui de s’assurer que la télévision publique n’est pas regardable sans payer la taxe : soit en joignant les informations fiscales, soit en faisant un accès par abonnement.
Arrêtons de prendre les gens pour des pigeons / portefeuilles sur pattes, surtout pour quelque chose d’aussi accessoire que la télévision publique quand on a tellement de sujets mille fois plus importants pour lesquels prendre l’argent du contribuable (éducation, recyclage, urbanisation écolo, etc).
Mais que faut-il pour que l’État se mette à la transparence ?
30/10/2017
Le 30/10/2017 à 16h 37
Proposez nous plutôt une solution (autre que la guillotine) pour assainir structurellement les administrations (j’avoue que j’ai pas trouvé de solution n’impliquant aucune violence). Une fois que les problèmes de fond en terme de management auront été gérés, tous ces sujets pourront avancer bien plus vite. " />
Le 30/10/2017 à 16h 32
La barbe…
Vous frôlez limite la mauvaise foi “à charge” là…
Vous ne pouvez pas oser écrire…
Il y a certes un besoin d’anonymisation, de caviardage des mentions portant atteinte au secret industriel et commercial, etc. Mais on ne parle même pas de cela ici, puisque les différentes occultations ont en principe déjà été réalisées lorsqu’un document est communiqué au citoyen.
Quand vous avez écrit juste au-dessus…
Le texte porté par Axelle Lemaire n’a finalement que consolidé cet édifice, en le faisant entrer dans une nouvelle dimension. Dès lors qu’un document administratif existe au format électronique, il a (pour simplifier) vocation à être mis en ligne tôt ou tard, dans un format compatible avec les standards de l’Open Data.Pour être plus précis, les administrations d’au moins 50 agents sont tenues de mettre automatiquement en ligne, « dans un standard ouvert, aisément réutilisable et exploitable par un système de traitement automatisé » :
Le point sur lequel vous prenez bien le soin d’appuyer n’est qu’un élément parmi de très (TRES) nombreux.
Et honnêtement, plutôt que de taper sur les administrations maintenant, vous auriez mieux fait de taper sur le rapporteur du texte ou les députés ayant influencé le choix des délais. Ceux ci sont tout simplement ridicules, à s’en taper le cul par terre (Surtout que la loi Numérique elle-même est venue ajouter un flou non
artistique aux obligations concrètes des administrations, comme le
relève la CADA elle-même dans votre propre article mis en lien). Ils ont juste été choisis pour que les parlementaires en cause puissent se faire mousser (“vous voyez avec moi l’Open Data est à nos portes, ça avance à grand pas”).
Rien que dans les entreprises que j’ai pu fréquenter, pour la plupart de petite taille, les bases de données et autres éléments ayant potentiellement un intérêt à être communiqués à des tiers/partenaires/clients, ou simplement tenus correctement pour être analyés en interne, étaient dans un état proche de l’inexploitable.
Alors les bases de données des administrations… Entre les problèmes de format (probablement des bons vieux tableaux Excel avec masse de macros écrites à l’arrache dans beaucoup d’administrations), les problèmes de pertinence (vérifier que les informations sont encore pertinentes et lisibles), l’hébergement (prévoir l’emplacement en ligne et le débit) qui touchent n’importe quelle entité, et les problèmes inhérents à l’administration qui affectent son efficacité au quotidien (querelles de pouvoir interne, étouffement par circulaires façon gavage d’oies, absence de stratégie de communication et collaboration horizontale ou verticale -enfin, ça existe, mais généralement il s’agit d’initiatives isolées-)…
Sans parler du reste des éléments de la liste, rien que les bases de données il faudrait probablement deux années à plein temps pour les mettre d’équerre (c’est à dire publiable d’une manière qui permette réellement leur exploitation). Et encore, pour les administrations de taille suffisante pour pouvoir au moins libérer des ressources pour ça. Allez donc en parler aux collectivités locales qui galèrent déjà à budgétiser le service minimum pour voir (encore, heureusement que la plupart des municipalités sont épargnées, les maires se tireraient une balle)…
Et il faudrait avoir 100% de la liste au-dessus publiée au plus tard fin 2018 ?
Autant croire au Père Noël ça ira plus vite…
Je le répète : pointer du doigt des dysfonctionnements ponctuels (fussent-ils fréquents au sein de certaines administrations) issus uniquement d’une mauvaise volonté, c’est une bonne chose, et je vous en remercie. Utiliser les soucis d’accès à des documents censément publics pour montrer l’arbre (les soucis) qui cache la forêt (absence structurelle de collaboration et problèmes d’ingérence politique), c’est toujours utile.Mais critiquer la non-réalisation d’objectifs irréalisables, c’est faire preuve d’absence de recul d’une débilité sans nom, indigne de la qualité de réfléxion à laquelle vous nous habituez. Cela revient à prendre un citoyen lambda qui a passé 15 ans à bosser dans une SSII ou autre entreprise au management structurellement merdique et, faute de temps/organisation (par sa faute ou celle de son management) foutre tous ses documents en vrac dans Bureau, les formater à la main et en mode minimum, à rédiger des mails en mode malpropre (pas d’objet ou objet pourri, pas de signature, mal écrit, malpoli)…
Et lui dire “ok mec, dans un mois je veux un ordi clean avec tous les éléments multimédia triés par album et taggués correctement, en flac, les documents réécrits en LibreOffice et lisibles et étiquettés selon l’interlocuteur, le sujet et le mois et année d’écriture, et les mails proprement rangés dans des sous-dossiers avec des objets et en-têtes/signatures corrects… Sans quoi on va grave se foutre de ta gueule pour incompétence notoire. Ah, et, bien entendu, tu fais ça sur ton temps libre hein, faut toujours que t’assures ton job en plus de ça.”.
" />" />
Ou, tiens, pour prendre un exemple qui vous parlera plus : imaginez que pour une raison ou une autre vous soyez forcés de mettre à disposition toutes vos données “dans un format standard” au titre de l’Open Data : quand aurions-nous enfin accès à l’intégralité des anciennes news et commentaires de news, dans une archive zip comprenant des fichiers xml, avec chaque élément taggué pour comprendre les métadonnées essentielles de type date, auteur, catégories, news liée, profil lié etc… ? Hmm ?
Perso je parie sur 18 mois. GRAND MINIMUM. Tout simplement parce que ce ne serait légitimement pas un truc prioritaire pour vous au regard de la mission d’information qui vous échoit au quotidien, sans compter l’absence de moyens à y consacrer (ou alors, paye ton stage de qualitay).
Et on parle quand même d’un truc vachement limité là (sans être péjoratif hein, c’est juste un truc sans conséquence légale, qui ne touche potentiellement qu’une -très- petite partie de population, et dont la taille ne doit pas monter au delà de 50 000 news et 800 000 commentaires à vue de nez -hors Inpact Virtuel " />-).
Je fais partie des premiers à prendre froid ces jours-ci pour cause de poil constamment hérissé de voir tous les trucs qui merdent plus ou moins violemment dans la société française en générale, et les rouages administratifs en particulier. C’est pourquoi je supporte d’autant moins les décharges personnelles d’aigreur de journaliste masquées sous des oripeaux de juste dénonciation.
Nintendo a presque triplé ses revenus au dernier semestre
30/10/2017
Le 30/10/2017 à 15h 47
J’avoue que c’est la seule raison pour laquelle je ne croyais qu’à un demi-succès de la console (soit nettement mieux que la Wii U, pas mais la folie constatée) : à mon sens, l’atout majeur de la console c’était l’aspect “console portable de qualité, avec option déport sur grand écran”, et l’autonomie merdique scandaleuse lamentable très limitée allait brider les volontés d’achat. Plus quelques autres détails qui n’en sont pas forcément (comme la différence de rendu et de perfs en mode dock/portable).
De toute évidence comme d’autres j’ai sous-estimé…
*Parce qu’au Japon, je n’avais aucun doute sur le raz-de-marée vu qu’ils vivent pour les consoles portables et vivent dans un monde ultra connecté et “électrisé” si j’ose dire. Mais en Occident ? Il faut croire qu’il y a plus d’avions/trains/bus équipés en prises électriques que je ne croyais, ou alors les gens l’ont acheté pour les trajets quotidiens…
Le 30/10/2017 à 11h 02
Quel dommage qu’il soit aussi difficile (pour ne pas dire impossible) d’acheter des actions japonaises.
Même en tenant compte de la lourde perte dûe à tous les intermédiaires et leurs ponctions, il y avait moyen de se faire du blé… " />
Bref, félicitations à Nintendo pour avoir enfin réussir à sortir la Wii U (bah ouais, franchement, c’est ce niveau de mobilité que la Wii U aurait dû offrir dès le départ).
Même si c’est un peu triste de se dire que ça les dissuadera sans doute pour les vingt ans à venir de retenter le coup de “on laisse la place aux éditeurs tiers pour le lancement”. Quant à ces derniers, ils doivent encore bien sentir la baffe… " />
Statut du lien hypertexte : « ce que nous, Français, avons proposé »
25/10/2017
Le 25/10/2017 à 20h 58
Belle utilisation d’une technique de négociation classique : on commence par poser une idée qui semble équilibrée, histoire d’inciter l’interlocuteur à croire que l’on a un point de vue posé, construit, intelligent, qui comprend et intègre tous les points de vue et tous les intérêts pour proposer un compromis efficace…
Puis on balance sa grosse bouse 100% intérêt propre 0% intérêt commun en espérant que l’amalgame se fera… " />
L’ouverture des décisions de justice en débat au Sénat
24/10/2017
Le 24/10/2017 à 11h 15
Bon. Je ne suis plus dans la sphère juridique à proprement parler depuis un moment, donc mes souvenirs de procédure civile et pénale sont très limités. Toutefois…
Alors, d’où vient cette crainte ?
Je n’ai rien trouvé sur le sieur en lui-même, donc peut-être n’est-ce qu’un sinistre préjugé de ma part, mais cette proposition me donne tout l’air d’une mesure de prévention destinée à couvrir les politiques de leurs crasses (comprendre = espérer qu’il soit plus difficile de ressortir les dossiers lorsqu’untel essaye de se faire mousser).
Six mois pour dénouer la difficile réforme de la chronologie des médias
18/10/2017
Le 20/10/2017 à 14h 42
Bof…
Je te remercie pour les noms de films d’horreur, vais voir si je peux mater ça…
Mais honnêtement tu éclaircis le tableau par amour du cinéma.
Le fait est qu’il y a beaucoup de sombres merdes. Sur le principe pourquoi pas, après tout, c’est en forgeant qu’on devient forgeron, donc il faut bien laisser les jeunes acteurs/réalisateurs/monteurs etc se faire la main avec un ou deux longs-métrages à ambition commerciale.
En revanche, quand on voit des films à gros budget qui sont des nanars pires que des films d’étudiant, pour lesquels les acteurs touchent des centaines de milliers d’euros “parce qu’ils sont connus”… Et que personne ne trouve rien à y redire… C’est qu’il est temps de jeter le système.
Je dis bien jeter, pas réformer : car le problème n’est pas que structurel, il est aussi humain. Et les humains se démerdent toujours pour passer au travers des mailles de la réforme. Alors que quand tu montes un nouveau truc de zéro, ça s’accompagne généralement d’un rejet de l’ancien système qui permet d’éviter que les rats ne montent sur le nouveau navire (enfin, les rats de l’ancien système. Evidemment, il peut y en avoir de nouveaux qui ont flairé le filon).
Quant à Netflix… Ils ont clairement tout compris, eux, en revanche je ne serais pas si positif sur leur offre. Les doublages sont souvent à l’ouest (particulièrement sur les oeuvres japonaises, c’est un scandale, même moi je ferais généralement mieux alors que mon japonais se limite à une vague compréhension générale), et s’agissant de leur catalogue propre, on varie entre l’excellent et le tout pourri, avec toute la gamme de nuances entre les deux.
Cela dit, là tout de suite si on me demandait qui contribue le plus à l’enrichissement culturel général entre le CNC et Netflix, je réponds Netflix, sans la moindre hésitation.
Le 20/10/2017 à 14h 27
« On n’a pas conscience de la révolution que l’on est en train de se
prendre dans la figure. Nous ne sommes pas organisés pour faire face à Netflix, à Amazon Prime Video. On manque d’organisation, on ne se projette pas assez dans l’avenir ».”
C’est vrai, pauvres gens, ils n’ont eu que 15 ans pour se préparer… " />
La seule chose qui m’empêche d’apprécier pleinement leur agonie, c’est que la plate-forme qui rafle la mise est américaine, avec l’état d’esprit qui va avec (si un jours ils obtiennent la masse critique pour devenir pseudo-monopolistiques sur le marché, on va en chier derrière niveau tarifs et conditions d’utilisation).
Mais à chaque fois que quelqu’un tentait quelque chose d’intelligent en France il s’est fait fusiller par les ayants droits. Faut pas venir chouiner maintenant. “Qui sème le vent…”
Ubuntu 17.10 disponible en version finale : la grande bascule vers GNOME Shell
19/10/2017
Le 20/10/2017 à 10h 56
Heu… Ahem… T’es trop subtil pour moi là, je pige pas la blague… " />
Le 20/10/2017 à 10h 45
Et là, dans l’article, le jugement de valeur, la métrique de
l’évaluation si j’ose dire qui justifie l’emploi “d’expérience
utilisateur” et pas simplement “d’utilisation”, c’est justement tout le
changement induit par ces modifications, jaugé selon le présupposé (qui
se vérifie assez souvent) que les utilisateurs sont rétifs au
changement car celui-ci induit une perte d’efficacité plus ou moins forte et plus ou moins longue dans le temps.
Le 20/10/2017 à 10h 36
Bref, tu joues sur les mots encore plus que les anglais quoi. " />
Et cette évaluation s’appuie nécessairement, intrinsèquement, sur des préconceptions portant sur ce qu’attend le public utilisateur du logiciel, et la manière dont on suppose qu’il va vouloir l’utiliser (ou, plus fourbe, sur la manière dont on souhaite qu’il l’utilise).
Adoption définitive du projet de loi contre le terrorisme, successeur de l’état d’urgence
19/10/2017
Le 20/10/2017 à 10h 54
Peut-être parce que les gens qui se sont fait perquisitionner sans raisons ont plutôt le réflexe d’éviter de faire des vagues plutôt que de publiciser ça à tout va, par crainte de représailles ?
Tu n’as qu’à voir le documentaire Nothing to Hide, pour faire le lien : il est assez facile de fabriquer une image d’un citoyen qu’on veut vraiment pourrir, pour que les différents rouages judiciaires se mettent en branle sans sourciller. Tout comme il est très facile désormais de museler son expression sur le net (un p’tit coup de “trouble à l’ordre public” et c’est réglé o/).
Mais bon, tu as raison, tout va bien, cette loi est parfaite dans le meilleur des mondes, et si plusieurs dizaines d’association de défense des libertés des droits fondamentaux, non seulement françaises mais également européennes et même internationales, ont envoyé des avertissements publics et forts sur les risques qu’engendrait cette loi… C’est juste pour justifier leur existence… " />