votre avatar Abonné

white_tentacle

est avec nous depuis le 18 août 2008 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

922 commentaires

[Interview] Initier les enfants au code ? « Pas urgent » selon Benjamin Bayart

Le 16/07/2014 à 09h 53






Dyblast a écrit :

En effet. Dire que c’est la seul que l’on peut enseigner en primaire est une betise. Programmer sans savoir comment fonctionne la machine est une hérésie. Tu programmes mais tu fais nimporte quoi.



Soit tu n’as pas la même vision de ce qu’est « programmer », soit juste tu dis de la merde.

Le but d’enseigner le code en primaire, c’est justement de familiariser avec ce qu’est une machine, ce qu’elle n’est pas, ce qu’elle fait et ce qu’elle ne peut pas faire. Avec justement une notion fondamentale, qui est le déterminisme.

Apprendre à coder, c’est un moyen simple de se familiariser à l’informatique. Personne n’a parlé d’enseigner le c++ en primaire, réveillez-vous un peu !



Avygeil a écrit :

C’est un peu comme si on faisait apprendre la relativité restreinte avant d’apprendre à lire une horloge et de comprendre le déroulement du temps.



Aussi idiot que de dire qu’il faut apprendre la théorie des groupes pour apprendre les mathématiques. Ah merde, on enseigne aussi les maths en primaire ? Comment on fait ?

C’est clair que des trucs comme :

AVANCE 10
TOURNE 45
AVANCE 30
LEVE CRAYON

c’est « trop loin de la machine » et « incompréhensible pour un gamin », etc ?



Le 16/07/2014 à 09h 33






Constrilia a écrit :

Et rien sur les modalités de l’enseignement de la programmation à l’école? Rien sur le fait qu’étant donné que cela ne sera certainement pas le corps professoral qui sera le plus à même de prendre ces cours en charge mais qu’il va falloir aller chercher ailleurs (au hasard: du côté des entreprises, des fournisseurs de logiciels propriétaires etc.)?
Non parce que quitte à vouloir jouer les lumières, au temps éclairer tous les recoins.



Les instituteurs sont normalement formés pour donner des cours d’informatique « basique ». Après, oui, vu le niveau, on part de loin et ça ne sera pas glorieux. C’est d’ailleurs pour cela qu’il aurait fallu continuer de le faire (ça a été commencé dans les années 80) et pas arrêter comme on l’a fait. Mais si on persiste, dans 20 ans, on aura un enseignement correct de l’informatique en primaire.

Et contrairement à M. Bayart, je pense que c’est indispensable vu l’orientation que prend la société. Le code n’est qu’une des composantes de ce qu’il faut enseigner en informatique, mais c’est la seule qu’on peut enseigner dès la primaire.



Le 16/07/2014 à 09h 19






lateo a écrit :

Soit, mais gaffe à la technique d’apprentissage alors, parce que l’algo tel que je l’ai étudiée, ce n’est pas franchement ludique pour un gamin de moins de 10 ans <img data-src=" />



Tu peux faire faire du logo à des gamins, c’est très ludique de dessiner des formes. Encore plus si les formes sont ensuite dessinées par un robot « réel » sur du vrai papier, piloté par le programme (ça coûte moins de 1000 € d’investissement pour faire ça, c’est loin d’être hors de portée d’en avoir un par école).



[MàJ] Uber condamné à 100 000 euros d’amende par la justice française

Le 11/07/2014 à 05h 34






Nhacsam a écrit :

Ce n’est pas déclaré parce que c’est interdit, et non pas l’inverse.
De plus Thiboo nous a dit qu’ils étaient auto entrepreneur. Si tel est le cs, ils sont déclaré.



Et comme, bien évidemment, ils sont assurés à titre commercial, il n’y a aucun soucis et tout est en règle. C’est donc uniquement pour protéger le monopole des taxis que c’est interdit <img data-src=" />


Une centrale de taxi n’a pas vraiment besoins d’innover parce qu’elle n’a pas vraiment de concurrence et que le système en place la fait vivre très confortablement. De plus, les grosses innovations viennent rarement des entreprises déjà en place. Parce que ça représente un risque élevé et ça demande un grand écarts très dur à gérer (surtout quand ça impacte le business model ou que ça demande des compétences différentes).


Yep, mais là, elles sont allées au-delà, en usant de leur quasi-monopole pour empêcher le développement d’offres alternatives type réservation sur mobile. Elles continuent d’ailleurs face à Uber. Le malheur, c’est qu’Uber est loin d’être une entreprise exemplaire, et que d’autres acteurs respectueux du cadre légal auraient pu se développer sans cette mainmise des centrales de taxi sur le marché.



Le 10/07/2014 à 13h 27






Nhacsam a écrit :

Oui et ? Le seul problème que je vois avec ça c’est que c’est interdit et que je ne vois pas pourquoi.



Quelques indices :




  • les revenus ne sont pas déclarés aux impôts

  • la personne n’est pas assurée pour le transport de passagers en tant qu’activité commerciale

    Le covoiturage est à peu près juridiquement défini, si tu cherches un covoiturage, il y a blablacar par exemple (même s’il y a aussi quelques dérives sur ce site)

    Tous les taxis clandestins ne sont pas des escrocs, de même que tous les taxis officiels ne sont pas honnêtes. N’empêche, j’aimerai pas être le con qui est impliqué dans un accident avec un taxi clandestin, parce que je doute que son assurance mette volontiers la main au portefeuille.


    Qu’on continue a empêcher nos boite d’innover


    Ceux qui empêchent d’innover sont les centrales de taxi. D’ailleurs, le rapport Thévenoud contient des mesures favorables à l’émancipation des taxis desdites centrales. Là, on parle d’une boîte qui se fait du fric sur le dos de gens qu’elle incite à ne pas respecter la loi. Ça t’étonne qu’elle soit sous les foudres de la justice ?



Inbox, le projet qui veut révolutionner la gestion des emails

Le 08/07/2014 à 16h 19






Pazns a écrit :

N’oublions pas l’adage bien connu en Informatique car il mériterait d’être bien plus souvent respecté : Ne pas réparer ce qui n’est pas cassé.



Imap+smtp est quand même un peu pourri.

Quand tu songes que pour envoyer un mail, il est envoyé 2 fois au serveur (1 fois au smtp, 1 fois à l’imap pour le stocker dans les messages envoyés), ça fait pas rêver…



Le Parti Pirate enverra une eurodéputée à Strasbourg

Le 26/05/2014 à 08h 50






kade a écrit :

Il y avait également de longues minutes de présentation sur la TV publique (à la place des pubs) de tous les partis. A chaque fois, les micro-partis disaient qu’il fallait imprimer soi-même.
De toute façon c’est crétin tous ces bulletins.
Les professions de foi ok, mais dans les bureaux de vote : 1 bulletin avec tous les noms, 1 stylo accroché dans l’isoloir et basta.
Quel pognon foutu en l’air entre les bulletins reçu à la maison + ceux dans les bureaux… Sans compter qu’en effet les petits partis n’ont pas les moyens de financer ça.



Et t’iras dépouiller, aussi. C’est déjà assez galère avec des bulletins de couleur différente, alors s’il faut vérifier les croix et si c’est bien coché (sans compter le nombre qui vont cocher plusieurs cases, les vieux que tremblent qui vont déborder, etc), je te laisse imaginer ce que ça donnera. Mais c’est sûr que si tu n’a jamais fait un dépouillement de ta vie, tu n’imagines pas.



Faut-il sensibiliser les enfants au code dès l’école primaire ?

Le 21/05/2014 à 09h 14






Baldr a écrit :

J’ai quand même l’impression qu’encore une fois, un amalgame énorme est fait entre “la programmation” et “l’utilisation de l’outil informatique” en général. Je suis assez curieux de savoir comment ils établissent le lien entre “coder” et “réaliser des films”.

Ce qui me surprend aussi c’est ce besoin soudain qui a l’air de découler d’une idée novatrice de génie qui est de former les enfants de primaire à la programmation et au code. Quand j’étais au CP, il y a 25 ans, ma prof avait une “tortue” dotée d’un feutre, qui se déplaçait sur une grande surface de papier posée au sol et pouvait abaisser ou remonter son feutre pour commencer à tracer et arrêter de tracer. On devait écrire des courts programmes pour dessiner plusieurs formes sur la feuille sans que les formes ne soient reliées entre elles par un trait. Sous couvert de nous apprendre à nous repérer dans un système en 2D au final on avait déjà une initiation au code. Du coup je m’interroge. C’était propre à mon institutrice ce truc ? Elle était une sorte de visionnaire qui nous enseignait déjà à coder ? <img data-src=" /> Ou c’est quelque chose qui était dans les programmes scolaires et qui a disparu ensuite au cours des nombreux allègements ?



Idem pour moi, logo et basic dès le primaire (en cm1 je pense). Par contre, le feutre qui traçait vraiment, c’était du luxe, nous on n’avait pas ça.

Mais c’est clair qu’on avait 20 ans d’avance là-dessus, tandis que maintenant on a 10 ans de retard… Et toujours pas de profs pour enseigner l’informatique.



[MàJ] Synology : 184,95 € pour le NAS EDS14, le DSM 5.0 arrivera plus tard

Le 06/05/2014 à 08h 29






piwi82 a écrit :

Bien sûr qu’il est possible de l’utiliser pour une utilisation @home, mais ce n’est pas du tout ce pour quoi il a été conçu.
C’est le seul Syno qui peut fonctionner par 50°C ambiant dans la durée, le seul alimentable par PoE et le seul à disposer d’une sortie 7-24V à 1A.
Je doute franchement que Synology ait fait ces choix techniques pour les particuliers…



Je ne sais pas où tu as vu qu’il est alimentable par PoE, je ne l’ai pas trouvé dans la fiche technique.

Sinon, le -2050, c’est cool, mais pour de l’environnement industriel, un connecteur d’alim qui ne se visse pas, c’est un fail.

Un peu bâtard en fait comme produit…



Le récap' des tests : les terminaux mobiles ne connaissent pas les jours fériés

Le 02/05/2014 à 13h 13






Hey Joe a écrit :

En toute franchise, pour le même prix, je conseille plutôt le Lumia 520. La gamme X de Nokia, je pense qu’elle n’existera plus dans un an.



C’est effectivement très possible. L’autre possibilité est que ce soit les asha qui disparaissent.


Après, c’est quand même vrai que la qualité matérielle est un cran au-dessus des no-names chinois. Pour le reste, comme le dit le test, la qualité du son des appels est médiocre et l’engin rame pas mal, constaté personnellement avec un exemplaire de démo passé par le commercial de Nokia et utilisé une journée.


Je ne sais pas ce qu’on entends aujourd’hui par un téléphone qui ne rame pas. En tout cas, pour moi c’est au niveau des téls de prix comparable (jamais eu de 520 dans les mains), et ça n’est pas une gêne à l’utilisation. Des gens dans mon entourage ont des wiko/alcatels/acer, je trouve mon nokia X un peu plus fluide (mais leurs tél ont plutôt 6 mois / un an).

En tout cas, je suis en désaccord pour ce qui est de la qualité des appels : je n’ai aucun soucis avec, elle est bonne, ainsi que la réception. Ça dépend peut-être des réseaux… (je suis chez free).


Pour remplacer les Asha à terme, pourquoi pas, mais si on veut des tuiles pour le même prix, vaut mieux prendre un Lumia 520, avis personnel.


Oui. Mais je ne voulais pas non plus d’un windows phone (pour à peu près les mêmes raisons que je ne voulais pas d’un android google).



Le 01/05/2014 à 16h 57

J’ai le Nokia x. En ce qui concerne l’autonomie, il tient deux jours sans problème en usage normal. L’écran est bien mais limite en extérieur. Le son est ok, je n’ai pas fait de test en dehors de mauvais écouteurs et d’un autoradio doc ce n’est pas hyper probant. Pour ce qui est de la qualité, on a quand même l’impression d’avoir un Nokia dans les mains, pas un tel bas de gamme.

Perso le critère de choix a été :




  • Pas de services google

  • Nokia maps.

  • le fait que ça soit un Nokia et pas une merde chinoise

  • l’interface me plait mieux que l’android de base.

    À noter que la réception tel est très bonne.


La crainte de Samsung a envoyé Nokia dans les bras de Windows Phone

Le 30/04/2014 à 08h 17






lossendae a écrit :

Il était dépendant de Symbian, il perdait de la valeur avant le choix de WP, je trouve pas qu’il aie perdu de leur savoir faire R&D (exemple ?) comparé à ce qu’il faisait à l’époque.



Toute l’ex-équipe trolltech, à l’origine de Qt, a été revendue (désormais c’est digia). Une énorme partie des ingénieurs soft sont partis, certains notamment ont fondé Jolla. Nokia était une entreprise qui avait les capacités de développer un OS, un environnement de développement et pléthore d’applis à côté, ce qu’elle n’est plus. Il lui reste le hard et la cartographie, et un peu de soft applicatif (ils l’ont prouvé avec le nokia X).


Quand l’iphone est sortit, Nokia lançait le N95. Certes c’était un bon smartphone, mais clairement pas au niveau de l’iphone. A leur décharge, il n’y avait aucun appareil au niveau de l’iphone pendant au moins 1 an.

Tous le monde s’est laissé surprendre.


Par le fait qu’on pouvait vendre une fortune un smartphone qu’il fallait recharger tous les jours ? Oui, personne n’y croyait :) (et personnellement, je n’ai toujours pas compris comment ça a pu marcher).



Le 30/04/2014 à 07h 23






lossendae a écrit :

Et je faisais partie de ceux qui prédisait l’échec d’Apple, et la hype, et le manque de clavier, et…. j’ai essayé l’iphone.
Et c’était autres chose qu’un N95…



Symbian est une bouse avec le sdk le plus pourri du monde. Ça s’est amélioré avec belle, mais c’est à peine au niveau d’un maemo 5 sorti 3 ans plus tôt, dont nokia disposait en… 2009.

Certes, c’est basé en grande partie sur du libre, mais ça comme tu le dis le client s’en tape. La réalité, c’est que le n900 était cher, et n’a jamais été poussé par Nokia parce que « c’est pas un téléphone, c’est une tablette ».


Aujourd’hui, les outils de dev pour Windows Phone son supérieur à toute la concurrence. C’est bien. Les clients s’en tapent.


Aujourd’hui, ce qui intéresse les développeurs, c’est la portabilité. WP est un gros fail de ce côté-là, même si les choses tendent à s’améliorer.


La seule alternative viable - économiquement parlant - permettant les même résultats, était Meego avec intel.


Était surtout de pousser maemo dès le départ, avant qu’il ne soit trop tard.


Qu’est ce qu’ils ont perdu concrètement ?


Leur indépendance, la moitié de la valeur boursière, une grosse partie de leur savoir-faire en R&D soft… C’est pas rien quand même.



Le 29/04/2014 à 12h 37






lossendae a écrit :

certes moins « kikoolol »

Tu résumes l’interface d’iOS à kikoolol !?



J’ai eu un iphone dans les mains, j’ai eu un n900 dans les mains. Le deuxième n’est pas plus compliqué à utiliser, et supporte le vrai multitâche. Par contre, il est moins « kikoolol avec de beaux effets ».


avec en prime un clavier physique…

Oui, l’histoire à prouvé que le grand public est hyper friand de clavier physiques.


Le grand public n’est en général pas prêt à payer un surcoût pour un clavier physique. S’il vient au même prix, c’est différent.


Et c’est censé être moi qui réécris l’histoire ? <img data-src=" />


Le fait est que tu dates la sortie d’un OS nokia complet, alternative crédible à iOS / Androïd trois ans plus tard que la réalité. Nokia était prêt à temps, mais a délibérément choisi de baser sa stratégie sur un autre produit.



Le 29/04/2014 à 08h 18






lossendae a écrit :

Je m’en souviens tres bien et ça n’entre pas en contradiction avec ce que j’ai dit : “Aucun écosystème, tout à créer”.

Android à l’époque n’avait rien de fringuant, mais le play store se targuait de millions d’apps, et les apps restent même aujourd’hui un élément de mesure de la qualité de de l’OS (malheureusement).



Attention à ne pas réécrire l’histoire. Maemo est le système du n900. Il est sorti en 2009. Soit en gros un an après l’iphone 3G ou android. Il offrait une interface multitâche, claire, certes moins « kikoolol » mais fonctionnelle, et tout ce qu’on pouvait attendre d’un téléphone haut de gamme, avec en prime un clavier physique.

Meego (en fait, le n9) est sorti en 2012, soit 3 ans après. Quand le n9 est sorti, c’était effectivement trop tard (quoi qu’avec une compatibilité aux applis android et une vraie volonté commerciale derrière, les choses auraient pu en être autrement).

Mais nokia avait un OS prêt et même en avance au moment où tout était à faire. Problème : il venait de la division tablette, pas de la division téléphones. C’est le choix de continuer sur cette bouse de symbian plutôt que de pousser maemo, choix lié à des conflits internes chez nokia, qui a fait que nokia s’est retrouvé, 3 ans plus tard, complètement à la rue. Et qu’un téléphone comme le n8, malgré un hard au top, a fait un flop.



Interview de la ministre Lebranchu à propos de la politique d’Open Data

Le 28/04/2014 à 13h 58

Ça manque pour l’instant de concret, oui. Mais les intentions sont bonnes, restent à voir si elles seront suivies d’effet.

Si on nous refait le coup de la transparence pour les conflits d’intérêts des médecins, c’est clair que ça ne va pas le faire…


Quelle réglementation sur les QR Code apposés sur les tombes ?

Le 14/04/2014 à 14h 36






_ag a écrit :

Il faudrait commencer à faire une taxe pour y voir plus clair.

En quoi ça dérange qu’un QR code redirige vers le site de la société du défunt ? Ou vers la société qui a gravé le marbre ? Même si c’est dans un lieu public, ça reste un QR code discret, pas une publicité agressive.



Au minimum un peu d’information du public. Ensuite, comme dit, l’information n’est pas sur la tombe elle-même, puisque c’est seulement un lien –&gt; pas sûr que si dans 20 ans, des petits malins rachètent le nom de domaine et servent du p*rn derrière, la famille du mort appréciera.



Un accord salarial soumet certains cadres à une obligation de déconnexion

Le 09/04/2014 à 08h 58

C’est un énorme progrès. Ça veut dire que désormais, les représentants du personnel vont avoir une base solide pour lutter contre ces pratiques.

Idem, on ne pourra plus « reprocher » à un employé de ne pas avoir lu ses mails le soir ou le week-end.

Bien sûr, ça se fera encore, faut pas être naïf. Mais ça se fera dans l’illégalité, là où auparavant ça se faisait dans le flou. Dans des dossiers de licenciement, de harcèlement, etc, c’est un point qui sera important. Bref : <img data-src=" />


Un député propose d'interdire les Bitcoins en France

Le 12/03/2014 à 13h 43






tass_ a écrit :

Ho merde moi qui croyait que le but d’un politicien était de pouvoir faire en sorte que les volontés du peuple soient exécutés. Rien d’autre.



Si le politicien suivait les volontés du peuple, ils seraient tous interchangeables et ne serviraient à rien. On pourrait choisir ses représentants de manière aléatoire, ce serait pareil.

Un politicien a un seul but, être élu pour exercer le pouvoir.

Après, il peut y avoir différentes motivations derrière ce but :




  • juste pour avoir le pouvoir

  • pour s’en mettre plein les fouilles

  • parce qu’il pense qu’il fera mieux que les autres

  • parce qu’il pense qu’il est le seul légitime

  • etc.

    Mais fondamentalement, oui, un politicien, son but, c’est d’être élu. Faut pas se voiler la face là-dessus. Après, les moyens qu’il met une œuvre pour arriver à son but, c’est une affaire entre lui, le peuple et la justice (puisqu’on est dans une république, qui implique que le politicien rende des comptes à la justice, démocratique, qui implique qu’il rende des comptes au peuple).



Le 12/03/2014 à 13h 03






tass_ a écrit :

Non je dis que c’est ce qu’est devenu la “démocratie” représentative, que ce n’est plus l’expression du peuple comme voudrait le faire croire jc.



La bonne question est « qu’est-ce qu’est l’expression du peuple ? » (sachant que, comme je l’ai déjà expliqué, un ensemble d’individu n’est pas une entité rationnelle dans ses désirs).

Si tu arrives à répondre à cette première question, tu peux affirmer que « la “démocratie” représentative, ce n’est plus l’expression du peuple ». Moi, je ne sais pas répondre à la première question, donc ne j’affirmerai pas des trucs comme ça.

Tout ce que je constate, c’est que pour l’instant, la démocratie représentative, c’est ce qu’on a trouvé de moins pire pour construire une société qui me convient. Et que je pense que la démocratie directe fera moins bien.



Le 12/03/2014 à 12h 59






tass_ a écrit :

Qui a dit ça ? Mais j-c_32 je cite “à certains moments, un politicien motivé par ses convictions va accepter un “show” ou de faire une promesse qu’il sait n’est pas réaliste, non pas parce qu’il veut garder le pouvoir, mais parce qu’il sait que s’il ne fait pas ça, à cause de la connerie des citoyens, il ne pourra jamais atteindre un niveau qui lui permet de changer les choses non pas pour lui mais pour l’idéal qu’il défend”

Il sous entend que le politicien même honnête va devoir être corrompu pour pouvoir se faire élire, le pauvre, on le plaindrait presque.



C’est amusant, je ne lis pas du tout la même chose. Moi, ce que je lis, c’est « pour garder le pouvoir / être réélu, un politicien est contraint de faire une entorse à ses idéaux », comme par exemple tenir des promesses qu’il sait intenables. Personnellement, je pense que c’est une erreur de raisonner ainsi, mais dans les faits, c’est effectivement ainsi que raisonnent beaucoup…

Il y a toutefois une énorme différence entre « promettre des choses intenables, mentir » (qui relèvent de la parole, de l’expression) et « être corrompu » (qui relèvent d’actes réels). Tous les politiciens (ou presque) pratiquent la première. La deuxième est, quoi que tu en penses, beaucoup moins répandue.



Le 12/03/2014 à 11h 30






tass_ a écrit :

Ben oui, les conflits d’intérêt, les détournements de fonds, les enrichissements personnels, tout ça c’est à cause du méchant peuple !
Ben voyons.



En fait, tu ne sais pas lire ?

Et puisque tu parles du peuple, il a élu, réélu et encore réélu Berlusconi. Le peuple n’est visiblement pas un rempart efficace contre les détournements de fonds, les enrichissements personnels, la corruption, les conflits d’intérêt (il n’en est pas la cause non plus, qui a dit ça ?)



Le 12/03/2014 à 10h 49






tass_ a écrit :

Pauvre petit homme politique, obligé d’être corrompu et de renier ses idéaux pour se faire élire par cet idiot de peuple !



En l’occurrence, c’est une faiblesse connue des démocraties : la grande difficulté à prendre des mesures impopulaires (par exemple, une augmentation d’impôt) mais nécessaires à la bonne marche de la société.



Le 12/03/2014 à 10h 19






tass_ a écrit :

Mais sinon relis moi aussi : j’ai dit qu’il fallait diminuer la taille des territoires et que les décisions “majeures” pourront se prendre de proche en proche.
Il est idiot de penser qu’on peut prendre des décisions qui seront profitables à 60 millions de personnes, mais on peut prenre 1000 décisions qui seront chacunes profitables à 60 000 personnes.



Je suis convaincu du contraire. Je pense qu’il faut prendre les décisions à l’échelle la plus grande possible. Tes 1000 décisions seront incohérentes entre elles, et aboutiront à une fragmentation territoriale qui contribue au bordel, voire à une concurrence entre les territoires qui peut avoir des effets dramatiques (exemple type : le dumping social et fiscal au sein de l’UE).

En revanche, je suis très conscient des limites que ça a, en terme de possibilités de dérives. Là encore, tout est question de compromis, et rien n’est parfait.



Le 12/03/2014 à 09h 46






tass_ a écrit :

Cf plus haut, ta définition suppose qu’une élite sait plus que le peuple ce qui est bon pour lui.



Comme tu n’as vraisemblablement pas lu mon message, je le remets :

« Le problème de la démocratie directe / référendum, c’est qu’un groupe d’individu n’est pas « rationnel », au sens où il n’est pas capable de définir un ordre strict entre plusieurs propositions (si un individu préfère A à B et B à C, alors il préfère A à C. Dans le cas d’un groupe d’individu, ce n’est pas forcément le cas, il peut préférer A à B, B à C et C à A). Plus le groupe est grand, moins il est « rationnel » (dans ce sens-là). Il existe des mécanismes de vote pour contrer cela (cf Condorcet), mais ils n’ont jamais été essayé à l’échelle d’un état.

C’est (entre autres) pour cela qu’on élit des représentants : le fait que le groupe décisionnel soit plus petit le rend rationnel, ce qui évite que le choix final dépende de la question posée ou de facteurs aléatoires. »

Un ensemble d’individu est intrinsèquement incapable de prendre – au scrutin majoritaire – un ensemble de décisions cohérentes entre elles. Réduire la taille de l’ensemble décisionnel limite ce phénomène (outre le fait que les gens ne se consacrant qu’à ça, leurs décisions sont supposées plus éclairées). La démocratie représentative est donc un compromis entre :




  • satisfaire la volonté du plus grand nombre

  • garder une cohérence politique

    Après, tout n’est pas parfait, certes. Mais la démocratie directe, c’est pire : ça donne un ensemble de décisions complètement incohérentes entre elles.



Le 12/03/2014 à 07h 31






Gats a écrit :

Referendum = démocratie
Élection = oligarchie aristocratique, gouvernement des meilleurs, qui finit invariablement, après quelques décennies de copinage et de corruption, comme un gouvernement des incapables et des bras cassés, qui tenteront par tous les moyens de garder le pouvoir dans leur giron, et (ab)useront de la force et de la répression s’il le faut.



Le problème de la démocratie directe / référendum, c’est qu’un groupe d’individu n’est pas « rationnel », au sens où il n’est pas capable de définir un ordre strict entre plusieurs propositions (si un individu préfère A à B et B à C, alors il préfère A à C. Dans le cas d’un groupe d’individu, ce n’est pas forcément le cas, il peut préférer A à B, B à C et C à A). Plus le groupe est grand, moins il est « rationnel » (dans ce sens-là). Il existe des mécanismes de vote pour contrer cela (cf Condorcet), mais ils n’ont jamais été essayé à l’échelle d’un état.

C’est (entre autres) pour cela qu’on élit des représentants : le fait que le groupe décisionnel soit plus petit le rend rationnel, ce qui évite que le choix final dépende de la question posée ou de facteurs aléatoires.



Le 11/03/2014 à 15h 56






aureus a écrit :

Note que je l’ai lu l’article, il y a plusieurs annnées d’ailleurs, et que ca ressemble a un schéma de ponzi. Les premiers arrivent, ce font de la thune et revendent au second, etc,…., la monnaie étant limitée c’est la présence ou non d’un dernier qui va déterminer si oui ou non schéma de ponzi il y a.

Pour faire simple les bitcoins sont je crois quasiment tous minée ( ou la majorité) c’est donc quand ils vont devenir stable ( ce qui est loin d’être le cas) et majoritairement acceptés qu’on pourra considérer ca comme une monnaie et non comme un système de ponzi.



La stabilité sera acquise (si elle l’est un jour) par un plus grand nombre d’échange (moins il y a d’échange, plus les valeurs sont volatiles, pas de démonstration réelle, mais c’est un constat empirique qui se vérifie sur les places financières à cotation continue).

Pour ce qui est du schéma de Ponzi, je trouve la comparaison peu pertinente (puisque tu me demandes de détailler, amha ce sont plutôt ceux qui l’affirment qui devraient détailler, mais bon :) ) car le bitcoin n’est pas un placement à rémunération. C’est un placement purement spéculatif (il ne rapporte que quand tu revends). L’exemple du bulbe de tulipe qui a déjà été cité ici me semble plus pertinent.



Le 11/03/2014 à 11h 27

La comparaison avec le schéma de Ponzi n’est pas pertinente, en effet.

En revanche, le bitcoin est une nuisance pour l’État :




  • l’état perd le pouvoir d’émettre la monnaie (je sais, avec l’UE, on a déjà fait cette connerie, ça ne veut pas dire qu’il faut continuer)

  • les transactions sont totalement opaques (ie, comme du liquide) ce qui rend compliqué tout contrôle : vive la fraude fiscale et les flux de blanchiment

  • la monnaie est déflationniste car la quantité de monnaie est limitée, donc elle incite à la thésaurisation et pas à l’investissement, ce qui est économiquement mauvais. C’est ce phénomène qui est pris à tort pour du schéma de Ponzi.

    Ça fait en tout état de cause trois bonnes raisons de l’interdire.


Le contrat open bar entre Microsoft et la Défense sous le prisme du Sénat

Le 27/02/2014 à 16h 52






Konrad a écrit :

Tu m’as l’air bien catégorique. Des sources pour appuyer tes dires ? Ou on doit te croire sur parole ?



http://www.zdnet.fr/actualites/selon-le-pere-de-linus-torvalds-la-nsa-a-bien-dem…

C’est zdnet, ça vaut ce que ça vaut. Maintenant, faut pas non plus être con. Ce n’est pas extrêmement difficile d’introduire par « maladresse » une backdoor dans un driver (il suffit parfois de pas grand chose, un débordement à la con). Quand on voit le temps qu’il a fallu pour qu’on se rende compte que le build openssl utilisé dans debian était buggé, on peut mettre en doute sérieusement la qualité de la relecture.

Attention, je ne dis pas que les logiciels propriétaires sont mieux : je pense qu’ils sont mêmes pires, même si ça reste du domaine de l’impression.


Quant à dire que la NSA a introduit des backdoors dans Linux au niveau soft et hardware… <img data-src=" /> Linux c’est uniquement du software hein…


T’as pas compris. Je dis que la NSA cherche aussi à introduire des backdoors dans le matériel, c’est tout. Ce qui signifie que t’as beau être sous linux, t’es pas à l’abri d’une backdoor dans un contrôleur IPMI, par exemple…



Le 27/02/2014 à 13h 48






ledufakademy a écrit :

je confirme,linus n’est pas clair à ce sujet n’en déplaise à certains.

Note : DebFanBoy inside.



Pourtant, c’est très clair. Oui, la NSA introduit des backdoors à plusieurs niveaux dans le noyau linux.

Et rassurez-vous, pas qu’au niveau soft, au niveau hard aussi (le générateur « aléatoire » révolutionnaire intégré aux cpus intel est vraiment soupçonné d’obéir à des caractéristiques très claires et connues de la NSA). Et étrangement, il y avait eu des discussions très enflammées quand un dev kernel a refusé de l’intégrer parce qu’il ne lui faisait pas confiance…

On peut encore parler de la technologie computrace, dont l’utilité pour l’acheteur est douteuse mais qui est un formidable outil d’espionnage.

Ah, et faut pas croire que les BSDs ne soient pas concernés.



Les Numériques quitte la galaxie LDLC, FLCP actionnaire majoritaire

Le 20/02/2014 à 09h 37






lossendae a écrit :

J’ai dit un peu plus scientifique. Suffisamment pour impressionner le quidam.



En fait, je crois que c’est ça le pire. Il y a suffisamment d’habillage pour que ça ait l’air scientifique, mais en fait, la méthodologie est foireuse et les testeurs ne donnent pas l’impression de comprendre ce qu’ils font quand on connaît un peu le sujet.

Quelqu’un a dit plus tôt dans les commentaires que passer beaucoup de temps à mal faire les choses ne donnait pas un résultat bon. Ça résume bien je trouve.



Le 19/02/2014 à 16h 48






lossendae a écrit :

Les numérique vont donner quelque chiffres complémentaires appuyés par des processus un peu plus scientifique, sans être spécialiste.



Le problème est que leur méthodologie est tout sauf scientifique.

En audio, ils te sortent des courbes de réponse en fréquence sur des casques, sans jamais faire remarquer qu’il est parfaitement normal qu’elles ne soient pas plates, en particulier pour les intras, puisqu’ils squeezent le pavillon de l’oreille (même pas sûr que tous les testeurs soient au courant, quand tu lis les avis). Idem pour les enceintes où manifestement, les mesures sont réalisées dans une pièce qui a une résonance pourrie (toutes les enceintes testés ont le même biais).

En photo, ils montrent des zooms sur des éléments au pixel près, au lieu de regarder ce que ça donne sur un tirage papier. (ou une normalisation écran à résolution fixe) Moralité, un capteur avec 3 fois plus de pixels mais de fait plus bruité à zoom 100% sera moins bien noté, même si au final il donne de meilleurs résultats (raison principale de la mauvaise évaluation du nokia 1020, notamment). Et le flou sur des objets « hors champ » qui n’est même pas signalé comme tel (apparemment, le testeur s’en est rendu compte à posteriori).

Rajoute à ça des articles assez régulièrement qui relèvent vraiment du communiqué de presse constructeur, ça achève le tableau.

Bref, ça fait pas sérieux. Et du coup, ça leur ôte toute crédibilité à mes yeux, quelque soit le domaine.



Le 19/02/2014 à 08h 51






marquis a écrit :

Même si je partage en partie ton analyse, il ne faut pas oublier qu’ils étaient parmi les premiers à tester les Wiko, smartphones “Boulanger” ou Huawei



étaient

C’est bien le problème…

Sorti de ce qui a fait leur réputation, à savoir les tests d’écran, tout le reste est assez lol. Même les tests photos ne valent plus grand chose et sont à prendre avec des pincettes.



[MàJ] Nancy vu depuis un drone : Nans Thomas évite le tribunal correctionnel

Le 14/02/2014 à 15h 16






killer63 a écrit :

tu peux me donner la probabilité de mourir en se prenant un drone dans la tronche et celle de mourir en prenant ou balle perdue ou de se faire latter la tronche par un troupeau de racailles ?

à partir de là, tu comprendras ou doivent se situer les priorités



Vu que cette probabilité est au moins linéaire (et avec le risque de collision entre drones, on peut considérer que c’est plus) au nombre de drones volant n’importe comment, ça ne me semble pas déconnant d’expliquer, avant que la situation soit ingérable, que non, faut pas faire n’importe quoi, et que l’on passe d’une probabilité négligeable à une malheureuse réalité.



Le 14/02/2014 à 14h 02






cid_Dileezer_geek a écrit :

Y a pas un INpactien calé en physique qui pourrait nous faire le calcul des “dégats” potentiels d’une masse de environ 750 Gr qui tombe d’une hauteur de 50 m, car certains ne comprennent pas le danger potentiel. <img data-src=" />



En considérant qu’il n’y a pas de frottements, c’est un exercice de lycée.

Ça fait du 31m/s environ, ou 112 km/h. Soit une énergie de 360 joules environ.

Pour info, une balle, c’est 500 joules environ (ça dépend des balles, merci, ceci est un ordre de grandeur). Voila pour la « non dangerosité ».

Même en tenant compte des frottements (allez, à la louche, on divise par 4, ça fait un bon majorant), on est loin de l’objet anodin.



Le NUC d'Intel avec un Celeron N2820 (Bay Trail) arrive pour 125,90 €

Le 01/02/2014 à 07h 20

Le 2820 n’a pas de résutats, mais le 2810 en a. On peut espérer 20% de mieux pour le 2820 vu la différence de fréquence, ce qui le laisse encore en dessous du 1007U, et très largement en dessous d’un pentium G2020 (plus de deux fois plus lent). Pour la partie graphique, idem, à mon avis faut pas s’attendre à jouer à quoi que ce soit avec.

Faut quand même pas oublier que ces processeurs (celeron 1007U ou n2820) ont grosso merdo la puissance d’un cpu d’entrée de gamme de 2008 (par exemple, un pentium E2220), ce qui n’est pas terrible, mais largement suffisant pour un usage bureautique ou pour lire des vidéos (y compris 10bit).


[MàJ] La NSA collecte des informations via des applications, Rovio répond

Le 28/01/2014 à 13h 55

Au détriment des éditeurs ? Mouais, pas tant que ça…

La NSA ne fait qu’intercepter les données que ces « gentils » éditeurs ont décidé de vous voler… Si les données ne sortaient pas de vos téléphones avec la complicité des éditeurs, la NSA n’aurait rien à se mettre sous la dent.


Géolocalisation : l’ASIC s’inquiète d’un projet de loi portant sur « tout objet »

Le 10/01/2014 à 11h 01

L’ASIC se fout quand même grave la gueule du monde sur ce coup-là. Elle refuse à l’état ce qu’elle se permet sans la moindre autorisation. Parce que la géolocailsation des objets connectés, ce sont les premiers à la pratiquer, hein, et pas pour des affaires criminelles, non, pour de la pub ciblée…


Lenovo : un écran 4K de 28

Le 08/01/2014 à 15h 55


Cependant, nos confrères d’Endaget qui ont pu le prendre en mains, expliquent que malheureusement toute l’interface d’Android 4.3 (Jelly Bean) est nativement gérée en Full HD 1080p puis étirée jusqu’à du 4K. Il faudra d’ailleurs voir ce que cela peut donner en pratique, car une image autant étirée, ne doit être guère reluisante à regarder.


En fait, non. Le 4K est exactement le double du HD, donc il n’y a pas de problème de flou lié au redimensionnement. Les pixels sont plus gros, mais nets.

28”, c’est un peu grand pour de la bureautique Full HD, mais ça ne devrait pas choquer outre mesure (sauf, bien sûr, pour les applis qui ont été conçues pour une tablette ou un smartphone, et donc, avec des gros boutons).


Pas d'exonération de redevance pour ceux qui ne regardent pas leur TV

Le 30/12/2013 à 13h 28






titan06 a écrit :

combien sa coute de faire dé tuner une TV ?



Le droit de continuer à payer la redevance.



Le 30/12/2013 à 09h 48






Gab& a écrit :

Tu payes. Même si c’est un écran non branché, stocké dans ton grenier, sans tuner tnt, etc. La possession d’un téléviseur est le seul et unique critère.

edit: télévision, ou système assimilé (box, décodeur tnt, videoproj avec tuner, etc.)



Si l’appareil est seulement stocké mais pas utilisé, tu ne paies pas (sinon, les transporteurs paieraient ;) ).

À noter pour les indécis en cette fin d’année que la possession s’apprécie au 1er janvier : bref, mieux vaut acheter sa 1ère télé en janvier qu’en décembre : on gagne un an de redevance.



Le 30/12/2013 à 09h 32






Larsene_IT a écrit :

suffirait de vendre des TV avec des tuners permettant la réception de ces chaines ou non…

… Ils seraient surpris du résultat, je pense …. <img data-src=" />



Il y a déja des écrans sans tuner. C’est surtout du matos pro, du coup, les prix sont de 1,5 à 2x plus chers que pour une télé.

Il y a quelques années, ça se rentabilisait relativement bien (à 130€ d’économies par an, le surcoût est absorbé entre 3 et 4 ans). Avec la menace de l’extension aux smartphones / ordinateurs / abonnements internet, pas sûr que ça soit toujours un bon calcul…



Gmail affiche les images en clair dans les emails

Le 13/12/2013 à 07h 51






fear_hardcore a écrit :

J’ai toujours cru que c’était pour éviter qu’un serveur distant sache que l’on a ouvert le mail, sans utiliser l’accusé de lecture.

Exemple image avec URL “personalisée” :

http://img.nsa.gov/chats.png?uid=fear_hardcore



Je confirme.

Cela dit, apparemment, ils passent aussi les images à un contrôle anti-virus. Ça ne protège pas des 0-Day, mais de toute façon il reste l’option pour revenir à l’affichage « à la demande ».



Qt 5.2 fait un pas vers Windows RT et prend en charge Android et iOS

Le 12/12/2013 à 13h 11






seblamb a écrit :

Qt a évolué, il supporte nativement , C++11 et javascript



Le truc, c’est que Qt continue d’utiliser des pointeurs nus dans pratiquement toutes ses interfaces, qu’il n’utilise pas d’exceptions (cela dit, il y a de bons arguments sur ce point), que toute sa conception repose sur un « god object » qui relève quand même d’une conception ancienne (et aussi de concession qui ont été faites à l’époque, Qt date quand même d’avant la première normalisation de c++ en 98…).

Les ajouts C++11 de Qt5 sont d’ailleurs ultra-bienvenues (enfin la vérification statique des connexions !)



Arnaud Montebourg et Xavier Niel livrent bataille, sur Twitter

Le 10/12/2013 à 16h 35






Neworld a écrit :

Avec un débit théorique de 150Mbit/s en 4G, tu exploses les 50Mo de fair use en quelques secondes.
Ensuite, c’est gentillement 0.05€/Mo supplémentaire … Donc oui, 1Go en moins d’une minute te coûte 50€ …

C’est un gros effet d’annonce, mais sans aucun intérêt pour le consommateur de ce forfait.



L’intérêt, c’est pour 2€, tu as désormais :




  • les MMS (avant, il fallait payer l’option)

  • 50Mo de data (avant, il y avait 20Mo en option).

    Personnellement, je vois très bien l’intérêt : les MMS, c’est cool, et la data qui dépanne pour aller voir ses mails (en imap, évidemment, pas sur un webmail à la con), c’est cool aussi, et mon abonnement n’a pas changé. La 4G, effectivement je m’en tape, de toute façon mon tél est « que » 3G. Et comme je peux mettre une limite de data échangée par mois, pas de soucis de dépassement.



Nikon : des firmwares bloqueraient l'utilisation de batteries tierces

Le 10/12/2013 à 08h 25

Pas étonnant. Que ce soit Canon ou Nikon, leur politique vis-à-vis des accessoires tiers est tout simplement à gerber.

Il n’y a qa’à voir le mal qu’ont Sigma ou Tamron à suivre les évolutions des boîtiers pour leurs objectifs compatibles qui d’un coup ne le sont plus, étrangement alors que tous les objectifs de la marque le restent…


La Chine demande à demi-mots que le support de Windows XP soit étendu

Le 06/12/2013 à 13h 50






Khalev a écrit :

Oui, une boite qui bosse pour des militaires (je sais pas si je peux dire le nom, faudrait que je vérifie mon contrat) et qui maintient un logiciel libre dans sa version sortie en 1998 (il font les màj de sécurité + ajout de fonctionnalités nécessaires).[/QUOTE]

Si c’est pour du militaire, même si le code était propriétaire, le contrat (je parle d’un contrat bien fait) doit prévoir une clause de transfert du source si l’éditeur fait faillite ou arrête de supporter le logiciel (ce genre de clauses est classique, notamment pour une start-up contractant avec un gros qui veut s’assurer de la pérennité de la solution).

Ensuite, si c’est open-source, je ne vois pas ce qui t’empêche de donner le nom du logiciel et le repository où je peux télécharger la version de 98 maintenue… Ou alors c’est open-source mais non libre ? On commence à arriver dans des cas un peu tordus.

[quote]C’est justement ça l’avantage du libre, même si la maison mère abandonne le support, des petites boites peuvent maintenir un support dans leur coin pour un marché de niche qui n’intéressera jamais les grosses boites.



À condition de trouver un client prêt à payer pour tout le monde. C’est généralement là que le bât blesse. Oui, théoriquement, le support avec le libre est mieux. Mais dans la pratique courante, de manière générale, au final c’est moins bien que Microsoft (qui, cela dit, figure de ce point de vue parmi les meilleurs côté informatique grand public).



Le 05/12/2013 à 16h 44






Khalev a écrit :

Sauf que si Ubuntu avait du succès et que Canonical s’en tape de supporter le truc au delà de 5 ans, une autre boite peut s’emparer du marché du support.
Là tout dépend de MS.



Avec des si, on va très loin.

Après, il y a la réalité.

Je veux bien que tu me cites un logiciel libre maintenu depuis une dizaine d’années, qui ne force pas la mise à jour vers une version supérieure majeure. Rapidement, comme ça, je ne vois qu’un seul exemple : apache, dont la version 2.0 vient seulement de finir son support.

Il y a plein d’avantages au libre. Mais le support n’en fait malheureusement pas parti, au contraire, c’est une de ses faiblesses.



Le 05/12/2013 à 14h 01






Lafisk a écrit :

Oui donc pas mieux que ce que fais MS du coup avec 5ans et la période étendu si je ne me trompe pas sur les 5 ans <img data-src=" />



En fait, c’est moins bien que ce que fait MS. Les 5 ans sont à partir de la lancée de version chez ubuntu, là où chez microsoft, comme quelqu’un l’a fait remarqué, c’est 5 ans à partir du lancement produit ou 2 ans après la sortie de la version suivante, la durée la plus longue prévalant. Et après, il y a encore 5 ans de support étendu. Soit 10 ans mini et 7 ans après la sortie du suivant, contre 5 ans pour ubuntu. (soit, au rythme de sortie d’ubuntu LTS, 3 ans après la sortie du suivant).

On peut critiquer MS sur plein de choses, mais sur le support des OS, la compatibilité avec les versions antérieures, c’est clairement eux la référence pour le grand public (oui, IBM maintient toujours ses AS/400, mais on ne parle pas des mêmes produits…).



Le 05/12/2013 à 11h 41






Vincent_H a écrit :

Cinq ans est un minimum, ce qui est le cas chez MS, avec cinq ans supplémentaires pour tout ce qui touche à la sécurité. Honnêtement, ça me paraît bien en l’état.



Le problème est que ces 5 ans sont comptés depuis un mauvais point de départ.

La durée du support devrait se compter, pour une version de logiciel, à compter de la sortie de la version suivante.

Si j’achète un logiciel X, qui a un support affiché de 5 ans, 4 ans après sa sortie (mais 1 mois avant la sortie du remplaçant :/), mon support effectif ne serait que d’un an ? Ce n’est pas ce que j’appelle 5 ans de support.

Ça rejoint un autre commentaire qui disait que des XPs se vendaient encore il y a un an en toute légalité : ce n’est pas normal d’avoir continué à vendre un produit dont le support allait s’arrêter aussi vite (et d’ailleurs, ce n’est pas la politique habituelle de microsoft, qui côté durée de support fait partie des bons élèves).