votre avatar

laurentj

est avec nous depuis le 10 avril 2015 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

42 commentaires

Le serveur Git de PHP piraté, du code malveillant introduit brièvement dans les sources

Le 30/03/2021 à 08h 55


et Nikita Popov, […] l’une des principales développeuses de JetBrains




@nextinpact : Nikita Popov est un garçon, pas une fille.



Et sinon, ça fait quelques années que le dépôt PHP était sur Github mais ils ne s’en servaient que comme miroir du dépôt officiel qui était auto-hébergé.


Pour le PDG de Ford, « nous avons surestimé l'arrivée de véhicules autonomes »

Le 11/04/2019 à 09h 45

>- la gestion des batteries et de leur rechargement

Aucun rapport avec les voitures autonomes. Une voiture autonome n’est pas forcément électrique…


Firefox 66 améliorera les performances de ses extensions

Le 19/02/2019 à 13h 51






monpci a écrit :

il manque toutefois des trucs dans l’api qui serai bien utile : le picture une picture (mais il ya d’autre truc que j’avais cherché et qui m’échappe)


C’est dans Firefox Nightly. Cela va donc prochainement arriver (version 67 ou 68). Patience :)



Firefox 69 bloquera Flash par défaut

Le 14/01/2019 à 11h 23






Bowbie a écrit :

Comment pourra-t-on faire alors pour continuer à aller sur un site web utilisant Flash, qui date de Mathusalem et qui ne sera probablement pas mis à jour ?  


Il faudra installer un vieux navigateur. Et si possible dans une machine virtuelle qui n’a pas accès au reste de ta machine, à cause du potentiel de vulnérabilité du plugin flash.



IBM Q System One : « le premier système d'informatique quantique intégré au monde pour un usage commercial »

Le 09/01/2019 à 11h 23






SebGF a écrit :

J’ai du mal à voir aujourd’hui l’apport de l’informatique quantique et la révolution que ça annonce. N’ayant pas de bagage scientifique et étant encore moins docteur en physique quantique, j’aimerais bien un peu de vulgarisation sur le sujet pour comprendre en quoi s’en est une.

Quelqu’un aurait des éléments intéressants à destination du commun des mortels là dessus ?


Voir une présentation très vulgarisé (et plutôt drôle) de David Rousset
sur ce qu’est l’informatique quantique, faite à la conférence Paris-Web :
https://vimeo.com/296245907
 

 

js2082 a écrit :

Ok, c’est bien beau de jouer à ki ki a la plus grosse (qbite) mais, au final,  est-ce que ça va nous permettre:
-  de jouer à GTA 5 tout à fond en 4K à 100 images par seconde? 
-  de miner comme un malade pour se faire tout plein de pépette?
-  de faire exploser les scores des benchmarks (aussi pour jouer à ki ki a la plus grosse)?

Le qbit devra obligatoirement en passer par là sinon je ne lui prédis aucun futur.


Non, l’informatique quantique n’est pas fait pour ce genre d’applications, et ça n’arrivera probablement jamais dans les foyers, en tout cas pas avant plusieurs années.



On a démonté la Freebox One : à la découverte de ses quatre PCB et de son « Compute module »

Le 09/01/2019 à 08h 56


laurentj a dit:


Or sur les photos je vois une seule RJ11 (grise, sur la droite), et une RJ45 (noire sur la gauche).




Pardon, la photo est trompeuse à cause de la perspective. Il s’agit bien d’une RJ11, d’après les photos de l’assistance Free. Que l’on peut toutefois relier à une prise RJ45. Pour la fibre, il est donc vrai qu’il faut avoir la prise à proximité :-(


Le 09/01/2019 à 08h 46


Il faut en effet disposer d’une prise téléphonique/fibre proche de sa télévision




Pas forcément. Vous dites qu’il y a deux prises RJ11, l’un pour l’adsl, l’autre pour le téléphone. Or sur les photos je vois une seule RJ11 (grise, sur la droite), et une RJ45 (noire sur la gauche). Je suppose que cette RJ45 est pour l’ADSL, non ? Si c’est le cas, vu que c’est du RJ45, je pense que, comme sur d’autres boxs (comme la dernière livebox), cette prise RJ45 peut aussi être utilisée pour être reliée à une prise RJ45 murale, reliée elle-même à l’autre bout du logement à un boîtier de terminaison optique ou à un boîtier de communication ayant une prise filtre ADSL.



Bref, sur les logements récents ou rénovés, pas besoin d’être près d’une prise téléphonique ou terminaison optique.


Thunderbird veut redéployer ses ailes dès cette année

Le 04/01/2019 à 11h 38

>un remplacement d’anciens morceaux du logiciel par des technologies plus modernes, mais sans vraiment détailler.

L’interface de Thunderbird, est, tout comme Firefox, réalisé en XUL/CSS/JS. XUL, c’est du XML, mais c’est aussi un ensemble de technologie comme XBL, qui est l’ancêtre des Web Components (avec du shadow dom, avec une déclaration du composant en XML avec du JS embarqué etc), et utilisé depuis plus de 20 ans dans l’interface des applications Mozilla pour réaliser des composants graphiques pour XUL.

Depuis que Firefox ne permet plus d’installer des extensions en XUL (le système est maintenant les WebExtensions), les ingénieurs de Mozilla suppriment peu à peu tout ce qui était nécessaire aux extensions XUL, et les remplacent peu à peu par des technos modernes. Ainsi un gros nettoyage est fait au niveau de XBL : des composants XBL disparaissent carrément, ou sont remplacés par un équivalent en Web Component.
L’objectif ultime étant d’avoir à terme une interface réalisée uniquement en HTML/CSS/JS (mais ça va prendre encore plusieurs mois, voir années).

Toutes ces modifications sont apportées au niveau de Gecko et son toolkit. Et comme Thunderbird est basé sur Gecko et son toolkit, cela signifie que les développeurs de Thunderbird doivent eux aussi faire la migration des XBL de Thunderbird, avant que le mécanisme de XBL soit définitivement supprimé de Gecko. C’est un travail colossal (l’interface de TB est beaucoup plus complexe et riche que celle de Firefox), d’où l’embauche de nouveaux ingénieurs. C’est aussi un travail complexe, car des éléments XUL, comme ceux qui affichent la liste des messages, sont implémentés en grande partie en C++, pour des raisons de performances. Explications pour ceux qui développent : chaque item de la liste n’est pas un élément XUL ou HTML, mais est affiché par des composants spéciaux en C++. Les développeurs vont devoir donc trouver des techniques pour remplacer ça, tout en gardant des performances pour afficher de milliers de lignes dans une liste (ce qui est irréalisable en pur HTML ou XUL, ou alors il faudra accepter des temps de latence imposées par du lazy-loading comme le font les interfaces web).


 


Project Mu : Microsoft veut aller vers des UEFI plus modulaires et plus ouverts

Le 20/12/2018 à 13h 30






trOmAtism a écrit :

Un jour windobe rachetera linux.


Comment racheter linux, vu qu’il n’y a pas de boite derrière, juste une fondation ? À laquelle d’ailleurs contribue Microsoft puisqu’ils sont membre “platinium” de la fondation.



Edge embrasse officiellement Chromium

Le 07/12/2018 à 12h 55






yvan a écrit :

La gestion de programmation évènementielle dans des UI de client lourd était effectivement peu répandue.


 
La programmation évènementielle existe depuis la naissance des
interfaces graphiques.  Depuis X-Windows, Mac OS, Windows 2.0, la
programmation évènementielle a toujours existé. De même que le
développement par composant (Delphi, Borland C++,  etc) J’en ai
développé à la pelle des applis “lourdes” dans les années 90, je sais donc de
quoi je parle.

React & cie ne sont que des adaptations au web, de concepts inventés 20-30 ans plus tôt.



Microsoft abandonnerait son moteur EdgeHTML au profit de Chromium

Le 04/12/2018 à 11h 31






KP2 a écrit :

Et si tout le monde se prend le chou, ils forkent et on repart instantanément avec plusieurs moteurs différents.



Non. Un moteur de rendu ça ne se fork pas comme ça. C’est trop complexe. Seul une poignée peuvent le faire. Et encore, pour des raisons de pognon, c’est compliqué de forker (c’est le cas pour MS, ils pourraient mettre plus de ressources pour améliorer Edge mais finalement ils ne le font pas).

Avoir des fork, ce n’est pas avoir des moteurs différents : on a au final les mêmes fonctionnalités à peu de chose près, mais aussi les mêmes bugs, les mêmes trous de sécurité, et les mêmes manques au niveau API.

Au final c’est l’utilisateur qui en patit, même si il ne s’en rend pas compte. Tous les “fabricants” de navigateurs qui passent à blink, se mettent à la solde de Google d’une certaine manière. Google développe son navigateur pour son propre interêt, pour son commerce : ils développent des fonctionnalités web spécifiques pour leurs applications gratuites, qui a leur tour attirent des utilisateurs, ce qui leur permet de récolter encore plus de données et d’en faire commerce, directement ou indirectement. Il ne faut pas l’oublier, le métier premier de Google, c’est la vente d’espace publicitaire, et donc la recolte de données personnelle pour le ciblage. Le moteur de recherche, leurs applis web, et Chrome, ne sont que des outils ou support pour apporter encore plus de trafic et donc de revenu.

Et donc si un fabricant veut implémenter telle ou telle API dans Blink, Google peut décider de refuser si cela va à l’encontre de son propre interêt commercial. Et cela s’est déjà vu.

Tout ceci est bien dommage pour avoir un web ouvert, un web qui ne soit pas contrôlé par une unique entité. Les autres fabricants ne pourront plus (ils ne peuvent déjà presque plus) faire contre-poid pour proposer des alternatives qui soient par exemple plus respecteuses des utilisateurs.

Quand tout le monde utilisera le même navigateur, le même moteur de rendu, Google contrôlera le web, et n’implémentera que ce qu’il voudra bien implémenter. Les autres n’auront qu’à suivre, ou crever, parce que malheureusement, ils auront beaucoup, beaucoup plus de mal pour s’imposer. Et les utilisateurs subiront : blink prend trop de mémoire ? trop lent sur telle ou telle configuration ? tant pis pour eux. Les devs aimeraient telles ou telles API ? Pourquoi Google les implémenterait ou accepterait des patch, si ça ne les interessent pas ?

Les utilisateurs, les devs, n’auront plus le choix, donc pourquoi Google ferait des améliorations qui ne les concerne pas ?

Et donc en conclusion, on se retrouvera dans la même position que le monopole IE du début du siècle. Moins d’innovations, moins de concurrence, on ne fait que le strict minimum pour que ça rapporte un max.

Faire un fork ? trop complexe, trop couteux. Si fork il y a, ce seront que des fork minimaux, apportant peut-être telle ou telle API. Une goutte d’eau dans les millions de code que constitue un moteur web.

Il reste Mozilla. Au moins eux ils ont le courage de rester sur leur moteur Gecko, de le faire évoluer, de développer un autre moteur (Servo, dont les briques sont peu à peu intégrée dans Gecko), qui propose une architecture totalement nouvelle, plus performante (ex: WebRender, qui s’appuie sur les fonctionnalités graphiques des cartes 3D pour “dessiner” encore plus vite les pages web, et qui arrivera courant 2019 dans Firefox). Maintenant le rouleau compresseur Google aura peut-être raison d’eux à terme, au rythme où vont les choses..

Vouloir que tous le monde utilise le même navigateur, c’est tuer l’innovation et la diversité. Ce qu’il ne faut surtout pas faire pour garder un web ouvert et respectueux des internautes.

Je vais arreter là. Pour en savoir plus, rechercher sur le web “monoculture webkit”.



De la cape d’invisibilité à SpaceX, la malheureuse « peopolisation » de l’actualité scientifique

Le 12/02/2018 à 15h 14

> Pourtant, SpaceX rappelle elle-même sur son site que Saturn V permettait d’envoyer des charges plus lourdes en orbite et sur la Lune, difficile donc de passer à côté.

Certes, mais ça reste écrit “en tout petit”, alors que le titre principal de la page, bien gros, est “la plus puissante fusée du monde”. Faut pas s’étonner que certains reprennent ça sans étudier de quoi il retourne derrière.

À part “y a des types qui vivent dans l’espace dans une station” grâce à la médiatisation du voyage de Thomas Pesquet, ou “on n’a pas marché sur la lune, c’est fake” grâce aux conneries débitées par les complotistes du web, la grande majorité des gens ne savent rien du spatial. Il y a 30 ans, on avait régulièrement les retransmissions ou replay des décollages des Ariane à la télé, mais aujourd’hui, quedal.

Du coup, les journalistes simplifient à l’extrême, soit par incompétence, soit par peur de faire fuir leurs lecteurs (de toute façon, “le lecteur il gobe tout sans vérifier, alors pourquoi se faire chr à détailler, du moment qu’il like, retweet ou râle ou troll”).


Mozilla entre retour de la publicité et double discours sur la vie privée

Le 30/01/2018 à 16h 09






js2082 a écrit :

 
Donc, ils sont bien trop.
1000 personnes pour développer les produits voulus par Mozilla: c’est juste du n’importe quoi.
De nombreuses sociétés proposent des produits et services en nombre/quantité plus importantes sans nécessité d’autant de personnel.


Comme je l’ai dit dans d’autres réponses, ce ne sont pas 1000 personnes uniquement pour Firefox, mais aussi pour d’autres produits, pour la R&D, pour la gestion de la Corp, pour le lobbying, pour le fonctionnement des serveurs, le développement de la multitude de sites, des outils de dev etc…

Et sinon, oui, ils sont quelques centaines de dev pour Firefox payés à plein temps (désolé, je n’ai pas les derniers chiffres). Pour un logiciel d’une telle complexité, ce n’est absolument pas délirant. Je sais de quoi je parle, j’ai été contributeur pendant plus de 10 ans sur Firefox, et j’ai participé à des meetings Mozilla regroupant tous les devs et contributeurs.
 



js2082 a écrit :

Les 2 dirigeants de la société coutent plus de 2 millions de dollars.
Pour un logiciel censé être libre et gratuit, c’est déjà 2 millions de trop.

Quant au blabla du “mettre le prix pour avoir le meilleur”, c’est juste du bullshit pour tenter de justifier des salaires injustifiables.
D’ailleurs, si on suit ta logique, ce ne sont pas les meilleurs, ils ne méritent pas leur salaire, la preuve: ils sont incapables de trouver des sources de financement de la société sans s’inféoder à Google ou provoquer l’ire des utilisateurs.
<img data-src=" />



Ce n’est pas du bullshit, c’est la réalité du marché là-bas, dans la Silicon valley.&nbsp; Renseigne-toi. (et je ne parlais pas seulement des dirigeants, mais aussi des développeurs).



Le 30/01/2018 à 15h 00

C’est le cas pour leur moteur Servo.

&nbsp;En ce qui concerne Gecko, trop de boulot à faire. Il y a eu déjà plusieurs tentatives par le passé, mais soit ça n’était pas maintenu, soit ça n’était pas fini. Gecko est plutôt fait pour embarquer (aka XulRunner aka firefox –app ), pas pour être embarqué.

Quand Gecko aura incorporé toutes les grosses briques de Servo, Servo sera alors plus ou moins opérationnel, et donc suffisamment stable pour être embarqué dans des projets.
&nbsp;


Le 30/01/2018 à 14h 02

Encore une fois, ce n’est pas “juste” un navigateur. Mozilla c’est aussi pas mal d’autres choses :https://www.mozilla.org/fr/.

Il y a aussi de la R&D sur plusieurs sujets, il y a du lobbying au niveau de la neutralité du net, des problèmes de vie privée comme évoqué dans le sujet etc…

&gt;Si fallait 1000 personnes par logiciel ça se saurait.


Ça se sait, et apparemment, tu n’es pas au courant. Firefox, c’est pas Wordpress n’est-ce pas. Et comme je disais, un navigateur, c’est TRÈS complexe. Et il y a énormément de choses dans un navigateur. Il faut donc beaucoup de monde. Et Mozilla a de la chance d’être aussi aidé par des centaines de contributeurs bénévoles.

&nbsp;


Le 30/01/2018 à 13h 16

Un navigateur, ce sont des millions lignes de code. Ça ne se résume pas à mettre en place 2 menus et trois raccourcis clavier. Un moteur de rendu HTML est très complexe.

Et les 1000 personnes, ce ne sont pas 1000 développeurs. Une boite ne fonctionne pas qu’avec des développeurs : compta, gestion et développement de l’infrastructure serveur (outils pour les devs, tous les sites webs autour des produits, comme MDN etc), gestion du personnels etc…


Le 30/01/2018 à 13h 12






Meptalon a écrit :

Exactement. Top nombreux sont ceux qui ne savent pas que Mozilla Corporation (ceux qui ont pris toutes les finances et sont une société commerciale) et Mozilla Foundation (ceux qui dévelopent) sont deux entités distinctes. &nbsp;

&nbsp;
Il n’y a pas de développeurs à la Mozilla Foundation. Les développements sont fait à la MoCo. La MoFo n’est que le maître d’ouvrage, la MoCo le maître d’oeuvre



Le 30/01/2018 à 13h 08

&gt;Avoir une société commerciale (Mozilla Corp) est-il une bonne idée ?

Oui, car les contrats commerciaux passés avec les moteurs de recherches (et à l’époque de Firefox OS, avec les opérateurs de téléphonie et autres fabricants de téléphone), qui sont à plusieurs millions de dollars, nécessitent une structure commerciale. Fiscalement, faire tout ça via une fondation n’est pas possible.

&gt;Cette société est-elle trop grosse (1000 personnes, 500 millions \( de CA) ?

Non. Il manque même des personnes. Chez Google ou Microsoft, ils sont au moins autant sinon plus. Notez que 1000 personnes, ce ne sont pas 1000 développeurs. Il y a aussi ceux qui gèrent l'infrastructure serveurs, ceux qui font la doc (MDN), ceux qui gèrent les gens, qui font la compta etc...

&nbsp;Il faut aussi noter que Mozilla Corp est détenue à 100% à la fondation Mozilla. Pas d'actionnaire donc. MoCo existe uniquement pour développer les produits voulus par la fondation.

&gt;Ces dirigeants ne pourraient-ils pas se payer un peu moins (page 54) pour dépendre un peu moins de Google ?

Ce n'est pas quelques centaines de milliers d'euros en moins par an qui va changer quoique ce soit au niveau de la dépendance. Sur 500 M\)
de CA, c’est pinuts.

De plus, il ne faut pas oublier qu’à coté il y a des concurrents, ou d’autres entreprises qui veulent les meilleurs. Même avec toute la bonne volonté du monde, si le salaire est trop bas par rapport au “prix du marché”, faut pas se leurrer, au bout d’un moment la personne s’en va. Et si Mozilla Corp n’arrive pas à garder ses talents, elle meurt. Donc elle est en quelque sorte obligé de bien payer ses salariés.
&nbsp;

&nbsp;


Firefox 58 renforce ses performances et ses fonctionnalités

Le 26/01/2018 à 13h 06

Si, le XUL est toujours là, mais n’est plus utilisable par les extensions.


Le 24/01/2018 à 16h 58

Les 200Mo de différences peuvent venir des extensions, mais aussi de la politique de mise en cache dans le navigateur. Et bien sûr aussi de l’occupation mémoire d’un élément HTML. Quelques dizaines d’octets de différence par noeud DOM peuvent effectivement faire monter la facture.

Enfin ça peut venir aussi de l’interface. Firefox utilise le format XML XUL, et beaucoup de javascript reposant sur un système de composants XPCOM qui peut être assez “lourd”. Il y a des chances que cela pèse un peu plus en mémoire que l’interface (HTML ?) de Google Chrome. Faudrait comparer “à vide”, avec des profils vierges.

&nbsp;


Le 24/01/2018 à 15h 50

On ne le répétera jamais assez : l’occupation mémoire d’un navigateur dépend grandement des sites chargés dans les onglets, du cache occupé en mémoire, et dans une moindre mesure, des extensions installées.

Une image en HD (comme souvent celles publiées sur Flickr), c’est facile 9Mo décompressée en mémoire (obligatoire si on veut les afficher). 12 images : ça grimpe à 110 Mo. à cela faut ajouter la mémoire qu’occupe une page web comme flickr. Encore des dizaines de mega octet. Et une page web, ce n’est pas seulement la taille de fichiers téléchargé, mais aussi la taille que ça prend en mémoire une fois que c’est interprété (HTML -&gt; elements DOM, Javascript -&gt; bytecode/jit, image -&gt; image décodée/décompressée, CSS -&gt; arbre de cascade en mémoire etc…). À cela il faut ajouter les pages précédentes dans le cache, en particulier les images que tu as pu visiter dans flickr.

Autre exemple, des sites comme twitter ou facebook, qui scrollent en permanence, en chargeant au fur et à mesure les twitts ou les posts, avec leurs vidéos et leurs images : ça fait au bout d’un moment des centaines de méga octets dans une même page à force de scroller, parce que toutes ces images, vidéos et tout ces dizaines de milliers d’élements HTML, ça finit par prendre beaucoup de place.

Bref, 1.9 giga en ayant 10 pages flickr, un twitter ou facebook, un google mail et j’en passe, ce n’est pas si délirant que ça, que ce soit avec Firefox ou Chrome.

Dans Firefox, voir about:memory (puis “measure”). c’est très interessant ;-)
&nbsp;


Cozy Cloud ouvert à tous : on a testé la plateforme de stockage et de reprise en main des données

Le 26/01/2018 à 11h 22

Un truc que je trouve louche, à moins de ne pas avoir compris. D’après ce qui est dit dans l’article, la solution SAAS qu’ils proposent, utilise les services Linxo pour Cozy bank. Cela veut dire que tous nos logins / mots de passe sont donnés à Linxo pour pouvoir récupérer nos relevés ? Si c’est le cas, cela va à l’encontre de la philosophie annoncée par Cozy : nos données bancaires se baladent chez un tiers.


Objets connectés : la Fnac et Amazon assignées par l’UFC-Que Choisir

Le 10/01/2018 à 08h 30






Jarodd a écrit :

Pourquoi uniquement Fnac et Amazon ? Les autres sites e-commerce sont en règle, ou n’ont pas été “audités” ?


Je suppose que la stratégie est d’abord d’attaquer les plus gros : ils sont les plus visibles, les plus connus, et touchent une majorité de clients. Si le procès est gagné, ça incitera les autres commerçants à s’adapter. Il y a le fait aussi que plus ils attaquent de monde, plus ça coutent cher…



Google détaille trois failles, qui ont leur site dédié : après Intel, ARM confirme être touché

Le 03/01/2018 à 14h 05






manus a écrit :

Faux si tu veux rester sécuriser, le patch va être intégré, donc tu ne pourras pas faire sans à moins de re-compiler le noyau sans, donc la plus part des entreprises ne le feront pas.


Dans le cas de Linux, pas besoin de le recompiler, mettre le paramètre pti=off au boot suffit à désactiver le “patch”.
&nbsp;

manus a écrit :

Et se dire mon application n’est qu’interne, donc je ne la mets pas à jour est super risqué, car il suffit d’une connexion réseau pour être vulnérable à pas mal de failles, donc en dehors d’une machine vraiment isolée physiquement, ne pas être à jour est un risque élevé.


C’est moins risqué que tu ne le crois : pour profiter de la faille, il faut déjà profiter d’une faille dans un des logiciels qui communique sur le réseau, pour pouvoir (si la faille le permet) exécuter du code&nbsp; qui permettrait de faire les appels systèmes permettant de profiter de la faille en question.

Et encore faut-il que la machine branchée sur le réseau soit accessible de l’extérieur. Car sinon cela veut dire qu’il faut avant compromettre une machine frontale. Et pas dis que la machine frontale ait accés via le lan à la machine cible sur le lan.

Bref, ça fait beaucoup de si, et ça commence à être très compliqué pour profiter de la faille corrigée par KPTI, sur une machine d’un LAN. Si les machines frontales sont à jour au niveau système et au niveau applications, ça limite les risques quand même.

&nbsp;



Firefox Send : protection par mot de passe… qui sera logué dans la console en cas de téléchargement

Le 16/11/2017 à 11h 29

Aller, je suis bon seigneur, j’ai proposé le patch pour supprimer cette ligne de codehttps://github.com/mozilla/send/pull/645 :-)


Firefox 57 Quantum disponible : performances, fonctionnalités et ambitions

Le 14/11/2017 à 17h 34

FileZilla, très bon client FTP. (Et aucun rapport avec Firefox et Mozilla, malgré le “Zilla”).


Le 14/11/2017 à 14h 57

&gt;mais beaucoup y voit la volonté de Mozilla de s’affranchir
progressivement des extensions que la fondation juge “sans grand
intérêt”

FUD. Totalement faux. C’est juste que l’ancien système permettait trop de chose (un développeur d’extension avait accès à tout, de l’API au niveau à l’API bas niveau, au système etc), et que trop&nbsp; en profitait pour faire n’importe quoi, avec pour résultat des ralentissements,&nbsp; des installations de virus &co, des modifications sauvages des préférences etc.

&nbsp;À cela il faut ajouter qu’il était difficile, de par la nature du système, de faire évoluer Firefox, car finalement les API utilisées par les développeurs pouvaient être des API bas niveau. C’est pour cela d’ailleurs que des extensions cassaient régulièrement, parce que les développeurs de Firefox faisaient évoluer ces API.

Maintenant, avec les WebExtensions, les développeurs d’extensions sont dans une sandbox, ils n’ont accès qu’aux API qu’on veut bien leur fournir, et plus aux API internes. Ce qui limite les problèmes de compatibilités futures (il y en aura quand même forcément, mais moins, une API évolue toujours). Comble du bonheur, Ils ont eu la bonne idée de reprendre les mêmes API que les extensions pour Chrome. Pas deux fois le même travail à faire.

Pour ce qui est des extensions qui ne fonctionnent plus : il y en a pour lesquels des développeurs n’ont pas fait une version WebExtension. Cela ne veut pas dire qu’il n’y a pas d’autres extensions qui elles, font le même boulot, en étant compatible avec Fx57.

Dans tous les cas, ce n’est pas Mozilla qu’il faut blamer, mais ces développeurs d’extensions. Ça fait des mois, qu’ils sont prévenus des changements, ça fait des mois que Mozilla leur demande ce qu’il manque comme API dans WebExtension.


Mozilla : blocage constant des trackers et des pubs dans Firefox 57, un contre-guide de Noël

Le 08/11/2017 à 11h 15

La connaissance de divers statistiques n’est pas seulement&nbsp; utile à du commerce en ligne ou des sites de médias, mais cela est aussi utile pour un fabricant de logiciel comme Mozilla.

Par exemple, savoir par exemple que telle page a étrangement peu de visites, alors qu’elle est considérée comme importante par la société, permet de déceler des dysfonctionnements, tant techniques que ergonomiques (genre,&nbsp; la navigation pour y arriver est trop complexe etc..). Dans le cas de Mozilla, les stats sur la page de téléchargement par exemple sont précieuses (surtout si on compare avec les stats de la home page, qui permet de savoir donc le “taux de convertion”). Même si le logiciel est gratuit, la finalité est la même qu’un site e-commerce : il faut convaincre d’utiliser le logiciel, et donc faire en sorte que l’utilisateur télécharge et installe le logiciel, au moins pour l’essayer. Et on ne peut savoir si la façon de construire le site est bonne, qu’en ayant des statistiques.

Autre exemple, savoir d’où tu viens, quel système tu utilises est important aussi. Cela permet de mieux aider les équipes de localisation : “tient, il y a de + en + d’utilisateurs de telles langues, et pourtant notre logiciel/notre site n’est pas très bien traduit dans cette langue, voyons ce que l’on peut faire pour avoir plus de contributeurs dans cette langue” (1). Ou “le nombre d’utilisateur du système TrucMuche augmente significativement, haussons la priorité de la résolution des problèmes pour ces utilisateurs”.

Comme on peut le suivre sur nextinpact, il y a aussi des campagnes d’informations chez Mozilla (sur la vie privée etc), avoir des statistiques précises permet d’avoir une idée de quel partie du monde a été le plus touché par cette campagne etc..

Bref, les statistiques détaillées servent à n’importe quel site, de manière à améliorer le produit, la communication etc…
&nbsp;
(1) Tout ce qui est traduction est réalisée par des contributeurs externes bénévoles, que ce soit pour les sites ou les logiciels de Mozilla.


Le 08/11/2017 à 10h 38

Peut-être n’y a-t-il pas d’alternatives open-source à la hauteur de Google Analytics, tant au niveau des fonctionnalités que des performances. J’ai des doutes sur la pertinence de Piwik sur des sites comme ceux de Mozilla (il y en a des dizaines), visités par des millions de personnes.

N’oublions pas non plus que la mise en place d’une infra pour supporter la charge d’un outil à la “google analytics” nécessite des ressources humaines et matériels, donc cela à un coût non négligeable. Mozilla Corp n’est qu’une “petite” société par rapport à ses concurrents.


Firefox et double authentification : le support des clés de sécurité (U2F) enfin natif

Le 19/09/2017 à 11h 42

Au sujet de Facebook : l’un de membres de l’équipe qui implémente la double authentification chez Facebook, suit le bug U2F de Mozilla, et vient d’annoncer qu’ils vont faire des tests, et si c’est concluant, enlever la restriction pour Firefox.

Bref,&nbsp; la reconnaissance pour Firefox peut aller très vite sur les gros site.


Comment NumWorks veut réinventer la calculatrice

Le 13/09/2017 à 17h 33






patos a écrit :

La mienne a 20 ans et est comme neuve…
Le RPN est d’une telle richesse que s’en passer est réellement dommage.


&nbsp;Et la mienne à peu près 25 (48SX) :-) Et je m’en sert toujours (meme si je ne fais plus vraiment de calculs complexes).

Et il n’y a pas que le RPN, mais aussi l’assembleur. Et on pouvait même démarrer un autre système (comme le “MetaKernel” pour ceux qui s’en souviennent). C’était une calculatrice qui n’était pas bridée, même si elle n’avait pas été conçu dans l’objectif d’être aussi bidouillée qu’elle l’a été. D’ailleurs, en voyant tous ces codeurs (en grande majorité français d’ailleurs) qui faisait des choses “incroyables” comme des systèmes alternatifs, HP organisait des “HP party” dans leurs bureaux, auxquels tous les développeurs sur HP48 pouvait participer et montrer leur oeuvres, échanger entre eux etc. D’ailleurs HP a fini par embaucher les auteurs du MetaKernel, et ont développé le système de la HP49.

&nbsp;C’est bien simple, avec Numworks, c’est la première fois en 20 ans qu’une nouvelle calculatrice aussi ouverte (voir plus ouverte même), sort depuis la HP48. À contre courant donc de ces machines que TI et Casio verrouillent au maximum. Ce qui est dommage pour des machines “programmables”.

Bon par contre, au niveau ergonomie, je trouve la Numworks pas terrible. Se déplacer avec des flèches pour “cliquer” sur un onglet ou une fonction, c’est juste chiant. Alors que si il y avait eu un système de menu “à la hp48” avec une rangée de boutons physiques juste en dessous de l’écran pour choisir un item de menu, ça aurait été beaucoup plus efficace.
&nbsp;



Voitures autonomes : le G7 veut « identifier et supprimer » les obstacles réglementaires

Le 26/06/2017 à 13h 26

&gt;Celui qui arrivera à me démontrer que l’intelligence artificielle dans
un véhicule est plus sécuritaire qu’un être humain n’est pas encore
arrivé. Un être humain sait raisonner, sait penser, sait anticiper et
sait se corriger, malgré tout les contre-arguments qui ont pu mettre
amené.

Un être humain est relativement fiable quand :




  • il a bien suivi sa formation de conduite et qu’il a eu son permis haut la main

  • il a conscience que des excès peuvent amener à la mort et qu’il respecte le code de la route (c’est pas toujours le cas des inexpérimentés : 3 blessés grave dernièrement par chez moi avec un cabriolet conduit par un jeune qui ne respectait pas les limitations de vitesse et qui avait doublé sans faire attention…)

  • il n’a pas bu, il ne s’est pas drogué, il n’est pas fatigué : bref, il est en forme pour raisonner, penser, anticiper et corriger

  • il reste concentré sur la conduite : il ne téléphone pas, il ne met pas la musique trop forte, il ne discute pas avec ses passagers, il ne rêvasse pas (sur les long trajets, ce n’est pas évident)

    Bref, en fait, l’être humain n’est pas fiable. D’ailleurs c’est pour ça qu’il y a toujours autant de morts sur les routes.
    &nbsp;
    Ton argumentaire sur la supériorité de l’être humain sur la machine n’est pas vraiment valable en fait… Et ça reste donc à prouver. Les machines doivent encore beaucoup apprendre, mais en attendant, elles ne sont pas moins fiables que l’être humain.

    &nbsp;Peu d’êtres humains auraient pu anticiper cet accident comme l’a fait une Tesla il y a quelques moishttps://www.youtube.com/watch?v=wwknpSxqkyw
    &nbsp;


Oui, Air France interdit l'utilisation d'un casque Bluetooth en vol... et ça n'a rien de nouveau

Le 08/06/2017 à 12h 43

Le problème n’est pas avec UN casque BT, ou UN appel téléphonique, mais avec PLUSIEURS.

Avec plusieurs (dizaines ?) émetteurs d’ondes à l’intérieur de la carlingue, forcément, les risques de perturbations sur les instruments de bord augmentent. Quand 150 personnes à bord ont leur téléphone allumés, et donc quand 150 émetteurs essayent de se connecter à la borne la plus proche (donc souvent à pleine puissance quand la borne est loin), ça en fait de la “pollution” radio-électrique… Même chose donc pour tout ce qui est BT et Wifi, même si les puissances et portées sont différentes.

Ce n’est pas la techno qui est mauvaise, mais c’est le nombre d’appareil dans un même lieu confiné qui peut l’être. Un effet de masse en quelque sorte…


Alors que Chrome félicite sa sécurité, des adresses en unicode facilitent le phishing

Le 18/04/2017 à 13h 04

dans Firefox, il y a une option, network.IDN_show_punycode, pour qu’il affiche l’url originale (en punycode donc). Voir l’article de wordfence. Il n’y a que Chrome où il n’y a pas de solution contre ce type de phishing.


Cerber, un ransomware capable de détecter les machines virtuelles

Le 30/03/2017 à 08h 55

Hélas non, beaucoup de PME/Micro PME n’ont pas la culture de la sauvegarde. En général, elle délègue (quand elle pense à le faire) la configuration de leur système informatique à un prestataire, qui n’est pas toujours très compétent en matière de sécurité. Et puis faire configurer / maintenir des systèmes de sauvegarde, ce sont des frais supplémentaires. Et quand il y a des sauvegardes, encore faut-il qu’elles soient faites correctement et que les procédures de restauration fonctionnent. Ce qui n’est là aussi pas toujours le cas. On croit que tout est sauvegardé régulièrement, jusqu’au jour où, lorsqu’on veut restaurer, on s’aperçoit au choix que :




  • la dernière sauvegarde date d’il y a 6 mois , parce que le système de sauvegarde a un problème et personne n’a fait gaffe

  • la sauvegarde ne contient qu’une partie des fichiers, parce qu’on a “oublié” de spécifier des nouveaux répertoires ou d’inclure une nouvelle machine dans le processus

  • les fichiers sauvegardés sont tous vérolés par un ransomware qui avait infécté une machine sur laquelle était monté le serveur de sauvegarde

  • etc..

    Bref, de ce que je vois, très peu de sociétés (en particulier les PME) ont conscience de la nécessité de faire des sauvegardes, et ce que doit être une sauvegarde. En 2 semaines d’intervalles dernièrement, j’ai eu connaissance de deux boites (un cabinet comptable et une PME), qui ont quasi tout perdu à cause d’un Ransomware. Ils n’avaient pas de sauvegardes. Et l’une pensait que la synchro dans le cloud (icloud) était comme une sauvegarde, car fichiers dupliqués sur plusieurs machines, mais comme il y a de la synchro, ça a synchronisés les fichiers chiffrés par le ransomware sur toutes les machines.


Hadopi : combien les FAI vont toucher pour l'identification des IP

Le 29/03/2017 à 07h 37

&gt;Y a pas INternet en Polynésie française. <img data-src=" /> Le 56k n’est pas assez représentatif.<img data-src=" />

Détrompes-toi. Ce n’est pas parce que c’est un pays loin de chez toi que c’est arriéré hein.

Tahiti et quelques iles (Bora-Bora, Moorea, Raiatea, Huhahine) sont reliées à Hawai par un cable sous-marin depuis 2010. Et les polynésiens de ces îles ont accès à internet via la fibre ou&nbsp; adsl.http://www.vini.pf/internet .

Pour les autres îles par contre, le seul moyen est la connexion par Satellite (et sur Tahiti, c’était aussi le seul moyen avant l’arrivée du cable hawaien). En effet, vu le nombre d’îles (67 habitées), ça couterait trop cher à relier par le cable (surtout pour le nombre d’habitants sur ces îles, le plus gros de la population se trouvant à Tahiti).


Le Surface Studio de Microsoft peut-il trouver son marché ?

Le 28/10/2016 à 11h 31

Vu la taille du boitier, l’intégration du GPU ne doit pas se faire via une bête carte PCI, mais directement sur la carte mère. Changer de puce n’est alors pas anodin, puisque cela peut modifier largement le design électronique de la carte, donc beaucoup de travail et d’optimisation.

Sans parler de la fiabilité. La vieille puce est commercialisée depuis pas mal de temps si j’ai bien compris : on connait donc sa fiabilité, et son intégration est maitrisée. Ce n’est pas le cas d’une puce qui vient juste de sortir. Et vu le prix de la machine, je préfère personnellement avoir une puce, certes un peu moins puissante, mais qui soit fiable, qu’un truc tout récent qui plante régulièrement. (sachant que le GPU représente à priori un pourcentage minoritaire du prix, vu la taille de l’écran etc)


Mots de passe : on vous aide à choisir le gestionnaire qu'il vous faut

Le 06/10/2016 à 15h 33

Parce que les mots de passes à retenir ne sont pas forcément des mots de passes d’appli web. On peut avoir à stocker&nbsp; des mots de passes de comptes de machines, des passphrases de clés ssh, des mots de passes de comptes ftp, irc etc… Et là clairement, il faut un gestionnaire de mot de passe plus polyvalent que celui de Firefox.


[MàJ] L'interdiction des machines à voter (à nouveau) rejetée à l’Assemblée

Le 23/03/2016 à 17h 19

Je ne remet pas en cause tes compétences et ta volonté de bien faire. Mais il faut que tu comprennes que l’on peut mettre en doute ta bonne foi, que l’on n’est pas obligé de te faire confiance, parce que tu ne peux pas prouver grand chose en fin de compte.

Et que pour celui qui n’a pas confiance en l’équipe qui a mis en place le système de vote (quand bien même il y ait eu des tests publics ou autre), le problème est qu’il n’a AUCUN moyen de vérifier leur bonne foi ou de prouver leur malhonnête PENDANT le déroulement du scrutin.&nbsp; Le citoyen n’a aucun contrôle. Il doit s’en remettre à la bonne (ou mauvaise) foi des organisateurs.

Avec le système à bulletin papier, même si il n’est pas inviolable, il y a au moins des moyens de prouver que le vote s’est bien ou s’est mal passé, et surtout, n’importe quel citoyen peut contrôler, sans avoir besoin d’avoir des connaissances poussées dans tel ou tel domaine. Il y a en quelque sorte une égalité du citoyen devant le vote papier, ce qui n’est pas possible avec le vote électronique anonymisé.


Le 23/03/2016 à 16h 25

Ah ? tu as disséqué chaque composant pour être sûr qu’ils faisaient bien ce qu’ils devaient faire ? Tu as eu accès aux spécifications du constructeurs ? au code source ? (ce dont je doute parce que tous les constructeurs gardent jalousement leurs secrets sur ce type de machines).&nbsp;

Et si j’étais citoyen dans ta commune, pourquoi te ferais-je confiance, toi spécifiquement ?


Le 23/03/2016 à 16h 18

&gt;y’a pas de wifi, y’a pas de RJ 45 il n’y’a rien d’autre que la
programmation des urnes au préalable c’est une cartouche comme une
console de jeu, si tu la bidouille la machine le sait et invalide tous
les votes.

Qu’en sait-tu qu’il n’y a pas de wifi ? Ou d’autres moyens de communications sans fils ? Tu auras pu inspecter toute l’électronique ? Tu t’y connais en electronique ? tu as le moyen de savoir que la puce là sur la droite de la carte mère n’est pas un moyen de transmission, et donc une porte d’entrée pour trafiquer le système ?

Moi je ne pourrais pas le certifier. Comme 99% de la popuplation. Ni même toi si tu es super fort en électronique, parce que de toute façon on ne te laissera pas le temps nécessaire à l’inspection (plusieurs jours ?) pour bien vérifier le fonctionnement. Et même si tu y arrive, pourquoi devrais-je te faire confiance, moi qui suit ignorant en électronique ?

Le problème du vote électronique, c’est que la confiance est à sens unique. Il n’y a en fait pas de confiance possible.


Le 23/03/2016 à 16h 10

sauf que, pour que le vote reste anonyme, il ne faut pas stocker de correspondance entre l’identité d’un votant et son vote. Et c’est bien là le problème : personne, absolument personne,&nbsp; ne peut garantir que le vote effectué par un votant a été enregistré correctement et bien comptabilisé.&nbsp; Le stockage des données peut être trafiqué, buggé (volontairement ou non) etc : ça ne sera pas détectable par les votants. Tout spécialiste te le dira.

Entre un système de vote classique (bulletin papier, urne transparente) qui est transparent dans son fonctionnement, contrôlable, vérifiable et compréhensible par une personne ayant le QI d’un enfant de 5 ans, et un système de vote électronique dont personne ne peut garantir ce qui se passe dans ces boites noires, et encore moins comprendre le fonctionnement interne, mon choix personnel est vite fait : système de vote classique.
&nbsp;
Avoir le code source ne change rien : rien ne garanti que le code compilé installé dans la machine correspond au code source, rien ne garanti que la machine au niveau hardware n’est pas trafiqué. Et puis 99% de la population ne comprendrons rien au code source, et seront donc dans l’impossibilité de vérifier par eux même que tout fonctionne dans les règles. Alors qu’avec un vote classique, si. Suffit d’un peu de patience et de surveiller les urnes pendant tout le scrutin et le dépouillement, pour constater un déroulement honnête ou une fraude.