votre avatar

lissyx

est avec nous depuis le 8 juin 2014 ❤️

103 commentaires

Le 22/11/2023 à 13h 26

Désolé d'aller sur ce sujet polémique, mais contrairement aux idées reçues, le fait de regarder une vidéo en HD n'a que très peu d'influence sur le bilan environnemental d'un visionnage. Sur l'ensemble de la chaine de distribution, la différence de consommation est largement inférieure à 1W entre du 4k et du 720p.
Je peux développer le calcul si ça intéresse quelqu'un.
Par contre, garder son terminal une année de plus (ou deux, soyons fous), ça ça change tout.
Edit : raisonnement extensible au streaming de musique sur YT

Comment tu mesures ? Profiler de Firefox ?

Le 28/09/2022 à 00h 46

Merci pr le lien ! J’attends ça pr migrer les PC de la famille sur la 22.04 😁. Mais effectivement pr avoir testé, aucun changement avec cette version 105. Allez encore un peu de patience.

C’est un travail qui est compliqué techniquement à faire, et gérer la partie CI est aussi non triviale, Olivier bosse dur là dessus mais ça s’approche. Je pense que quand c’est landé sur Nightly, il fera un backport sur stable et beta pour le snap après quelques jours. Donc ça devrait bientôt arriver :)

Le 24/09/2022 à 18h 17

C’est en cours, les personnes de Canonical sont encore en train de travailler dessus: https://bugzilla.mozilla.org/show_bug.cgi?id=1661935

Le 27/07/2022 à 20h 58

Je me pose la question aussi, je ne savais pas que le rafraîchissement de l’écran avait un impact sur le navigateur. Scroll plus fluide ? Vidéos ? Animations diverses de l’interface ? Il y a bien un endroit où la liste détaillée des bugs corrigés est consultable…

Tu pourras trouver des détails sur ça dans https://bugzilla.mozilla.org/show_bug.cgi?id=1771718#c10

Le 27/07/2022 à 15h 07

C’est pas un comportement qu’on attends par défaut, ça peut des fois s’expliquer avec 2 CPUs et pas d’hyperthreading. Si tu peux suivre la doc https://profiler.firefox.com/docs/#/./guide-startup-shutdown pour collecter un profil, on peut commencer à regarder si on voit des choses pathologiques à corriger.

Le 16/12/2021 à 09h 13

J’espère qu’ils proposeront enfin un port > 1Gbp côté ethernet, histoire de pouvoir profiter des abonnements 2Gbp sans se reposer sur le partage « eth / wifi ».

Le 11/10/2021 à 08h 25

Oui… Ca n’a rien changé.

Alors il faudrait vraiment que tu prennes le temps de nous partager :




  • about:crashes si tu as des crashes

  • about:support pour voir un peu



Ce que tu décris n’est clairement pas normal.



Des fois aussi ce sont des antivirus et autres qui perturbent gravement le fonctionnement :)

Le 07/10/2021 à 13h 12

Merci pour le lien. Visiblement, les onglets avec du contenu multimédia en cours de lecture ont plus de priorité, mais rien au sujet des onglets avec des formulaires en cours de rédaction. Après, ça n’arrive que lorsque la mémoire devient critique, ce n’est pas constamment non plus.

En fait, tab unloading ne va s’activer que dans des moments très critiques. Et normalement ça réutilise l’infra existante, donc un formulaire en cours de rédaction devrait ne pas perdre son contenu.

Le 07/10/2021 à 12h 44

Tu pourras trouver pas mal de réponses dans https://hacks.mozilla.org/2021/10/tab-unloading-in-firefox-93/, mais ça ne semble pas expliciter ta question précise :)

Le 07/10/2021 à 12h 39

Je l’ai viré le mois dernier car, justement, je ne supportais plus les TRÈS nombreux soucis que j’avais avec depuis l’arrivée de la “nouvelle interface”.
Genre, m’y reprendre à 5 ou 6 fois pour pouvoir saisir du texte dans la zone prévue à cet effet (Quel que soit le site, NextInpact compris), quand il ne me fallait pas carrément recharger la page (et encore, avec CTRL F5, le F5 seul ne suffisant souvent pas) pour que ça marche…



D’ailleurs, pareil, ne TRÈS nombreuses fois, je devais justement les recharger parce qu’il manquait des éléments (image, texte, quand ce n’était pas tout simplement la structure de la page elle-même qui manquait…). Et après rechargement : miracle, ce qui manquait était là… Ce qui fait que je me suis rendu compte que ces manques l’étaient de façon purement aléatoire…



Et je ne parle même pas de la lenteur totalement abusée quand on commençait à descendre un peu trop en profndeur dans les publications Facebook.



Et ce n’est pas faute d’avoir repoussé mon départ au maximum mais franchement, avec la version 92.x, ça prenait des proportions rendant le navigateur inutilisable.



Je suis depuis (et à contrecœur) passé sur Chrome et depuis : PLUS AUCUNS soucis, ni de perfs, ni de page incomplète, ni de bug, ni… Rien !



Et si je ne suis pas passé sur Opéra, c’est parce que j’ai des soucis avec les sites de paiement en ligne avec ce navigateur…



A savoir qu’il n’y a QU’UNE SEULE et unique extension d’installée sur mon navigateur (Firefox puis Chrome) : Adguard !

Si tu pouvais prendre le temps de partager about:crashes ainsi que about:support, peut-être qu’il y a quelque chose à corriger ?

Le 07/10/2021 à 09h 46

Je l’ai viré le mois dernier car, justement, je ne supportais plus les TRÈS nombreux soucis que j’avais avec depuis l’arrivée de la “nouvelle interface”.
Genre, m’y reprendre à 5 ou 6 fois pour pouvoir saisir du texte dans la zone prévue à cet effet (Quel que soit le site, NextInpact compris), quand il ne me fallait pas carrément recharger la page (et encore, avec CTRL F5, le F5 seul ne suffisant souvent pas) pour que ça marche…



D’ailleurs, pareil, ne TRÈS nombreuses fois, je devais justement les recharger parce qu’il manquait des éléments (image, texte, quand ce n’était pas tout simplement la structure de la page elle-même qui manquait…). Et après rechargement : miracle, ce qui manquait était là… Ce qui fait que je me suis rendu compte que ces manques l’étaient de façon purement aléatoire…



Et je ne parle même pas de la lenteur totalement abusée quand on commençait à descendre un peu trop en profndeur dans les publications Facebook.



Et ce n’est pas faute d’avoir repoussé mon départ au maximum mais franchement, avec la version 92.x, ça prenait des proportions rendant le navigateur inutilisable.



Je suis depuis (et à contrecœur) passé sur Chrome et depuis : PLUS AUCUNS soucis, ni de perfs, ni de page incomplète, ni de bug, ni… Rien !



Et si je ne suis pas passé sur Opéra, c’est parce que j’ai des soucis avec les sites de paiement en ligne avec ce navigateur…



A savoir qu’il n’y a QU’UNE SEULE et unique extension d’installée sur mon navigateur (Firefox puis Chrome) : Adguard !

Tu as essayé sur un profil vierge ?

Le 20/09/2021 à 13h 08

À mon tour de participer !

Le 14/06/2021 à 08h 19

Ça semble pas être un soucis de mémoire, mais de crash dans les drivers vidéos. Malheureusement c’est pas rare ce genre de choses, et en cherchant y’a pas mal de reports similaires sur le même GPU / version Android. Peut-être qu’il est nécessaire de blacklister quelque chose quelque part?

Le 12/06/2021 à 13h 41

Merci, le crash de mémoire m’intrigue, je vais creuser ça.

Le 11/06/2021 à 23h 41

tu as des crash dans about:crashes ? tu pourrais en partager quelques-un ? Les infos devraient avoir été envoyées sur https://crash-stats.mozilla.org/

Le 11/12/2019 à 17h 34







secouss a écrit :



J’arrive après la bataille mais vu que tu bosse dessus tu connais des outils qui utilisent cet api ?

Je cherche a convertir des discours en texte pour un projet, donc soit je créer moi même une appli ou tu lance un fichier son et il sort un texte (plus qu’a corriger) soit je trouve une appli qui le fait déjà.



En prime je balancerais les sons et textes libre dans la base par la suite (après correction)





Oui, on sait que des sociétés l’utilisent déjà, il y a un exemple dans le blog post hacks. Après, des fois c’est difficile de savoir que des gens s’en servent. La plateforme eSup Pod utilisée par plein d’université l’a intégré dans sa dernière release, en beta, par ex.



En vrai pour un besoin décrit basique comme celui-ci, nos binaires doivent pouvoir suffir.


Le 11/12/2019 à 07h 07







rmfx a écrit :



Vu la dose de   Je disais ca parce que quand je regarde les sources github, 55.9 pourcent des sources du projet est cpp, qui est dans le meme domaine d’utilisation que Rust. Il ya a donc bien une large portion du code qui pourrait etre oxydee ? Apres, je me penche dessus de maniere assez simpliste. Le tooling est assez basique pour Rust mais si meme chez Mozilla, on ne prend pas le parti de promouvoir Rust, quit a etre moins confort, je me demande qui le fera.





Oui mais regarde la répartition du C++, une grosse partie c’est native_client/ctcdecoder/, dont du code qui implémente l’opérateur TensorFlow augmenté du scoring avec le modèle de langage KenLM, plus openfst. Je sais pas trop ce que ça donnerait d’écrire un module python en C++ avec l’interfaçage nécessaire pour que ce soit appelé depuis CPython, mais très honnêtement, je pense que ça serait se rajouter une part non négligeable de boulot et de bugs.



La partie inférence pourrait être en Rust, sauf que comme ça dépend de bouts de TensorFlow, on se retrouve à dépendre de Bazel. Ça veut dire écrire une API en Rust, et exposée en C pour pouvoir faire des bindings de partout. Et que tout ça se marie correctement avec Bazel. C’était déjà assez galère de cross-compiler avec Bazel pour des cibles non supportées par TensorFlow (RPi3/RPi4) (les gens de Snips pourraient aussi en parler longtemps je crois :)).



Bref, à titre perso j’aime bien Rust mais j’en ai pas (encore) assez fait à mon goût. Dans l’optique de plus dépendre du runtime TensorFlow / TFLite, ça pourrait plus facilement s’envisager, par contre.



Sinon un contributeur propose des bindings Rust :-),https://crates.io/crates/deepspeech (et ça marche bien, je m’en sert sur un autre projet annexe).


Le 10/12/2019 à 15h 59

Absolument, c’est bien ça notre objectif. Si tu trouves du temps, tu es plus que le bienvenu :)

Le 10/12/2019 à 14h 17

En vrai même, c’est ce que KenLM essaie de faire. Si tu regardes, il est utilisé dans la phase de décodage. KenLM apporte la connaissance de « la langue » pour amener justement du contexte et faire en sorte de le décodage CTC soit pondéré par cette connaissance de la langue. Ça pour le coup c’est encore moins documenté, mais c’est dans native_client/ctcdecode/ si tu veux voir.

Le 10/12/2019 à 11h 15







tazvld a écrit :



Je n’ai pas regardé en détail le code de “DeepSpeech.py” (qui est la partie qui m’a intéressé), je n’ai pas très bien vu sur quelle sortie le réseau était entraîné. Main j’ai l’impression qu’une bonne partie du truc peut être fait avec tf.keras (autant utiliser la version de la bibliothèque intégré à TF). Par exemple, les couches dense (et le preprocessing create_overlapping_windows) se remplace très bien avec Conv1D, les LSTM par les LSTM de keras (dans TF, et je crois que c’est seulement depuis TF2, LSTM va utiliser la version cuDNN si c’est possible). Pour le dropout, tu as la couche Dropout, mais je pense que “SpacialDropout” serait peut être mieux. Tu peux utiliser les Callback pour faire des opérations régulièrement, comme les log (via tensorbord), enregistré régulièrement le réseau, earlystop… Le multi GPU est géré (à la base c’est keras.utils.multi_gpu_model , mais dans la doc de TF2, il conseille d’utiliser tf.distribute.MirroredStrategy ).



Dans les remarques, avez-vous essayer de remplacer les LSTM par des GRU ? Vous pourriez gagner en performance sans trop perdre en qualité.



Sinon, comme je l’ai dit, j’aurais tendance à faire du end-to-end, c’est a dire partir de la décomposition en fréquence pour arriver directement à la phrase. Est-ce que c’est prévu ?

L’idée est de pouvoir exploiter le contexte, c’est à dire la phrase en entier, pour deviner le mot prononcé. En effet, c’est ce que l’on fait nous naturellement, on n’entend pas forcément l’intégralité des mots, mais on arrive à le retrouver grâce aux quelques son que l’on a entendu et au contexte.

La façon dont je ferais s’approcherait des réseau de neurone utilisé pour faire de la traduction. On peut même potentiellement faire une version “à la volée”.







Je dirais que la raison la plus évidentes c’est que les outils n’existe pas en Rust. Au contraire, python est Le Langage pour l’apprentissage automatique. Toutes les bibliothèques d’apprentissage automatique ont les version pour Python, tout particulièrement les bibliothèque pour l’apprentissage profond. Dans la réalité, ces bibliothèque sont généralement des wrappers pour du code compiler, les perf d’un code Python pure n’étant pas terribles.



L’autre raison, c’est que Rust n’est pas forcément fait pour ça. Rust est avant tout fait pour les systèmes critiques. Les code demandant une certaine sécurité d’exécution. Ce n’est pas le cas ici.





Ouais, mais tous les trucs de Keras, ça n’existait pas quand on a commencé, comme j’ai dit. Et migrer ça c’est non trivial, faut s’assurer aucune régression dans la qualité, et dans les différentes instances d’inférences. Et l’équipe est pas grosse … On s’en est mangé un paquet de bugs et de comportements non attendus de la part de trucs pas si border-line que ça dans TensorFlow.



Je sais que reuben a essayé les convolutions dont tu parles, et ça marchait pas comme voulu. Bref tu le dis toi même, plein de trucs dans TF 2.0.



Sinon, GRU et end-to-end, c’est des bugs qui sont ouverts / fermés / documentés. GRU, pas ouf des tests qu’on avait fait. End-to-end, c’est pareil, on aimerait bien remplacer KenLM, mais pour le moment on a pas encore le temps.


Le 09/12/2019 à 16h 58







Okki a écrit :



Tout le monde peut également contribuer à Common Voice, autre projet Mozilla qui permet de fournir un jeu de données dans les différentes langues pour entraîner DeepSpeech.





Absolument, et toutes les bonnes volontés sont les bienvenues, pas uniquement pour s’enregistrer, mais aussi pour :





  • étendre le jeu de texte (via Sentence Collector)

  • valider des enregistrements (dans toutes les langues que vous maîtrisez, pas uniquement le français)

  • s’enregistrer dans toutes les langues que vous maîtrisez, la diversité des accents c’est important



    Les statistiques sur la première release oficielle de Common Voice montrent aussi un gros déséquilibre dans les genres (72% masculin vs 7% féminin), donc il reste beaucoup de progrès à faire pour débiaiser les données et assurer une représentativité meilleure.


Le 09/12/2019 à 16h 53







brazomyna a écrit :



existe-t-il des benchs qui comparent objectivement le taux de réussite d’un google home vs alexa vs mozilla vs cortana par exemple ?



j’aimerais beaucoup migrer ma domotique vers de la reco vocale non cloudesque, mais si c’est pour avoir un taux d’erreur trop élevé, c’est mort d’avance.



ex: pour avoir testé il y a 2 ans environ, la reco vocale de cortana (via le projet S.A.R.A.H et les micros d’un kinect) arrivait à être moins bonne sur des phrases prédéfinies que mon google home avec des phrases non prédéfinies.





C’est difficile de donner une réponse, mais avec un peu de travail y’a pas de raison que ça ne marche pas. Un vocabulaire limité, on arrive assez facilement à avoir de bons résultats. J’avais expérimenté ça y’a un moment déjà, on a aussi des contributeurs qui nous ont fait des retours positifs (notamment un robot contrôlé à la voix).



Quant aux benchmarks, y’en a, mais faut faire attention, les jeux de données de tests peuvent être très biaisés et peu représentatifs d’une utilisation « finale » (avec du bruit, avec des micros pourris, etc). Ếtre plus robuste à du son dégradé on y travaille.


Le 09/12/2019 à 16h 50







tazvld a écrit :



En gros, c’est un Speech-to-text libre. Il est entièrement entraînable sur n’importe quel base de donnée (tu peux même faire ta propre base de donnée de son pour qu’ils apprennent à reconnaître spécifiquement ta façon de parler). Je sais que la base de donnée de Modzilla contient du français, mais je ne sais pas si c’est utilisé (j’ai pas regardé cette partie du code). Cependant, je vois qu’ils ont un outils pour importer une BDD pour du mandarin.





En gros c’est ça.





Sinon, j’ai un peu lu le code. Petit détail, ça devrait pouvoir tourner avec Tensorflow 1.4, 1.5 mais ont fait un boulot pour le migrer vers Tensorflow 2.0 en mode Legacy.



L’autre difficulté pour lire ce code, c’est qu’ils ont fait mixer du tensorflow bas niveau, des partie de bibliothèque plus haut niveau (tf.nn) et je crois que j’ai vu du contrib passer aussi. Or, pour la partie réseau de neurone, la bibliothèque Keras simplifie grandement le taf surtout qu’une version spécialement adapté est directement intégré dans Tensorflow (tf.keras)

Enfin, la doc est un peu chiche, beaucoup de fonctions ne sont pas documenté, il faut un peu lire le code, les commentaire pour deviner ce qu’elle fait.



Bon, sinon, ce que fait le code :




  • input du réseau de neurone : le spectre du son en fonction du temps (il faut voir ça comme une séquence 1-D de vecteur)

  • 3 couches de convolution. En gros, c’est des truc qui travaille sur une fenêtre flottante, ici la fenêtre est selon l’axe du temps seulement.

  • un Long Short Term Memory (j’ai pas vu si c’était bidirectionnel cependant, j’imagine que oui). Ca, ça permet de travailler sur l’intégralité de la séquence, ça garde une mémoire de ce qui a déjà été lu (dans le cas du bidirectionnel, la séquence est aussi passé à l’envers, le futur devient le passé : on sais ce qui s’est passé avant, mais aussi ce qui va se passé).

  • 1 couche de convolution.

  • un softmax. Comme son nom l’indique, ça a tendance à fortement augmenter la valeur maximal d’un vecteur vis à vis du reste (et la somme des valeurs du vecteur vaut 1)

  • sortie : séquence 1-D de la même taille que l’input encodant le phonème

    De là, la séquence de sortie est ensuite convertie en une séquence de mots les plus probables.



    Selon moi, l’approche est simple et comme l’article de référence, date de 2014. Ils ont le mérite de proposer leur code, avec des programmes fonctionnels, et rien n’empêche (à part la doc) d’utiliser les outils à coté pour faire son propre modèle.





    Edit : aujourd’hui, on a tendance à utiliser du NN du début jusqu’à la fin, ici, la dernière partie serait plutôt remplacé par une autre NN. Je pense à un truc comme un mécanisme d’attention par exemple.





    (Disclaimer : je bosse dessus)



    T’as plus ou moins raison. Pour le français, j’ai commencé à bosser sur un modèle français, mais Common Voice ne contient pas encore assez de données ni de variété pour être utilisable seul. Le modèle est encore très exéprimental.



    Côté TensorFlow, oui, c’est r1.14, faut qu’on passe sur r1.15 maintenant que v0.6.0 est sortie. On a préparé des trucs pour r2.0, mais ça va prendre du temps avant de migrer.



    Effectivement, on mélange des trucs hauts et bas niveau et contrib, parce que tout n’était pas forcément existant quand on a commencé, et/ou que Keras permet pas forcément tout ce qu’on veut.



    Côté doc, oui, on a commencé à sérieusement remanier qu’après la v0.5.1 notamment suite à des feedbacks pendant des workshops. La doc sur le réseau est plus complexe à faire, et idéalement oui pour le moment faut se plonger dans le code. Encore qu’on a normalement quand même les grandes lignes sur readthedocs. Après, des bugs / PRs sur Github avec des points d’incompréhensions qui soient bien explicités, on prends, pour améliorer la doc.


Le 19/04/2019 à 15h 57


David_L a dit:


C’est du Threadripper donc pas le même socket (et sans doute rien avant l’été/la fin de l’année). On verra là aussi au moment des annonces je pense :chinois:


Ha ha, dans ma tête toutes ces annonces de compatibilité Ryzen étaient nécessairement valables pour Threadripper également, de manière automatique. Bon, patience …

Le 19/04/2019 à 13h 13

Ça parle de X370, est-ce qu’on a des infos sur les autres ? Dans mon cas, une Asus Prime X399-A, et je me demande si je peux espérer la 3è gen ou si je devrais m’orienter vers un 2è gen.

Le 05/03/2019 à 13h 12

C’est pas obligatoire, faut aller dans le profil le renseigner.

Le 15/10/2018 à 09h 34

C’était le cas. D’ailleurs, Dandu traînait aussi sur X86-Secrets …

Le 14/09/2018 à 10h 07

Jusqu’à présent, sauf si ça a été changé, il faut la bêta et être inscrit sur une mailing list spécifique avec l’adresse de ton compte Google Play.

Le 31/08/2018 à 09h 59

Chez Sosh c’est 300300, Orange c’est 500200. Et ça, c’est moyen, je trouve. J’espère qu’ils vont modifier ça.

Le 13/08/2018 à 19h 43

Pas de soucis non plus pour ma part, avec un 1950X

Le 05/01/2018 à 17h 36

Intéressant, j’ai également eu des soucis quand j’étais à Austin le mois dernier. Par moment, AT&T indiquait un message m’invitant à « m’enregistrer » via une notification, similaire à l’interface d’identification d’un portail captif détecté par le téléphone. En ouvrant la notification, j’avais le site de Free Mobile qui m’indiquait un paiement à effectuer, et en validant pour continuer, ça se finissait en « ah non c’est bon azy ça marche ». Après quelques instants, je récupérais le réseau. Sony Xperia Z3 Compact (6.0.1 stock), pour référence.

Le 15/11/2017 à 13h 54

À voir le nombre de bugs ouverts, l’absence de réponse, la date de la dernière mise à jour, j’ai bien peur que ce soit long. Peut-être que ça serait plus efficace d’ouvrir un bug/feature request sur une alternative WebExt qui bouge pour indiquer ce qui te manque ? Il est possible que tu sois pas le seul :)

Le 15/11/2017 à 11h 53

Génial ! D’après le bug, c’est censé être corrigé pour 57 mais il semble continuer à y avoir des soucis. Y’a des alternatives à PassIFox, on dirait. Par contre, sur le github de PassIFox, j’ai trouvé plein d’issues ouvertes, et les gens indiquent comme alternativehttps://addons.mozilla.org/fr/firefox/addon/keepasshttp-connector/



Est-ce que du coup ça pourrait pas le faire pour toi ?

Le 15/11/2017 à 10h 41

On peut pas en déduire grand chose pour le moment, mais si vas voir les rapports de crashes, tu peux essayer de voir si ce sont toujours les mêmes. Ou partager ici (ou en privé) les liens. Quant à la lenteur, c’est peut-être lié à Orange/Level3 (j’ai vu qu’il y a des gros soucis de pertes entre les deux depuis ce matin 6h), le site est rapide là (je suis au bureau à Berlin).

Le 15/11/2017 à 09h 43

Tu as quelque chose dans about:crashes ?

Le 14/11/2017 à 17h 57

Je sais, mais tu peux déjà la réduire pas mal. Ensuite il y a encore pas tout dans WebExtension pour refaire Tab Center, mais ça avance tout de même.

Le 14/11/2017 à 16h 49

C’est TabCenter Redux:https://addons.mozilla.org/fr/firefox/addon/tab-center-redux/

Le 19/09/2017 à 12h 15

On a eu la même chose mise en place à l’Université quand j’y faisait ma thèse. Ils ont aussi dû voir une réduction du volume d’impressions, vu que les deux dernières années j’ai jamais pu imprimer quoi que ce soit, le système ne fonctionnant pas (et le service informatique en charge s’en tamponnant). Je ne me fierais pas nécessairement à cette manière de faire.

Le 05/09/2017 à 17h 52

Avant d’acheter, tu peux vérifier via le service mode si les clefs sont là ou pas :)



##7378423##, puis Service tests, et tu cherches Security. Et là, tu vois tous les DRMs et leur statut.

Le 05/09/2017 à 12h 19

Quand tu déverouilles, ça efface des partitions qui contiennent les clefs des DRMs (sinon, tu pourrais y accéder avec des ROM custo). Du coup, tu les perds. C’est embêtant mais documenté.

Le 22/08/2017 à 18h 52

TreeStyleTab semble possible en WebExtension, vu le travail d’un collègue :http://techno-barje.fr/fawkes/



Pour resituer le contexte, Fawkes c’est son expérimentation de réimplémenter totalement l’UI de Firefox à coup de WebExtensions. Donc une UI qui se met à jour comme un site web :). C’est très classe, j’ai joué avec pendant quelques mois :). Un des éléments, c’est justement Vertical Tabs.

Bon c’est un peu pété depuis plusieurs semaines, mais l’idée est là, et il cherchait des contributeurs pour l’aider.

Le 22/08/2017 à 14h 22

Tu confonds, c’est pas Andreas Gal qui est parti fonder Acadine, c’est Li Gong. Et Acadine ça a pas vraiment pris, par contre y’a KaiOS Tech qui arrive à faire des trucs … http://kaiostech.com/

Le 09/08/2017 à 13h 49

Fennec c’est le nom de code de Firefox pour Android :)

Le 09/08/2017 à 12h 43

Ça me rappelle beaucoup de bugs que j’ai eu à une époque sur Fennec Nightly. Avec le temps, ça avait été corrigé, visiblement des uplifts manquent ? En tout cas Fennec Nightly s’améliore aussi, et est dispo sur le Play Store à présent, donc plus facile à tester, puisque pas de sécurité à désactiver :)

Le 04/08/2017 à 14h 32

github.com GitHub

Le 04/08/2017 à 12h 06

C’est documenté :github.com GitHubhttps://testpilot.firefox.com/privacy



Et c’est un Google Analytics dédié, pas l’instance publique,github.com GitHub

Le 22/06/2017 à 17h 10

En 500200 chez Orange (FTTH), sur Steam, je dépasse souvent les 70-80MiO/s

Le 13/04/2017 à 16h 51

Non, promis !

Le 13/04/2017 à 15h 11

Pire :)

Le 13/04/2017 à 14h 09

Blague déjà faite :)

twitter.com Twitter