Désolé d'aller sur ce sujet polémique, mais contrairement aux idées reçues, le fait de regarder une vidéo en HD n'a que très peu d'influence sur le bilan environnemental d'un visionnage. Sur l'ensemble de la chaine de distribution, la différence de consommation est largement inférieure à 1W entre du 4k et du 720p. Je peux développer le calcul si ça intéresse quelqu'un. Par contre, garder son terminal une année de plus (ou deux, soyons fous), ça ça change tout. Edit : raisonnement extensible au streaming de musique sur YT
Merci pr le lien ! J’attends ça pr migrer les PC de la famille sur la 22.04 😁. Mais effectivement pr avoir testé, aucun changement avec cette version 105. Allez encore un peu de patience.
C’est un travail qui est compliqué techniquement à faire, et gérer la partie CI est aussi non triviale, Olivier bosse dur là dessus mais ça s’approche. Je pense que quand c’est landé sur Nightly, il fera un backport sur stable et beta pour le snap après quelques jours. Donc ça devrait bientôt arriver :)
Je me pose la question aussi, je ne savais pas que le rafraîchissement de l’écran avait un impact sur le navigateur. Scroll plus fluide ? Vidéos ? Animations diverses de l’interface ? Il y a bien un endroit où la liste détaillée des bugs corrigés est consultable…
C’est pas un comportement qu’on attends par défaut, ça peut des fois s’expliquer avec 2 CPUs et pas d’hyperthreading. Si tu peux suivre la doc https://profiler.firefox.com/docs/#/./guide-startup-shutdown pour collecter un profil, on peut commencer à regarder si on voit des choses pathologiques à corriger.
J’espère qu’ils proposeront enfin un port > 1Gbp côté ethernet, histoire de pouvoir profiter des abonnements 2Gbp sans se reposer sur le partage « eth / wifi ».
Alors il faudrait vraiment que tu prennes le temps de nous partager :
about:crashes si tu as des crashes
about:support pour voir un peu
Ce que tu décris n’est clairement pas normal.
Des fois aussi ce sont des antivirus et autres qui perturbent gravement le fonctionnement :)
Le
07/10/2021 à
13h
12
Merci pour le lien. Visiblement, les onglets avec du contenu multimédia en cours de lecture ont plus de priorité, mais rien au sujet des onglets avec des formulaires en cours de rédaction. Après, ça n’arrive que lorsque la mémoire devient critique, ce n’est pas constamment non plus.
En fait, tab unloading ne va s’activer que dans des moments très critiques. Et normalement ça réutilise l’infra existante, donc un formulaire en cours de rédaction devrait ne pas perdre son contenu.
Je l’ai viré le mois dernier car, justement, je ne supportais plus les TRÈS nombreux soucis que j’avais avec depuis l’arrivée de la “nouvelle interface”. Genre, m’y reprendre à 5 ou 6 fois pour pouvoir saisir du texte dans la zone prévue à cet effet (Quel que soit le site, NextInpact compris), quand il ne me fallait pas carrément recharger la page (et encore, avec CTRL F5, le F5 seul ne suffisant souvent pas) pour que ça marche…
D’ailleurs, pareil, ne TRÈS nombreuses fois, je devais justement les recharger parce qu’il manquait des éléments (image, texte, quand ce n’était pas tout simplement la structure de la page elle-même qui manquait…). Et après rechargement : miracle, ce qui manquait était là… Ce qui fait que je me suis rendu compte que ces manques l’étaient de façon purement aléatoire…
Et je ne parle même pas de la lenteur totalement abusée quand on commençait à descendre un peu trop en profndeur dans les publications Facebook.
Et ce n’est pas faute d’avoir repoussé mon départ au maximum mais franchement, avec la version 92.x, ça prenait des proportions rendant le navigateur inutilisable.
Je suis depuis (et à contrecœur) passé sur Chrome et depuis : PLUS AUCUNS soucis, ni de perfs, ni de page incomplète, ni de bug, ni… Rien !
Et si je ne suis pas passé sur Opéra, c’est parce que j’ai des soucis avec les sites de paiement en ligne avec ce navigateur…
A savoir qu’il n’y a QU’UNE SEULE et unique extension d’installée sur mon navigateur (Firefox puis Chrome) : Adguard !
Si tu pouvais prendre le temps de partager about:crashes ainsi que about:support, peut-être qu’il y a quelque chose à corriger ?
Le
07/10/2021 à
09h
46
Je l’ai viré le mois dernier car, justement, je ne supportais plus les TRÈS nombreux soucis que j’avais avec depuis l’arrivée de la “nouvelle interface”. Genre, m’y reprendre à 5 ou 6 fois pour pouvoir saisir du texte dans la zone prévue à cet effet (Quel que soit le site, NextInpact compris), quand il ne me fallait pas carrément recharger la page (et encore, avec CTRL F5, le F5 seul ne suffisant souvent pas) pour que ça marche…
D’ailleurs, pareil, ne TRÈS nombreuses fois, je devais justement les recharger parce qu’il manquait des éléments (image, texte, quand ce n’était pas tout simplement la structure de la page elle-même qui manquait…). Et après rechargement : miracle, ce qui manquait était là… Ce qui fait que je me suis rendu compte que ces manques l’étaient de façon purement aléatoire…
Et je ne parle même pas de la lenteur totalement abusée quand on commençait à descendre un peu trop en profndeur dans les publications Facebook.
Et ce n’est pas faute d’avoir repoussé mon départ au maximum mais franchement, avec la version 92.x, ça prenait des proportions rendant le navigateur inutilisable.
Je suis depuis (et à contrecœur) passé sur Chrome et depuis : PLUS AUCUNS soucis, ni de perfs, ni de page incomplète, ni de bug, ni… Rien !
Et si je ne suis pas passé sur Opéra, c’est parce que j’ai des soucis avec les sites de paiement en ligne avec ce navigateur…
A savoir qu’il n’y a QU’UNE SEULE et unique extension d’installée sur mon navigateur (Firefox puis Chrome) : Adguard !
Ça semble pas être un soucis de mémoire, mais de crash dans les drivers vidéos. Malheureusement c’est pas rare ce genre de choses, et en cherchant y’a pas mal de reports similaires sur le même GPU / version Android. Peut-être qu’il est nécessaire de blacklister quelque chose quelque part?
Le
12/06/2021 à
13h
41
Merci, le crash de mémoire m’intrigue, je vais creuser ça.
Le
11/06/2021 à
23h
41
tu as des crash dans about:crashes ? tu pourrais en partager quelques-un ? Les infos devraient avoir été envoyées sur https://crash-stats.mozilla.org/
J’arrive après la bataille mais vu que tu bosse dessus tu connais des outils qui utilisent cet api ?
Je cherche a convertir des discours en texte pour un projet, donc soit je créer moi même une appli ou tu lance un fichier son et il sort un texte (plus qu’a corriger) soit je trouve une appli qui le fait déjà.
En prime je balancerais les sons et textes libre dans la base par la suite (après correction)
Oui, on sait que des sociétés l’utilisent déjà, il y a un exemple dans le blog post hacks. Après, des fois c’est difficile de savoir que des gens s’en servent. La plateforme eSup Pod utilisée par plein d’université l’a intégré dans sa dernière release, en beta, par ex.
En vrai pour un besoin décrit basique comme celui-ci, nos binaires doivent pouvoir suffir.
Le
11/12/2019 à
07h
07
rmfx a écrit :
Vu la dose de Je disais ca parce que quand je regarde les sources github, 55.9 pourcent des sources du projet est cpp, qui est dans le meme domaine d’utilisation que Rust. Il ya a donc bien une large portion du code qui pourrait etre oxydee ? Apres, je me penche dessus de maniere assez simpliste. Le tooling est assez basique pour Rust mais si meme chez Mozilla, on ne prend pas le parti de promouvoir Rust, quit a etre moins confort, je me demande qui le fera.
Oui mais regarde la répartition du C++, une grosse partie c’est native_client/ctcdecoder/, dont du code qui implémente l’opérateur TensorFlow augmenté du scoring avec le modèle de langage KenLM, plus openfst. Je sais pas trop ce que ça donnerait d’écrire un module python en C++ avec l’interfaçage nécessaire pour que ce soit appelé depuis CPython, mais très honnêtement, je pense que ça serait se rajouter une part non négligeable de boulot et de bugs.
La partie inférence pourrait être en Rust, sauf que comme ça dépend de bouts de TensorFlow, on se retrouve à dépendre de Bazel. Ça veut dire écrire une API en Rust, et exposée en C pour pouvoir faire des bindings de partout. Et que tout ça se marie correctement avec Bazel. C’était déjà assez galère de cross-compiler avec Bazel pour des cibles non supportées par TensorFlow (RPi3/RPi4) (les gens de Snips pourraient aussi en parler longtemps je crois :)).
Bref, à titre perso j’aime bien Rust mais j’en ai pas (encore) assez fait à mon goût. Dans l’optique de plus dépendre du runtime TensorFlow / TFLite, ça pourrait plus facilement s’envisager, par contre.
Sinon un contributeur propose des bindings Rust :-),https://crates.io/crates/deepspeech (et ça marche bien, je m’en sert sur un autre projet annexe).
Le
10/12/2019 à
15h
59
Absolument, c’est bien ça notre objectif. Si tu trouves du temps, tu es plus que le bienvenu :)
Le
10/12/2019 à
14h
17
En vrai même, c’est ce que KenLM essaie de faire. Si tu regardes, il est utilisé dans la phase de décodage. KenLM apporte la connaissance de « la langue » pour amener justement du contexte et faire en sorte de le décodage CTC soit pondéré par cette connaissance de la langue. Ça pour le coup c’est encore moins documenté, mais c’est dans native_client/ctcdecode/ si tu veux voir.
Le
10/12/2019 à
11h
15
tazvld a écrit :
Je n’ai pas regardé en détail le code de “DeepSpeech.py” (qui est la partie qui m’a intéressé), je n’ai pas très bien vu sur quelle sortie le réseau était entraîné. Main j’ai l’impression qu’une bonne partie du truc peut être fait avec tf.keras (autant utiliser la version de la bibliothèque intégré à TF). Par exemple, les couches dense (et le preprocessing create_overlapping_windows) se remplace très bien avec Conv1D, les LSTM par les LSTM de keras (dans TF, et je crois que c’est seulement depuis TF2, LSTM va utiliser la version cuDNN si c’est possible). Pour le dropout, tu as la couche Dropout, mais je pense que “SpacialDropout” serait peut être mieux. Tu peux utiliser les Callback pour faire des opérations régulièrement, comme les log (via tensorbord), enregistré régulièrement le réseau, earlystop… Le multi GPU est géré (à la base c’est keras.utils.multi_gpu_model , mais dans la doc de TF2, il conseille d’utiliser tf.distribute.MirroredStrategy ).
Dans les remarques, avez-vous essayer de remplacer les LSTM par des GRU ? Vous pourriez gagner en performance sans trop perdre en qualité.
Sinon, comme je l’ai dit, j’aurais tendance à faire du end-to-end, c’est a dire partir de la décomposition en fréquence pour arriver directement à la phrase. Est-ce que c’est prévu ?
L’idée est de pouvoir exploiter le contexte, c’est à dire la phrase en entier, pour deviner le mot prononcé. En effet, c’est ce que l’on fait nous naturellement, on n’entend pas forcément l’intégralité des mots, mais on arrive à le retrouver grâce aux quelques son que l’on a entendu et au contexte.
Je dirais que la raison la plus évidentes c’est que les outils n’existe pas en Rust. Au contraire, python est Le Langage pour l’apprentissage automatique. Toutes les bibliothèques d’apprentissage automatique ont les version pour Python, tout particulièrement les bibliothèque pour l’apprentissage profond. Dans la réalité, ces bibliothèque sont généralement des wrappers pour du code compiler, les perf d’un code Python pure n’étant pas terribles.
L’autre raison, c’est que Rust n’est pas forcément fait pour ça. Rust est avant tout fait pour les systèmes critiques. Les code demandant une certaine sécurité d’exécution. Ce n’est pas le cas ici.
Ouais, mais tous les trucs de Keras, ça n’existait pas quand on a commencé, comme j’ai dit. Et migrer ça c’est non trivial, faut s’assurer aucune régression dans la qualité, et dans les différentes instances d’inférences. Et l’équipe est pas grosse … On s’en est mangé un paquet de bugs et de comportements non attendus de la part de trucs pas si border-line que ça dans TensorFlow.
Je sais que reuben a essayé les convolutions dont tu parles, et ça marchait pas comme voulu. Bref tu le dis toi même, plein de trucs dans TF 2.0.
Sinon, GRU et end-to-end, c’est des bugs qui sont ouverts / fermés / documentés. GRU, pas ouf des tests qu’on avait fait. End-to-end, c’est pareil, on aimerait bien remplacer KenLM, mais pour le moment on a pas encore le temps.
Le
09/12/2019 à
16h
58
Okki a écrit :
Tout le monde peut également contribuer à Common Voice, autre projet Mozilla qui permet de fournir un jeu de données dans les différentes langues pour entraîner DeepSpeech.
Absolument, et toutes les bonnes volontés sont les bienvenues, pas uniquement pour s’enregistrer, mais aussi pour :
étendre le jeu de texte (via Sentence Collector)
valider des enregistrements (dans toutes les langues que vous maîtrisez, pas uniquement le français)
s’enregistrer dans toutes les langues que vous maîtrisez, la diversité des accents c’est important
Les statistiques sur la première release oficielle de Common Voice montrent aussi un gros déséquilibre dans les genres (72% masculin vs 7% féminin), donc il reste beaucoup de progrès à faire pour débiaiser les données et assurer une représentativité meilleure.
Le
09/12/2019 à
16h
53
brazomyna a écrit :
existe-t-il des benchs qui comparent objectivement le taux de réussite d’un google home vs alexa vs mozilla vs cortana par exemple ?
j’aimerais beaucoup migrer ma domotique vers de la reco vocale non cloudesque, mais si c’est pour avoir un taux d’erreur trop élevé, c’est mort d’avance.
ex: pour avoir testé il y a 2 ans environ, la reco vocale de cortana (via le projet S.A.R.A.H et les micros d’un kinect) arrivait à être moins bonne sur des phrases prédéfinies que mon google home avec des phrases non prédéfinies.
C’est difficile de donner une réponse, mais avec un peu de travail y’a pas de raison que ça ne marche pas. Un vocabulaire limité, on arrive assez facilement à avoir de bons résultats. J’avais expérimenté ça y’a un moment déjà, on a aussi des contributeurs qui nous ont fait des retours positifs (notamment un robot contrôlé à la voix).
Quant aux benchmarks, y’en a, mais faut faire attention, les jeux de données de tests peuvent être très biaisés et peu représentatifs d’une utilisation « finale » (avec du bruit, avec des micros pourris, etc). Ếtre plus robuste à du son dégradé on y travaille.
Le
09/12/2019 à
16h
50
tazvld a écrit :
En gros, c’est un Speech-to-text libre. Il est entièrement entraînable sur n’importe quel base de donnée (tu peux même faire ta propre base de donnée de son pour qu’ils apprennent à reconnaître spécifiquement ta façon de parler). Je sais que la base de donnée de Modzilla contient du français, mais je ne sais pas si c’est utilisé (j’ai pas regardé cette partie du code). Cependant, je vois qu’ils ont un outils pour importer une BDD pour du mandarin.
En gros c’est ça.
Sinon, j’ai un peu lu le code. Petit détail, ça devrait pouvoir tourner avec Tensorflow 1.4, 1.5 mais ont fait un boulot pour le migrer vers Tensorflow 2.0 en mode Legacy.
L’autre difficulté pour lire ce code, c’est qu’ils ont fait mixer du tensorflow bas niveau, des partie de bibliothèque plus haut niveau (tf.nn) et je crois que j’ai vu du contrib passer aussi. Or, pour la partie réseau de neurone, la bibliothèque Keras simplifie grandement le taf surtout qu’une version spécialement adapté est directement intégré dans Tensorflow (tf.keras)
Enfin, la doc est un peu chiche, beaucoup de fonctions ne sont pas documenté, il faut un peu lire le code, les commentaire pour deviner ce qu’elle fait.
Bon, sinon, ce que fait le code :
input du réseau de neurone : le spectre du son en fonction du temps (il faut voir ça comme une séquence 1-D de vecteur)
3 couches de convolution. En gros, c’est des truc qui travaille sur une fenêtre flottante, ici la fenêtre est selon l’axe du temps seulement.
un Long Short Term Memory (j’ai pas vu si c’était bidirectionnel cependant, j’imagine que oui). Ca, ça permet de travailler sur l’intégralité de la séquence, ça garde une mémoire de ce qui a déjà été lu (dans le cas du bidirectionnel, la séquence est aussi passé à l’envers, le futur devient le passé : on sais ce qui s’est passé avant, mais aussi ce qui va se passé).
1 couche de convolution.
un softmax. Comme son nom l’indique, ça a tendance à fortement augmenter la valeur maximal d’un vecteur vis à vis du reste (et la somme des valeurs du vecteur vaut 1)
sortie : séquence 1-D de la même taille que l’input encodant le phonème
De là, la séquence de sortie est ensuite convertie en une séquence de mots les plus probables.
Selon moi, l’approche est simple et comme l’article de référence, date de 2014. Ils ont le mérite de proposer leur code, avec des programmes fonctionnels, et rien n’empêche (à part la doc) d’utiliser les outils à coté pour faire son propre modèle.
Edit : aujourd’hui, on a tendance à utiliser du NN du début jusqu’à la fin, ici, la dernière partie serait plutôt remplacé par une autre NN. Je pense à un truc comme un mécanisme d’attention par exemple.
(Disclaimer : je bosse dessus)
T’as plus ou moins raison. Pour le français, j’ai commencé à bosser sur un modèle français, mais Common Voice ne contient pas encore assez de données ni de variété pour être utilisable seul. Le modèle est encore très exéprimental.
Côté TensorFlow, oui, c’est r1.14, faut qu’on passe sur r1.15 maintenant que v0.6.0 est sortie. On a préparé des trucs pour r2.0, mais ça va prendre du temps avant de migrer.
Effectivement, on mélange des trucs hauts et bas niveau et contrib, parce que tout n’était pas forcément existant quand on a commencé, et/ou que Keras permet pas forcément tout ce qu’on veut.
Côté doc, oui, on a commencé à sérieusement remanier qu’après la v0.5.1 notamment suite à des feedbacks pendant des workshops. La doc sur le réseau est plus complexe à faire, et idéalement oui pour le moment faut se plonger dans le code. Encore qu’on a normalement quand même les grandes lignes sur readthedocs. Après, des bugs / PRs sur Github avec des points d’incompréhensions qui soient bien explicités, on prends, pour améliorer la doc.
C’est du Threadripper donc pas le même socket (et sans doute rien avant l’été/la fin de l’année). On verra là aussi au moment des annonces je pense
Ha ha, dans ma tête toutes ces annonces de compatibilité Ryzen étaient nécessairement valables pour Threadripper également, de manière automatique. Bon, patience …
Le
19/04/2019 à
13h
13
Ça parle de X370, est-ce qu’on a des infos sur les autres ? Dans mon cas, une Asus Prime X399-A, et je me demande si je peux espérer la 3è gen ou si je devrais m’orienter vers un 2è gen.
Intéressant, j’ai également eu des soucis quand j’étais à Austin le mois dernier. Par moment, AT&T indiquait un message m’invitant à « m’enregistrer » via une notification, similaire à l’interface d’identification d’un portail captif détecté par le téléphone. En ouvrant la notification, j’avais le site de Free Mobile qui m’indiquait un paiement à effectuer, et en validant pour continuer, ça se finissait en « ah non c’est bon azy ça marche ». Après quelques instants, je récupérais le réseau. Sony Xperia Z3 Compact (6.0.1 stock), pour référence.
À voir le nombre de bugs ouverts, l’absence de réponse, la date de la dernière mise à jour, j’ai bien peur que ce soit long. Peut-être que ça serait plus efficace d’ouvrir un bug/feature request sur une alternative WebExt qui bouge pour indiquer ce qui te manque ? Il est possible que tu sois pas le seul :)
Le
15/11/2017 à
11h
53
Génial ! D’après le bug, c’est censé être corrigé pour 57 mais il semble continuer à y avoir des soucis. Y’a des alternatives à PassIFox, on dirait. Par contre, sur le github de PassIFox, j’ai trouvé plein d’issues ouvertes, et les gens indiquent comme alternativehttps://addons.mozilla.org/fr/firefox/addon/keepasshttp-connector/
Est-ce que du coup ça pourrait pas le faire pour toi ?
Le
15/11/2017 à
10h
41
On peut pas en déduire grand chose pour le moment, mais si vas voir les rapports de crashes, tu peux essayer de voir si ce sont toujours les mêmes. Ou partager ici (ou en privé) les liens. Quant à la lenteur, c’est peut-être lié à Orange/Level3 (j’ai vu qu’il y a des gros soucis de pertes entre les deux depuis ce matin 6h), le site est rapide là (je suis au bureau à Berlin).
Le
15/11/2017 à
09h
43
Tu as quelque chose dans about:crashes ?
Le
14/11/2017 à
17h
57
Je sais, mais tu peux déjà la réduire pas mal. Ensuite il y a encore pas tout dans WebExtension pour refaire Tab Center, mais ça avance tout de même.
On a eu la même chose mise en place à l’Université quand j’y faisait ma thèse. Ils ont aussi dû voir une réduction du volume d’impressions, vu que les deux dernières années j’ai jamais pu imprimer quoi que ce soit, le système ne fonctionnant pas (et le service informatique en charge s’en tamponnant). Je ne me fierais pas nécessairement à cette manière de faire.
Avant d’acheter, tu peux vérifier via le service mode si les clefs sont là ou pas :)
##7378423##, puis Service tests, et tu cherches Security. Et là, tu vois tous les DRMs et leur statut.
Le
05/09/2017 à
12h
19
Quand tu déverouilles, ça efface des partitions qui contiennent les clefs des DRMs (sinon, tu pourrais y accéder avec des ROM custo). Du coup, tu les perds. C’est embêtant mais documenté.
Pour resituer le contexte, Fawkes c’est son expérimentation de réimplémenter totalement l’UI de Firefox à coup de WebExtensions. Donc une UI qui se met à jour comme un site web :). C’est très classe, j’ai joué avec pendant quelques mois :). Un des éléments, c’est justement Vertical Tabs.
Bon c’est un peu pété depuis plusieurs semaines, mais l’idée est là, et il cherchait des contributeurs pour l’aider.
Le
22/08/2017 à
14h
22
Tu confonds, c’est pas Andreas Gal qui est parti fonder Acadine, c’est Li Gong. Et Acadine ça a pas vraiment pris, par contre y’a KaiOS Tech qui arrive à faire des trucs … http://kaiostech.com/
Fennec c’est le nom de code de Firefox pour Android :)
Le
09/08/2017 à
12h
43
Ça me rappelle beaucoup de bugs que j’ai eu à une époque sur Fennec Nightly. Avec le temps, ça avait été corrigé, visiblement des uplifts manquent ? En tout cas Fennec Nightly s’améliore aussi, et est dispo sur le Play Store à présent, donc plus facile à tester, puisque pas de sécurité à désactiver :)
103 commentaires
PeerTube V6 et V7 : d’importantes nouveautés attendues et une campagne de financement
21/11/2023
Le 22/11/2023 à 13h 26
Firefox 105 disponible, avec des améliorations de performances
22/09/2022
Le 28/09/2022 à 00h 46
C’est un travail qui est compliqué techniquement à faire, et gérer la partie CI est aussi non triviale, Olivier bosse dur là dessus mais ça s’approche. Je pense que quand c’est landé sur Nightly, il fera un backport sur stable et beta pour le snap après quelques jours. Donc ça devrait bientôt arriver :)
Le 24/09/2022 à 18h 17
C’est en cours, les personnes de Canonical sont encore en train de travailler dessus: https://bugzilla.mozilla.org/show_bug.cgi?id=1661935
Firefox 103 améliore sa réactivité sur macOS et ses performances avec les écrans 120 Hz et plus
27/07/2022
Le 27/07/2022 à 20h 58
Tu pourras trouver des détails sur ça dans https://bugzilla.mozilla.org/show_bug.cgi?id=1771718#c10
Le 27/07/2022 à 15h 07
C’est pas un comportement qu’on attends par défaut, ça peut des fois s’expliquer avec 2 CPUs et pas d’hyperthreading. Si tu peux suivre la doc https://profiler.firefox.com/docs/#/./guide-startup-shutdown pour collecter un profil, on peut commencer à regarder si on voit des choses pathologiques à corriger.
La Livebox 6 (Safran) d’Orange arrive chez les premiers testeurs
16/12/2021
Le 16/12/2021 à 09h 13
J’espère qu’ils proposeront enfin un port > 1Gbp côté ethernet, histoire de pouvoir profiter des abonnements 2Gbp sans se reposer sur le partage « eth / wifi ».
Firefox 93 et nouveau Focus disponibles, gestionnaire de mots de passe et Microsoft Store
07/10/2021
Le 11/10/2021 à 08h 25
Alors il faudrait vraiment que tu prennes le temps de nous partager :
Ce que tu décris n’est clairement pas normal.
Des fois aussi ce sont des antivirus et autres qui perturbent gravement le fonctionnement :)
Le 07/10/2021 à 13h 12
En fait, tab unloading ne va s’activer que dans des moments très critiques. Et normalement ça réutilise l’infra existante, donc un formulaire en cours de rédaction devrait ne pas perdre son contenu.
Le 07/10/2021 à 12h 44
Tu pourras trouver pas mal de réponses dans https://hacks.mozilla.org/2021/10/tab-unloading-in-firefox-93/, mais ça ne semble pas expliciter ta question précise :)
Le 07/10/2021 à 12h 39
Si tu pouvais prendre le temps de partager
about:crashes
ainsi queabout:support
, peut-être qu’il y a quelque chose à corriger ?Le 07/10/2021 à 09h 46
Tu as essayé sur un profil vierge ?
Concours GeForce RTX 3060 Ti : et le gagnant est…
27/09/2021
Le 20/09/2021 à 13h 08
À mon tour de participer !
Pistage en ligne : Mozilla critique les FloC de Google
11/06/2021
Le 14/06/2021 à 08h 19
Ça semble pas être un soucis de mémoire, mais de crash dans les drivers vidéos. Malheureusement c’est pas rare ce genre de choses, et en cherchant y’a pas mal de reports similaires sur le même GPU / version Android. Peut-être qu’il est nécessaire de blacklister quelque chose quelque part?
Le 12/06/2021 à 13h 41
Merci, le crash de mémoire m’intrigue, je vais creuser ça.
Le 11/06/2021 à 23h 41
tu as des crash dans
about:crashes
? tu pourrais en partager quelques-un ? Les infos devraient avoir été envoyées sur https://crash-stats.mozilla.org/Mozilla DeepSpeech 0.6 : de vastes gains de performances
09/12/2019
Le 11/12/2019 à 17h 34
Le 11/12/2019 à 07h 07
Le 10/12/2019 à 15h 59
Absolument, c’est bien ça notre objectif. Si tu trouves du temps, tu es plus que le bienvenu :)
Le 10/12/2019 à 14h 17
En vrai même, c’est ce que KenLM essaie de faire. Si tu regardes, il est utilisé dans la phase de décodage. KenLM apporte la connaissance de « la langue » pour amener justement du contexte et faire en sorte de le décodage CTC soit pondéré par cette connaissance de la langue. Ça pour le coup c’est encore moins documenté, mais c’est dans
native_client/ctcdecode/
si tu veux voir.Le 10/12/2019 à 11h 15
Le 09/12/2019 à 16h 58
Le 09/12/2019 à 16h 53
Le 09/12/2019 à 16h 50
Les Ryzen en 7 nm seront-ils compatibles avec les premières cartes mères AM4 ?
16/04/2019
Le 19/04/2019 à 15h 57
Ha ha, dans ma tête toutes ces annonces de compatibilité Ryzen étaient nécessairement valables pour Threadripper également, de manière automatique. Bon, patience …
Le 19/04/2019 à 13h 13
Ça parle de X370, est-ce qu’on a des infos sur les autres ? Dans mon cas, une Asus Prime X399-A, et je me demande si je peux espérer la 3è gen ou si je devrais m’orienter vers un 2è gen.
Mozilla Common Voice devient la plus grande base d’échantillons de voix en accès libre
01/03/2019
Le 05/03/2019 à 13h 12
C’est pas obligatoire, faut aller dans le profil le renseigner.
Samuel Demeulemeester (Doc Teraboule) quitte Canard PC Hardware
15/10/2018
Le 15/10/2018 à 09h 34
C’était le cas. D’ailleurs, Dandu traînait aussi sur X86-Secrets …
Sur Android, Firefox Focus récupère son propre moteur GeckoView
14/09/2018
Le 14/09/2018 à 10h 07
Jusqu’à présent, sauf si ça a été changé, il faut la bêta et être inscrit sur une mailing list spécifique avec l’adresse de ton compte Google Play.
Et si vous changiez de FAI ? Notre comparatif de cinq offres à moins de 10 euros
30/08/2018
Le 31/08/2018 à 09h 59
Chez Sosh c’est 300⁄300, Orange c’est 500⁄200. Et ça, c’est moyen, je trouve. J’espère qu’ils vont modifier ça.
Threadripper 2950X/2990WX : comment AMD veut annihiler Intel dans les stations de travail
13/08/2018
Le 13/08/2018 à 19h 43
Pas de soucis non plus pour ma part, avec un 1950X
Free Mobile : des soucis d’itinérance depuis les USA avec des appareils Android, depuis un mois
05/01/2018
Le 05/01/2018 à 17h 36
Intéressant, j’ai également eu des soucis quand j’étais à Austin le mois dernier. Par moment, AT&T indiquait un message m’invitant à « m’enregistrer » via une notification, similaire à l’interface d’identification d’un portail captif détecté par le téléphone. En ouvrant la notification, j’avais le site de Free Mobile qui m’indiquait un paiement à effectuer, et en validant pour continuer, ça se finissait en « ah non c’est bon azy ça marche ». Après quelques instants, je récupérais le réseau. Sony Xperia Z3 Compact (6.0.1 stock), pour référence.
Firefox 57 Quantum disponible : performances, fonctionnalités et ambitions
14/11/2017
Le 15/11/2017 à 13h 54
À voir le nombre de bugs ouverts, l’absence de réponse, la date de la dernière mise à jour, j’ai bien peur que ce soit long. Peut-être que ça serait plus efficace d’ouvrir un bug/feature request sur une alternative WebExt qui bouge pour indiquer ce qui te manque ? Il est possible que tu sois pas le seul :)
Le 15/11/2017 à 11h 53
Génial ! D’après le bug, c’est censé être corrigé pour 57 mais il semble continuer à y avoir des soucis. Y’a des alternatives à PassIFox, on dirait. Par contre, sur le github de PassIFox, j’ai trouvé plein d’issues ouvertes, et les gens indiquent comme alternativehttps://addons.mozilla.org/fr/firefox/addon/keepasshttp-connector/
Est-ce que du coup ça pourrait pas le faire pour toi ?
Le 15/11/2017 à 10h 41
On peut pas en déduire grand chose pour le moment, mais si vas voir les rapports de crashes, tu peux essayer de voir si ce sont toujours les mêmes. Ou partager ici (ou en privé) les liens. Quant à la lenteur, c’est peut-être lié à Orange/Level3 (j’ai vu qu’il y a des gros soucis de pertes entre les deux depuis ce matin 6h), le site est rapide là (je suis au bureau à Berlin).
Le 15/11/2017 à 09h 43
Tu as quelque chose dans about:crashes ?
Le 14/11/2017 à 17h 57
Je sais, mais tu peux déjà la réduire pas mal. Ensuite il y a encore pas tout dans WebExtension pour refaire Tab Center, mais ça avance tout de même.
Le 14/11/2017 à 16h 49
C’est TabCenter Redux:https://addons.mozilla.org/fr/firefox/addon/tab-center-redux/
La première plainte pour obsolescence programmée vise les fabricants d’imprimantes
18/09/2017
Le 19/09/2017 à 12h 15
On a eu la même chose mise en place à l’Université quand j’y faisait ma thèse. Ils ont aussi dû voir une réduction du volume d’impressions, vu que les deux dernières années j’ai jamais pu imprimer quoi que ce soit, le système ne fonctionnant pas (et le service informatique en charge s’en tamponnant). Je ne me fierais pas nécessairement à cette manière de faire.
À l’IFA de Berlin, des smartphones pour tous les goûts, de 49,99 à plus de 1 000 euros
05/09/2017
Le 05/09/2017 à 17h 52
Avant d’acheter, tu peux vérifier via le service mode si les clefs sont là ou pas :)
##7378423##, puis Service tests, et tu cherches Security. Et là, tu vois tous les DRMs et leur statut.
Le 05/09/2017 à 12h 19
Quand tu déverouilles, ça efface des partitions qui contiennent les clefs des DRMs (sinon, tu pourrais y accéder avec des ROM custo). Du coup, tu les perds. C’est embêtant mais documenté.
Firefox 57 : face à la fin des extensions classiques, tout le monde n’est pas prêt
21/08/2017
Le 22/08/2017 à 18h 52
TreeStyleTab semble possible en WebExtension, vu le travail d’un collègue :http://techno-barje.fr/fawkes/
Pour resituer le contexte, Fawkes c’est son expérimentation de réimplémenter totalement l’UI de Firefox à coup de WebExtensions. Donc une UI qui se met à jour comme un site web :). C’est très classe, j’ai joué avec pendant quelques mois :). Un des éléments, c’est justement Vertical Tabs.
Bon c’est un peu pété depuis plusieurs semaines, mais l’idée est là, et il cherchait des contributeurs pour l’aider.
Le 22/08/2017 à 14h 22
Tu confonds, c’est pas Andreas Gal qui est parti fonder Acadine, c’est Li Gong. Et Acadine ça a pas vraiment pris, par contre y’a KaiOS Tech qui arrive à faire des trucs … http://kaiostech.com/
Firefox : une version 55 riche en nouveautés, une fin d’année cruciale
09/08/2017
Le 09/08/2017 à 13h 49
Fennec c’est le nom de code de Firefox pour Android :)
Le 09/08/2017 à 12h 43
Ça me rappelle beaucoup de bugs que j’ai eu à une époque sur Fennec Nightly. Avec le temps, ça avait été corrigé, visiblement des uplifts manquent ? En tout cas Fennec Nightly s’améliore aussi, et est dispo sur le Play Store à présent, donc plus facile à tester, puisque pas de sécurité à désactiver :)
Mozilla lance de nouvelles expérimentations dont Send, son dl.free.fr éphémère et chiffré
04/08/2017
Le 04/08/2017 à 14h 32
GitHub
Le 04/08/2017 à 12h 06
C’est documenté : GitHubhttps://testpilot.firefox.com/privacy
Et c’est un Google Analytics dédié, pas l’instance publique, GitHub
Free attaque Netflix en justice, l’indice de performance des FAI en cause
22/06/2017
Le 22/06/2017 à 17h 10
En 500⁄200 chez Orange (FTTH), sur Steam, je dépasse souvent les 70-80MiO/s
Canonical : Shuttleworth redevient PDG, tandis que commencent les licenciements
13/04/2017
Le 13/04/2017 à 16h 51
Non, promis !
Le 13/04/2017 à 15h 11
Pire :)
Le 13/04/2017 à 14h 09
Blague déjà faite :)
Twitter