Il ne faut pas voir pmos comme un ovni isolé mais comme une distribution Linux dans un écosystème qui commence à peine à investir l’univers du mobile. PureOS et Manjaro sont les deux autres distributions principales aujourd’hui et bien d’autres vont suivre.
Côté environnement graphique, on a Plasma Mobile, qui même s’il existe depuis plusieurs année en alpha, ne prend vraiment corps qu’aujourd’hui avec l’émergence de hardware avec pilotes libres (PinePhone, Librem5 et d’autres à venir) qui facilitent beaucoup le développement et les expérimentations. Avec ces appareils, n’y a plus le frein du hardware partiellement ou pas supporté qui tue tout espoir d’utiliser à moyen terme l’OS au quotidien.
Mais c’est aussi tout l’univers d’applications GNOME et la réelle convergence desktop / smartphone qui arrive avec le travail accompli par Purism sur Phosh (le shell GNOME pour le mobile) et libhandy (la bibliothèque permettant la convergence).
Pas besoin des millions de panneaux publicitaires d’app du play store quand on a 2 - 3 alternatives libres de bonne qualité pour chacun des usages courants, comme c’est le cas avec les distribution Linux existantes. Ce n’est pas comme si on partait de zéro.
Pour celles et ceux qui voudraient en lire plus sur le pourquoi du choix de GNOME sur mobile par Purism, je recommande cette excellente analyse (en anglais) :
Cela fait bien longtemps que les smartphones ne sont pas que des téléphones avec un accès internet. Aujourd’hui un téléphone fait vraiment BEAUCOUP de choses et on ne peut pas s’en sortir uniquement avec le parc actuel d’apps en PWA. C’est pour ça que je parle de mort vivant, le téléphone va fonctionner, on pourra appeler avec et envoyer des mails, mais ça n’ira pas beaucoup plus loin que ça. On perd la navigation, les capacités photos ultra poussées des appareils modernes, l’accès aux nombreux services dispos aujourd’hui sur Android et iOS uniquement. Le téléphone va fonctionner, mais il ne sera plus que l’ombre de ce qu’il était quand il avait Android. Et je parie que nombreux seront ceux qui préfèreront garder un Android tout troué (ce qu’ils font déjà aujourd’hui) plutôt que de passer à un OS qui ne propose pas autant de fonctionnalités.
Le
04/09/2020 à
15h
44
Ce projet ne va pas donner “une seconde vie” aux téléphones compatibles mais plutôt une phase de mort-vivant.
Au final on aura le choix entre les failles de sécurité d’un Android vieillissant et le manque de fonctionnalités et d’applications réellement pratiques d’un postmarketOS.
L’idée est intéressante, mais comme souvent, je leur prédis un avenir malheureusement funeste.
Il n’y a pas vraiment de marketing fait autour non plus. Quand on se balade à la fnac, à part Apple et parfois Microsoft qui ont leur coin propre, difficile de distinguer un modèle d’un autre. Pour l’instant ils lancent des modèles et les quelques gogos qui achètent sans savoir en font les frais. Il est probable qu’une fois qu’Apple aura sorti un mac avec 20h d’autonomie, de bonnes performances et une suite logicielle au point, ils en feront la pub et les autres devront s’y coller aussi plus sérieusement.
Il y a tout de même des choses qui ne vont pas avec ce qu’elle dit. Par exemple :
We assumed that Outlook was to blame. Could Microsoft fix that instead? “The question always is fix it to whose standards, because we are focused much more on business and enterprise models of clients and customers. For them we fixed it to a more HTML-based model so it really depends on who your audience is and who your target is.”
Ils peuvent tout de même juste rajouter un bouton “Envoyer au format texte”.
D’un point de vue business ça n’a aucun sens de rajouter ce bouton (et toute la doc qui s’ensuit) sur Office juste pour que certains puissent contribuer sur UN projet.
Le
03/09/2020 à
09h
30
Ouais mais ça parle d’Outlook et de Gmail, des outils de gros acteurs qui veulent reprivatiser un standard pour le manipuler à leur sauce. Et c’est bien connu de toute façon que le html c’est le format rêvé pour le mail. Donc voir un contributeur pleurer parce que son outil propriétaire respecte pas un standard qui date des années 70, c’est un peu gonflé, mais j’arrive même pas à être supris.
Mais au delà de ça la méthode de contribution par mail avec des patchs est inefficace au possible quand on compare à ce qui se fait aujourd’hui sur gitlab ou github avec les pull requests. Alors certes l’échelle du projet fait que les outils d’aujourd’hui ne sont pas parfaitement adaptés non plus, mais on pourrait très bien imaginer un nouvel outil qui fonctionne à la fois pour l’échelle de Linux et des plus petits projets.
Le
03/09/2020 à
09h
27
On voit mal Linux disparaître par manque de maintenance à moyen terme, il faudrait pour cela qu’un projet concurrent (un fork ?) plus dynamique voit le jour et prenne de plus en plus de place au fur et à mesure, mais ça sera nécessairement très long. En attendant, c’est quand même le plus gros risque s’il commence à y avoir une pénurie de mainteneurs et que les outils en sont vraiment la cause. Git a été imaginé pour gérer le code de Linux, j’imagine que les contributeurs et mainteneurs de Linux peuvent également imaginer un outil qui utilise des méthodes modernes tout en étant universel.
A titre perso, je trouve que c’est un gros signe que la communauté des “contre” est très conservatrice et ne sait pas se remettre en question, et c’est bien dommage.
Oui il faut releativiser le discours marketing Après je veux bien croire que certains moteurs tireront profit de tels débits. Mais pour le moment, hormis des cas bien particuliers, je ne vois pas d’utilité pratique flagrante pour le commun des mortels. Je cherche à savoir s’il y a un réel intérêt ou non :)C’est ce que je fais aussi. Mais déjà un SSD en SATA 3 est amplement suffisant. Ce qui compte le plus c’est la latence finalement.Perso je n’ai pas vu de gap en passant d’un SSD SATA à un Nvme en PCI-e pour le boot et le chargement d’app. Le seul gain ce sont les ports SATA que ça me libère pour du stockage sur HDD
Je suis globalement d’accord. Bon hier Nvidia a annoncé une techno pour que la carte graphique charge directement depuis le SSD plutôt qu’en passant par le CPU, donc on retrouve là le besoin dont je parlais. Après avoir un gros débit à conso nominale ça veut dire pouvoir faire autant de choses en consommant moins. Ce n’est pas un argument pour renouveler son matériel mais c’est un pas de plus vers de la miniaturisation et des ordinateurs portables qui ont une meilleure autonomie.
Le
01/09/2020 à
09h
31
Furanku a dit:
Question, qui est souvent posée je sais mais qui m’interpelle toujours : un tel débit à un intérêt pour quel type d’usages ?Pour un particulier je n’en vois pas. Même pour du montage vidéo comme souvent prix en exemple ça devient démesuré (?). En DC je ne vois pas trop non plus hormis sur des serveurs de calcul peut-être ?Jusqu’à 8 Go/s c’est tout bonnement ahurissant ! Déjà que les débits sur PCI-e 3 sont bien souvent overkill…
Le prochain moteur Unreal Engine est semble-t-il capable de charger des scènes ultra détaillées et d’adapter l’affichage à la volée, mais ça implique de très gros volumes de données stockées et des débits de chargement élevés. C’est ce qui ferait la force de la nouvelle génération de consoles, d’après le discours marketing en tous cas.
Le
01/09/2020 à
09h
29
David_L a dit:
C’est effectivement une question d’accès aux données. Aucun revendeur ne souhaite communiquer ces chiffres à l’extérieur. Notamment, parce que cela donne forcément accès à ses volumes de vente.
C’est étonnant qu’ils refusent même en signant un NDA bien ficelé, après tout on parle de fournir des taux de retours (et pas forcément des valeurs absolues).
J’ai moi-même sauté le pas après m’être renseigné et avoir eu quelques réticences sur le sujet. Différentes raisons ont fait que je me suis séparé de ma grosse tour “gamer” j’utilise désormais un Dell XPS 15” (7590 de 2019) avec un razer core X chroma et une RTX 2060 Super à l’intérieur (en Thunderbolt 3 donc, je sais ce n’est pas un pc fait pour jouer, ce n’est pas la raison de son achat d’ailleurs mais il m’arrive de jouer encore occasionnellement).Pas de problème de stabilité (le PC switch sans problème entre la partie graphique du processeur, la GTX 1650 du portable et la RTX 2060 automatiquement sans n’avoir eu aucun réglage à forcer)Quant aux performances, sans surprise celles-ci sont bridées par rapport à la même carte montée dans une tour de pc “classique”, j’étais tombé sur ce test qui permet d’avoir une idée de la perte de perfs liée au manque de bande passante du Thunderbolt 3.De mon point de vue, la perte de perf est acceptable et l’ensemble me permet tout de même de jouer dans de bonnes conditions. Je n’ai pas de problèmes non plus (avec ma 1080 donc), à l’époque ça me permettait de jouer en 4K à Far Cry 5 et d’autres jeux assez gourmands. Je me demande juste si l’upgrade me ferait perdre plus de performances en pourcentage ou si ça serait similaire (et donc, si j’aurais une amélioration visible des performances en valeur absolue). Déjà à l’époque ils parlaient de 7 à 14% de pertes sur la 1080, donc ça n’a pas beaucoup bougé d’une gen à l’autre.
Le
31/08/2020 à
08h
00
J’aimerais bien savoir ce que ça donne dans un boîtier eGPU. A l’époque quand j’ai acheté le mien pour y mettre une 1080 on annonçait déjà 10% de pertes liées à la bande passante thunderbolt3, mais je ne sais pas si les cartes plus récentes ont besoin de plus de bande passante ou si la seule différence se fait au niveau du temps de calcul sur la carte, autrement dit si on doit s’attendre à plus de 10% de pertes sur les derniers modèles.
@David_L c’est envisageable un dossier sur le sujet eGPU un jour ?
Je développe des applis (pas mal de python, mais parfois aussi du web ou de l’android) sous Linux, et je joue sur Windows. Je vois que ça devient possible de tout faire sur Windows, mais j’imagine que c’est au prix de quelques heures à passer à configurer sa machine pour que ça sois transparent par rapport à mon utilisation de Linux.
Peut-être que je me laisserai tenter, à réfléchir.
Doit-on rediriger les pulsions vers objets, quitte à les entretenir, ou essayer de les supprimer ? Je ne suis pas psychologue, je n’ai pas la réponse à cette question, mais j’aurais tendance à dire que la seconde option est plus pérenne. Rien ne prouve qu’un pédophile ne passera pas à l’acte juste parce qu’il a une poupée, tout comme avoir un sextoy n’empêche pas d’avoir des relations sexuelles ou qu’un jeu vidéo n’empêche pas de tuer.
Le
17/08/2020 à
10h
00
Quels mots-clés auraient du faire bloquer l’annonce ?
(quote:48575:flamme-demon) C’est moi ou tous le monde va perdre en connaissance, ce qui risque de créer des dépendances encore plus grandes ?
Toutes ces fonctions permettent aux devs de se concentrer sur leur métier. L’automatisation et la factorisation sont le propre de l’informatique. Si 99% des gens ont les mêmes besoins, pourquoi ne pas mutualiser ces besoins en un outil ? De cette façon, les devs se concentrent sur le coeur de métier de leur boîte, et sur l’apport spécifique qu’elles apportent, plutôt que de perdre du temps à remonter à chaque fois les mêmes infras. C’est le même principe que d’utiliser un langage haut niveau plutôt que de l’assembleur. C’est bon d’avoir une idée du fonctionnement interne, mais ce n’est pas pour autant que tu dois savoir le faire au quotidien.
LordZurp a dit:
j’me sens un vieux crouton à gérer mon serveur à la main et maintenir une pile LAMP
Le maître mot c’est le besoin. Si tu as des applis PHP, que tu n’as pas un nombre de visiteurs gigantesque ou une appli absolument critique, pourquoi tu t’emmerderais avec un système qui se scale tout seul et qui apporte son lot de complexité.
Ca sent pas bon pour Intel. Entre ARM d‘un côté et AMD de l’autre, ils ont la pression. En espérant que le jeu de la concurrence fonctionne et que ça les pousse à innover, et non pas à user de leur position pour écraser les autres.
Parce que dans l’industrie, c’est facile de mettre une gateway capteurs => 4G (ou 5G, ou 6G) que tu installes n’importe où et qui n’a besoin que d’une prise de courant. Par ailleurs pour des questions de sécurité c’est également préférable, puisque ça isole de ton réseau principal.
Bon après quand on parle de gateways par définition c’est une gateway pour N capteurs donc c’est pas ça qui fait vraiment monter le nombre d’objects connectés. Mais j’imagine qu’avec des forfaits abordables on intègrera directement la 5 ou 6G dans les objets, ils seront hyper autonomes et le déploiement n’en sera que plus facile.
Le
15/07/2020 à
17h
13
Si tu comptes les capteurs dans les usines et infrastructures, ce n’est pas déconnant du tout en fait.
Le
15/07/2020 à
15h
55
A ce niveau c’est plus que de l’anticipation. 59 appareils connectés par être humain, ça paraît beaucoup quand même. Je pense que d’ici 10 ans on n’aura toujours pas résolu des problèmes un peu plus concrets, comme la famine ou la guerre. Pire, on aura peut-être même eu une nouvelle guerre sur les bras, et je pense que les hologrammes seront le cadets de nos soucis.
Je sais que la technologie évolue vite et qu’il est difficile de prévoir des usages, et qu’ils ont raison de commencer à plancher dessus. Mais ce qu’ils proposent ne fait pas rêver.
Eh bien justement, la nouvelle commande génère automatiquement le loadbalancer, le VPC, les règles, etc etc, d’après la capture d’écran affichée sur le blog d’AWS.
Pour avoir passé une journée à mettre en place une pipeline qui a l’air bancale la veille de cette annonce, perso je trouve ça plutôt pas mal.
Beaucoup de ces néobanques reposent en fait sur un back-end commun, une “Bank as a Service”. Le back-end d’une banque c’est compliqué et ça ne se lance évidemment pas comme ça en claquant des doigts.
A la limite il vaut peut-être mieux ce fonctionnement qui concentre les besoins en sécurité à un seul endroit.
La réduction de ton impact environnemental, tout simplement.
Des fichiers plus petits = moins de charge réseau pour le transfert et moins de besoins matériels (et énergétiques) pour le stockage.
Si on parle de diffusion à grande échelle l’effet est évidemment démultiplié.
Evidemment c’est sous réserve que le décodage ne prenne pas plus de ressources que ce que tu gagnes en transfert, mais ce n’est pas gagné car ça consomme beaucoup de transférer des grosses quantités de données.
Le
09/07/2020 à
08h
19
Mais fais-tu partie de ceux qui diffusent ? Recompresser pour un usage local à la limite c’est ton problème, au mieux ça te ferait gagner de la place ça retarderait l’achat d’un nouveau disque dur mais c’est tout. Par contre recompresser avant diffusion en ligne, ça fait gagner en temps de transfert, en stockage sur d’éventuels serveurs et donc en énergie/matériel.
Le
09/07/2020 à
08h
17
J’ai volontairement utilisé les mots qui me venaient naturellement et que tout le monde comprend, j’ai vu la discussion enflammée sur le sujet dans les commentaires et je m’en fous.
Le
08/07/2020 à
07h
59
L’encodage ce n’est rien car si on parle de diffusion, on encode une fois pour diffuser potentiellement des milliers/millions de fois.
Tu penses bien que Netflix dont les coûts viennent en grande partie du transfert de donnée va prendre le temps d’encoder les vidéos correctement.
Le
08/07/2020 à
07h
36
Il n’y aura peut être pas la chaîne complète mais aujourd’hui le décodage passe par tellement d’étapes qu’on peut espérer que les plus coûteuses soient quand même déjà faisables matériellement.
Bannir si c’est comme Huawei c’est interdire toute relation entre une entreprise US et une entreprise bannie, donc oui suppression du store, je ne pense pas que ça aille jusqu’à un blocage IP.
Après un réseau social que personne ne peut télécharger devient vite mort et l’intérêt d’avoir un APK “à part” est limité, surtout aux US ou Apple a une grosse part de marché et où le concept d’apps librement installable n’existe pas.
Le
08/07/2020 à
08h
04
Tik tok c’est un cheval de troie envoyé par la Chine aux états unis (et au reste du monde par la même occasion). C’est une application dont le seul but est d’aspirer tes données, pour la pub évidemment mais aussi derrière pour le gouvernement. Exactement comme facebook et autres réseaux sociaux tu me diras, mais tu comprends bien que du point de vue des US c’est quand même un risque non négligeable et c’est une décision raisonnable je trouve.
Le problème c’est plus l’Europe qui n’a pas son propre réseau et qui doit choisir entre envoyer ses données aux américains ou les envoyer à la Chine ET aux américains (puisqu’on utilise des OS eux aussi bien avides de données personnelles).
La théorie derrière ça c’est qu’en travaillant moins longtemps, on travaille plus efficacement, donc on produit autant, donc on devrait être payé autant.
Mais le risque c’est que justement on demande à tous les salariés de faire le même travail mais en 4j/semaine, car fatalement ça ne sera pas possible pour tout le monde.
Déjà, le confort dépend du couple température/hygrométrie. Ensuite, évidemment ça dépend de chacun, mais il faut faire la part des choses. 27° c’est pas agréable pour beaucoup mais c’est suffisant pour arriver à travailler mieux que lorsqu’il fait 34.
Le
29/06/2020 à
10h
02
Pour la toiture t’auras le problème inverse en hiver, une toiture sombre capte mieux la chaleur du soleil.
Le
29/06/2020 à
09h
04
Le problème majeur avec la clim est le même qu’avec le chauffage, c’est une question d’éducation.
Aujourd’hui beaucoup de ceux qui peuvent mettent la clim quand ils ont chaud pour arriver à une température de 20°. Il suffirait de monter un peu de 3⁄4 degrés pour que ça reste agréable et que ça consomme nettement moins. De la même façon en hiver régler son thermostat à 18⁄19 au lieu de 21⁄22 ça fait des économes substantielles.
Le pire pour la clim étant les entreprises qui ne règlent pas. Le nombre de personnes qui ouvrent les fenêtres pour chauffer un peu l’été parce qu’il fait trop froid avec la clim … ça fait peur.
Le
29/06/2020 à
09h
01
Ils vont crever à cause d’un air merdique car ils ne produisent pas massivement au nucléaire, justement.
Et quand ils se mettront au nucléaire s’ils n’ont pas des règlementations en béton et un suivi meilleur que le notre ils auront le même problème dans 30 ans, à savoir des réacteurs qui tombent en ruine.
Mais 70 personnes ce n’est pas vraiment représentatif. Même si on considère qu’il y a autant de crimes commis par les blancs que par les noirs dans cette ville (ce qui n’est pas gagné puisque la population pauvre est majoritairement noire), il aurait suffit de 2⁄3 personnes blanches pour équilibrer. Or si ça se trouve ils n’ont juste pas eu le besoin…
Le tout est d’évaluer face à la concurrence. La réalité c’est que la majorité des gens utilisent une version d’Android complètement fermée car customisée par le fabriquant.
Aujourd’hui on a le choix entre :
Apple dont le modèle économique ne repose pas sur les données personnelles mais dont le code est fermé
Les téléphones Android classiques qui intègrent les apps Google qui dépend des données personnelles, et qui ont une surcouche du constructeur qui lui-même peut pomper allègrement des données personnelles (en plus d’introduire des failles)
Les téléphones customisés avec une ROM android vierge basée sur l’AOSP, où il manque un gros paquet d’apps qui nécessitent les services Google.
Il faut se demander où est la menace qu’on veut éviter. Si c’est la surveillance étatique, la dernière option est la meilleure, mais si c’est uniquement la fuite des données personnelles vers des entités privées je pense qu’Apple est le meilleur choix.
Le
26/06/2020 à
08h
06
J’ai commencé à lire l’article en me disant “ils font chier” et finalement je trouve ça très bien.
J’étais persuadé qu’Apple prenait la question de la vie privée à coeur juste pour se donner une bonne image mais ils poussent toujours les décisions dans ce sens et ils me font vraiment changer d’avis.
Certes, il faut leur faire confiance car leur code reste quand même fermé, mais à partir du moment où on a décidé de leur faire confiance, ils sont quand même très nettement au dessus d’Android sur cette question.
Ils ont mieux un vieux processeur dedans et les performances ne seront probablement pas dingos sur ce kit. J‘aurais tendance à dire que le fait qu’ils n‘aient pas annoncé de benchmark montre qu’ils ne sont pas prêts du tout, et soit c‘est pas encore au point, soit (et c’est pire), les performances sont moins bonnes que sur Intel sur leurs machines actuelles. On en saura plus lors de l‘annonce des premiers Mac ARM en fin d’année, mais pour l‘instant l’intérêt pour le consommateur ne saute pas aux yeux.
Ta Shield envoie tes films sur ta TV ok mais elle va les chercher où ? Le stockage tu le fais avec quoi ?
Un NAS ou un disque dur, à toi de voir. Dans les deux cas c’est relativement simple à mettre en place.
Le
28/05/2020 à
13h
01
Soltek a dit:
Est-ce que si on lui branche un HDD ou SSD il est capable de gérer la diffusion de contenue 4K HDR de compét’ sur un écran du réseau avec la bonne distrib’ ou il faut se tourner vers un NAS ?
Si ta question c’est est-ce qu’il est capable de transcoder à la volée, je parierais pas là dessus. Par contre si tu demandes si tu peux streamer un fichier (= le lire à la volée), je pense que oui, ça devrait le faire. Le Raspberry est plus puissant que mon NAS (un Syno d’il y a 5 ou 6 ans) qui streame du rip bluray 4K HDR de 50Go sans trop sourciller … en filaire.
Si les contacts sont bien tracés, on peut mieux cibler les tests et isoler UNIQUEMENT ceux qui sont à risque, et oui, c’est plus efficace que d’enfermer tout le monde, sous réserve que l’app soit largement diffusée.
Le
25/05/2020 à
08h
24
Pourquoi pas un bon d’achat de 150€ à la fnac aussi, comme ça on relance l’économie en même temps.
Je suis désolé la seule partie de l’article accessible c’est un demi premier paragraphe très vague sans aucune réponse.
Par ailleurs tu réponds (j’imagine) à la première partie de ma phrase, sur le fait que la matériel consommera plus, et peut-être que je me trompe.
Sur le second aspect en revanche c’est tout à fait le cas, l’ouverture d’un débit plus grand amène de nouveaux usages notamment vidéo, qui sont les plus consommateurs en énergie.
Le
25/05/2020 à
08h
34
Sur le point de la consommation d’énergie, le point n’est pas seulement sur le matériel 5G (mais j’imagine que plus d’antennes = plus de conso " /> ), mais aussi le fait que plus de débit appelle plus d’usages et donc c’est toute la chaîne de conso que l’on doit prendre en compte (serveurs, production du contenu, etc etc).
Il préconise de grosses discussions sur les commentaires de ses sites de news préférés.
Le
20/05/2020 à
09h
26
Si toi ou moi appliquons les mêmes mesures au jour le jour, ça serait de la paranoia car (à priori, je ne te connais pas) nous ne sommes pas des cibles. Donc oui, ça rend parano, même si certaines de ses mesures sont justifiées.
Mais même dans le cas de snowden, chiffrer 5 fois son disque, partir pisser avec son ordi, et surtout l’histoire du blender, c’est de la paranoïa, même pour lui.
Le
20/05/2020 à
09h
13
Les états sont là pour protéger la population, et par extension se protéger eux-même, oui. Ce n’est pas pour autant qu’il n’y a pas de dérive, qu’il n’y a pas de fruits pourris ou qu’il n’y a pas d’actions qui rentrent en contradiction avec la vision de certains des citoyens, mais ça reste leur mission principale.
L’espionnage c’est comme le capitalisme, c’est la merde, tout le monde le sait, mais ça a quand même d’une manière ou d’une autre contribué à tout ce qui a fait qu’on peut communiquer aujourd’hui sur le sujet.
3044 commentaires
postmarketOS : la réappropriation des téléphones par Linux
04/09/2020
Le 06/09/2020 à 16h 56
Cela fait bien longtemps que les smartphones ne sont pas que des téléphones avec un accès internet.
Aujourd’hui un téléphone fait vraiment BEAUCOUP de choses et on ne peut pas s’en sortir uniquement avec le parc actuel d’apps en PWA.
C’est pour ça que je parle de mort vivant, le téléphone va fonctionner, on pourra appeler avec et envoyer des mails, mais ça n’ira pas beaucoup plus loin que ça. On perd la navigation, les capacités photos ultra poussées des appareils modernes, l’accès aux nombreux services dispos aujourd’hui sur Android et iOS uniquement.
Le téléphone va fonctionner, mais il ne sera plus que l’ombre de ce qu’il était quand il avait Android. Et je parie que nombreux seront ceux qui préfèreront garder un Android tout troué (ce qu’ils font déjà aujourd’hui) plutôt que de passer à un OS qui ne propose pas autant de fonctionnalités.
Le 04/09/2020 à 15h 44
Ce projet ne va pas donner “une seconde vie” aux téléphones compatibles mais plutôt une phase de mort-vivant.
Au final on aura le choix entre les failles de sécurité d’un Android vieillissant et le manque de fonctionnalités et d’applications réellement pratiques d’un postmarketOS.
L’idée est intéressante, mais comme souvent, je leur prédis un avenir malheureusement funeste.
Snapdragon 8cx Gen 2 5G : Qualcomm veut (encore) révolutionner les portables
04/09/2020
Le 04/09/2020 à 14h 29
Il n’y a pas vraiment de marketing fait autour non plus.
Quand on se balade à la fnac, à part Apple et parfois Microsoft qui ont leur coin propre, difficile de distinguer un modèle d’un autre.
Pour l’instant ils lancent des modèles et les quelques gogos qui achètent sans savoir en font les frais.
Il est probable qu’une fois qu’Apple aura sorti un mac avec 20h d’autonomie, de bonnes performances et une suite logicielle au point, ils en feront la pub et les autres devront s’y coller aussi plus sérieusement.
L’email au format texte est-il une barrière à la participation au code du noyau Linux ?
03/09/2020
Le 03/09/2020 à 09h 31
D’un point de vue business ça n’a aucun sens de rajouter ce bouton (et toute la doc qui s’ensuit) sur Office juste pour que certains puissent contribuer sur UN projet.
Le 03/09/2020 à 09h 30
Mais au delà de ça la méthode de contribution par mail avec des patchs est inefficace au possible quand on compare à ce qui se fait aujourd’hui sur gitlab ou github avec les pull requests.
Alors certes l’échelle du projet fait que les outils d’aujourd’hui ne sont pas parfaitement adaptés non plus, mais on pourrait très bien imaginer un nouvel outil qui fonctionne à la fois pour l’échelle de Linux et des plus petits projets.
Le 03/09/2020 à 09h 27
On voit mal Linux disparaître par manque de maintenance à moyen terme, il faudrait pour cela qu’un projet concurrent (un fork ?) plus dynamique voit le jour et prenne de plus en plus de place au fur et à mesure, mais ça sera nécessairement très long.
En attendant, c’est quand même le plus gros risque s’il commence à y avoir une pénurie de mainteneurs et que les outils en sont vraiment la cause.
Git a été imaginé pour gérer le code de Linux, j’imagine que les contributeurs et mainteneurs de Linux peuvent également imaginer un outil qui utilise des méthodes modernes tout en étant universel.
A titre perso, je trouve que c’est un gros signe que la communauté des “contre” est très conservatrice et ne sait pas se remettre en question, et c’est bien dommage.
Samsung dévoile (par erreur) son SSD M.2 980 Pro : du PCIe 4.0 jusqu’à 7 Go/s
01/09/2020
Le 02/09/2020 à 07h 03
Je suis globalement d’accord. Bon hier Nvidia a annoncé une techno pour que la carte graphique charge directement depuis le SSD plutôt qu’en passant par le CPU, donc on retrouve là le besoin dont je parlais. Après avoir un gros débit à conso nominale ça veut dire pouvoir faire autant de choses en consommant moins. Ce n’est pas un argument pour renouveler son matériel mais c’est un pas de plus vers de la miniaturisation et des ordinateurs portables qui ont une meilleure autonomie.
Le 01/09/2020 à 09h 31
Le prochain moteur Unreal Engine est semble-t-il capable de charger des scènes ultra détaillées et d’adapter l’affichage à la volée, mais ça implique de très gros volumes de données stockées et des débits de chargement élevés.
C’est ce qui ferait la force de la nouvelle génération de consoles, d’après le discours marketing en tous cas.
Le 01/09/2020 à 09h 29
C’est étonnant qu’ils refusent même en signant un NDA bien ficelé, après tout on parle de fournir des taux de retours (et pas forcément des valeurs absolues).
GeForce RTX 3070, 3080 et 3090 : les fuites de dernière minute se multiplient
31/08/2020
Le 01/09/2020 à 07h 10
Le 31/08/2020 à 08h 00
J’aimerais bien savoir ce que ça donne dans un boîtier eGPU.
A l’époque quand j’ai acheté le mien pour y mettre une 1080 on annonçait déjà 10% de pertes liées à la bande passante thunderbolt3, mais je ne sais pas si les cartes plus récentes ont besoin de plus de bande passante ou si la seule différence se fait au niveau du temps de calcul sur la carte, autrement dit si on doit s’attendre à plus de 10% de pertes sur les derniers modèles.
@David_L c’est envisageable un dossier sur le sujet eGPU un jour ?
Microsoft à la conquête des développeurs : des succès mais quelques ratés
19/08/2020
Le 19/08/2020 à 08h 41
Je développe des applis (pas mal de python, mais parfois aussi du web ou de l’android) sous Linux, et je joue sur Windows. Je vois que ça devient possible de tout faire sur Windows, mais j’imagine que c’est au prix de quelques heures à passer à configurer sa machine pour que ça sois transparent par rapport à mon utilisation de Linux.
Peut-être que je me laisserai tenter, à réfléchir.
Amazon France retire de ses rayons des poupées sexuelles d’enfants
17/08/2020
Le 17/08/2020 à 10h 02
Doit-on rediriger les pulsions vers objets, quitte à les entretenir, ou essayer de les supprimer ?
Je ne suis pas psychologue, je n’ai pas la réponse à cette question, mais j’aurais tendance à dire que la seconde option est plus pérenne.
Rien ne prouve qu’un pédophile ne passera pas à l’acte juste parce qu’il a une poupée, tout comme avoir un sextoy n’empêche pas d’avoir des relations sexuelles ou qu’un jeu vidéo n’empêche pas de tuer.
Le 17/08/2020 à 10h 00
Quels mots-clés auraient du faire bloquer l’annonce ?
iOS 14 : des applications nettement enrichies, des fonctions pas toujours disponibles en France
11/08/2020
Le 12/08/2020 à 07h 01
Peut-être pas dans tous les pays
Le serverless, nouvelle révolution de l’hébergement ? On vous l’explique par l’exemple
07/08/2020
Le 08/08/2020 à 06h 48
Toutes ces fonctions permettent aux devs de se concentrer sur leur métier. L’automatisation et la factorisation sont le propre de l’informatique. Si 99% des gens ont les mêmes besoins, pourquoi ne pas mutualiser ces besoins en un outil ?
De cette façon, les devs se concentrent sur le coeur de métier de leur boîte, et sur l’apport spécifique qu’elles apportent, plutôt que de perdre du temps à remonter à chaque fois les mêmes infras.
C’est le même principe que d’utiliser un langage haut niveau plutôt que de l’assembleur. C’est bon d’avoir une idée du fonctionnement interne, mais ce n’est pas pour autant que tu dois savoir le faire au quotidien.
Le maître mot c’est le besoin. Si tu as des applis PHP, que tu n’as pas un nombre de visiteurs gigantesque ou une appli absolument critique, pourquoi tu t’emmerderais avec un système qui se scale tout seul et qui apporte son lot de complexité.
Intel : le 7 nm aura six mois de retard
24/07/2020
Le 24/07/2020 à 07h 38
Ca sent pas bon pour Intel. Entre ARM d‘un côté et AMD de l’autre, ils ont la pression. En espérant que le jeu de la concurrence fonctionne et que ça les pousse à innover, et non pas à user de leur position pour écraser les autres.
Samsung pense déjà à la 6G et ses usages : ondes térahertz, hologrammes et réalité étendue
15/07/2020
Le 16/07/2020 à 08h 19
Parce que dans l’industrie, c’est facile de mettre une gateway capteurs => 4G (ou 5G, ou 6G) que tu installes n’importe où et qui n’a besoin que d’une prise de courant. Par ailleurs pour des questions de sécurité c’est également préférable, puisque ça isole de ton réseau principal.
Bon après quand on parle de gateways par définition c’est une gateway pour N capteurs donc c’est pas ça qui fait vraiment monter le nombre d’objects connectés. Mais j’imagine qu’avec des forfaits abordables on intègrera directement la 5 ou 6G dans les objets, ils seront hyper autonomes et le déploiement n’en sera que plus facile.
Le 15/07/2020 à 17h 13
Si tu comptes les capteurs dans les usines et infrastructures, ce n’est pas déconnant du tout en fait.
Le 15/07/2020 à 15h 55
A ce niveau c’est plus que de l’anticipation. 59 appareils connectés par être humain, ça paraît beaucoup quand même. Je pense que d’ici 10 ans on n’aura toujours pas résolu des problèmes un peu plus concrets, comme la famine ou la guerre. Pire, on aura peut-être même eu une nouvelle guerre sur les bras, et je pense que les hologrammes seront le cadets de nos soucis.
Je sais que la technologie évolue vite et qu’il est difficile de prévoir des usages, et qu’ils ont raison de commencer à plancher dessus. Mais ce qu’ils proposent ne fait pas rêver.
Docker et AWS partenaires pour simplifier la gestion des conteneurs
10/07/2020
Le 11/07/2020 à 07h 53
Eh bien justement, la nouvelle commande génère automatiquement le loadbalancer, le VPC, les règles, etc etc, d’après la capture d’écran affichée sur le blog d’AWS.
Pour avoir passé une journée à mettre en place une pipeline qui a l’air bancale la veille de cette annonce, perso je trouve ça plutôt pas mal.
EPI : une carte de paiement oui, mais européenne !
09/07/2020
Le 09/07/2020 à 09h 49
Beaucoup de ces néobanques reposent en fait sur un back-end commun, une “Bank as a Service”. Le back-end d’une banque c’est compliqué et ça ne se lance évidemment pas comme ça en claquant des doigts.
A la limite il vaut peut-être mieux ce fonctionnement qui concentre les besoins en sécurité à un seul endroit.
Le H.266 officiellement présenté, des fichiers encore moins gros à qualité constante
07/07/2020
Le 09/07/2020 à 09h 39
La réduction de ton impact environnemental, tout simplement.
Des fichiers plus petits = moins de charge réseau pour le transfert et moins de besoins matériels (et énergétiques) pour le stockage.
Si on parle de diffusion à grande échelle l’effet est évidemment démultiplié.
Evidemment c’est sous réserve que le décodage ne prenne pas plus de ressources que ce que tu gagnes en transfert, mais ce n’est pas gagné car ça consomme beaucoup de transférer des grosses quantités de données.
Le 09/07/2020 à 08h 19
Mais fais-tu partie de ceux qui diffusent ? Recompresser pour un usage local à la limite c’est ton problème, au mieux ça te ferait gagner de la place ça retarderait l’achat d’un nouveau disque dur mais c’est tout. Par contre recompresser avant diffusion en ligne, ça fait gagner en temps de transfert, en stockage sur d’éventuels serveurs et donc en énergie/matériel.
Le 09/07/2020 à 08h 17
J’ai volontairement utilisé les mots qui me venaient naturellement et que tout le monde comprend, j’ai vu la discussion enflammée sur le sujet dans les commentaires et je m’en fous.
Le 08/07/2020 à 07h 59
L’encodage ce n’est rien car si on parle de diffusion, on encode une fois pour diffuser potentiellement des milliers/millions de fois.
Tu penses bien que Netflix dont les coûts viennent en grande partie du transfert de donnée va prendre le temps d’encoder les vidéos correctement.
Le 08/07/2020 à 07h 36
Il n’y aura peut être pas la chaîne complète mais aujourd’hui le décodage passe par tellement d’étapes qu’on peut espérer que les plus coûteuses soient quand même déjà faisables matériellement.
Les États-Unis pourraient bannir les applications de réseaux sociaux chinoises (dont TikTok)
07/07/2020
Le 08/07/2020 à 08h 06
Bannir si c’est comme Huawei c’est interdire toute relation entre une entreprise US et une entreprise bannie, donc oui suppression du store, je ne pense pas que ça aille jusqu’à un blocage IP.
Après un réseau social que personne ne peut télécharger devient vite mort et l’intérêt d’avoir un APK “à part” est limité, surtout aux US ou Apple a une grosse part de marché et où le concept d’apps librement installable n’existe pas.
Le 08/07/2020 à 08h 04
Tik tok c’est un cheval de troie envoyé par la Chine aux états unis (et au reste du monde par la même occasion). C’est une application dont le seul but est d’aspirer tes données, pour la pub évidemment mais aussi derrière pour le gouvernement. Exactement comme facebook et autres réseaux sociaux tu me diras, mais tu comprends bien que du point de vue des US c’est quand même un risque non négligeable et c’est une décision raisonnable je trouve.
Le problème c’est plus l’Europe qui n’a pas son propre réseau et qui doit choisir entre envoyer ses données aux américains ou les envoyer à la Chine ET aux américains (puisqu’on utilise des OS eux aussi bien avides de données personnelles).
Le Groupe LDLC pourrait passer à la semaine de 4 jours en 2021
03/07/2020
Le 03/07/2020 à 11h 43
La théorie derrière ça c’est qu’en travaillant moins longtemps, on travaille plus efficacement, donc on produit autant, donc on devrait être payé autant.
Mais le risque c’est que justement on demande à tous les salariés de faire le même travail mais en 4j/semaine, car fatalement ça ne sera pas possible pour tout le monde.
Twitter retire une photo postée par Donald Trump pour contrefaçon
02/07/2020
Le 02/07/2020 à 12h 36
Mais elles n’ont pas le même impact que celles d’un compte comme celui de Trump.
Tu as sûrement raison, c’est politique, mais c’est ça aussi le libéralisme que prône Trump. Juste retour de bâton.
Peut-on faire face aux canicules à Paris sans climatisation ? Le CNRS donne des pistes
29/06/2020
Le 02/07/2020 à 08h 47
Déjà, le confort dépend du couple température/hygrométrie. Ensuite, évidemment ça dépend de chacun, mais il faut faire la part des choses. 27° c’est pas agréable pour beaucoup mais c’est suffisant pour arriver à travailler mieux que lorsqu’il fait 34.
Le 29/06/2020 à 10h 02
Pour la toiture t’auras le problème inverse en hiver, une toiture sombre capte mieux la chaleur du soleil.
Le 29/06/2020 à 09h 04
Le problème majeur avec la clim est le même qu’avec le chauffage, c’est une question d’éducation.
Aujourd’hui beaucoup de ceux qui peuvent mettent la clim quand ils ont chaud pour arriver à une température de 20°. Il suffirait de monter un peu de 3⁄4 degrés pour que ça reste agréable et que ça consomme nettement moins. De la même façon en hiver régler son thermostat à 18⁄19 au lieu de 21⁄22 ça fait des économes substantielles.
Le pire pour la clim étant les entreprises qui ne règlent pas. Le nombre de personnes qui ouvrent les fenêtres pour chauffer un peu l’été parce qu’il fait trop froid avec la clim … ça fait peur.
Le 29/06/2020 à 09h 01
Ils vont crever à cause d’un air merdique car ils ne produisent pas massivement au nucléaire, justement.
Et quand ils se mettront au nucléaire s’ils n’ont pas des règlementations en béton et un suivi meilleur que le notre ils auront le même problème dans 30 ans, à savoir des réacteurs qui tombent en ruine.
À Détroit, la reconnaissance faciale n’est utilisée que sur les noirs, et se trompe dans 96% des cas
01/07/2020
Le 01/07/2020 à 10h 18
Mais 70 personnes ce n’est pas vraiment représentatif. Même si on considère qu’il y a autant de crimes commis par les blancs que par les noirs dans cette ville (ce qui n’est pas gagné puisque la population pauvre est majoritairement noire), il aurait suffit de 2⁄3 personnes blanches pour équilibrer. Or si ça se trouve ils n’ont juste pas eu le besoin…
Sous iOS/iPadOS 14, l’accès au réseau local par une application nécessitera une autorisation
26/06/2020
Le 26/06/2020 à 09h 07
Le tout est d’évaluer face à la concurrence. La réalité c’est que la majorité des gens utilisent une version d’Android complètement fermée car customisée par le fabriquant.
Aujourd’hui on a le choix entre :
Il faut se demander où est la menace qu’on veut éviter. Si c’est la surveillance étatique, la dernière option est la meilleure, mais si c’est uniquement la fuite des données personnelles vers des entités privées je pense qu’Apple est le meilleur choix.
Le 26/06/2020 à 08h 06
J’ai commencé à lire l’article en me disant “ils font chier” et finalement je trouve ça très bien.
J’étais persuadé qu’Apple prenait la question de la vie privée à coeur juste pour se donner une bonne image mais ils poussent toujours les décisions dans ce sens et ils me font vraiment changer d’avis.
Certes, il faut leur faire confiance car leur code reste quand même fermé, mais à partir du moment où on a décidé de leur faire confiance, ils sont quand même très nettement au dessus d’Android sur cette question.
Apple Developer Transition Kit : benchmarks interdits pour son Mac mini avec SoC A12Z Bionic
23/06/2020
Le 23/06/2020 à 09h 45
Ils ont mieux un vieux processeur dedans et les performances ne seront probablement pas dingos sur ce kit.
J‘aurais tendance à dire que le fait qu’ils n‘aient pas annoncé de benchmark montre qu’ils ne sont pas prêts du tout, et soit c‘est pas encore au point, soit (et c’est pire), les performances sont moins bonnes que sur Intel sur leurs machines actuelles.
On en saura plus lors de l‘annonce des premiers Mac ARM en fin d’année, mais pour l‘instant l’intérêt pour le consommateur ne saute pas aux yeux.
Le Raspberry Pi 4 de 8 Go est disponible, Raspbian devient Raspberry Pi OS, le 64 bits en bêta
28/05/2020
Le 28/05/2020 à 13h 02
Un NAS ou un disque dur, à toi de voir. Dans les deux cas c’est relativement simple à mettre en place.
Le 28/05/2020 à 13h 01
Si ta question c’est est-ce qu’il est capable de transcoder à la volée, je parierais pas là dessus. Par contre si tu demandes si tu peux streamer un fichier (= le lire à la volée), je pense que oui, ça devrait le faire.
Le Raspberry est plus puissant que mon NAS (un Syno d’il y a 5 ou 6 ans) qui streame du rip bluray 4K HDR de 50Go sans trop sourciller … en filaire.
Un député LREM suggère une récompense de 50 km pour usage de Stopcovid
25/05/2020
Le 25/05/2020 à 14h 21
Si les contacts sont bien tracés, on peut mieux cibler les tests et isoler UNIQUEMENT ceux qui sont à risque, et oui, c’est plus efficace que d’enfermer tout le monde, sous réserve que l’app soit largement diffusée.
Le 25/05/2020 à 08h 24
Pourquoi pas un bon d’achat de 150€ à la fnac aussi, comme ça on relance l’économie en même temps.
Personne n’en veut de cette app.
A quand l’app “Stop stop covid” ?
Martin Bouygues : « dans le climat économique d’aujourd’hui, la 5G n’est pas la priorité du pays »
25/05/2020
Le 25/05/2020 à 14h 18
Je suis désolé la seule partie de l’article accessible c’est un demi premier paragraphe très vague sans aucune réponse.
Par ailleurs tu réponds (j’imagine) à la première partie de ma phrase, sur le fait que la matériel consommera plus, et peut-être que je me trompe.
Sur le second aspect en revanche c’est tout à fait le cas, l’ouverture d’un débit plus grand amène de nouveaux usages notamment vidéo, qui sont les plus consommateurs en énergie.
Le 25/05/2020 à 08h 34
Sur le point de la consommation d’énergie, le point n’est pas seulement sur le matériel 5G (mais j’imagine que plus d’antennes = plus de conso " /> ), mais aussi le fait que plus de débit appelle plus d’usages et donc c’est toute la chaîne de conso que l’on doit prendre en compte (serveurs, production du contenu, etc etc).
StopAuPorno.fr demande à Emmanuel Macron de tenir ses promesses
25/05/2020
Le 25/05/2020 à 08h 28
Ca part d’une intention louable, la protection de l’enfance, et ça dérape vers dans de la critique hyper conservatrice. Dommage.
Travailler avec Edward Snowden rend parano
20/05/2020
Le 21/05/2020 à 15h 20
Il préconise de grosses discussions sur les commentaires de ses sites de news préférés.
Le 20/05/2020 à 09h 26
Si toi ou moi appliquons les mêmes mesures au jour le jour, ça serait de la paranoia car (à priori, je ne te connais pas) nous ne sommes pas des cibles. Donc oui, ça rend parano, même si certaines de ses mesures sont justifiées.
Mais même dans le cas de snowden, chiffrer 5 fois son disque, partir pisser avec son ordi, et surtout l’histoire du blender, c’est de la paranoïa, même pour lui.
Le 20/05/2020 à 09h 13
Les états sont là pour protéger la population, et par extension se protéger eux-même, oui. Ce n’est pas pour autant qu’il n’y a pas de dérive, qu’il n’y a pas de fruits pourris ou qu’il n’y a pas d’actions qui rentrent en contradiction avec la vision de certains des citoyens, mais ça reste leur mission principale.
L’espionnage c’est comme le capitalisme, c’est la merde, tout le monde le sait, mais ça a quand même d’une manière ou d’une autre contribué à tout ce qui a fait qu’on peut communiquer aujourd’hui sur le sujet.
Epic Games offre GTA V, ses serveurs tombent
15/05/2020
Le 15/05/2020 à 09h 16
Tu es sûr ? C’est activé depuis une semaine ou deux.