votre avatar Abonné

Rozgann

est avec nous depuis le 16 janvier 2008 ❤️

1106 commentaires

Le 07/10/2016 à 08h 39







Ars Technis a écrit :



Perso, j’espère surtout que le support multi-écrans s’est vraiment amélioré comme ils le disent…c’était un des points noirs restants de Plasma. <img data-src=" />





Ça s’est clairement amélioré, mais il reste des problèmes. La pluparts sont au niveau de Qt et pas de KWin. Si tu as une carte graphique Intel, il est recommandé d’utiliser le driver xorg “modesetting” et pas le driver intel standard. Il était à l’origine de pas mal de problèmes aussi (Ubuntu 16.10 utilisera modesetting par défaut je crois). Tout ça fait que ça devrait aller beaucoup mieux, même si c’est pas encore parfait sur les matos les plus exotiques.


Le 07/10/2016 à 08h 29



KDE a fait un gros travail sur Plasma. Il donne l’impression d’un bureau moderne, réactif et efficace.

L’initiative Visual Design Group, qui visait à intégrer les designers dans le développement (sans pour autant que les codeurs deviennent des exécutants) a porté ses fruits. L’environnement est beaucoup plus agréable à utiliser. Les applications évoluent moins vite que l’environnement, mais avec Kirigami, leur nouveau framework QML pour faire des applications convergentes (dont on voit un aperçu dans la vidéo), il devrait y avoir de nouvelles applications. Et ils ont aussi lancé un KDE Store, pour l’instant limité à des contenus type fond d’écran, thème ou widget de bureau, mais qui devrait devenir un vrai store avec des applications Snappy/Flatpack directement distribuées par KDE.

Le 06/10/2016 à 14h 25







Faith a écrit :



D’un autre coté, quel besoin de changement majeur quand le service est bien rendu ?

Correction de bugs mis à part, je ne vois pas ce qu’il y a à apporter comme nouveauté.



Ceci dit, je suis fan de l’ergonomie par défaut qu’ils ont mis en place.

Je la trouve bien meilleure que ce que je connais des autres (blackberry / Android)

Dommage que ce point positif soit noyé derrière d’autres problèmes plus graves.





Oui, j’aime bien l’ergonomie à base de gestes aussi. J’ai abandonné mon Nokia N9 avec beaucoup de regret après 4 ans de bons et loyaux services. Ubuntu Phone en a repris la plupart des bonnes idées et j’ai hésité à en prendre un, mais je me suis finalement orienté vers un smartphone Android. C’est sympa parce que “Il y a une app pour ça” dès que tu veux faire un truc, mais l’ergonomie Android est bien moins efficace.





robin4002 a écrit :



https://wiki.ubuntu.com/Touch/ReleaseNotes/

http://people.canonical.com/~lzemczak/landing-team/ota/

Une nouvelle ota toutes les 6 à 8 semaines avec à chaque fois pas mal de nouveauté / d’amélioration.

Ton impression de trompe.





Ok, autant pour moi. Difficile de suivre les évolutions sans utiliser l’OS. Comme il y a pas de modèles sortis récemment, il n’y a pas de tests qui montrent les nouveautés. La plupart des tests que j’ai lu, qui datent de la sortie des smartphones concernés donc, disaient que l’OS avait du potentiel mais que ça manquait cruellement d’applications et qu’il y avait encore pas mal de petites corrections à apporter. Tant mieux si ça s’est amélioré.





seb2411 a écrit :



De toute façon ils ont pas trop le choix si ils veulent avoir une chance sur smartphone et comme la nouvelle plateforme va être le centre de toutes les solution autour d’Ubuntu c’est un peu marche ou crève <img data-src=" />.





Mouais, j’ai du mal à croire qu’ils arriver à toucher plus qu’un marché de niche sur smartphone. Nokia a abandonné, Blackberry a abandonné, Mozilla a abandonné, Jolla est pas en grande forme et même Microsoft semble baisser les bras… Ceci dit même un marché de niche peut être rentable.

De toute façon, tant qu’il n’y aura pas un système similaire à l’UEFI sur smartphone, qui permette de ne pas avoir à développer une image spécifique pour chaque SoC mais d’utiliser une image générique comme sur PC, les OS alternatifs auront du mal à se développer parce qu’ils sont dépendant du bon vouloir des fabricants.


Le 06/10/2016 à 13h 09







seb2411 a écrit :



L’explication surtout c’est qu’ils ont beaucoup de chose a faire. Ils ont du poser les bases de la distribution (Mir, Snaps, Ubuntu Core, etc.) Pour reprendre KDE, on se souviendra que le passage de la version 3 a la version 4 a été plutôt long et douloureux ^^ et si aujourd’hui KDE peut évoluer a un bon rythme c’est justement parce qu’ils ont pose de bonnes base il y quelques années.





Ok, il y a les snaps qu’ils ont introduit avec 16.04. Mais concrètement, qu’est ce qui a changé du point de vue de l’utilisateur entre Ubuntu 15.10 et 16.10 ? Ils ont même viré leur propre store au profit de GNOME Software.



Après c’est vrai que j’ai pas de Ubuntu Phone, mais j’ai pas l’impression qu’il y ait des mises à jour très régulières non plus. Les possesseurs de Meizu ou BQ pourront peut-être confirmer ? Les mises à jour depuis un an ont apporté des nouveautés majeures ?



Bon pour être honnête Plasma Mobile chez KDE stagne encore plus. Il a été annoncé il y a plus d’un an et ça a pas évolué depuis.


Le 06/10/2016 à 08h 42

J’ai l’impression que ça avance plus du tout chez Canonical. Ils sortaient plein de trucs il y a quelques années, avec des annonces tout les 6 mois (Mir, tout le shell mobile, le framework qml pour les Ubuntu Apps, Ubuntu TV, etc…) et là j’ai l’impression que ça évolue plus depuis quasiment un an.

Je me demande si l’explication est organisationnelle (leurs équipes de dev’ ont grossi trop vite, ils sont pas arrivés à faire évoluer leurs pratiques en parallèle ; la motivation diminue à force de repoussser la sortie de Mir/Unity 8 et/ou certains éléments importants sont partis ailleurs) ou si elle est technique (ils ont voulu aller vite et ont fait un code pas assez bien pensé, et maintenant qu’ils veulent le faire évoluer, ils sont obligés d’en réécrire une grosse part). En tout cas c’est dommage, ils ont une vision intéressante.



En attendant, KDE vient de sortir Plasma 5.8 LTS :https://linuxfr.org/news/kde-plasma-5-8-lts

(qui mériterait une news ici au passage ;-) ).

Le 30/09/2016 à 09h 43







Faith a écrit :



1 millions de personnes à 200K\( par tête, ça fait... 200 milliards, soit le budget prévu... 

200K\)
pour un individu, c’est loin d’être énorme. 

 

 

On envisage de produire le carburant de retour sur Mars. 

Les ressources accessibles sur Mars sont incroyablement moins nombreuses que celles sur Terre. Donc s’il est possible de le faire sur Mars, ça veut dire que c’est simplissime de le faire sur Terre.







Cette réaction est très connue, c’est la base du Power to Gas : on fait une réaction d’hydrolyse de l’eau ( 2 H2O = 2 H2 + O2 ), puis on fait réagir l’hydrogène produit avec du dioxyde de carbone (4 H2 + CO2 = CH4 + 2 H2O). On ne produit pas d’énergie comme ça, on ne fait que “stocker” de l’électricité dans un carburant (le méthane), il faut donc produire cette électricité en amont.

Et ce sont deux réaction exothermiques, qui dégagent de la chaleur et donc qui produisent des pertes. En brûlant le méthane, on ne récupère que 77% de l’énergie électrique qu’on a dépensé ( source ). On ne l’utilise pas actuellement, parce que son rendement est beaucoup trop faible, c’est pas rentable du tout (si on veut refaire de l’électricité à partir du méthane, le rendement chute à 44%, le stockage d’électricité dans une batterie au lithium a un rendement de 99%).



Donc pour produire leur carburant sur Mars, il faut qu’ils trouvent une source d’électricité pour alimenter ces réactions. Soit ils emportent un réacteur nucléaire et son combustible, soit ils utilisent des panneaux photovoltaïques.


Le 30/09/2016 à 09h 22

Tant que c’est de l’argent privé et pas mes impôts qui financent ça, j’ai pas de problème avec. Le mec veut rester dans l’histoire et qu’on érige des statues à son effigie sur Mars, tant mieux pour lui. En ce qui concerne l’argent public, je pense qu’il y a suffisamment de problèmes à régler sur Terre, bien plus prioritaires que d’envoyer une fraction de privilégiés (sur)vivre sur une autre planète.



Envoyer une navette sur Mars et revenir, je pense que c’est tout à fait possible. Par contre, créer une colonie martienne avec un million d’habitants, j’ai beaucoup plus de doute… Sans compter l’investissement financier faramineux que ça représente, est-ce qu’on a seulement les ressources énergétiques et minérales suffisantes pour produire autant de fusées et leur carburant ? Quand on s’intéresse à ces problématiques de développement durable, on voit qu’il va y avoir de plus en plus de tensions sur les marchés énergétiques dans les décennies à venir, avec l’épuisement des ressources pétrolières conventionnelles. Et pour les ressources minérales, simplement assurer la production énergétique mondiale à partir de sources renouvelables uniquement (éolien, solaire et hydroélectricité) demanderait plus de terres rares que les réserves actuellement connues. Et non, c’est très improbable qu’on maîtrise la fusion nucléaire d’ici 2060.

Le 29/09/2016 à 15h 58







ErGo_404 a écrit :



+1, mais c’est comme Wayland. A chaque nouvelle sortie d’une distrib on voit dans le changelog “support amélioré de wayland”, mais au final personne n’a les cojones pour en faire le serveur d’affichage principal.



Je comprends que ça soit un composant délicat à développer, mais là ça commence à faire quelques années qu’on nous en parle…





Il n’est toujours pas possible d’utiliser le pilote propriétaire Nvidia (que ce soit avec Wayland ou Mir), et ils ont quand même une part de marché importante. C’est aussi une part de l’explication. Que ce soit Wayland ou Mir, ça fait plusieurs années qu’ils sont utilisés en production : Mir sur les Ubuntu Phone, Wayland sur les téléphones Sailfish et Tizen, dans certains véhicules, et sur toutes les Freebox Revolution.


Le 16/09/2016 à 15h 27







odoc a écrit :



Par contre une info qui aurait été utile c’est de savoir en quoi c’est un fork “hostile” ? n’ayant pas suivit l’affaire ça m’intéresse.



Par contre un Rpi en prod avec le système entier sur la carte SD, faut pas avoir peur.





En résumé, Owncloud est la propriété d’une entreprise, Owncloud Inc, et son développement est piloté par l’entreprise, la communauté n’a que peu d’influence sur les orientations qui sont données au projet. Les actionnaires de l’entreprise avaient une vision stratégique du positionnement de Owncloud qui ne plaisait pas à certains employés, notamment le mec qui est à l’origine du projet à la base. Ce mec a décidé de démissionner, de créer un fork, NextCloud. Il a été suivi par la majeure partie de l’équipe technique européenne de Owncloud. Le développement de NextCloud est plus ouvert, certaines fonctionnalités qui étaient disponibles uniquement sous la forme d’applications tierces par ce que Owncloud refusaient de les intégrer de base ont été intégrées. En réaction à la création de NextCloud, Owncloud Inc. a annoncé qu’ils étaient contraints de se séparer de leur équipe américaine. Ils ont aussi annoncé la création d’une fondation pour piloter Owncloud, ce à quoi ils s’étaient jusqu’à présent refusés. Voilà en gros pour ce que j’en ai compris.


Le 11/09/2016 à 11h 33

La partition swap est aussi utilisée pour la veille profonde / hibernation (suspend to disk) je crois. Donc sans cette partition ça doit pas fonctionner. C’est pas forcément indispensable comme fonctionnalité (surtout avec un SSD), mais il vaut mieux le préciser.

Le 09/09/2016 à 12h 01







MoonRa a écrit :



Ce n’est pas sur son temps libre mais sur le temps où il a la possibilité de travailler sur des projets “libres”. Ce qu’il ne fait pas, vu que le projet sur lequel il travail n’est pas libre.





Projets libres, dans ce contexte, ne veut pas dire projets sous licence libre, mais comme “projet personnel”. Pour favoriser la créativité, pas mal de boîtes de software allouent du temps à leur employés pour travailler sur plus ou moins ce qu’ils veulent, en espérant qu’il en sortira des choses intéressantes. Chez Google, il y a pas mal de produits qui ont commencé comme ça à la base (Google Earth, Picasa, etc…)


Le 22/08/2016 à 09h 56

Quels sont les protocoles utilisés pour la communication entre le compteur et le boitier ? Est-ce qu’il sera possible de se bidouiller un truc avec un Arduino ou un Raspberry Pi pour faire soi-même ces cumuls ?

Le 19/08/2016 à 08h 46

Ca commence à faire quelques temps qu’ils ont adopté cette stratégie. Je me demande s’ils ont vraiment réussi à attirer des contributions sur leurs produits. Ils ont un mode de fonctionnement à la Google : développement behind closed doors, code dump à chaque version, pas d’accès à la branche de développement, pas de mailing list publique, signature d’un Contributor Licence Agreement obligatoire pour contribuer, etc…

A part l’intégration de Mono à .NET Core (Mono qui a été racheté par Microsoft…), est-ce qu’ils ont vraiment eu des contributions majeures de la part de la communauté ?

Le 18/08/2016 à 14h 03







127.0.0.1 a écrit :



Justement, les termes que tu emploies mettent en relief ce que je voulais dire.



D’un coté du as le “haut de gamme ARM” et en face tu as du ATOM qui est perçu (peut-être a tort) comme le bas de gamme du x86.



car_analogy



Une Ferrari 4 cylindres est moins bien perçu qu’une Renault Clio RS 16.



/car_analogy





Je suis pas du tout amateur d’automobile, j’ai pas vraiment d’avis sur la question, donc je peux pas dire si ton analogie est pertinente ou pas, mais je pense que c’est très subjectif. Cette perception là joue certainement auprès de quelques technophiles, mais je pense pas que ce soit un critère important pour le grand public. C’est surtout les fabricants qu’il fallait convaincre de proposer des produits qui utilisent des Soc Atom, et je pense pas que ce soit le critère principal qui explique le peu de produits sur le marché.



Développer une architecture spécifique au mobile (différente du x86 donc si je comprends bien ce que tu dis), ça aurait demandé des efforts de R&D énormes, sans assurance de prendre des parts de marché à ARM. C’était un bien meilleur choix de la part d’Intel de capitaliser sur son savoir faire existant sur l’architecture x86. Ou alors tu dis que Intel aurait directement dû acheter une licence ARM pour produire des processeurs pour le marché mobile ?


Le 18/08/2016 à 09h 45







127.0.0.1 a écrit :



A mon sens, la grosse erreur d’Intel ca a été de croire que le marché mobile/low-power se contenterait d’une version allégée/low-cost de leur produit phare x86.



Intel n’a pas envisagé que ce marché spécifique nécessitait un produit (i.e. une architecture) spécifique.





Je pense pas que le problème des puces Atom soit d’ordre technique. Les dernières générations Atom proposaient un ratio performance/watt très proche de ce que propose le haut de gamme ARM. Ils sont simplement arrivés beaucoup beaucoup trop tard.



Tout l’écosystème logiciel a été développé pour ARM, tous les fabricants de matériels avaient leur processus, basés sur des SoCs ARM, les pilotes étaient développés pour ARM, etc… Pour ne pas embrouiller les consommateurs, ceux qui ont lancé des produits mobiles à base de processeur Intel ont créé de nouvelles gammes, qui forcément ne bénéficiaient pas de la même visibilité que les gammes à base d’ARM auprès des consommateurs.



Pour pouvoir s’imposer sur un marché existant, il ne faut pas simplement faire aussi bien, il faut un clair avantage pour justifier la transition vers cette nouvelle architecture. Intel a réalisé qu’ils n’arriveraient certainement pas à faire beaucoup mieux que ARM sur le marché mobile.


Le 17/08/2016 à 13h 51







Commentaire_supprime a écrit :



Ça me fascine de voir que le bon vieux silicium descend de plus en plus pas en finesse de gravure… Quelqu’un a une idée de la limite théorique de l’exercice ? À 10 nm, ça fait longtemps que l’on a commencé à compter les atomes !





C’est justement la question que je me suis posé en lisant l’article ! D’après la source de Wikipedia, Intel a annoncé qu’ils allaient passer à un autre matériau pour le 7 nm (la prochaine étape, en 2018). Ils pensent pouvoir aller jusqu’à 5 nm, au-delà ça risque d’être compliqué, parce que les phénomènes quantiques prennent trop d’importance.


Le 18/08/2016 à 12h 44







Bouv a écrit :



Cet article tombe bien, je cherche depuis un petit moment comment “sécuriser” mes dossiers perso que je mets sur le clouds (photos, documents…) et que je puisse y accéder aussi bien depuis un de mes pc que depuis smartphone/tablette.

Existe-t-il un moyen d’ouvrir les conteneur VeraCrypt depuis un smartphone/tablette ?





Pour l’instant j’ai simplement un conteneur TrueCrypt sur Dropbox avec des fichiers importants, mais comme dit par d’autres plus haut, ce n’est pas terrible parce que tout le conteneur doit être resynchronisé à chaque modification.

Il y a BoxCryptor qui produit un fichier chiffré pour chaque fichier, mais c’est un logiciel propriétaire et payant pour avoir toutes les fonctionnalités.

En version libre, il y a EncFS (sur lequel se base d’ailleurs BoxCryptor), dont il existe une implémentation libre sous Linux (EncFS), Windows et OSX (EncFSMP) et sous Android (Cryptonite). J’ai prévu de faire la transition vers ça mais j’ai pas encore pris le temps de le faire, donc j’ai pas de retour pour te dire si ça fonctionne mieux que TrueCrypt / VeraCrypt


Le 17/08/2016 à 14h 15

Mais non, vous avez pas compris. Le lancement d’un nouveau jeu Metal Gear est toujours l’occasion d’un jeu de fausses pistes. C’est comme Kojima déguisé en suédois qui parle de Phantom Pain, avant qu’on découvre qu’il s’agissait de MGSV. Comment ? Non, ce n’est pas juste une grosse blague de Konami ? Ah…

Le 10/08/2016 à 14h 18







Guinnness a écrit :



Bah non c’est pas vraiment une si bonne nouvelle pour les joueurs PC puisque comme déja dit les devs devront faire avec les 1ères gen moins puissantes et ne pourront donc pas réellement exploiter le surplus de puissance des 2 nouvelles venues pour autre chose que permettre un rendu graphique à plus haute résolution.



Impossible de pousser sur des trucs comme les moteurs physiques, les IAs, ou utiliser des modèles 3D sensiblement plus détaillés et des textures plus complexes puisque ça laisserait au bord de la route les possesseurs des 1ères gen et ça ni Sony ni MS ne peut se le permettre.



La seule explication logique que je vois à cette mise à jour hardware c’est que le temps passant les “vieux” chips qu’utilisaient les fabricants s’approchent doucement mais surement de l’obsolescence(si tant est qu’ils ne l’étaient déja pas à la sortie de cette gen de consoles <img data-src=" />) et que les nouveaux plus puissants ne coûtent aujourd’hui pas plus chers voir peut être même moins, du coup ça fait une belle occasion de faire joli sur les plaquettes commerciales à coût financier quasi nul (faudra quand même modifier les chaines de montage et ça c’est loin d’être gratuit)





Oui, mais ça aurait quand même été le cas si ils avaient pas sorti ces mises à jour. Là, il y aura un marché plus grand pour rentabiliser des investissements dans des graphismes plus gourmands (mais en effet, il est probable que ce soit comparable à un passage de graphismes Moyen à Haut sur PC).


Le 10/08/2016 à 11h 56







Guinnness a écrit :



Pareil, je ne vois pas trop l’intérêt de ces machines et leur surplus de puissance sachant que les jeux devront rester compatibles ET jouables sur les “anciens” modèles et que donc les devs ne pourront pas vraiment exploiter cette puissance supplémentaire.





L’intérêt, il est pas pour toi, il est pour Microsoft (et Sony). Microsoft s’est fait distancé sur cette génération, et n’a aucune chance de combler son retard. Donc ils veulent sortir une nouvelle machine rapidement en espérant inverser la vapeur.

Et Sony répond en face pour ne pas se laisser distancer.

En tout cas, c’est plutôt une bonne nouvelle pour les joueurs PC, ça veut dire que les développeurs vont moins être limités par la puissance des consoles et qu’on va pas avoir le même pallier pendant plusieurs années sur les jeux PC comme ça a été le cas avec les jeux de la génération PS3 / Xbox 360.


Le 06/08/2016 à 18h 05

Aux dernières nouvelles, Nvidia a bien publié un pilote qui annonce la compatibilité Wayland. Sauf qu’ils ont fait ça d’une manière différente de tous les autres pilotes existants (si j’ai bien compris, parce qu’ils partagent une grande partie de leur code entre Windows, Linux, Android et ChromeOS, ce qui n’est pas le cas des autres). Donc pour utiliser le pilote propriétaire Nvidia avec Wayland, ça demande d’adapter tous les compositeurs wayland (Weston, GNOME Shell, KWin, Enlightenment,…) et de maintenir deux codes séparés : un pour nvidia, un pour les autres.



Ils ont fait un commit des modifications à apporter pour Weston, mais il a été refusé par le projet upstream. Donc dans l’état actuel des choses, non, tu ne peux pas utiliser le pilote propriétaire Nvidia avec Wayland. A moins que j’ai raté les dernières évolutions des discussions, et dans ce cas je veux bien que tu me donnes un lien parce que j’ai rien trouvé en vérifiant maintenant.



Je ne sais pas ce qu’il en est pour Mir, mais je pense que maintenir un code spécifique pour Nvidia n’est pas l’idéal pour eux non plus.

Le 06/08/2016 à 11h 17

Pour le débat AMD / Nvidia, il y a eu pas mal d’évolution ces derniers temps. Avant, Nvidia avait un clair avantage, maintenant c’est beaucoup plus nuancé.



AMD a un nouveau pilote unifié pour les dernières générations de carte: AMDGPU. Le pilote est en deux parties: une partie noyau, libre, et une partie en espace utilisateur, propriétaire, pour laquelle il existe aussi une alternative libre.



Et les perfs sont loin d’être dégueulasses comparés à Windows 10, sur les jeux où les portages ont pas été réalisés avec les pieds évidemment (voir ici).



De l’autre côté, Nvidia a pas changé de stratégie, ils ont toujours leur pilote proprio dont une grande partie du code est partagé avec Windows. Mais ils font pas les choses comme les autres donc tu peux pas utiliser Wayland avec un pilote Nvidia. Pour l’instant c’est pas encore hyper important, mais ça risque d’être problématique d’ici quelques mois.



Donc Nvidia avait l’avantage mais se repose sur ses lauriers

AMD a fait des efforts pour moderniser son code et ça porte ses fruits à l’avenir. En tout cas AMD n’est plus à déconseiller aujourd’hui. Il faut regarder ses besoins et quelle est la carte la plus adaptée qui est la moins chère pour ces besoins.

Le 28/07/2016 à 10h 04

Ca fait plaisir à lire tout ça. Comme quoi, les efforts et la persévérance payent. Merci aussi pour votre transparence et votre écoute de la communauté.



L’étape suivante de La Presse Libre, ce serait un best-of mensuel des meilleurs articles de chaque partenaires. Ça augmenterait encore votre visibilité auprès de potentiels futurs abonnés. Ce serait gagnant-gagnant pour tout le monde.

Le 15/07/2016 à 12h 37







luxian a écrit :



(cliques pas là si tu es mineur ça te fera mal, mais les grands doient savoir :





Doivent savoir quoi ? Que quand un camion roule sur des gens, ils meurent ? Montrer des morts et du sang, ça ne fait que favoriser les réactions émotionnelles, et c’est exactement la raison pour laquelle ils commentent des attentats : faire peur, faire monter la violence dans la société française, et nous entraîner dans la guerre de religion qu’ils appellent de leur voeux. Ce dont on a besoin, c’est de se servir de sa tête et de réfléchir, de relativiser les choses, et de chercher les solutions les plus efficaces, pas de réagir dans l’émotion…



Et surprise, il n’y a pas de solution miracle contre le terrorisme, ça prendra du temps pour s’en débarrasser. Et on aura beau mobiliser autant de policiers, de gendarmes et de militaires qu’on voudra, annuler tous les rassemblements, si une personne est déterminée à commettre un attentat, on ne pourra pas l’empêcher. Ce qui s’est passé hier montre qu’il n’y a pas besoin de beaucoup de matériel et de préparation pour faire beaucoup de dégâts. L’enquête dira si le terroriste aurait pu être détecté par les services de renseignements ou pas, mais je suis certain que plus de lois sécuritaires ne changerait strictement rien.



Il y a certainement des enseignements à tirer de ce qui s’est passé, des failles à combler, mais réagir de manière épidermique sans réfléchir, ça ne fera qu’empirer les choses. Malheureusement, c’est une menace avec laquelle il faudra apprendre à vivre, un risque qu’on devra accepter. D’ailleurs, la plupart des gens prennent un plus gros risque pour leur vie, tous les jours en prenant leur voiture… On ne te montre pas les corps démembrés chaque fois qu’il y a un accident de voiture, pourtant on devrait si on suit ta logique, les gens doivent savoir…



Bref, tout ça pour dire que tu sautes à pied joints dans le piège tendu par l’Etat Islamique…


Le 08/07/2016 à 08h 37







Anne Onyme a écrit :



Merci pour la précision, c’est vrai que c’était assez confus pour moi, je ne savais jamais s’il fallait KDE ou Plasma, car on entend toujours parler de KDE en tant que DE. <img data-src=" />





Historiquement KDE signifiait Kool Desktop Environnement. Mais depuis, KDE s’est largement diversifié, même au-delà des applications graphiques en Qt. Entre autres, ils ont développé un moteur de rendu web, KHTML, qui a été repris par Apple pour créer webkit. Même Owncloud (enfin NextClound maintenant), donc un service web AGPL, est issu de la communauté KDE à la base. Donc KDE n’est qu’un sigle sans signification précise pour désigner la communauté. Mais le poids des habitudes fait que beaucoup de monde continue à désigner l’environnement par KDE.


Le 08/07/2016 à 07h 31







Anne Onyme a écrit :



Merci, c’est ce que je cherchais, mais bon, je reste quand même sous KDE <img data-src=" />





Sous Plasma ^^

Pour rappel : KDE est la communauté de développeurs, qui développe des environnements de bureau (Plasma Desktop, Plasma Mobile, Plasma Media Center), un compositeur Wayland, KWin, qui peut aussi être utilisé avec d’autres environnements comme LxQt par exemple, des applications (Amarok, Digikam, Okular, Krita, GCompris,…), et des bibliothèques logicielles, KDE Frameworks, dont une grande part sont utilisables sur toutes les plateformes supportées par Qt, desktop et mobile.


Le 07/07/2016 à 09h 27







lysbleu a écrit :



Mais justement, toute la philosophie de Gnome, c’est que l’interface est entièrement personnalisable via des extensions, ce qui laisse plus de possibilités qu’un menu, aussi chargé soit-il, sans encombrer l’interface inutilement pour ceux que ça n’intéresse pas. Les extensions sont surhttps://extensions.gnome.org/, pas n’importe où sur le web, et s’installent et s’activent directement depuis ce site (donc c’est encore plus simple que de les installer depuis le gestionnaire de paquets, il suffit d’un clic pour tout faire).



Le seul reproche que je peux avoir, c’est que les distributions n’installent pas gnome-tweak-tool par défaut et qu’il n’y ait pas un raccourci depuis le panneau de configuration pour y accéder.





Je connais le site d’extensions de GNOME, mais justement, il faut le connaitre… Je te donne un exemple : personnellement, j’ai l’habitude d’avoir ma barre de tâche sur le côté droit de l’écran, qui se masque automatiquement : sous Plasma, je peux le faire par un glissé déposé et en cochant une option. Sous GNOME-shell, il faut aller chercher une extension, en espérant que quelqu’un en ait développé une qui fasse ce dont j’ai besoin.


Le 07/07/2016 à 08h 14







Pierre_ a écrit :



J’ai un mal fou avec cet environnement moi ! Le panneau de configuration est d’un fouilli, c’est incroyable ! Je me rappelle avoir passé 15 minutes juste pour trouver ou configurer la résolution de mon deuxième écran…





C’est un des reproches qui est souvent fait. Quand on propose beaucoup de paramètres, c’est parfois difficile de s’y retrouver. A leur décharge, c’était largement pire avant et ils ont fait beaucoup de progrès, mais ça reste évidemment plus compliqué que le centre de configuration de GNOME, bien moins rempli et donc plus facilement navigable.

Il y a tout de même un champ de recherche en haut à droite qui permet souvent de t’indiquer dans quel module est le paramètre que tu cherches. KRunner (accessible par Alt + Espace) permet aussi de te mener directement dans le bon module.


Le 07/07/2016 à 08h 11







Hellow a écrit :



Parce que Gnome-Shell n’est  pas personnalisable de fond en comble ? :)

Même chose pour DWM.





N’importe quel environnement libre est personnalisable de fond en comble, il suffit de sortir un IDE ;-)

Mais Plasma et les applications KDE en général exposent plus de paramètres à personnaliser dans l’interface, là où il faut parfois aller installer des extensions depuis un site internet voire modifier des valeurs dans dconf avec Gnome.



Toute la philosophie KDE, c’est justement te permettre d’adapter tout ton environnement à ton “flux de travail” personnel. Ils proposent même les “activités”, qui permettent entre autre de personnaliser ton bureau de façon différente en fonction des différentes activités que tu fais avec ton ordinateur (tu n’as pas forcément le même workflow quand tu travailles, quand tu fais du dessin numérique, ou quand tu te détends en regardant des films / jeux / internet. Tu peux donc avoir des personnalisations différentes (raccourcis vers les applications, dossier exposés sur le bureau, etc…).


Le 30/06/2016 à 15h 16







Obidoub a écrit :



Le test montre aussi qu’avec Vulkan la RX480 se place au niveau d’une GTX1070 et ça c’est plutôt intéressant.





C’est possible aussi que les drivers jouent beaucoup. Vulkan est en partie basé sur Mantle de AMD, donc il y a des chances que l’implémentation de Vulkan au sein des pilotes AMD soit meilleure que celle des pilotes Nvidia, et que ça s’améliorera à l’avenir du côté Nvidia.


Le 29/06/2016 à 12h 13







thorspark a écrit :



Bah, attendons 15h et les tests. On se fera une idée à ce moment là.

Si un CF de 480 offre des performances IG supérieures à une 1080, je sauterais peut-être le pas.





Il faut aussi regarder si les jeux exploitent correctement le multi-GPU ou pas. Et sachant que les développeurs développent principalement pour PS4 / Xbox One et font leur portage à l’arrache sur PC, c’est peu probable que ce soit le cas…


Le 27/06/2016 à 08h 44







Benji_X80 a écrit :



Vous trouvez pas bizarre que ce soit les 2 navigateurs les moins utilisés qui se tirent l’un après l’autre ? Bref, que ce soit vrai ou non, ces deux là s’y connaissent bien en comm’…





C’est tout à fait normal. Microsoft et Opéra ont tous les deux choisi l’angle d’attaque de la consommation énergétique pour se différencier de Chrome et Firefox, parce que c’est le seul domaine dans lequel ils peuvent espérer prendre de l’avance et offrir une réelle plus-value à l’utilisateur.


Le 23/06/2016 à 15h 29

Ok, merci pour l’info. C’est pas clair du tout sur les pages wikipedia de iOS et macOS.

Le 23/06/2016 à 13h 35

Euh ? Il est pas open source tout le système bas niveau chez Apple de tout façon ? Open source signifiant droit de voir le code source, mais pas libre, donc pas de modification / redistribution autorisée. En tout cas c’est ce que dit la page wikipedia :en.wikipedia.org WikipediaIl y a même un dépôt Github :github.com GitHubCeci dit le dernier commit date de fin 2015, donc ils publient peut-être les sources avec du retard par rapport aux versions en production.

Le 22/06/2016 à 16h 38







goom a écrit :



C’est chouette de lancer la discussion sur les gestionnaires de paquetage <img data-src=" />



C’est quand même bien un truc que MS devrait intégrer dans sa distribution Linux son Windows





https://chocolatey.org/


Le 22/06/2016 à 13h 26







Anna Lefeuk a écrit :



Gabriel, arrêtes pas d’auto pub, on s’est que t’es un expert <img data-src=" />





Oh non ! Mon plan pourtant parfait pour augmenter mon nombre de followers a été découvert ! Damned !



Non en vrai je le suis sur Twitter et il poste pas mal de liens intéressants sur le sujet. Je suis simplement quelqu’un qui s’intéresse aux domaines de l’énergie et de l’environnement, en plus du numérique.


Le 22/06/2016 à 11h 18







iYo1312 a écrit :



Le message tel que je le comprends est que Tesla en tant que telle n’est pas une entreprise du numérique mais un fabricant automobile.

Hors on ne voit pas (et heureusement) d’articles sur les autres rachats de constructeurs automobiles et de leurs fournisseurs de pétrole.

Du coup si l’axe pour présenter cet article est la transition énergétique (sujet qui mérite sa place) il serait agréable de voir d’autres articles à ce sujet.

C’est tout.





C’est bien ça. Dès qu’une entreprise de Elon Musk fait un communiqué de presse, tu peux être sûr de voir un article sur Polygon ou The Verge, et ça finit aussi souvent sur Next INpact. Vu la place que prennent les nouvelles technologies dans l’énergie et la mobilité (avec les réseaux intelligents, la conduite automatique, etc.), ça me semble cohérent de vouloir traiter de ce sujet. Mais là, on ne parle que de “l’excentrique milliardaire”, au point où ça confine au culte de la personnalité, alors qu’il est loin d’être le seul à faire des choses innovantes dans ce domaine.


Le 22/06/2016 à 09h 18

A quand la photo dédicacée de Elon Musk pour un abonnement à Next INpact ? La transition énergétique est un sujet très intéressant, qui a tout à fait sa place ici. Mais si vous choisissez de traiter ce sujet dans vos colonnes, s’il vous plait, diversifiez vos sources et arrêter de reprendre uniquement les communiqués de presse qui viennent de Elon Musk, repris par vos équivalents américains…

Allez je vous aide un peu : pour la mobilité durable, vous pouvez suivre Gabriel Plassat sur twitter : @TdF__ademe


Le 20/06/2016 à 11h 40







devyg a écrit :



Je n’ai pas lu les 9 pages, mais on en parle des services de livraison par Carrefour/Auchan etc… qui font la même chose depuis déjà quelques temps ? Pourquoi taper tout de suite sur Amazon alors que les autres polluent et tuent tout aussi bien les “commerces de proximité” ?





La pollution est un argument parmi d’autres, pas forcément le plus recevable. Le problème de la ville de Paris, c’est surtout de maintenir la qualité de vie dans la ville, de conserver ce qui fait Paris, et le petit commerce de proximité en fait partie.



Certes les groupes Carrefour, Auchan et compagnie font de la livraison à domicile, mais ils investissent aussi dans le commerce de proximité, ils emploient des gens, et ils ont intérêt à conserver ces commerces. La livraison est un appoint. Les grands supermarchés des groupes de distribution sont bien en concurrence avec le commerce de proximité, c’est d’ailleurs pour cette raison qu’il existe une loi qui exige une demande d’autorisation par la mairie pour pouvoir ouvrir.



Amazon au contraire n’a aucun magasin, et ne prévoit pas d’en ouvrir. Ils emploient principalement des gens en interim, avec des emplois totalement déshumanisants, en attendant de pouvoir remplacer l’ensemble des salariés de leurs centres de stockage par des robots. Et la loi n’est pas applicable pour les entreprises qui font uniquement de la livraison.



Donc il y a bien une différence de traitement entre Amazon et les autres. On peut débattre sur le fait qu’il soit nécessaire ou non de protéger les commerces de proximité, mais soit on abroge la loi existante, soit on l’étend aussi aux services qui ne font que de la livraison.


Le 16/06/2016 à 14h 00







Commentaire_supprime a écrit :



-des paquets up to date et à jour de la dernière version ? Une distro en rolling release fait très bien le boulot, Arch et Manjaro pourraient te convenir.





Il faut quand même reconnaitre que conseiller d’installer tout un système en rolling release, c’est à dire potentiellement avec des instabilités, pour avoir la dernière version de VLC, c’est pas super normal quand même ! Tu peux très bien vouloir avoir les dernières versions de certaines applications sans vouloir mettre à jour tes pilotes.

L’avantage de Snappy et de Flatpak, c’est qu’il y a enfin une distinction entre ce qui relève du système, et ce qui relève des applications. Tu peux garder un système tout à fait stable et tester les nouvelles versions des applications.



Et un des gros bénéfices de ces formats, c’est surtout pour les développeurs et les packageurs. Les développeurs n’auront pas à faire un paquet par distribution qu’ils veulent supporter. Les packageurs n’auront pas à suivre les sorties de chaque application pour créer un paquet pour leur distribution, ils auront plus de temps pour contribuer à d’autres aspects de la distribution. Au final, c’est aussi un des gros bénéfices de ces nouveaux formats.


Le 16/06/2016 à 12h 24







freechelmi a écrit :



Merci pour ces details. J’imagine que Flatpak ne s’adaptait pas aux besoins serveurs/Iot/telephone comme Snappy , sinon le projet aurait été adopté par Ubuntu aussi.





Flatpak est principalement pensé pour distribuer des applications avec interface graphique. KDE va probablement utiliser Flatpak sur Plasma Mobile, donc sur téléphone. Pas certain que ce soit vraiment adapté à l’usage serveur.



Ubuntu a dû choisir de développer Snappy pour la même raison qu’ils ont développé Mir : ils peuvent faire leur truc à leur sauce, en prenant en compte uniquement leurs besoins propres et sans se soucier de ceux des autres, sans avoir besoin de collaborer et de développer de manière ouverte. D’autres distributions veulent l’adopter : tant mieux ! Ca reste une solution propre à Ubuntu : tant pis ! Soit disant que ça permet d’avoir de meilleurs résultats, plus rapidement…


Le 16/06/2016 à 11h 44

Merci pour l’explication détaillée !

Le 16/06/2016 à 10h 13







gehasia a écrit :



Exactement, aucun partage de lib, c’est une espèce de sous docker merdique qui n’apporte rien sauf à faire une copie des mauvaises habitudes de systèmes concurrents.





Je sais pas pour les snaps, mais pour Flatpak, il me semble avoir lu qu’il y a bien un partage des bibliothèques.

Les paquets contiennent toutes les bibliothèques, mais si le système contient une version compatible plus récente d’une bibliothèque (qui corrige des vulnérabilités par exemple), il me semble que l’application utilisera la version installée sur le système.

Et les paquets Flatpak ne contiennent pas toutes les dépendances. Il y a un système de runtime. LibreOffice par exemple dépend du runtime GNOME 3.20 qui doit être installé sur la machine. Les runtimes contiennent un ensemble de bibliothèques minimal qui est partagé par plusieurs applications. Ces runtimes doivent être disponibles dans les dépôts de la distribution.



edit: je viens de vérifier, le flatpak de LibreOffice fait 156 Mo, donc le principe des snaps doit être différent. Ils doivent pas avoir le principe de runtime. Voilà donc une différence majeure.


Le 16/06/2016 à 09h 42

L’idée est bonne : permettre à un développeur de distribuer un unique fichier d’installation pour n’importe quelle distribution Linux, pouvoir mettre à jour son logiciel et ses dépendances indépendamment de la version des bibliothèques disponibles sur le système. Pour des applications graphiques, c’est clairement la bonne direction, parce que la situation actuelle est loin d’être optimale.



Par contre, GNOME a développé un système équivalent, Flatpack (anciennement XDG-Apps). KDE supporte également cette solution. Comme les Snaps, ça marche mais il y a certaines limitations. La plus visible est que les applications Flatpack ne suivent pas le thème défini par l’utilisateur, du fait du sandboxing. LibreOffice est dispo uniquement dans sa version qui ne dépend pas de Java, mais je pense que c’est pareil pour la version Snap.



Je sais pas si il y a des différences majeures entre Flatpack et Snappy. Après le schisme deb/rpm, est-ce qu’on aura également un schisme Flatpack/Snappy ?

Le 14/06/2016 à 08h 34

Question bête : est-ce qu’un autre appareil où VLC est installé est considéré comme un “renderer” ? VLC visait à la base à faire du streaming sur LAN, donc c’est certainement possible d’envoyer un flux vers un autre ordinateur en bidouillant un peu, mais ce serait utile de pouvoir faire ça aussi simplement que ce qui est décrit dans l’article.

Le 10/06/2016 à 07h 37

Il y a du bon et du moins bon. Si je comprends bien, le service permet la communication automatique dans le sens client -&gt; entreprise et entreprise -&gt; client et entreprise entreprise.



Tu pourras connecter ton instance Cozy Cloud autohébergée à divers services.

Dans le sens entreprise -&gt; client, ça peut être intéressant. Ca pourrait permettre de télécharger automatiquement et de stocker tes factures, tes relevés de compte, tes avis d’imposition, etc… dans ton compte personnel, sans que tu aies rien à faire. Pour les relevés de compte dématérialisés, normalement le client est censé les télécharger et les conserver, mais je suspecte qu’une grande partie des gens ne le font pas.



Dans le sens client -&gt; entreprises et entreprises entreprises, ça pose évidemment des problèmes de vie privée, mais tant que c’est à activer volontairement, et qu’on peut contrôler qui peut communiquer avec qui finement, ça peut aussi être intéressant.

Le 01/06/2016 à 21h 19

Voilà une vidéo où les assistants à la perspective sont utilisés :youtu.be YouTube

Le 01/06/2016 à 12h 59







graveen a écrit :



Ca m’interèsse aussi la comparaison avec gimp :) si quelqu’un de calé à pu évaluer les 2 correctement…





Je peux pas prétendre être quelqu’un de calé sur le sujet, je n’utilise aucun des deux, mais je suis de près l’actualité de la communauté KDE et j’ai vu l’évolution de Krita ces dernières années.



GIMP est un logiciel généraliste de manipulation d’image, qui se veut un concurrent de Photoshop. Krita est spécialisé sur le dessin numérique. Il inclut certaines fonctionnalités qui permettent de faire de la manipulation généraliste, mais il n’est pas pensé pour ça. D’ailleurs, quand ils ont choisi cette orientation, ils ont volontairement supprimé un certain nombre de fonctionnalités qui n’étaient pas utiles pour la peinture numérique. Donc si c’est de la retouche d’image que tu veux faire, GIMP est plus adapté. Si c’est le dessin qui t’intéresse, Krita est sans conteste le meilleur outil libre.



En fait, leur objectif, c’est d’être le meilleur logiciel pour la peinture numérique tout court, monde libre et propriétaire confondu. La communauté d’artistes qui l’utilisent grandi d’année en année, et les développeurs sont très à l’écoute des retours qui sont faits par leurs utilisateurs. Le logiciel évolue très rapidement, avec plusieurs sorties par an, en améliorant les points qui sont identifiés par les utilisateurs comme prioritaires pour l’amélioration. Tu peux trouver des interviews d’artistes qui l’utilisent sur le site krita.org. Il y a aussi pas mal de vidéos Youtube sur le sujet, comme d’autres commentaires le disent au-dessus. Si au départ c’était surtout un public de libriste, aujourd’hui ça va clairement au-delà et il est maintenant utilisé professionnellement (les versions Windows et OSX ont pas mal aidé à son adoption pour le coup).



Avec la version 3.0, ils se rapprochent de leur objectif. Et en plus, le code est moderne et propre, ce qui permet de le faire évoluer facilement (en comparaison, le portage de GIMP vers gtk3 est en cours depuis plusieurs années, et toujours pas de date de sortie en vue, même si ça les a pas empêché de sortir des versions entre temps). Et ils ont aucun mal à boucler leurs financements participatifs, donc ça risque de pas s’arrêter là !


Le 26/05/2016 à 09h 42

Avoir accès aux données techniques du véhicule en cas d’accident, voire pour un contrôle de conformité comme ils contrôlent les pneus et la carrosserie, ça peut se justifier.



Mais le fait qu’ils puissent accéder à tout le contenu indifféremment, pour vérifier qu’il n’y ait pas d’infraction, c’est fou. Prochaine étape : le contrôle du contenu du smartphone lors du contrôle d’identité ?

Le 21/05/2016 à 17h 18

C’est clair que se passer de voiture, ça demande de changer quelques habitudes, mais dans la plupart des grandes villes, c’est jouable (j’ai aussi vécu dans une ville moyenne et à la campagne, et je suis d’accord que là, avoir un véhicule personnel est indispensable). J’habite en banlieue sud de Paris, je vais au boulot en vélo la plupart du temps et je fais mes courses en vélo avec des sacoches (ok, on est que deux, mais même avec des enfants ça passerait, au pire tu y vas deux fois par semaine au lieu d’une seule). Pour les loisirs, la plupart du temps je me déplace en transports en commun, ça m’arrive d’emprunter la voiture d’un ami et ces derniers temps j’ai fait quelques déplacements avec Uber (pas essayé pour aller en forêt le dimanche, je peux y aller directement en vélo depuis chez moi, mais ça doit être jouable). Pour les vacances, ça nous arrive de louer une voiture sur place après nous être rapproché en covoiturage ou en train.



On a calculé, un budget voiture (achat, entretien, assurance et carburant, on a pas compté le stationnement) nous couterait plus cher que notre budget transport actuel. Bon après, ma compagne et moi on travaille dans le même coin, donc on a pu trouver un logement pas très loin de nos deux lieux de travail. Ca aide aussi.