votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 05/03/2014 à 16h 45







coolspot a écrit :



Bah je suis pas pro-BSD (je tourne sous GNU/Linux : Ubuntu Gnome depuis plus d’un an) mais il faut reconnaître qu’en terme de sécurité BSD > GNU/Linux > OSX & Windows.



Donc que BSD > All.



Bon après BSD c’est moins user-friendly que GNU/Linux et tu a pas la logithèque monstrueuse d’une Debian. <img data-src=" />



Après il faut reconnaitre que les licence BSD sont ,de moins point de vu, mieux ficelé que les licences GNU qui sont de plus en plus restrictive au fil des version à contrario des BSD ou tu peut faire quasiment ce que tu veut.







Malheureusement, nous voyons aujourd’hui le fiasco de la logique BSD qui as pêché par naïveté : des libristes qui donnent leur temps… pour que de gros industriels puissent piller leur code et faire des systèmes fermés qui enlève toute liberté aux utilisateurs.

Tout cela sans compter le très faible retour sur le plan professionnel pour les programmeurs du fait que l’usage de code libre BSD dans des produits propriétaires est quasiment ignoré de tous.



Et non, la GPL n’est pas devenue plus restrictive. Elle a simplement évoluée pour contrer les astuces qu’avaient trouvé certains industriels pour contourner la GPL et enlever les libertés des utilisateurs en utilisant des DRM.

Elle permet également d’empêcher qu’un industriel ne publie un code sous licence libre pour ensuite piéger les utilisateurs avec des demandes de royalties sur la base de brevets.



Le 05/03/2014 à 16h 32







A33 a écrit :



Seuls les pirates chevronnés pourraient nous dire qui d’entre Linux, Mac OS et Windows est le plus sécurisé (en évitant de comparer les machines desktops et les serveurs qui n’ont probablement pas les mêmes angles d’attaque).



Les affirmations des libristes et des commerciaux me paraissent être du blabla et de l’idéologie qu’aucun fait ne vient étayer.







Le fait est qu’un code qui est ouvert à tous a plus de chance de voir les failles repérées. C’est un argument évident pour n’importe quel professionnel.



Pour information, de nombreuses sociétés dédiées à la sécurité travaillent à chercher des failles dans tous les OS.







Xarkam a écrit :



Les distributions linux c’est plus sécure par ce que c’est opensource et donc tout le monde peut vérifier.



Ca en fout un coup à ce type d’argumentaire puis qu’apparemment personne ne vérifie <img data-src=" />



Une distrib linux c’est pas plus sécure qu’un windows ou macos <img data-src=" />







Le fait qu’une faille n’ait pas été trouvée ne signifie pas que personne ne vérifie.



Apprenez de quoi nous parlons avant de critiquer : Un système d’exploitation complet, ça se compte en millions de ligne de code.



Même ouvert, même accessible à tous, il peut arriver que des failles perdurent longtemps avant d’être trouvées. Simple question de malchance.



Ca laisse imaginer ce que ça peut donner dans un OS ou personne ne peut jamais vérifier.



Comme l’ont dit certains, la transparence des corrections de bugs dans le libre peut laisser penser à tort qu’il y a plus de faille.



Il n’empêche que contrairement aux affirmations, de nombreuses entreprises dédiées à la sécurité cherchent en permanence des failles dans le code de Linux. Et de nombreuses failles sont ainsi trouvées et éliminées.



Le fait que ce problème n’ait pas été mis en lumière avant prouve juste qu’il n’était pas si évident à trouver qu’on pourrait le penser.



Au passage, pour les non spécialistes, ce n’est pas parce qu’un bug est trivial qu’il est forcément plus facile à trouver.


Le 05/03/2014 à 16h 14



Aujourd’hui, certains constructeurs ne le cachent plus : du fait de la méforme actuelle du marché des PC, miser sur les tablettes tactiles est aujourd’hui la stratégie la plus sensée. Les sociétés de matériels dépendantes de ce secteur ont pour leur part tout intérêt à diversifier leurs offres et à s’orienter au maximum vers les appareils mobiles et les produits embarqués.





Sensé ?



Quand ils vont tous s’écharper sur des tablettes à moins de 100€ (parce que concurrence oblige, les prix vont chuter) on verra si cela sera rentable. <img data-src=" />



Le profane confond bien souvent deux notions très différentes : Chiffre d’affaire et bénéfice. Dit autrement, vendre ne signifie pas forcément gagner de l’argent.



Les marges ont toujours été plus hautes dans les secteurs ou il y a de fortes valeurs ajoutées. Dans les produits de très grande consommation, les marges sont toujours faibles.



Ca me rappelle le temps ou l’ordinateur personnel était un marché de niche. Et après plusieurs décennies de hausse quasiment ininterrompue, on trouve étonnant que le secteur de l’informatique subisse la crise économique mondiale comme tous les autres secteurs.



Les ventes d’automobiles ont baissé aussi. Pourtant, personne ne parle de “l’ère post voiture” et de la trottinette écolo sensée la remplacer.


Le 04/03/2014 à 23h 21

Ce qu’il ne faut pas oublier, c’est que le rift permet de s’affranchir du téléviseur familial. La taille d’écran est petite et donc le coût de revient pourrait être assez bas en volume.



Enfin, si la société est trop petite pour vendre au grand public, elle sera certainement rachetée par une très grande boite (Comme Kinect ou Physics).



Ne vous inquiétez pas de savoir si les gens en voudront. Les gens ne savent pas ce qu’ils veulent jusqu’au moment ou vous leur montrez. C’est juste une question de moyens marketing.


Le 04/03/2014 à 21h 59







Pr. Thibault a écrit :



Franchement, faire croire que ce produit est destiné à rencontrer un quelconque succès est le hoax de l’année, comme il y a 2 ans avec Leap Motion (soit disant que ça allait envahir le marché et remplacer le tactile, j’attends toujours…).



Ca n’intéressera personne à part une poignée de geeks : les trucs en kit c’est bien pour les PC de bureau, pour tout ce qui est mobile c’est juste merdique pour le consommateur lambda qui cherche à avoir le produit le plus fin possible, le plus léger possible, le plus esthétique possible et donnant la meilleure impression de solidité possible. On est même arrivé à un niveau où la batterie n’est même pas amovible sur la plupart des smartphones haut de gamme (iPhone, Lumia, etc) et sur la plupart des tablettes (à commencer par l’iPad). Vous allez vendre un smartphone dont on peut changer l’écran, la caméra et la mémoire interne alors que celui-ci utilise actuellement des smartphones dont on ne peut même pas changer la batterie ?… Le marché n’est clairement pas près pour ce genre de produit aujourd’hui.







Parfois, prendre le marché à contre pied aboutit justement aux plus belles réussites.



Mais tu as raison de souligner que le risque d’échec est important.



Tout dépendra de la communication autour de produit, mais aussi de certains détails concernant le degré d’ouverture.



Quand aux geeks, ils représentent une population importante, non par leur nombre, mais parce qu’ils servent de conseil à tous les autres.



L’erreur en matière de marketing, c’est de raisonner uniquement sur le nombre et non sur l’importance des groupes de population.


Le 03/03/2014 à 17h 14

Concept très intéressant.



Mais l’intérêt du projet dépendra grandement du degré d’ouverture de la plateforme et de la documentation disponible.



De cela dépendra l’ouverture à des OS plus complets et donc les possibilités réelles de la bête.


Le 04/03/2014 à 17h 59



Le fait que les intermédiaires ne soient pas tenus à une obligation de surveillance générale est interprété de façon extensive au détriment des ayants droit (qui le plus souvent disposent de moyens financiers et techniques très inférieurs à ceux des intermédiaires techniques)





Parce que les petits hébergeurs ça n’existe pas ?



Il est évident que d’un point de vue technique seuls les plus gros acteurs auraient les moyens de mettre en place des mesures du type “notice and stay down”.



Une décision dans ce sens aurait pour conséquence de tuer toute la petite industrie du numérique dans notre pays.



Sérieusement, je suis fatigué de tout ces lobbys qui militent juste pour leur crèmerie et se contrefichent éperdument des autres professions, de l’intérêt national et de l’avenir de nos enfants.



Mare aussi de nos politiques qui sont trop dépassés pour comprendre le monde numérique et prendre les bonnes décisions.




Le 04/03/2014 à 17h 53







Bourrique a écrit :



Question aux pros <img data-src=" /> qui rodent dans le coin.



Pour un ch’ti cloud perso/famillial (genre owncloud) vous me conseilleriez quoi comme config ?

1, 2 ou 3 ?

Paske je commence à en avoir marre d’attendre la fibre pour m’auto-héberger. Et comme j’ai un p’tit I3,4go et 500Go de disque qui attend d’être recyclé, j’ai pas trop de référence sur les besoins minimum du bidule …



Y’a aucune info sur le quota de données, c’est free-lunch ? 100Mbps (ou moins) en H24, ils vont pas aimer longtemps







Pour un petit cloud familial, je te conseille de faire un petit serveur chez toi.



Il suffit de pas grand chose pour que ça donne bien : Un vieil ordinateur le fait très bien.

Sinon, tu peux monter n’importe quoi avec une petit carte mère d’entrée de game et un processeur pas cher. L’avantage du matos récent, c’est l’économie d’énergie.



Si tu ne sais pas faire, ce n’est pas grave : tu va apprendre. Et après tu sauras faire un tas de choses utiles.



Sinon, rien ne t’empêche de louer une offre web si tu veux une sauvegarde hors de chez toi (contre l’incendie, etc). Mais ça ne remplace pas un serveur local.


Le 04/03/2014 à 16h 18







NiCr a écrit :



Un core virtuel. Vu qu’on est dans de la virtualisation tout est forcément virtuel.







Est ce que je peux payer en argent virtuel ? <img data-src=" />


Le 04/03/2014 à 17h 10







metaphore54 a écrit :



<img data-src=" /> il va falloir encore attendre longtemps pour voir arriver les CG en 28nm pour avoir une vraie nouvelle génération.







Plus le temps va passer, moins il y aura de vraies ruptures technologiques entre les générations. Ce qui limite de facto l’intérêt de les attendre.



De plus en plus, ce qui est important, c’est le rapport entre les caractéristiques techniques de la carte (Puissance de calcul, bande passante mémoire, nombre de ROPs, etc) et le prix.



Donc une carte qui présente un bon rapport performance prix et qui est reconduite à des prix intéressant, cela ne me choque pas.


Le 04/03/2014 à 16h 58







blackdream a écrit :



J’ai pas l’impression qu’il y a THE carte qualité/prix du moment. A l’époque, la 8800GT de nvidia avait clairement le meilleur rapport, ensuite la HD4870 était aussi au dessus des autres à ce niveau. Là, j’ai pas l’impression qu’il y ai vraiment une bonne affaire, du coup je crois que je vais encore garder ma HD6850 avec mon i7 930.

C’est pas que ma carte graphique soit super, mais soit c’est hors de prix, soit l’augmentation des perfs est de l’ordre de 1520%, donc pas vraiment foufou…







Les cartes, ça a toujours été en fonction de ce que tu attends.



Mais effectivement, il y a eu dans l’histoire quelques cartes qui ont marqué leur temps (et duré longtemps). La 8800GT fait partie de ces cartes.



Après, on trouve aujourd’hui de la 7950/R9 280 a moins de 200€, on peut dire que c’est un excellent rapport qualité prix compte tenue de la puissance de la bête.



Je pense qu’il faudra surveiller la prochaine génération de nVidia, les puces Maxwell. Cela semble bien parti pour être de bons crus si ils ne sont pas trop chers.











Le 03/03/2014 à 21h 44







lionnel a écrit :



Sauf que justement, Android 2.6 sorti en 2010 est toujours supporté puisque l’on trouve encore des smartphones l’utilisant dans le commerce.

[edit] En fait, a part pour l’anecdotique branche 1.x, toutes les versions d’android depuis 2009 sont encore supportées. Donc susceptibles d’être patchées si demain une faille de sécurité était découverte.







En pratique ça nous fait vraiment une belle jambe puisque de nombreux constructeurs de téléphones/tablettes arrêtent d’intégrer les mises à jour au bout de quelques mois. Certains n’en sortent même jamais.



Et même quand des mises à jour sont publiées, elles ne le sont pas au rythme nécessaire pour assurer une sécurité de qualité.





Donc susceptibles d’être patchées si demain une faille de sécurité était découverte.





Rappelons que pour qu’un OS soit sécurisé, une faille doit pouvoir être corrigées en l’espace de quelques heures. Et toutes les distributions Linux sérieuses publient des mises à jour de sécurité quotidienne.



Un vieux Pentium 4 passé sous Ubuntu recevra ses mises à jour de sécurité tous les jours.



Rappelons quand même que quand une faille est découverte, corrigée et publiée, il y a urgence à ce que toutes les machines qui utilisent un noyau donné soient corrigées dans les plus bref délais(parce que les hackers sont au courant et peuvent dès lors s’en servir relativement facilement).


Le 03/03/2014 à 20h 29







Moebius13100 a écrit :



Et bien ça n’est pas trop tôt, il est temps d’en finir avec XP une bonne fois pour toutes et de forcer le parc à migrer vers 7 ou 8.

Il ne faut quand même pas exagérer, vu l’âge du système c’est déjà beau que Microsoft ait assuré la maintenance jusque là.

Je ne supporte plus de voir tourner des PC sur XP au boulot ou dans les administrations, j’ai l’impression de faire un voyage dans le temps à chaque fois.

Mort à XP <img data-src=" />







T’essayera juste d’installer Windows 8 sur un vieux Pentium 4. Ce n’est pas “mort à XP” que les utilisateurs vont crier, mais “mort à l’admin” <img data-src=" />


Le 03/03/2014 à 20h 26







psn00ps a écrit :



<img data-src=" />C’est pour faire vendre des licenses 8. <img data-src=" />







Windows 8 sur les machines prévues pour Windows Xp genre Pentium 4, je le sens très mal <img data-src=" />.



La seule solution vraiment potable pour ces machines, c’est Linux avec une interface du type LXDE.


Le 03/03/2014 à 20h 04







GruntZ a écrit :



Si on peut pousser plus de gens à changer pour du neuf au lieu de réparer, c’est bon pour le commerce !

Comme tout ce qui va dans le sens de l’obsolescence programmée <img data-src=" />



Et Microsoft est une entreprise dont le but est de faire du profit, pas de faciliter la vie de clients qui ne voudraient pas l’aider dans ses objectifs de dividendes pour ses actionnaires.







Je me suis effectivement toujours demandé pourquoi il ne suffisait pas de copier simplement les fichiers pour cloner une partition système Windows.



Le fait que j’en avais mare de m’emmerder avec la maintenance et ce genre de problème idiot fait partie des raisons pour lesquelles je suis passé à Linux.











Le 03/03/2014 à 19h 22







bultom a écrit :



Donc très peu ? puisqu’il n’y a pas de trou dans le gruyère <img data-src=" />







Et pourtant , je connais beaucoup de gens qui changeant de téléphone pour rester dans le coup , ou pour pouvoir avoir la dernière mise a jour de l’OS qu’ils chérissent .



Par contre ces gens sont , pour quasiment tous , des jeunes adultes (1820 ans) avec peu de responsabilité et un travail tout frais .







Soit l’age de l’insouciance ou l’on se paye quelques gadgets parce qu’on a pas encore de lourdes charges familiales et parfois pas encore de loyer à payer. <img data-src=" />



Il faut réaliser que la grande majorité des français ne sont pas riches. Et le choix de leurs priorités sont vite faits.











Le 03/03/2014 à 18h 23







lionnel a écrit :



Sachant que Xp embedded est basé sur les mêmes binaires que XP pro (les possibilités de customisation en plus), c’est d’autant plus malhonnête de la part de M\( d’arrêter le support de Xp pro et home puisque les maj sont à quelques details prés les mêmes.



je ne serait pas surpris que M\)
décide quelques jours







Attends, on ne peut quand même pas demander à un éditeur de supporter un logiciel pendant 50 ans quand les utilisateurs ne payent plus pour ça.


Le 03/03/2014 à 18h 21







bultom a écrit :



Tu peux me citer un smartphone qui est sur le marché depuis 12 ans et qui était jusqu’à maintenant maintenu ?







Aucun.



Et c’est bien cela le problème. Certains téléphones se revendent encore en occasion alors qu’ils ont plus de failles de sécurité que de trous dans le Gruyere…





Pis de toute facon , les gens changent plus souvent de smartphone que de mise a jour du système qui l’équipe , faut rester hype !





Il faut réaliser que ceux qui raisonnent ainsi représentent une petite minorité.







Le 03/03/2014 à 18h 12







2show7 a écrit :



Les gens ont pris l’habitude de changer leur smartphone quand il y a mieux sur le marché <img data-src=" /> (pas une généralité, mais plus ou moins toutes les deuxièmes générations)







Quels gens ?



Demandez vous quel est le pourcentage de la population qui ont les moyens de payer un coûteux téléphone tous les ans ? <img data-src=" />



Ce sera probablement pire dans le future : je ne donne pas cher de l’avenir de cette monnaie surévalue qu’est l’Euro qui plombe nos économies.



Alors préparez vous à payer ces appareils 3 ou 4 fois leur prix actuel dans un futur qui ne sera peut être pas aussi éloigné que certains pourraient le penser


Le 03/03/2014 à 17h 33



les utilisateurs courront de grands risques à naviguer sur le web avec des failles laissées béantes.





C’est amusant qu’on se préoccupe autant de la fin du support de Windows XP alors qu’il y a des millions de smartphones sur le réseau qui ne sont jamais mis à jour. Et ça ne semble émouvoir personne.


Le 03/03/2014 à 17h 30







DahoodG4 a écrit :



La commission EU s’en fout du debat pay 2 win ou f2p, ca c’est intrinseque au gaming, faut pas leur en demander trop non plus.

C’est un probleme de consommation ou Kevin fait des frais a papa sans que papa ne comprenne commentc a marche. Une fois ce probleme de dénomination réglé, on en reviendra coté game, au meme point.







D’ailleurs, je trouve amusant que la commission européenne se préoccupe de ce genre de détail alors qu’il y a des millions de chômeurs qui s’accumulent dans tous les pays de l’union.



Le 03/03/2014 à 17h 29







Reznor26 a écrit :



Je me rappelle avoir payé une fois pour Kingdom Rush sur Armor Games, mais c’est du Flash/navigateur et pas du mobile donc.



Le modèle était honnête : on a la quête complète gratuitement (qui est tout-à-fait faisable avec un peu d’entrainement) et un pack premium à côté très bien étudié pour donner envie : niveaux inédits, bonus divers qui aident à blinder le jeu en mode hard, et un truc cosmétique pour le délire. Le tout pour 3-4 euros de mémoire.



Ça c’est sain. Parce que c’est orienté sur le mode “vous vous êtes bien faits plaisir pendant des heures, merci de remercier les développeurs en retour”. Et le jeu vaut bien ces quelques euros par rapport à la qualité de l’ensemble. Rien à voir avec des arnaques où on finit à plusieurs dizaines (centaines…) d’euros.



Par contre ici comme ailleurs l’évolution est dans le même sens. La suite, Kingdom Rush Frontiers, n’a pour l’instant aucun des bonus sur navigateur, si ce n’est des “héros” coûtant chacun jusqu’à 5 euros ! En tout, on en est déjà à 14 euros si on veut tous les avoir… Et tout est concentré sur les versions mobiles, où des micro-transactions diverses ont fait leur apparition, à coup de mises à jour régulières à la Angry Birds. Bref rien à voir avec l’esprit du premier quelques années avant.



Les joueurs sur navigateur ne semblent pas rapporter beaucoup de tunes, par contre dès que c’est sur mobile c’est la fête du slip. Je comprend pas d’où vient ce mystère…







Je suis d’accord qu’avoir une partie payante n’est pas un problème a partir du moment ou elle est délimitée et a un prix fixé. Le jeu gratuit permet de tester le jeu. L’extension payante de continuer d’en profiter et de rémunérer les développeurs.



Ce qui est problématique, c’est plutôt quand il n’y a pas de délimitation. Vous pouvez acheter des personnages, des options à la pelle. Vous ne savez pas combien coûte le jeu ni ce qu’il faut vraiment payer pour en profiter pleinement. Au final, l’addition est plutôt salée et le fait de devoir payer de manière incessante gâche le plaisir de jeu. Bref, ce système est à évite, voir à interdire.





Le 01/03/2014 à 21h 40







Koubiacz a écrit :



Le “Free to play” ressemble à une démo d’un jeux vendu à prix d’or.



Rares sont les jeux de ce type qui permettent de jouer sainement, souvent il faut raquer pour avancer ou farmer pendant des jours.

Au final soit le jeu te reviens super cher, soit c’est tellement chiant l’on passe à autre chose.



J’ai testé le jeux Springfield sur Android qui est l’archétype même du pay2win, sans payer le jeux est très long et si tu veux avancer un peu plus vite, ça revient très cher. J’ai préféré le désinstaller et mettre une sale note sur le store.



Suis-je le seul a regretter le temps ou l’on achetais un jeu complet (sur pc ou console par ex) sans avoir à payer un abonnement / des items en plus tous les 4 matins?



Mais vu le succès des Free to Play, il doit avoir pas mal de monde qui adhèrent.







Ces jeux sont effectivement discutables.



D’une part, ils se présentent le plus souvent comme des jeux gratuits alors que dans un grand nombre d’entre eux, le gameplay est effectivement tourné de telle manière qu’il soit très pénible de ne pas payer.



D’autre part, si on décide de payer, on ne connaît pas dès le départ le prix à payer pour obtenir un bon gameplay. On incite le joueur à multiplier les micro payements sans qu’il puisse savoir combien lui reviendra le jeu avant d’y jouer.



Pour ces raisons, je pense qu’il est réellement nécessaire de légiférer dans l’intérêt du consommateur.



D’une part d’interdire d’utiliser la dénomination “gratuit” pour tout jeu qui comporte le moindre élément payants déblocable dans le jeu.



D’autre part, pour les jeux utilisant ces méthodes, d’indiquer le budget total que représentent les extensions achetables dans le jeu. Et si il est possible de les obtenir sans payer, le temps de jeu que cela représente.



Bref, il serait temps de mettre fin aux abus dans l’intéret de tous.



Et je suis totalement de ton avis : il serait préférable d’acheter des jeux complets, d’en connaître le prix et d’être tranquille une fois payé.



Car toutes ces méthodes n’ont finalement d’autre but que de dissimuler au consommateur les sommes qu’il devra dépenser. Et ces “pay to win” peuvent coûter très cher…



Le 03/03/2014 à 17h 20







CaptainDangeax a écrit :



MATE est basé sur GNOME2, Cinnamon sur GNOME3. La principale différence, c’est que Cinnamon est rendu via la partie 3D de la carte graphique (ou chipset intégré, ne chipotons pas). Si tu n’as pas de support 3d valable, Cinnamon c’est un escargot asthmatique (exemple : chipset SiS, CG Matrox G450, S3 Virge…). Mate, basé sur Gnome2, est rendu en 2D. J’ai eu des soucis de compatibilité en Mate et Firefox quand je l’ai testé, alors j’ai laissé tomber pour Cinnamon, ou éventuellement pour XFCE si 3D absente. D’ailleurs, je ne vois pas trop l’intérêt de la dilution des ressources entre Mate et XFCE qui sont pour moi équivalents : 2D, basés sur GTK, légers mais pas autant que LXDE…







Il faut modifier un peu la config de firefox :



(1) Taper about:config dans la barre d’adresse.



(2) Chercher l’entrée “general.smoothScroll” et la mettre à “false”.



Le 02/03/2014 à 19h 59







nirgal76 a écrit :



L’informatique pour l’utilisateur lambda est une chose censée simplifier la vie. une informatique mature devrait au contraire ne pas nécessiter de formation, ça devrait être facile et instinctif. Dire que ça nécessite un savoir et devoir être enseigné, c’est dire que l’informatique a échoué d’un certain point de vue.

Quand à l’école, y’a bien longtemps qu’elle ne prodigue plus les savoirs fondamentaux, mais c’est un autre débat.







Demandons nous un instant qui est à l’origine de ces idées la <img data-src=" />



D’abord, réalisons que l’ordinateur est l’objet le plus complexe jamais inventé par l’homme. Un objet extrêmement complexe qui fait des choses extrèmement complexes.



Comment cela pourrait t’il être simple d’utilisation ? Réalisons que c’est juste utopique, c’est complètement impossible.



En réalité, ce sont les services marketing des industriels de l’informatique qui ont inventé ces gros mensonges à une époque pour vaincre les peurs du grand public.



Bref, c’est le marketing et la communication qui ont créé de toute pièce ces idées reçues dans le seul but de vendre des produits, d’augmenter les chiffres d’affaire.



Certes, ce fut un peu utile à une époque pour vaincre les réticences et la peur du changement, faire passer l’informatique dans le domaine très grand public.



L’ennui, c’est que la plupart des gens ont fini par y croire. Et cela devient fortement contre productif.



Plus l’informatique et la technologie se répand, plus le manque de compréhension des utilisateurs est la cause de problèmes de plus en plus graves.



De fait, les utilisateurs se retrouvent dans une situation ou ils subissent la technologie au lieu d’en profiter.





La liberté c’est le choix, même celui d’utiliser du propriétaire si ça correspond mieux à ce que l’on attends.





Le logiciel libre n’oblige personne à l’utiliser. Si les gens les adoptent, c’est d’abord parce que la logique du libre apporte d’énormes avantages que le propriétaire n’apporte pas.



Le but de l’imprimerie n’a jamais été d’éradiquer les moines copistes. Ceux ci ont disparu parce que l’imprimerie apportait un énorme progrès et que les gens ont choisi ce qui était le mieux.







Le 01/03/2014 à 20h 46







Rozgann a écrit :



Pour reprendre l’exemple de la barre de menu, quand cette solution a été retenue, la norme ça devait être l’écran 13” cathodique avec une résolution très basse. Ils étaient obligés de regrouper toutes les fonctionnalités au même endroit par manque de place. Faire des éléments contextuels demandait de la puissance de calcul, peu disponible à l’époque. Les animations sont aussi quelque chose qui permet inconsciemment de faire le lien entre leur action et l’effet qu’elle a. C’était très couteux à l’époque, ça consomme rien aujourd’hui.







Personnellement, j’apprécie l’espace dont je dispose sur les grands écrans. Et ce n’est pas pour le gaspiller bêtement. Ma souris est précise et je n’ai que faire d’icones de 3km de large ou de menus qui occupent tout l’écran.



Quand aux animations, elles me font chier et perdre du temps en plus de consommer de l’énergie inutilement.



Je peux comprendre qu’elle peuvent sembler amusantes pour un débutant qui voit un bureau pour la première fois. Mais après quelques heures, on ne les voit même plus et ne servent plus à rien.





Quand les aspects techniques ont évolués, on a conservé cette solution parce que c’est celle à laquelle tout le monde était habituée. Puis les appareils tactiles se sont démocratisés et d’autres solutions ont été plus adaptés pour leur contexte. De plus en plus de gens utilisent des interfaces tactiles. Pour énormément de gens, le premier contact avec l’informatique personnelle est par un appareil tactile, en particulier dans les pays émergents, mais pas que. Ce qui te parait naturel en tant qu’utilisateur d’ordinateur depuis plusieurs décennies leur est inconnu.





Les paradigmes des interfaces tactiles sont simplement différents.



Les écrans sont petits et le pointage au doigt imprécis. Cela demande des interfaces adaptées.



A l’inverse, sur un desktop on dispose d’un grand écran et un système de pointage précis. Et ce qui est optimal dans ce cas est forcément différent.



La démarche consistant à proposer des interfaces qui ressemblent à celle d’un mobile pour mieux attirer le grand public habitué aux téléphones, c’est un peu la facilité : une logique bien commerciale, pas une démarche qualitative.





Donc le contexte technique fait que des solutions qui n’étaient pas adaptées à l’époque car trop coûteuses en calcul, difficiles à réaliser techniquement, pas adaptée au matériel, et les acquis de l’utilisateur, qui ont beaucoup changés, sont deux choses qui font qu’une solution qui n’étaient pas la meilleure hier peut l’être aujourd’hui. Certes, ça ne veut pas dire que l’ancienne solution cesse d’être efficace, ça veut dire que la nouvelle peut devenir meilleure.





Attends, des animations sur le bureau, ce n’est pas nouveau. Le premier mac en avait déjà (l’ouverture des fenêtres…). Et sur amiga, il y avait quantité de mods pour en ajouter.



On trouve toujours ça joli 5 minutes et puis on désinstalle parce qu’au fond, ça n’apporte strictement rien, que ça bouffe des resources (même aujourd’hui) et que ça fait perdre du temps et de l’espace.



Il faut réaliser que l’informatique est entrée depuis longtemps dans l’ère de l’outil de travail. Nous ne devrions plus être comme des gamins émerveilles devant des gadgets qui scintillent.



Dans l’industrie, il y a des millions de gens qui bossent 8 heures par jour devant des écrans. Et les animations, ils s’en tamponnent.



Pour moi, comme pour tant d’autres, l’informatique est un outil de travail qui se doit d’être efficace et productive. La sobriété est un avantage : au bout d’un certain nombre d’heures de travail, les animations revues pour la 1000000 fois, ça agace.





Dans tous les cas, c’est une analyse multi-critère et il est certain qu’il n’y a pas une solution meilleure que l’autre, mais une solution meilleure pour une utilisation donnée mais moins bonne pour une autre. La fonction objectif dépend de l’utilisateur. Le meilleur compromis hier n’est pas forcément le meilleur compromis demain.





Malheureusement, nous sommes dans une logique de marché qui tends à tout unifier sur le seul critère de la rentabilité, lui même aligné sur la mode débile du moment.





Mais ce n’est plus un prérequis indispensable pour utiliser un ordinateur. Si on fait l’analogie avec la programmation, ça fait un moment qu’il n’est plus nécessaire de savoir programmer en assembleur pour pouvoir écrire un programme. Pourtant il reste des cas très spécifiques où l’assembleur est la meilleure solution.





Les interfaces graphiques ont apporté quantités d’avantages sur les interfaces de type caractère. Mais il existe effectivement des cas ou ce n’est pas vrai.



C’est pourquoi la meilleure solution en informatique n’est jamais celle qui prétends apporter “la solution”, mais celle qui apporte la souplesse de faire ce que l’on désire. Celle qui permet tout.



Les interfaces “nouvelles” comme Gnome 3, Unity ou Windows 8 ont commis de nombreuses erreurs. La première, celle de ne pas être configurable et de ne pas pouvoir revenir facilement a d’autres paradigmes.





J’ai jamais dit que tous les environnements devraient disparaitre pour ne laisser que Gnome. Je dis que Gnome a certes des défauts, mais qu’il a aussi pas mal de qualités.





Rien n’est jamais complètement mauvais, rien n’est jamais complètement bon.



Mais le bon produit pour vous, c’est toujours celui qui permet de faire ce que l’on désire.



Gnome 3 ne le permet pas pour moi.





Ca ne correspond pas à mon expérience avec Gnome 3. Je t’ai déjà donné deux exemples concrets où ça fonctionne : les bureaux virtuels et la maximisation sur un demi-écran. Ce sont deux fonctionnalités avancées qui sont encouragées par la conception même de Gnome-shell.





De nombreuses personnes s’évertuent à dire sur tous les forums que tout cela ne convient pas à leurs besoins. Plutôt que de prétendre que le problème viendrait des utilisateurs, il serait plus intelligent de se demander ce qui ne va pas.



L’erreur pour un programmeur, c’est de supposer comment les utilisateurs sont sensés travailler.



Le meilleur environnement, c’est celui qui ne suppose pas, mais celui qui permet de faire précisément TOUT ce que l’utilisateur veut et ce que veulent TOUS les utilisateurs.



Le problème de Gnome, d’Unity et Windows 8, c’est qu’ils ont imposé quantité de parti pris, le tout sans aucune modularité et très peu d’options de configuration. Ils ont essayé d’évacuer ce qu’ils estimaient de leur point de vue être des solutions dépassées.



Ils ont commis l’erreur d’imposer LEUR parti pris.



Ils ont oublié qu’aucune solution unique ne peut convenir à tous.


Le 01/03/2014 à 19h 09







Sisyphe73-173 a écrit :



Dans ce cas la grande partie des distros Linux sont des sous sous … sous distros…http://upload.wikimedia.org/wikipedia/commons/1/1b/Linux_Distribution_Timeline.s…







Oui.



Mais cela est t’il un problème d’utiliser une sous distribution ou est ce au contraire un avantage ?



Ubuntu apporte sa propre valeur ajoutée en plus de celle de Debian. Et Mint apporte son plus par rapport à Ubuntu et Debian (c’est donc une sous-sous-distribution).



Il n’empêche qu’il est important de rendre crédit au travail de ceux qui l’ont apporté.



On peut aimer Ubuntu, mais il faut garder à l’esprit que l’essentiel du travaill de cette distribution est apporté par Debian.


Le 01/03/2014 à 18h 56







dam1605 a écrit :



L’utilisateur lambda subit les mêmes contraintes de la part d’un logiciel libre.

Il faut avoir un certain niveau technique pour être capable de changer de logiciel (surtout si le logiciel est un os/distro).

Un utilisateur d’Ubuntu n’a objectivement pas le choix concernant les majs, sinon sa distro devient obsolète.







Oui et Non.



Non, car il y aura le plus souvent un utilisateur chevronné qui aura le même problème et qui travaillera à proposer à la communauté une façon simple de résoudre son problème.



Mais oui, parce que tu viens de comprendre un truc important : sans un minimum de maitrise technique, l’utilisateur ne sera jamais libre.



Voila pourquoi il est utopique et dangereux de vouloir utiliser un ordinateur sans un minimum de formation. L’informatique doit donc être enseignée à l’école de façon sérieuse comme les autres savoirs fondamentaux.



Dans le futur, l’homme sera entouré de quantités d’objets programmable. S’il ne les maîtrise pas, d’autres les maîtriseront à sa place et selon leurs propres intérêts. On peut craindre les pires dérives. Cela commence déjà..



Mais il n’empêche que sans logiciel libre, la liberté ne peut exister. Le logiciel libre n’est pas la seule chose qui apporte la liberté à l’utilisateur, mais c’est une brique totalement essentielle.


Le 01/03/2014 à 18h 10







paradise a écrit :



Ubuntu n’est pas un système, qu’est-ce que cela signifie ?



Et un sous-système par rapport à quoi ? Une autre distro Linux, Apple, Solaris, BSD ? <img data-src=" />







Ubuntu est effectivement une sous distribution dans la mesure ou elle est basée essentiellement sur les contenus créés par debian.


Le 01/03/2014 à 18h 06







Okki a écrit :



J’ai également plusieurs décennies d’informatique derrière moi (MS-Dos, Windows 3.11, puis Linux en ligne de commande, avant de passer sous GNOME 1, 2 et maintenant 3.10)



Et avec le temps, je trouve que le rapport aux applications a changé. Du moins, en partie. Avant, pour effectuer une tâche, il fallait déjà savoir quel outil lancer. Pour aller sur PC Inpact, on devait connaître le nom de l’application le permettant. Maintenant, il suffit d’en avoir une vague idée. Sous GNOME 3, que je tape firefox, navigateur, web, internet… il me propose les choix qui vont bien. Ça paraît bête, mais encore aujourd’hui, un nombre conséquent de personnes ne connaissent pas le nom des applications qu’elles utilisent, et sont rapidement perdues dès qu’on leur demande de trouver quelque chose de bien précis.



Dans le même ordre d’idée, pour accéder à un contenu, il fallait, de nous même, effectuer un certain nombre d’actions. Pour retrouver le numéro de téléphone d’un ami, je devais aller dans le menu démarrer, section accessoires, lancer l’application de gestion des contacts, puis retrouver mon ami parmi une liste de noms. Maintenant, je tape directement son nom dans GNOME Shell, et l’application Contacts se lance en se positionnant d’elle-même sur la personne que j’aurai recherché.



Sur ce même principe, puisque chaque application peut fournir des options de recherche au shell de GNOME, je peux aisément retrouver mes notes, des documents, la météo des villes que j’aurai sélectionné dans l’application météo, mon historique web, une application en cours d’exécution (ou précédemment exécutée) dans l’un des nombreux onglets de mon terminal (option qui arrivera avec GNOME 3.12) et ainsi de suite.



L’un des principes de GNOME, en plus de rendre les choses simples, c’est bien de mettre le contenu en avant. Contenu qui doit nous être proposé le plus rapidement et le plus simplement possible. Ce qui limite dans la foulée le nombre d’applications qui ont besoin d’être lancées simultanément, ou sur lesquelles il faut se rendre pour effectuer certaines actions.



Ensuite, GNOME 3 gère très bien le multi-écrans, propose un certain nombre d’extensions pour travailler différemment, et n’interdit en rien l’ajout d’outils comme Cairo-Dock, pour transformer l’expérience. Tout ça pour dire que je n’ai aucun mal à travailler avec plusieurs applications à la fois.







C’est très bien résumé.



Mais en même temps, il faut réfléchir à ce qu’implique cette nouvelle logique et les redoutables travers qu’elle apporte.



L’utilisateur fait des choses, il ne sait pas avec quoi, il ne sait pas ce qu’il se passe avec quoi, ni où. Il ne sait pas ou sont ses fichiers, ni même ce qu’est un fichier. Et finalement, tout est fait pour qu’il ne le sache pas ou de moins en moins.



L’ennui, c’est qu’il y a toujours un moment ou les choses ne se passeront pas comme il le désire. Ou quelque chose ira de travers. Et c’est la ou le drame commence. Parce que résoudre le problème nécessitera de comprendre comment ça fonctionne. Et l’utilisateur complètement infantilisé en sera parfaitement incapable.



Je me souviens du temps ancien ou l’utilisateur passait par quelques semaines de cours de programmation et de fonctionnement de l’ordinateur. Cela peut paraître fastidieux, il n’empêche que les utilisateurs en question étaient bien plus autonomes et sereins par la suite.



Infantiliser les utilisateurs, c’est en faire d’éternels débutants qui souffriront toute leur vie du manque de maîtrise de leur outil. Repousser l’apprentissage des notions essentielles, c’est comme de refuser d’apprendre à lire ou à calculer : c’est repousser les difficultés à plus tard et les rendre 1000 fois pire.



Pour ces raisons, je suis opposé à cette logique parce qu’a terme, elle rends les utilisateurs malheureux, captifs et incompétents.



Je n’oublie pas non plus qui est à l’origine de cette logique : des grands industriels qui ont des choses à vendre. L’argument de la facilité a toujours été une ficelle puissante pour le marketing.



Mais croyez moi, cette erreur ne perdurera pas. Un certain nombre de gens ont déjà pris conscience du problème et bon nombre de pays réfléchissent déjà à modifier l’enseignement de l’informatique. Ces changements vont enterrer l’apprentissage de l’informatique par la seule utilisation de logiciels pour revenir à de l’enseignement fondamental.



C’est pour ces raisons que je sais que c’est à terme une voie sans issue.





Et dans le pire des cas, GNOME propose un mode classique à l’ancienne.





J’ai déjà essayé cet environnement et il manquait quantité de choses pour répondre à mes besoins par rapport à Gnome 2. Mais le vrai problème, c’est qu’il était question à l’époque que le mode classique soit voué à la disparition.



Mais ils ont évolués depuis et par rapport à ce que j’ai dit plus haut, cela ne me surprends pas.



Reste le problème de direction : Un environnement, ce n’est pas seulement un bureau, c’est aussi tous les logiciels utilitaires qui vont avec et qui doivent adopter la philosophie qui va bien avec ce qu’on demande à un bureau orienté puissance (et non simplification).



En attendant que tout le monde revienne de la mode de la simplification, chacun son choix (et je respecte le tien). Toi tu préfère bidouiller Gnome 3, moi je préfère prendre un environnement qui adopte d’emblée(et mieux) la philosophie que j’attends. Mais comme on dit, tous les chemins mènent à Rome…



Le 01/03/2014 à 17h 11







Okki a écrit :



En parlant de ça, Allan Day, l’ergonome en chef du projet GNOME, vient de recevoir l’Open Source Award 2014. Ça vaut ce que ça vaut, mais certains apprécient son travail.







Gnome est un énorme travail que l’on ne peut que saluer quand bien même on n’est pas d’accord avec les directions prises.





Après, si GNOME a choisi de prendre une autre direction, et de faire certains choix, c’est aussi parce qu’il y avait déjà de la diversité (KDE, Xfce… existaient déjà quand GNOME 3 est sorti), mais aussi parce que c’était du logiciel libre, et que n’importe qui pouvait forker à tout moment (ce qui a été fait avec Mate et Cinnamon).





Effectivement. Mais il n’empêche que cela a logiquement déçu tout ceux qui appréciaient leurs précédent environnement.





On ne peut pas, d’un côté, dire qu’ils nous imposent leur choix, et de l’autre, que ce soit nous qui leur imposions les nôtres. Même si Red Hat et Collabora ont quelques développeurs payés à temps plein sur GNOME (et même là, si tel est leur choix, qu’il en soit ainsi),





Attention, il n’est nullement question d’imposer. La critique n’a pas d’autre but que de conduire à l’amélioration des projets. C’est aussi le seul moyen de faire prendre conscience à des créateurs que les chemins qu’ils ont choisi ne vous conviennent pas à une catégorie de personnes.





il existe un nombre conséquent de développeurs, traducteurs, documentalistes bénévoles, qui contribuent parce qu’ils croient et aiment le projet qu’ils ont choisi.





Certes, mais ce n’est pas le fait d’être nombreux à avoir tort qui donne pour autant raison. A chaque mode, des millions de gens se fourvoient. Avant de revenir en arrière quelques mois ou années plus tard.



Avec le temps et l’expérience, on apprends à détecter ce qui est une voie sans issue qui ne fera que faire perdre du temps.



Mais il est compréhensible que beaucoup de gens aient besoin de faire l’expérience par eux même.





Pour moi, seul le logiciel propriétaire impose et contraint ses utilisateurs à accepter chaque nouvelle version. À moins de rester en arrière, ce qui n’est généralement pas tenable sur la durée (fin de support, technologies nécessaires absentes…)





C’est effectivement ce qu’a démontré cette affaire. Le libre permet aux utilisateurs de choisir ce qui leur convient réellement, pas ce que l’éditeur leur impose.

Qu’on soit d’accord ou pas avec la direction prise par Gnome, on peut choisir ce que l’on veut. Les utilisateurs de Windows 8 sont au contraire suspendus aux décisions de Microsoft.



Le 01/03/2014 à 02h 04







Rozgann a écrit :



Gnome 3 reprend une grande partie du code de Gnome 2. Si les développeurs originaux ont décidé d’abandonner certains éléments, c’est parce qu’ils avaient des limitations. C’est eux qui sont le mieux à même de juger. Pour ce qui a été conservé (la majorité du code d’ailleurs), il a été porté vers GTK 3 qui offre plus de possibilités. De nombreux bugs et failles ont été corrigés au passage.







En même temps, un produit qui était bon et qui convenant parfaitement à ses utilisateurs ne devient pas mauvais du jour au lendemain. Quand aux bugs et failles, ils peuvent être corrigés quel que soient la version si tant est qu’ils soient réellement problématiques.



Dans le monde de l’industrie, il y a des grandes entreprises qui continuent d’utiliser des programmes qui ont plus de 30 ans d’age parce qu’ils leur conviennent très bien et qu’ils sont bien débogués.



Bref, la nouveauté, c’est pas toujours la panacée. Il faut savoir éviter les régressions.



Et si vraiment on veut parler de problèmes de sécurité majeur, pourquoi personne ne s’émeut de ces millions de smarphones dont les noyaux linux ne sont pas mis à jour (ou pendant très peu de temps.) et qui représentent un risque de sécurité autrement plus important qu’un bureau un peu ancien.





Je ne fais pas de jugement de valeur. Je fais juste remarquer qu’on reproche à Unity d’être pensé pour le tactile en pointant des défauts qui sont présents dans Mac OS X, qui avait adopté ces solutions bien avant la mode du tactile.





Je te concède qu’OS X a utilisé certains concepts avant les OS mobiles. Mais la raison pour laquelle personne ne les avait copié, c’est parce que leur intéret sur desktop n’apporte pas une indiscutable valeur ajoutée. Les gens ne se sont jamais rués en masse sur OSX.

Le mobile et la tablette en revanche, c’est une autre affaire. Et c’est cela qui est réellement à l’origine de la mode.



Malheureusement, quand une mode est lancée, tout le monde suit sans trop réfléchir.





L’ergonomie dépend quand même beaucoup du contexte. La résolution des écrans, les possibilités techniques (en terme d’animation par exemple), les habitudes des utilisateurs, les actions à réaliser, toutes ces choses ont beaucoup changé. Une solution qui n’était pas adapté il y a quelques années peut l’être aujourd’hui.





La dessus, je ne suis pas d’accord.



Une solution efficace reste une solution efficace. Une solution qui ne l’était pas ne le deviendra pas comme ça toute seule comme par magie.



La seule chose qui peut changer, c’est le marketing qui crée des modes qui modifient la perception des gens. Mais c’est un effet temporaire.



Comme on peut le remarquer, les gens finissent par retrouver leurs esprits.





C’est impossible de faire quelque chose de parfait du premier coup. Ce n’est pas parce que le premier jet d’un nouveau concept est moins bon que l’ancien qu’il faut l’abandonner et revenir à l’ancien. Je pense que l’approche de Gnome 3 a plus de potentiel que celle de Gnome 2, et qu’avec autant de maturité, elle sera meilleure.





Quand Gnome 3 répondra à mes besoins, je serais le premier à l’utiliser.



A terme, il est évident que tout le monde vise une évolution de l’interface du type Gnome 2 mais avec les composants de Gnome 3.



Certaines comme Cinnamon existent déjà.



Donc voila, je suis confiant, ça finira par arriver. Mais en attendant…





Il y avait les mêmes discours au début des interfaces graphiques : “c’est bien joli mais qu’on ne pourra jamais se passer d’apprendre à utiliser la ligne de commande”. L’amélioration de l’ergonomie fait que le minimum requis est de plus en plus bas.





Et le fait est qu’ils ont eu parfaitement raison puisque l’interface graphique n’a jamais réussi à tuer la ligne de commande.





Et justement, pendant la formation d’un utilisateur, en diminuant les choses à apprendre sur la manipulation de l’ordinateur, on peut se concentrer sur les éléments essentiels (les bonnes pratiques en matière de sécurité, les risques d’Internet, etc…). L’approche de Gnome c’est surtout ça : supprimer le superflu pour pouvoir se concentrer sur l’essentiel. Evidemment, les notions de superflu et d’essentiel sont subjectives.





Sauf qu’en pratique ça ne fonctionne pas du tout.



Un utilisateur ne comprends ce qu’il doit faire que quand il comprends un minimum comment ça fonctionne et pourquoi il doit observer certaines règles.



Sinon, tu va leur inculquer des quantités de règles toute faites dont ils ne comprendront pas l’intérêt. Ils verront juste tout ça comme quelque chose de chiant qu’ils s’empresseront d’oublier.



Pire, ils seront totalement incapable de les extrapoler et seront donc incapables d’appliquer la bonne action aux particularités de leur situation.



Le 01/03/2014 à 01h 18







dam1605 a écrit :



Pourquoi utiliser une interface clairement non optimisée pour le clavier, si c’est ton critère.



Libre n’est pas le contraire de commercial…







Non, le libre n’est pas du tout le contraire de commercial. Et le but du libre n’est pas non plus de lutter contre le commercial.



Mais les règles du jeu sont quand même très différentes dans le libre et limitent de fait les excès que l’on rencontre dans le monde commercial.





Les projets open-source / libres ciblent aussi un certain public, au même titre que les projets propriétaires.

Je ne vois pas ce que ça change.





Tout à fait. C’est pourquoi il n’est pas étonnant de voir des projets comme Unity ou Gnome 3 suivre exactement les mêmes tendances que les grands éditeurs du monde propriétaire.



Mais la ou le libre change tout, c’est qu’on peut y forker et modifier tout ce qu’on veut. C’est ainsi que des populations plus minoritaires peuvent avoir des produits plus adaptés a leurs besoins parce que contrairement au propriétaire on peut modifier les produits, ce qui demande moins d’effort que de tout coder à partir de rien.



Certains l’ignorent peut être, mais Cinnamon est basé sur Gnome 3.


Le 28/02/2014 à 23h 54







ff9098 a écrit :



Dis moi pourquoi Unity n’est pas adapté aux utilisateurs chevronnés ?







Parce qu’Unity, comme tant d’autres produit suit la tendance commerciale actuelle : simplifier l’environnement pour convenir mieux aux personnes débutantes, séduire le très grand public et gagner des parts de marché.



C’est une forme de spécialisation.



Mais l’inconvénient de toute spécialisation, c’est qu’on ne peut pas dépasser un certain niveau sans perdre en polyvalence.



Tout ceux qui ont conçu des produits vous le diront : il y a toujours un moment ou l’on doit faire des choix.



Un camion de déménagement ne sera jamais adapté pour courir un grand prix de formule 1… et inversement.



Quelque part, je pense qu’il est logique que les environnements grand public et professionnels divergent à un moment ou a un autre de l’histoire.



Reste à savoir si cela sera une bonne chose ou si cela générera au contraire des effets de nivellement par le bas.





Le 28/02/2014 à 23h 31







Rozgann a écrit :



Oui enfin ça veut pas dire grand chose “adapté aux besoins de ses utilisateurs”. Les utilisateurs d’ordinateur, ça se résume pas aux anciens utilisateurs de Gnome 2… Avec tout le temps qu’ils passent à mettre des rustines sur le code de Gnome 2 pour pouvoir l’adapter aux évolutions de la base Linux, XFCE aurait pu gagner en maturité.

D’ailleurs, c’est quoi l’intérêt de MATE par rapport à Cinnamon exactement ?







Chacun de ces environnements propose des environnements proches, mais avec chacun leurs subtilités. Et c’est peut être parce que mate est le plus mature qu’il est a mon sens le meilleur.



Pourquoi penser qu’un code plus ancien serait forcément moins bon ?



Ce qui est ancien, bien travaillé et poli par le temps est souvent meilleur qu’un produit encore vert.



Cela dit j’apprécie les autres environnements sus cités, je suis convaincus qu’ils ont une bonne marge de progression et qu’ils détrôneront peut être mate un jour.





Déjà, je trouve que Gnome-shell et Unity ne sont pas comparables. La plupart des reproches qui sont faits à Unity sont aussi valables pour Mac OS X, un OS notoirement développé pour le tactile… Apple a toujours été en avance sur la concurrence. <img data-src=" /> Canonical a tout pompé sur Apple. Leur seule innovation, c’est le champ de recherche qui est mis en avant… Unity est très peu personnalisable alors qu’il y a un paquet d’extensions pour Gnome-shell.





Et pourquoi poser le préjugé qu’Apple serait forcément le meilleur en tout ?



Comme tous les industriels, Apple adapte ses produits pour qu’ils conviennent le mieux à sa cible commerciale privilégiée. En marketing, on appelle cela cibler les 8020.



Personnellement, je ne suis pas dans la cible de ces produits et ils ne me conviendraient pas.





Gnome a sa propre vision, ils s’inspirent de ce qu’on trouve ailleurs mais ils cherchent vraiment à innover. Je dis pas qu’ils font tout bien, loin de là. Ils ont la mauvaise habitude de sortir des applications pas finies amputées de certaines fonctionnalités plutôt que d’attendre de tout réimplémenter d’une nouvelle façon, ça c’est vrai. Ils auraient sorti le mode classique à la sortie de Gnome 3, la pilule serait certainement mieux passée. Sur les nouveautés, je trouve qu’ils ont aussi pas mal de bonnes idées.





Reprendre des idées n’est pas forcément un mal. Mais encore faut t’il bien comprendre les paradigmes qui sont repris pour en faire quelque chose de pertinent.



Quand à l’innovation, c’est la mode et tout le monde veut innover pour innover. Mais il est tellement facile d’avoir de fausses bonnes idées ou pire, de réinventer des concepts déjà abandonnés par le passé.



Il faut prendre conscience que l’innovation génère beaucoup de déchet. Pour un inventeur qui as une idée de génie, beaucoup d’autres ont de mauvaises idées.





Par exemple, la barre de menu, c’est très rudimentaire pour classer des fonctionnalités. Je suis certain qu’on peut trouver une bien meilleure solution que ça. D’ailleurs, de plus en plus d’applications professionnelles passent aux rubans de Microsoft (Matlab, Solidworks, Autocad,…).





Pour ceux qui connaissent l’histoire des interfaces graphiques, les rubans sont une vielle idée. Regardez simplement des logiciels pour amiga (soundtracker par exemple) et tous les logiciels des premiers temps des interfaces graphiques.



Alors bon ou mauvais les rubans ? C’est comme tout, ils ont des avantages et des inconvénients. L’erreur serait de les utiliser pour tout. Le bon usage, c’est de s’en servir intelligemment.



Pour ma part, je n’ai jamais vu aucune justification valable pour dire que les menus seraient dépassés. Rudimentaires ? C’est parfois ce qui est rudimentaire qui est le plus efficace.





Je trouve l’approche de Gnome intéressante : les actions qui influent sur toute l’application dans le menu général, les actions qui influent sur la fenêtre dans un menu “engrenage” en haut à droite de la fenêtre, et les actions qui concernent le contenu dans une barre contextuelle ou dans une zone qui est visuellement reliée au contenu.





Tout le monde fait des choses intéressantes car tous les programmeurs sont créatifs. Mais comme pour une bonne recette de cuisine, il ne suffit pas d’inventer. Le plus dur est de réussir le bon équilibre.



Je peux inventer une recette de cuisine en prenant 10 ingrédients au hasard pour les mélanger. J’aurais fait un plat innovant, mais j’ai peut de chance de réussir un bon plat.



Ce que je veux expliquer, c’est qu’innover et être pertinent sont deux choses différentes. Et le plus dur n’est pas d’innover, le plus dur c’est de voir juste.





Supprimer des fonctionnalités, ou du moins les cacher à l’utilisateur lambda, ça peut être une bonne chose : pour avoir installé Gnome 3 sur le PC de mes parents, je peux te dire que le fait de ne pas avoir de bouton maximiser et minimiser sur les fenêtres a améliorer leur confort. Ils mettent instinctivement deux fenêtres côte à côte en les envoyant sur les bords de l’écran parce qu’il faut l’envoyer vers le haut pour maximiser. C’était aussi possible avant, mais invisible à l’utilisateur qui utilisait le bouton. Idem pour les bureaux virtuels : le fait de ne pas pouvoir minimiser pousse à les utiliser.





Cette logique de simplification est à double tranchant. Elle simplifie la vie au départ, mais elle la complique par la suite.



L’ordinateur est un objet trop compliqué pour qu’on puisse réellement l’utiliser sans comprendre un minimum de choses. Tôt ou tard, les utilisateurs qui se sont “simplifié la vie” sont rattrapés par les problèmes. Et ça peut faire très mal.



J’ai connu suffisamment d’utilisateurs en galère dans ma carrière pour comprendre que ce n’est pas une bonne logique.





Parfois ils font n’importe quoi. Par exemple, les boutons “Accepter” et “Annuler” en haut d’une fenêtre modale, à mon avis c’est une connerie. On doit parcourir la fenêtre de haut en bas pour la lire, puis il faut revenir en haut pour valider… Je pense qu’ils reviendront en arrière là-dessus. Ne plus pouvoir faire de double clic sur le chemin du dossier dans Nautilus pour pouvoir rentrer une adresse à la main, c’est très con aussi.





Ce sont hélas des erreurs de débutant.



Le problème c’est que ce n’est pas le plus dur : concevoir une interface réussie d’un point de vue des concepts et de l’équilibre, ça demande un énorme niveau. Ce n’est pas donné à tout le monde.





Personne te force à utiliser Gnome. Tu peux utiliser Cinnamon, ElementaryOS, XFCE. Même MATE si tu veux… <img data-src=" /> Moi je pense que c’est une bonne chose que GNOME tente de faire autre chose, et ceux à qui ça ne convient pas peuvent toujours utiliser autre chose, c’est pas les options qui manquent.





C’est effectivement une excellente chose que quiconque fasse ce qui lui passe par la tête. De la créativité émergera le progrès.



Après, ce sont les utilisateurs qui décident de ce qu’ils aiment ou pas.



Cela me parait un excellent système car cela augmente la diversité : tous les utilisateurs n’ont pas les mêmes gouts, ni les mêmes besoin.



L’avantage du libre sur le monde commercial, c’est qu’il conviendra à tous et non pas simplement à “la partie la plus rentable du marché”.


Le 28/02/2014 à 22h 07







Para-doxe a écrit :



Cette affirmation est fausse: Je travaille sur un écran 24” avec Gnome 3 en tant que dév et admin sys sans aucun problèmes.



Gnome 3 incitant à répartir les fenêtres sur différents espaces de travail, fenêtres qu’on regroupe par thême/usage, permet de travailler de façon plus organisé et de switcher plus facilement d’une tâche à l’autre. Le système ne prenant que le minimum de place sur les espaces de travail et minimisant les distractions pouvant être causées par les notifications, Gnome 3 permet d’avoir une meilleur concentration sur son travail. Sans oublier que Gnome 3 est entièrement utilisable au clavier.



Gnome 3 est un bureau conçu pour être productif. Je travail mieux depuis que j’y suis passé.







C’est ton avis, je le respecte, mais je ne le partage pas.



Au niveau professionnel, je ne suis pas un débutant non plus : plusieurs décennies d’expérience derrière moi dans la programmation et l’administration et je travaille avec deux écrans 26”. Les interfaces utilisateur font partie de mes spécialités en matière de conception.



Il te suffira de parcourir les forums pour comprendre qu’on est vraiment nombreux à penser la même chose à propos de ces bureaux. Et les “retours en arrière” auquel on assiste ne font que nous conforter sur le fait que les programmeurs qui ont pondu ces environnements ont commis des erreurs qu’on aurait jamais commises (genre les menus en haut).



Quand à utiliser plus les espaces de travail pour compenser, encore faut t’il déjà ne pas les utiliser à fond depuis longtemps (et oui…). Quand on fait beaucoup de choses simultanément, les espaces de travail ne suffisent pas toujours.



Après, si ça te plaît, tant mieux. C’est le temps qui te dira si tu as eu raison ou pas. Avec le temps, les modes passent et le bon reste.



Moi je me bat pour la diversité, pour que chacun puisse utiliser ce qu’il trouve le mieux et le “customiser” comme ça lui plaît et non pas non pas ce qu’un programmeur “dieu vivant” ou un petit groupe de gens auront décidé être “le progrès” que tout le monde est sensé adopter.


Le 28/02/2014 à 20h 59







dandrz a écrit :



L’avantage d’Ubuntu et plus généralement de Linux, c’est qu’il existe plusierus interfaces (unity, gnome, KDE, XFCE et LXDE pour les prinicpales. Mais il existe aussi des centaines de distributons avec leur ‘“interfaces”. En résumé on peut trouver forcément chaussures à son pieds et même faire du sur mesure avec quelques connaissances basiques.



Perso, je déteste Unity, Cinnamon, Mate et en générale ce qui touche à gnome 3. Kde est merdique à souhait comme Mint en général.



Je me sers de X/L/ubuntu sur mes vieux PC car c’est assez léger et efficace et somme toute proche d’XP en ergonomie.



Malgré mes goùts assez marqués, tout j’ai trouvé pour mon PC personnel une distributioon qui me convient très bien et que j’utilise quotidiennement. Donc je pense qu’il est vraiment possible de trouver son bonheur, surtout aujourd’hui où il n’a plus besoin de s’y connaitre pour installer et utiliser Linux. Et après plus la peine de pester contre Modern UI ou sur le coût des OS…



A+







Cette mode de la copie des os mobile a eu le mérite de démontrer la supériorité du libre.



Alors que dans le monde propriétaire, les utilisateurs subissaient les “géniales évolutions” sans pouvoir rien dire, dans le libre, l’utilisateur a pu choisir ce qu’il désirait.



Après tout, si certains veulent prendre des fausses bonnes idées pour un progrès, c’est finalement leur droit. Tout comme c’est le droit de ceux qui ne les apprécient pas de les refuser.



C’est sans doute cela le vrai progrès <img data-src=" />


Le 28/02/2014 à 20h 20







Rozgann a écrit :





Personnellement, c’est l’intérêt de MATE que je comprends pas. Soit on a un vieux matériel qui supporte pas un environnement récent, et on utilise XFCE voire LXDE, soit on a un PC capable d’avoir de l’accélération matérielle et on utilise Cinnamon. Mais MATE me semble une perte de ressources complète.







XFCE et LXDE ne sont jamais parvenus au niveau de Mate (ex gnome 2) en terme de qualité et d’ergonomie.



L’intéret de Mate, c’est donc qu’il est adapté aux besoins de ses utilisateurs.





Tu fais simplement pas partie de la cible. Je trouve que Gnome a le mérite d’aller au fond de sa logique sans avoir peur de remettre en cause de mauvaises habitudes qu’on a hérité des anciens environnements.





C’est une vision très simpliste et complètement fausse du problème.



La tendance derrière Gnome 3 / Unity, c’est de simplifier l’environnement pour le rendre plus “vendable” aux newbies et parallèlement a cela, de s’adapter au tactile.



Mais les environnements en question sont devenus mal optimisés pour les utilisateurs chevronnés qui travaillent avec quantité de fenêtres et de grands écrans sur des ordinateurs desktop.



Le 28/02/2014 à 19h 40







dualboot a écrit :



En espérant que cette nouvelle version soit plus stable que la 13.10. Il faudrait aussi qu’ils changes l’explorateur de fichiers Nautilus/Files ça devient tellement dépouillé que ça sert plus à grand chose <img data-src=" />







Il y a tout une génération d’informaticien qui se sont perdus en croyant qu’on améliore les logiciels en enlevant des fonctions.



Vivement qu’ils retrouvent leur cerveau et que cette mode idiote passe.



Le 28/02/2014 à 19h 33







Punkenjoy a écrit :



Unity ne me donne pas l’impression d’être tactile, elle demande juste de changer ses habitudes.



Et des fois les conséquences sont positive ailleurs. Par exemple, je n’utilisais jamais la barre de recherche dans le menu démarrer sous windows 7 mais le fonctionnement d’unity ma montrer à quel point c’est pratique et je ne vais plus jamais dans “tout les programmes”



des fois on a des habitudes qui traîne et qui ne sont pas optimal. Au début on est fâché de devoir changer, mais une fois qu’on l’a fait, on ne retournerais plus en arrière.







C’est l’utilisation de grandes icones qui montre sans ambiguïté qu’Unity est conçu pour viser le tactile. Même si au final, il n’atteint pas réellement cet objectif… ce qui est un comble.



Sinon, refondre les menus de lancement des logiciels n’avait franchement aucun intéret si le côté pratique viens justement d’un lanceur rapide permettant de s’en passer.

Mais la encore, s’ils ont été refondus, c’est uniquement pour répondre à la problématique du tactile.


Le 01/03/2014 à 19h 45







A33 a écrit :



Les noms sont quand même un peu plus lisibles, ok pas beaucoup, mais ce ne sont pas des putains d’abréviations. Et surtout c’est planqué, pas en vrac dans la racine.







Je trouve le système d’arborescence unix bien plus clair et bien mieux foutu que Windows.


Le 28/02/2014 à 18h 29







Lady Komandeman a écrit :



Oui, voilà, le raisonnement de ce Matthieu Gallet me laisse pantois. Mais ce programme pour Radio France n’a rien d’exceptionnel quand on sait que ce monsieur a dirigé l’INA et a permis la “privatisation” de contenus de France Télévisions (et ses équivalents du passé type Antenne 2) alors qu’ils ont déjà été payés par la pub et la redevance… <img data-src=" />







Peut être que la conclusion, c’est qu’on devrait arrêter de financer tout ces machins.



Au final, ça coûte cher au contribuable pour un bénéfice assez discutable.



Laissons l’argent aux contribuables et aux entreprises de ce pays. Ils en feront un bien meilleur usage.



On pourrait également utiliser l’argent pour financer des infrastructures beaucoup plus utiles pour notre développement économique : Par exemple le fibrage du territoire français.



Le 28/02/2014 à 18h 07







Lady Komandeman a écrit :



Oui, car les subventions étatiques ne suffisent pas, je pense.



Mais le problème reste le même : paiement une première fois (subventions de l’État + pubs) et une deuxième fois à l’achat pour le podcast… <img data-src=" />







Donc si je comprends bien, on aura :





  • D’un côté des radio privées financées uniquement par la pub qui proposent gratuitement leurs podcasts.



  • De l’autre des radio financées par la redevance ET la pub qui nous feront payer les podcasts.



    Cherchez l’erreur…




Le 28/02/2014 à 17h 40



Parmi les principales mesures touchant au numérique, il veut ainsi mettre un terme à « la culture du tout gratuit », religion jusqu’alors en vigueur.





Mouhahahaha…



Et il pense que c’est sa petite radio qui va inverser un mouvement de société aussi profond que planétaire.



Encore un bel exemple de nomination à un poste important de quelqu’un qui ne comprends pas du tout l’économie moderne.



Que va t’il se passer ? Les gens iront simplement écouter les podcasts d’autres radio qui en profiteront pour augmenter leurs recettes publicitaires.



Sinon, d’après ce que j’ai cru comprendre, cette radio est quand même financée par une part relativement importante d’argent public. La question qu’on pourrait se poser, c’est pourquoi le citoyen devrait t’il payer une seconde fois ce qu’il a déjà payé ?


Le 26/02/2014 à 16h 56







Guinnness a écrit :



Avec l’Arjel l’état nous a montré qu’il est tout à fait possible de faire bloquer des sites qui refusent de cracher leur dîme dans les caisses de l’état alors pour mettre fin aux accès de stupidité sur FB la solution est toute trouvé <img data-src=" />



Après la connerie des ados étant ce qu’elle est ils trouveront un nouveau prétexte et ce sera reparti, quand j’étais ado toutes ces conneries de réseaux asociaux n’existaient pas et ça ne nous empêchaient pas de me mettre une petites cuite entre potes de temps en temps, sauf qu’à l’époque on était vraiment tous ensemble et on appelait ça une foire







Pas faux.



En même temps, je n’ai jamais compris pourquoi les gens ont besoin d’être aussi moutonniers.



Personnellement, même ado, j’ai dit non à toutes ces conneries. Et je n’ai jamais eu l’impression de me sentir exclu. Mieux, j’ai été respecté pour ça.



Il est aussi probable que l’éducation des parents joue un grand rôle.



Le 26/02/2014 à 16h 01



« efficace et équilibré, a le potentiel de réduire les coûts afin d’obtenir une protection par le brevet, ainsi que d’accroître la compétitivité européenne et de soutenir la croissance à long terme des industries innovantes en Europe et à l’étranger » explique ainsi la coalition dans sa toute dernière lettre.





Avant de parler de réduction des coûts et de gains de croissance, il serait beaucoup judicieux de parler de l’immense perte d’argent et de temps qu’impose ce genre de système de propriété intellectuelle.



Vous n’imaginez même pas les sommes folles qui sont englouties tous les ans par les entreprises, non pas pour se protéger… mais simplement pour ne pas qu’on puisse les attaquer… sur leurs propres créations.



Qui pousse à l’adoption de cette merde ?



D’un côté tout ceux que cela va faire vivre grassement : offices des brevets, juristes spécialisés, etc, etc…



De l’autre tout ceux qui ont intéret à ce qu’on puisse transformer le maximum de choses de l’univers humain en produits financiers capitalisables. Pourquoi travailler quand on peut spéculer ?



Enfin, ensuite toutes les entreprises en situation de monopole qui ont bien compris que leur immense banque de brevets pouvait interdire la création d’un produit compétitif à toute entreprise plus modeste… et donc d’empêcher toute concurrence.



Bref, du pur parasitisme sur le dos de l’industrie et de la création. Tout cela vendu avec force marketing “on défends la création…” et arguments simplistes.









Butler5 a écrit :



Je n’ai pas compris ce qui gêne les entreprises dans ce projet de Brevet unitaire européen.



En gros, tel que rédiger actuellement, les tribunaux locaux pourraient annuler un brevet EU sur le sol de leur pays ?

Et les patents trolls font quoi dans cette histoire du coup ? les entreprises devront reposer tous les brevets au niveau Européen, et le risque c’est que certain brevet soit oublié et récup par ces entreprises qui pratique les patents trolls ?







L’ennui, c’est qu’un procès, ce n’est pas gratuit.



C’est même tellement coûteux que dans la majorité des cas, les entreprises préfèrent payer les patent trolls que de faire annuler des brevets.



Pire, a la création d’un produit, il est virtuellement impossible de déterminer combien de brevets seront potentiellement enfreints parmi les centaines de milliers déposés totalisant des millions de page. D’où l’impossibilité de chiffrer le coût de revient d’un produit et de multiplier le coût du risque juridique.













Le 24/02/2014 à 16h 26

Quand on se pollue la vie avec des gadgets inutiles, on ne récolte que des problèmes.

Le 22/02/2014 à 16h 34







Bylon a écrit :



Bien d’accord avec toi Hansi.



Mais hélas il est facile de comprendre pourquoi la “conspiration” mondiale nous force à bouffer du M\( et à le payer même si on n'en veut pas, sans faciliter le reste.



C'est simple, quand sur une machine à 500\)
tu vends une licence à 100$, sur laquelle en plus la marge est énorme comparé aux marges riquiqui sur le hard, toi, en tant que constructeur, tu as envie que ça continue. (*)



La limite de l’exercice c’est quand un “grand” constructeur proposera en masse des machines sous GNU/Linux. Là on verra bien qu’il y a une différence de prix de 20 à 25% à hardware égal, et les autres seront obligés de suivre.



Cependant, je ne sais pas si cela arrivera avant que les PC soient totalement détrônés par les mobiles/tablettes/consoles… Et si ce deuxième événement survient avant, c’est certain que les PC seront Linux parce qu’alors ils ne serviront plus qu’à des chose marginales comme “développer du logiciel” !.. <img data-src=" />



(*) actuellement seul Clevo le propose à ma connaissance -notamment via LDLC-. On voit bien la différence de prix de 2025%. Mais on ne peut pas vraiment considérer Clevo comme un “grand” constructeur, même si ses ventes ont dû sacrément augmenter avec le passage via LDLC.







Ca fait juste 30 ans que des pseudo analystes prédisent que la console tuera le jeu sur PC. Ils ont du oublier quelques détails <img data-src=" /> Par exemple, que les jeux sont créés sur des ordinateurs.



Les tablettes/smartphone remplacer les PC ? D’abord l’usage n’est pas le même. Je vois mal les entreprises remplacer leurs postes de travail par des tablettes : la productivité en prendrait un sérieux coup.



Par contre, je vois bien à terme les tablettes et les ordinateurs portables fusionner au profit d’un ordinateur-tablette à clavier détachable. Parce que techniquement, les tablettes sont juste des ordinateurs avec un OS édulcoré. Il est évident qu’a terme, cela évoluera.


Le 22/02/2014 à 15h 53







moi1000 a écrit :



Sauf que les Lenovo sont de moins bonne qualité que les HP…

La qualité des Thinkpad et Thinkcentre est bien loin de celle de l’époque IBM.

Ensuite, quand tu compares un Probook en alu et un Thinkpad en plastoc…







Si vous voulez de bonnes machines, achetez des bécanes d’assemblage de moyenne gamme chez un bon assembleur… et évitez les portables.



Le 21/02/2014 à 18h 50







heret a écrit :



La barre de menu est comme ça sur tous les Macintosh depuis 1984, les gars. OS X n’a rien à voir là-dedans. Et moi, ça me va très bien.







En même temps, c’était peut être une erreur depuis le début.



Et rappelons nous que le Macintosh de 1984 n’avait pas un écran de 27”.