votre avatar

brazomyna

est avec nous depuis le 7 octobre 2011 ❤️

7015 commentaires

Le 04/04/2013 à 07h 39

Si cette théorie des infrastructurew essentielles se base effectivement sur son caractère indispensable de liaison avec les clients, il est urgent de le mettre en place … pour les FAIs qui son plus concernés de par la différenciation qu’ils pourraient faire envers un service (de vidéo au hasard) plutot qu’un autre.

Pour google, c’est moins évident, chaque ip et chasue domaine ayant le même ‘pignon sur rue’ que les autres.

Le 03/04/2013 à 12h 22







pyrignis a écrit :



Je ne suis pas utilisateur d’iPomme mais je recherche desesperement un smartphone haut de gamme en moins de 4.2’ … 3.8 serait le mieux pour moi mais on ne trouve ça qu’en entrée de gamme coloris kevin …





Tu as le HTC One V (3.8”) même si l’écran gâche un peu la fête (800x480 seulement), le reste se défend plutôt très bien.


Le 03/04/2013 à 12h 02







TBirdTheYuri a écrit :



4 à 5 pouces, au delà c’est chiant à tenir et à ranger.





J’aurais dis la même chose de 4.8” quand j’avais un HTC Desire de 3.7” ; pourtant je ne pourrais plus revenir en arrière depuis que j’ai un GS3.



Amha, il y a un autre facteur tout aussi important, c’est le ratio “taille écran / finesse du téléphone” : pour moi 5 pouces pour 7mm d’épaisseur sont au final plus agréables à trimballer que 4 pouces pour 12mm.



Si on arrive encore à réduire l’épaisseur (<5mm ?) je pense qu’on peut encore gagner un pouce sans que ça fasse un effet GS Note brique pour l’utilisateur moyen. Au delà, je pense que la taille d’une poche ‘normale’ va devenir le facteur limitant.







Le 03/04/2013 à 12h 19







Uther a écrit :



Pour un jeu AAA, peut-être pas car avoir un navigateur suportant asm.js deviens en effet indispensable. mais il y a plein de cas intermédiaires ou ça peux être utile.





Je parlais bien des jeux AAA ; pour moi les cas intermédiaires se satisfont sans problème du JS “de base”.


Le 03/04/2013 à 11h 48







Uther a écrit :



En effet, c’est pour cela que asm.js est interessant





Oui et non, parce que - fusse-t-il un subset d’un autre langage - ça revient finalement à créer un nouveau langage. Et à ce jeu, on en a quelques uns qui sont déjà parfait pour faire ça (genre le C, C++ etc…), avec tout l’existant qui leur sied.



Et même si effectivement asm.js offre en plus la possibilité de faire un fallback vers une exécution en ‘vrai javascript’ (quand le support d’asm.js n’est pas proposé par la plateforme), ça restera in-intéressant dans les faits: un code qui peut s’exécuter mais dont les piètres performances en ‘mode fallback’ rendent l’application inutilisable dans la pratique, ça ne sert peu ou prou à rien.



D’autant que rien n’empêche déjà de proposer des techniques de fallback C (ou autre) vers Javascript via des outils comme ClueCC par exemple.


Le 03/04/2013 à 08h 16







Uther a écrit :



Il faut essayer d’arrondir les angles parce que la définition de code interprété vs compilé est de toute façon plutôt floue de nos jours





Exact, même si d’une façon générale, un langage dont l’objectif est d’être interprété est souvent un langage qui inclut des fonctionnalités que permettent la souplesse de l’interprété (du eval(), de l’introspection, de la génération/modification dynamique de code, typage faible, …). Or ce sont justement ces aspects qui rendent le langage à peu près impossible à ‘compiler’ de la façon la plus efficiente qui soit.



A l’opposé un langage dont la finalité est dès le départ la compilation en natif propose souvent un langage plus strict (typage fort, …) qui va donc permettre une optimisation plus grande du langage machine généré.



Et dans le domaine (spécifique) des jeux vidéos à ‘haute technicité’, la différence est sensible.



Le 03/04/2013 à 07h 13







dam1605 a écrit :



C’est quoi l’intérêt de faire du html5/js par rapport a du java (je veux dire c’est aussi portable). Moins de risque de failles ?





Non, JS n’est pas aussi ‘portable’ que Java, dans le sens où certaines opérations peuvent s’exécuter différemment selon la plateforme.



Il peut y avoir des différences dans les ‘arrondis’ effectués par les opérations mathématiques (sqrt, cos, sin, …) en fonction de l’interpréteur, de l’archi du CPU de la plateforme cible, etc…



Ce n’est pas le cas de Java, qui renverra toujours le même résultat, et est donc plus “portable” dans le sens “s’exécutera exactement à l’identique quelle que soit la plateforme cible”.


Le 02/04/2013 à 21h 37







cendrev3 a écrit :



Non non, le JS est actuellement devant le Java en terme de performances brutes on dirais: (du moins sur les tests que j’ai pu voir <img data-src=" />)





Sauf que tu ne sais pas lire les liens que tu as toi-même donnés:





  • le premier lien donne javascript gagnant sur un test qui éprouve plus l’implémentation d’une fonction native en particulier (sur les regexp) plutôt qu’autre chose. Pour l’ensemble des autres tests de la même page, JS se banane comparé à Java.



  • le second lien donne l’explication lui-même, avec le fait que Java ne propose que des fonctions pour des calculs sur les doubles.



    Plus généralement, ce qu’il faut comprendre c’est que la plupart des mini tests dans ce genre sont basés sur un grand nombre d’itérations de quelque chose qui comporte pas ou peu de branchements conditionnels ; c’est donc très éloigné de la réalité d’un programme alors que c’est un des points faibles du JS.





    Mais du fait de la nature asynchrone du JS, certains des programmes écris en C seront principalement plus lent, un exemple tout con



    T’as bien retenu par coeur les articles surNode.JS mais tu n’as pas compris l’essence de ce qu’ils racontent.

    Ce qu’ils mettent en avant c’est pas le JS en lui-même, c’est l’asynchrone vs. le synchrone dans un cas extrêmement particulier (la multiplications de requêtes de courtes durées pour un serveur qui va devoir multiplier des appels vers des ressources externes, fichiers, BdD, …, pour y répondre).

    Ce cas de figure est reproduit dans un serveur et apporte un intérêt pour éviter des switchs incessants entre (centaines de) threads qui finissent par peser lourds dans la balance. Mais ça ne s’applique clairement pas dans une application ‘utilisateur’.

    Et même au dela, dans tout ça, Javascript n’est qu’un support pour la paradigme asynchrone, choisi avant tout du fait de ses propriétés qui facilitent l’écriture de code asynchrone (closures, etc…) ; pas pour des supposées performances ou autres qualités intrinsèques qui y sont reliées.


Le 02/04/2013 à 20h 31







Uther a écrit :



Le JS de base n’est certainement pas le langage interprété le plus rapide, il reste bien derrière le Java





Sauf que Java ne peut pas être considéré comme un langage interprété étant donné qu’il subit une étape de compilation vers un bytecode intermédiaire.


Le 02/04/2013 à 18h 54

^^ je précise quand même que cette approche est valable dans le strict cadre de l’article (“Le HTML5 va-t-il révolutionner l’industrie vidéoludique ?”) ; et de par le fait qu’on ne pourra pas s’en servir pour les jeux “triple A” (gros budget, grosse 3D, gors…).



Pour tout le reste, notamment le casual gaming où la course à la puissance n’est plus un impératif, l’existant est au contraire largement adapté.

Le 02/04/2013 à 18h 47







HarmattanBlow a écrit :



C’est sans doute le plus rapide des escargots aujourd’hui





Oui et non: le JS reste quand même une belle prouesse du côté de l’interprété et peut parfaitement être intégré dans de nombreux applicatifs sans que ça ne pose de réel problème de perfs.



Mais c’est à une condition: bien définir l’endroit où on pose la frontière entre les deux mondes.



Une bonne approche en règle générale est de se débrouiller pour que le JS soit là pour contrôler le ‘haut niveau’ (genre “lance telle anim de là à là en x secondes”), mais ne s’occupe pas des basses besognes à chaque epsilon de temps (genre chaque image). Sinon, c’est l’explosion des appels JS natif et les perfs sont assurées d’être minables.



Or dans le contexte ici, il n’y a pas 36 solutions:





  • soit on fait un binding de haut niveau et on va se retrouver dans le cas d’un simili plugin qu’on pourra controler depuis le JS. On aura de bonnes perfs, mais un flash-bis au niveau interopérabilité et ouverture. En effet, le simili plugin sera soit fait par un privé (Unreal, Adobe, Dassault ou quiconque), soit fait par une des grosses ‘marques’ de browser, que les autres ne voudront donc pas reprendre, concurrence oblige (genre NaCl).



  • soit on fait du bas niveau standardisé, et on aura des perfs médiocres.


Le 02/04/2013 à 18h 31







Khalev a écrit :



Sauf que ça reste compatible avec n’importe quel moteur JS. Au prix d’un différence de performances





Sauf que tout peut être rendu compatible pour peu que tu code l’interpréteur adéquat. Le seule ‘détail’, ce sont les perfs ; or si on fait ce genre de chose, le but est justement les perfs, c’est donc un bon gros FAIL by design.



Bon allez zou, je vais me faire une petite partie de 1943 sur un émulateur JS d’Amstrad CPC. Ce sera un peu juste de faire tourner ça sur mon ordi tellement l’overhead tient du délire, mais ça devrait passer quand même (EDIT: 11fps sous FF19 + Ubuntu).


Le 02/04/2013 à 16h 08







flagos_ a écrit :



Avec asm.js, Mozillaparle effectivement de performances approchantes au code natif en écrivant à partir du c++ et en transcodant vers du html5 + js.





Sauf que si j’ai bien compris, leur bouzin n’est ni plus ni moins que la création d’une sorte d’assembleur basé sur un subset du JS. Dit autrement, un bytecode avec des bases communes au JS. Dit autrement … ben une machine virtuelle à la Java intégrée dans le browser.


Le 02/04/2013 à 15h 57







Citan666 a écrit :



Parce que porter en HTML5 et JS, c’est bien, mais il me semble que les performa[quote:4524761:cyrano2]Il ne faut pas oublier que HTML5 propose un canvas opengl et un traitement du son “en natif”, ce qui prend le plus de temps de cpu que le reste du moteur du jeu.





Sauf que faire du webGL c’est du très bas niveau, ce qui implique un nombre assez incroyable d’appels de fonction JS=&gt;natif par frame. C’est totalement délirant en terme de perfs tellement ça va plomber le tout.





Free avait proposé un binding EFL+javascript pour sa freebox V5.



Même ce binding était déjà de bien plus haut niveau que WebGL ou Canvas: la manipulation sa faisait autour d’éléments en statefull, pas au niveau de primitives graphiques de base





Donc là, comme ça, pour tous les gros jeux, je doute que cette capacité de portage phagocyte le marché des consoles. En revanche pour des jeux moins gourmands, on peut l’envisager.



Exact. Reste à savoir si ça apporte réellement un plus par rapport à ce qui existe déjà.





Reste que dans tous les cas, ça va nécessairement faciliter un développement multiplateforme, et ça c’est une bonne nouvelle pour les dev de tout poil, et un très bon argument marketing pour Epic Games.



Sauf que les frameworks qui promettent le Saint Graal de l’uniformisation des plateformes, c’est pas la première fois qu’on essaie de le vendre. Et c’est pas pour rien qu’à chaque fois ça ne dépasse pas la bonne intention (au mieux) ou la bullshit marketing (au pire).



Ce qu’ils veulent tenter manifestement c’est beaucoup plus d’imposer le support de leur plugin/techno proprio pour que ça devienne une forme de standard de fait. La même chose que Flash en son temps, quoi, ceci n’est rien d’autre que cela:





Zyami a écrit :



Avec l’annonce de Mozilla, clairement oui, HTML 5 + JS et le tour est joué.



Voir ici :http://comptoir-du-net.fr/13/mozilla-porte-unreal-engine-3-sur-son-navigateur-fi…









Le 03/04/2013 à 07h 09







Danytime a écrit :



Du tout numérique par un industriel ? Ils peuvent manipuler les données comme bon leur semble.





Ca s’adresse aux personnes qui ont déjà une carte du magasin, et qui sont donc déjà pistables (et pistées) pour chaque boite de pâté qu’elles achètent.







versgui a écrit :



Une trentaine de commentaires : la moitié de râleurs. C’est amusant ce besoin inné de toujours se plaindre chez certains <img data-src=" />





C’est français. <img data-src=" />


Le 02/04/2013 à 10h 15







j-c_32 a écrit :



Quels sont les désavantages apportés par les grandes icônes ?

Le fait de prendre plus de place n’est pas un problème: la place prise n’est de toutes façons pas utilisées par l’utilisateur.





On t’a montré par l’exemple 2 screenshots sur 5 (soit 40% des screenshots pris façon on ne peut plus objective puisque ceux là même proposés par l’article et pas choisis par nous). Ces deux shots imposent un scroll inutile ce qui c’est tout sauf ergonomique et efficace.



Tu continues de ne pas vouloir admettre le moindre problème malgré un truc répété bien 3 ou 4 fois en nous trouvant toutes les excuses ou les parades du monde. Tant mieux pour toi.







j-c_32 a écrit :



Personnellement, je pense que gnome-shell trouvera son public (mais je peux me tromper). Par contre, je doute que les détracteurs de Gnome-Shell acceptent un jour de reconnaitre cela si ça se produit: ils continueront avec leurs excuses (“non mais GS est joli visuellement alors certains l’utilisent sans se rendre compte que ce n’est pas l’idéal pour eux”, “GS infantilise l’utilisateur donc certains l’utilisent parce qu’ils doivent moins faire d’effort, mais au final, c’est un nivellement par le bas”, …)





Et blablabla, on retourne dans l’argumentaire fallacieux du “si vous n’êtes pas d’accord c’est que vous n’êtes pas objectif ou capable d’empathie ou d’admettre que votre cas n’est pas une généralité” ; on attaque la logique de raisonnement et la personne plutôt que les arguments de fond.





A partir de là ça suffira pour moi ; je ne vois pas en quoi le débat avec toi pourrait avancer vers quoi que ce soit de constructif ou d’intéressant.



Le 01/04/2013 à 07h 30







sr17 a écrit :



Mais les éléments ont eu tendance à augmenter de taille en même temps que le tactile capacitif piloté au doigt





Le problème c’est qu’il augmente sur les device qui n’ont pourtant aucun système tactile. C’est bien ça qui est idiot: on adapte une interface pour une forme d’interaction qu’elle n’a pas.







Okki a écrit :



Ça serait vite oublier qu’il y a également des personnes âgées, des malvoyants, des personnes qui ont tel ou tel autre handicap et pour qui de grosses icônes seront plus simples à voir et à cibler.





C’est n’importe quoi: tu es en train de nous expliquer sans rire qu’il faudrait que le DE par défaut s’adapte au ‘moins disant’ des capacités d’interactions sous prétexte qu’ils existent.



Ben alors pourquoi on met des souris et des claviers ; après tout, il y a des manchots (au sens au sens litéral). Pis on pourrait aussi enlever les écrans car les aveugles sont une proportion non négligeable de la population.



C’est la pire bêtise que j’ai lue jusqu’ici. Pour ta gouverne on appelle ça des options d’accessibilité, c’est fait pour être optionnel et activable ou pas, mais en aucun cas ça ne doit devenir la norme et la chose adoptée par défaut.





On peut absolument tout faire au clavier sous Gnome. Et pour celui qui se donne la peine d’apprendre les quelques raccourcis, tout devient finalement plus simple et plus rapide.



Lol, win 3.11 le permettait aussi.

Le vide de cet argument rejoint celui ci-dessus. <img data-src=" />



Le 31/03/2013 à 09h 09







HiTz a écrit :



Et Gnome 3 n’est pas plus adapté å une tablette que Mac OS X. Ca n’a d’ailleurs jamais été un objectif. J’entends souvent cet argument mais ce n’est jamais vraiment argumenté.





L’argument qui est avancé, c’est que Gnome 3 reprend des éléments d’IHM des talettes smartphones, et que c’est pas efficient pour un DE de desktop.





Si certains éléments de Gnome font penser à l’UI des tablettes, c’est surtout parce que c’est plus intuitif ou plus joli (les gouts et les couleurs <img data-src=" />).



Sauf que le “plus intuitif” ou “plus joli” n’est : pas prouvé pour le premier, pas objectif pour le second.



Par contre, les pertes en terme d’ergonomie sont beaucoup plus visibles. Pas besoin d’aller loin: prends la 2ème et la 5ème capture d’écran d’article qu’on est en train de commenter (on pourra pas me reprocher d’avoir été chercher loin un cas extrême), puis explique moi en quoi c’est une avancée ergonomique, plus intuitif, plus efficient, etc… d’avoir à scroller pour voir l’ensemble d’une liste d’options ou d’éléments alors qu’il était parfaitement possible de faire tenir tout ça d’un seul tenant à l’écran ?


Le 30/03/2013 à 22h 59







GutsBlack a écrit :



La réalité est que c’est 95% de gens préfèrent désormais une interface type smartphone/tablette à celle des PC pour faire les 3 conneries qu’ils ont besoin… donc bon on peut tourner en rond pendant des heures.





Tu nous parles de l’usage grand public qui n’est qu’une proportion désormais de plus en plus minoritaire de l’usage de l’IT dans le monde.







Rozgann a écrit :



L’informatique va se développer dans tous les secteurs de l’économie c’est certain. Mais c’est faux de dire qu’on va tous travailler assis devant un ordinateur de bureau.





Ouvre les yeux, c’est déjà le cas pour tous les systèmes pro qui nous entourent. Les machines à commande numéirque n’ont pas attendu l’iPad pour avoir des interfaces spécialisées, tactiles, avec les boutons adéquats, les infos adéquates, les interactions adéquates.

C’est pas pour ça que tout à coup on doit absolument faire ressembler le DE des desktop avec l’IHM des machines outils.





Ensuite, avec le développement du marché des smartphones et des tablettes, je suis certain que de plus en plus de particuliers vont se passer d’un ordinateur. Pour avoir vécu quelques temps en Inde, je connais des nouveaux riches qui ont directement acheté un iPad sans passer par la case ordinateur. C’est assez courant en Inde et je suppose que c’est aussi le cas dans les autres pays émergents. Actuellement, la norme, c’est d’avoir un ordinateur. La tablette est un gadget en plus pour ceux qui en ont les moyens. A l’avenir, je pense que la norme sera l’appareil mobile, et l’ordinateur de bureau sera réservé à ceux qui en auront un réel besoin.



Et donc ? Ils vont avoir des tablettes et des smartphones avec l’IHM qui est pensée pour eux et tout le monde sera content.

En quoi ça devrait induire que le desktop doit tout à coup devenir une tablette ?





Gnome a le droit de développer ce qu’il veut, et en plus, c’est un projet libre. Si la direction ne te convient pas, tu peux créer un fork à tout moment. Personne n’a mis un pistolet sur la tempe des développeurs Gnome pour partir dans la direction qu’ils ont pris, ils ont simplement un avis différent du tien auquel ils croient. Ils se trompent peut-être, mais je vois pas ce qui te permet de vouloir leur imposer une autre direction. Celui qui cherche à imposer sa vision des choses aux autres sans tenir compte de l’avis des autres, ça me semble être toi.



T’es idiot ou tu le fais exprès ? En quoi j’impose quoi que ce soit quand je dis que leur orientation est à mon sens une erreur ? J’ai encore le droit d’exprimer mon désaccord ou c’est interdit ?





Je suis d’accord sur le fait qu’une bonne interface doit s’adapter en fonction du matériel avec lequel elle est utilisée (périphériques d’entrée et de sortie). Ca veut pas dire pour autant que l’interface de Gnome 2 soit l’apogée de l’ergonomie pour ordinateur de bureau.



Personne n’a dit que Gnome 2 ou KDE étaient parfait, on dit juste que certains fondements sont liés intimement avec la nature d’un desktop.

Et en quoi le fait que Gnome 2 serait imparfait validerait la thèse que GS ou Unity sont meilleurs ? C’est pas un argument ça, c’est l’absence d’argument.





Encore une fois, c’est une bonne chose que certains projets expérimentent de nouvelles approches, et personne ne t’empêche d’utiliser MATE ou Cinnamon si ça te convient mieux…



Mais j’utilise MATE, j’ai pas attendu ta bénédiction ; et à nouveau ça ne m’empêchera pas d’exprimer mon opinion.


Le 30/03/2013 à 17h 35







sr17 a écrit :



Je note que l’on parle en permanence des “débutants” pour justifier certains paradigmes d’IU.





Je plussoie l’argument global … auquel on peut ajouter le fait que dans notre monde réel, à peu près tout ce qui a moins de 60 ans a déjà utilisé un ordi … et donc à peu près tous sous Windows, donc.



Donc vouloir obligatoirement définir un DE sans prendre en compte les acquis de ces 95% des cas réels, c’est à peu près aussi peu pertinent que dire qu’un joystick pour guider une voiture c’est plus chouette pour qui n’a jamais conduit … en occultant que la population 200x plus nombreuse qui conduit déjà une voiture est déjà ultra habituée à manipuler un volant.



A la limite, pourquoi pas si ça peut faire sens pour 1% des utilisateurs qui n’ont jamais approché un ordi, ça a parfaitement le droit (et le mréite) de coexister. Mais qu’un projet comme GNOME (pour GS) ou Unity (pour Ubuntu) en fasse le choix principal, celui dans lequel on injecte la majorité des ressources, des efforts, des espoirs et des visions de futur du desktop, c’est une faute.





Bref, dans ces interfaces, je ne vois qu’une mode passagère venue du monde mobile.



Exactement. Mode qui pourrait se défendre si elle ne posait pas des régressions en terme de productivité.





Des programmeurs qui ont eu la mauvaise idée de croire que des paradigmes adaptés au tactile pouvaient être détournés de leur usage et transposés tels quels sur desktop.



Les naif-utopistes qui courent après le Saint Grall de l’IHM universelle (ou du bout de code universel, ou du desgin pattern universel, ou…) ça a existé de tous temps.



Ce qui est triste c’est que ça existe encore malgré les innombrable contre-exemples et autres précédents de l’histoire.



Le 30/03/2013 à 02h 51

A noter que l’inverse est tout autant vrai: jamais de la vie je ne voudrais une IHM de desktop sur mon mobile (ou ma tablette) ; leur usage ne se fait pas de la même manière une chose à la fois, de la consultation pas de saisie ; j’ai pas 15 pouces à 40 cm des yeux, mais 4 pouces ; j’ai pas une souris au pixel près mais un doigt qui fait un 5ème de la largeur totale de l’écran, pas de clic droit, pas 100 touches de clavier physique, etc…



On l’a bien compris (et mesuré) avec l’arrivée des iPhones et autres périphériques aux IHM adaptées aux périphériques mobiles: l’IHM du desktop à peine retravaillée (windows mobile etc…) n’était pas adaptée pour eux.



Mais alors pourquoi est-on en train de refaire la même erreur dans l’autre sens en voulant tout à coup appliquer au forceps aux desktop une IHM de mobiles tactiles qui ne leur convient pas, ni en termes de périphériques, ni en termes d’usages ?

Le 30/03/2013 à 02h 40







2show7 a écrit :



J’ai l’impression que le conflit Linux vient du fait que : ne voulant pas rater l’essor smartphones/tablettes la plupart ce soit tourné davantage vers ces systèmes en délaissant le PC





Perso, je vois un point d’achoppement avec les tablette/smartphone en ce qui me concerne, mais pas pour une histoire d’un “désamour” supposé.



Pour moi le souci c’est qu’une IHM bien conçue est celle qui fera le meilleur mix entre les usages auxquels se destine l’appareil, ses périphériques d’entrée (clavier, souris, tacile, …) et ses périphériques de sortie (l’écran).



Si on regarde globalement l’évolution des IHMs sur le long terme, on se rend compte que les plus gros changements ont été guidés par l’arrivée d’un nouveau type d’appareil / périphérique d’entrée / périphérique de sortie: trois grosses étapes typiques: la console texte pour clavier/écran monochrome ; arrivée des interfaces graphiques avec la souris et les écrans (et les capacités des ordis) ; arrivée des IHMs ‘tactiles’ depuis peu pour les devices mobiles.



Le problème que je vois c’est une tendance récente de vouloir absolument par “effet de mode” copier les paradigmes arrivés récemment pour une catégorie bien précise (les smartphones/tablettes) pour les réappliquer sur la catégorie ‘desktop’ dont les usages et les périphériques ne sont pas adaptés (ou plutôt pas utilisés de façon efficiente).



Un exemple (qui vaut ce qu’il vaut): quand je vois ce genre de chose, je me dis que des tailles d’icônes comme ça c’est:




  • parfait pour un usage tactile car pratique à sélectionner avec ses petits doigts boudinés

  • voir facile à voir de loin affiché sur une TV ou sur un écran proche mais plus petit.



    Mais c’est pour moi une énorme perte de place sur un desktop où l’on peut voir beaucoup plus précisément, où la souris est bien plus précise pour sélectionner, etc. Consécutivement, c’est autant d’espace gâché qui aurait pu être utilisée de façon beaucoup plus utile, typiquement en évitant de se taper x onglets à cliquer / recliquer alors qu’on pourrait avoir tout d’un coup sous les yeux, à portée d’un unique clic, donc avec un accès plus simple et plus rapide.




Le 29/03/2013 à 21h 42







HiTz a écrit :



Peux-tu nous en dire plus puisque tu sembles bien au courant? Parce que, pour avoir eu un cours d’interface homme-machine dans mon cursus d’ingenieur info, il me semble que plusieurs critères ergonomiques fondamentaux ne sont absolument pas respectés dans l’interface de Windows 8 tels que la cohérence, l’adaptation, le guidage par exemple. Au contraire, Gnome 3, bien qu’imparfait, semble avoir été imaginé par des personnes maitrisant les dernières avancées de la recherche dans ce domaine.





J’ai bossé quelques temps comme ingé R&D en participant à un projet de recherche concernant les IHM dans les environnements en 3D. L’idée en gros était d’avancer dans l’expérimentation de certains concepts fondateurs d’interaction entre l’utilisateur et l’environnement en ‘full 3D’ de l’applicatif dans lequel il évoluait, en fonction des périphériques à sa disposition en entrée (souris/clavier, souris 3Dconnexion, bras haptique, …) comme en sortie (écran 2D affichant une scène 3D, lunette stéréoscopiques, …).



Le projet était plus composé d’au moins autant de “techniciens” de l’IT que de docteurs en ergonomie et en psychologie.



J’ai pu apprécier la quantité de travail consacré même à des aspects qui peuvent paraître totalement anodins une fois qu’on a le produit fini (genre le placement ou l’ordonnancement de tel ou tel outil, sa représentation), mais qui sont en fait la résultante de centaines d’heures d’études, de tests (eye tracking, entretiens de ressenti x minutes après, de mémorisation un jour après, puis re-décortiquage des minutes, …) auprès de dizaines d’échantillons d’utilisateurs qualifiés, catégorisés, etc…



La boite dans laquelle je bossais était déjà une bonne grosse boite d’envergure internationale. Mais un petit poucet comparé à une boite comme Microsoft, un Apple ou d’autres qui font de l’IHM pour des produits pro (Dassault pour rester en France, …).



Ce me laisse imaginer la quantité de boulot qui est abattue concrètement, chaque jour, avant de n’avoir qu’une seule vraie trouvaille qui fait sens et est visible pour le grand public. Et surtout que Rome et les IHMs ne se sont pas faites en un jour.



Le 29/03/2013 à 20h 06







j-c_32 a écrit :



Je dis simplement “beaucoup de gens disent ‘ce n’est pas ergonomique’” au lieu de dire “ce n’est pas ergonomique pour moi, mais je ne suis pas en mesure de condamner”





Ce que tu disais (et ce que disait Shuttleworth) avec lequel je n’étais pas d’accord c’est l’idée que les critiques sur l’ergonomie sont principalement fondées non pas sur des arguments valables, mais sur des prétextes pour ne pas avouer quelque chose d’inavouable (résistance au changement, incapacité à admettre la diversité des opinions, …).



C’est bien ça que je critique: le débat n’en est plus un à partir du moment où le but n’est plus d’avancer des éléments, mais d’essayer de disqualifier les “adversaires” pour disqualifier leur opinion.



La différence en une comparaison se résume à l’abîme entre les ‘non-arguments’ de Shuttleworth dans l’article que j’ai cités et les arguments, concret, factuels, de Gorkk ci-dessus (comment #55, gros +1 au passage).





Les interfaces de Windows et MacOS sont également fait par des gens peu proches du public.



<img data-src=" /> tu n’imagines manifestement pas la palanquée d’ergonomes et les qu’il y a pu y avoir derrière les moindres décisions prises et chaque avancée.





Lorsqu’ils ont inventé les fenêtres, le principe de la fenêtre leur paraissaient évident, parce qu’ils savaient ce qu’il y avait derrière.

Mais en réalité, il y a tout une partie du public pour qui le concept de fenêtre n’est pas trivial du tout.



C’est plutôt l’inverse, la fenêtre, c’est un concept justement choisi pour se rapprocher de ce qu’on connaît déjà dans la vie de tous les jours: les feuilles de papier qu’on peut disposer, empiler sur un bureau.





Bref, ce n’est pas parce que le grand public utilisait Windows que l’interface de Windows lui était adapté.



Même en admettant que ce ne soit pas le cas:




  • d’une il faudrait expliquer concrètement en quoi les nouveaux éléments ergonomiques sont meilleurs pour cet aspect et pour les autres (on revient au fond du problème, plutôt que vouloir taper sur les arguments d’en face).



  • de deux, le poids de l’existant fait qu’on le veuille ou non, c’est devenue une base commune, connue par à peu près n’importe quelle personne qui a déjà vaguement touché une souris ; ne pas le faire évoluer serait évidemment débile ; mais vouloir tout chambouler d’un coup, c’est obliger à perdre l’ensemble des acquis capitalisés jusque là, c’est donc également une erreur.





    Quand on voit les différences de goûts et de méthodes de travail, comment peut-on sérieusement penser qu’un seul type de bureau est adapté à tout le monde.



    A nouveau, je n’ai jamais dit ça ; c’est même l’inverse quand je dis qu’au lieu d’attaquer la ‘crédibilité’ des personnes (bouh cayDesBarbusQuiVeulentFaireDuL33t) on devrait parler de leurs arguments, ou développer les siens.





    Par contre, j’entends beaucoup de gens dire “les devs de gnome devraient arrêter gnome-shell et ne faire que gnome-classique”. C’est comme ça que j’ai interprété ton message en lisant: “une sorte d’égarement temporaire dans le postulat qu’il faudrait absolument tout révolutionner pour faire du mieux”. Si tu considères que les devs de gnome devraient continuer à développer gnome-shell, pourquoi parles tu d’égarement ?



    L’égarement, c’est pas le fait de vouloir essayer de faire avancer les choses, c’est pas unity ou gnome shell. L’égarement c’est de vouloir tout changer d’un coup comme s’il fallait absolument faire table rase des acquis du passé.







    tu considères que tout ce qui est nouveau est le résultat d’un raisonnement simpliste: ‘c’est révolutionnaire donc c’est mieux’. Il y a un monde de gris entre “n’importe quel changement c’est le mal” et “n’importe quel changement, c’est le bien”)



    A nouveau, je dis pas ça, je dis: l’abus de changement c’est le mal.





    Je pense réellement que les insatisfaits de gnome aujourd’hui n’en sont pas conscient, mais ne seront heureux qu’avec gnome2.



    On retombe dans la caricature: non je ne veux pas ‘zéro évolution’, cf. ci-avant.



    {quote]j’ai souvent changé d’environnement. C’est une expérience très très enrichissante: les 2 premiers mois, on trouve le nouvel environnement “mal conçu, pas adapté” car on ne voit que les choses qu’on utilisait sous l’ancien et qui n’existent plus sous le nouveau. Ensuite, si après 5-6 mois, on repasse à l’ancien environnement, là, on constate l’inverse: sans s’en rendre compte, on a fini par utiliser des fonctionnalités du nouvel environnement qui, maintenant, font que l’ancien environnement est “mal conçu, pas adapté”.[/quote]

    Entre temps t’as perdu 3 à 6 mois de productivité, alors qu’une transition par étape aurait permis d’évoluer en capitalisant sur les acquis.







    Obidoub a écrit :



    Heu… Le sujet c’est Gnome3.





    J’ai dit que ça “résonnait”, tout en précisant que c’est



  • la démarche que je trouve comparable: vouloir tout changer, en prenant le parti que la radicalité dans le changement était une bonne chose, comme si le changement à lui seul consitutait forcément une avancée, alors que c’est la négation de la notion d’acquis.



  • au delà, les propos de Shuttleworth qui voulaient dé-crédibiliser les critiques en les faisant passer pour une minorités de barbus intégristes, alors qu’on voit ici que le mouvement est plus profond que ça.


Le 29/03/2013 à 17h 06







j-c_32 a écrit :



il y a un tas de gens pour qui “ergonomie et efficience” = “LEUR ergonomie et LEUR efficience”.





Non, pas un tas. Tu fais comme Shuttleworth: trouver les cas les plus extrêmes, pour caricaturer tous les autres dans le sens qui arrange to nargumentation.





Au final, depuis 30 ans, on a des interfaces conçues par un groupe de gens non représentatifs des utilisateurs d’ordinateur dans leur ensemble pour un groupe de gens non représentatifs des utilisateurs d’ordinateur dans leur ensemble.



Encore une connerie ; les interfaces graphiques de linux étaient jusque là justement proches de celles justement grand public. Donc à moins de prouver que Windows et MacOS sont des trucs de barbus intégristes, ton argument est un contresens évident.





ce n’est pas rare de trouver des gens qui aiment cette version.



Personne n’a dit le contraire, mais à nouveau ton sous entendu est “ce n’est pas rare = l’opposition d’avant” est bien palpable. Et là ce n’est plus correct.





Bref, on a aujourd’hui plus de choix qu’avant, et c’est tout ce qui compte (n’en déplaisent à ceux qui veulent à tout prix que les alternatives soient arrêtées).



Même principe qu’au début ; tu essaie de caricaturer les propos pour mieux les combattre.





Le pire, c’est que les critiques ne s’arrêteront sans doute pas: tant que le gnome classique ne sera pas identique à gnome2, il sera toujours “pas ergonomique et efficient”.



Encore une fois tu ne veux pas faire la nuance entre “on veut exactement la même chose” et “on veut retrouver les fonctionnalités à mettre en face des usages, qui soient aussi efficientes”.


Le 29/03/2013 à 15h 59



Une partie des utilisateurs regrette en effet le changement radical d’interface et se tourne vers d’autres environnements, notamment MATE qui se veut en quelque sortie l’héritier de GNOME 2.X et de son expérience utilisateur.





Chez moi, ça résonne avec les déclarations de Shuttleworth pour Ubuntu et Unity, quand il parle de ne pas ‘plier’ face à quelques gugus (arbitrairement proclamés) “barbus rétrogrades et épars, qui n’ont rien compris à l’avenir et au grand public, et ne font que vouloir du compliqué pour former une forme de truc exclusif à l33t”.



Ici, c’est un peu une histoire similaire: on a voulu mettre l’accent sur l’eye candy et le truc ‘grand public’ en oubliant la notion d’ergonomie et d’efficience dans les activités de tous les jours.



Au final ils font (au moins partiellement) marche arrière parce qu’ils se rendent compte qu’ils n’ont non seulement pas gagné le ‘grand public supplémentaire’ qu’ils avaient espéré (parce que l’origine du problème de PDM limité n’était pas là), mais qu’en plus leur base historique a fini par se détourner d’eux.



Alors tout n’est évidemment pas comparable, mais dans la démarche, moi j’y vois quelque chose d’un peu similaire ; une sorte d’égarement temporaire dans le postulat qu’il faudrait absolument tout révolutionner pour faire du mieux. C’était oublier un peu vite que les IHM d’aujourd’hui ne sont que l’aboutissement de 30 ans d’évolutions graduelles, et pas le fruit du hasard.


Le 01/04/2013 à 11h 36

Je viens de trouver beaucoup plus amusant comme poisson d’avril.

Le 01/04/2013 à 11h 34







Nerdebeu a écrit :



Z’êtes de grands malins <img data-src=" />





En politique, on appelle ça un ballon d’essai.


Le 01/04/2013 à 07h 23







snowers a écrit :



Si.



L’appel à 1.35 euro puis 0.34 la minute sera tout simplement décompté de son créidt de communication selon les conditions tarifaires habituelles. Par exemple, si il envoie un SMS à 3 euros, bah au lieu d’un crédit de 17.90 euros (pour deux heures), bah il n’aura plus qu’un crédit de 14.90 euros (soit 1h, 39 minutes et 53 secondes).





Je serais curieux que tu me montres où ça se situe dans leurs conditions tarifaires, parce que personnellement j’ai rien vu de tel.


Le 31/03/2013 à 19h 00







wanou2 a écrit :



Oui mais dans ce cas ton jeune ne peut pas demander la couleur de ses yeux au 8 22 22, alors que dans le forfait bloqués c’est possible!





Il ne pourra pas non plus avec un forfait bloqué ; les communications du forfait s’entendent “hors numéros spéciaux”.


Le 31/03/2013 à 08h 53







ExoDarkness a écrit :



Merci beaucoup; j’avait pas envie de l’écrire enfin quelqu’un qui se renseigne avant de placer l’argument du “ctropchér free c mieu”





Sauf que pour garder une once d’objectivité, il aurait fallu préciser que chez Free, seul le forfait à 2€ chez eux ne le permet pas.



Le forfait Free à 16/20€ permet d’activer une option de bloquage pour tout ce qui touche au hors forfait (donc les fameux numéros spéciaux, etc…).


Le 29/03/2013 à 21h 52

vala, c’est ça. <img data-src=" />

Le 29/03/2013 à 09h 46







jethro a écrit :



En Hollande, les coffeshop sont réservés aux nationaux et aux étrangers résidants.





<img data-src=" />



ça c’est vrai que pour la moitié Sud du pays, limitrophe avec la Belgique, et pas trop loin de la France .



Si tu vas à Amsterdam par exemple, la restriction n’est pas en vigueur.


Le 29/03/2013 à 08h 48







oursgris a écrit :



big up aux frontaliers

c’est effectivement l’aventure d’aller dans un pays à quelques km

LE truc de dingue faut prendre ta voiture ou le bus sans oublier ta carte d’identité





+1



Ma femme est ravie: elle passe d’un SFR à 5€ par mois pour un Free à 0€ par mois pour le même usage (de frontalière).



Le 29/03/2013 à 16h 40







Muzikals a écrit :



Nil, c’est quand même sacrément bizarre de mettre en titre de paragraphe “Free et Bouygues, rois des plaintes sur Internet” et JUSTE en dessous, un camembert dont les deux plus grosses parts sont pour Free et ORANGE (et non bouygues) …





La réponse est dans le paragraphe (2ème phrase) que le titre et le graphe illustrent (mais n’ont pas vocation à expliquer à eux seuls): “Rapporté au nombre de clients, le bilan est sévère pour Free, mais aussi pour Bouygues Telecom.”


Le 29/03/2013 à 09h 23







Skeeder a écrit :



Je dirai l’inverse, avec les pourcentage tu compare que d’al, le premier graphe est juste inutile <img data-src=" />

On te le présente comme si le nombre de plaintes mobile avait augmenté,

Alors qu’en fait on n’en sait rien du tout! (en tout cas ce chiffre ne nous donne pas cette information.)





C’est juste que tu ne sais pas lire la légende d’un graphe. Notamment quand dans le titre on parle de “répartition”. Le graphe de répartition a pour but de montrer que ça a monté … comparé aux autres domaines (fixe, internet).



Là où je peux concéder qu’il peut manquer un élément (mais qui est dispo à un clic, dans le rapport de l’AFUTT), c’est le nombre de plaintes par “unité de parc” (l’autre nom d’un million de clients). Genre 45 plaintes par million de clients mobile chez Bouygues (et plus de 60 chez les MVNO).



Ceci étant dit, ce chiffre a peu de valeur ; on t’aurait 450 au lieu de 45, ça t’aurait choqué ?



Evidemment non, c’est comme la différence entre un micromètre et un nanomètre pour le quidam moyen ; on peut difficilement se le représenter autrement qu’en se disant que c’est mille ou un millions de fois plus petit que telle autre valeur qu’on connait. Donc en le comparant.



Idem ici: l’intérêt c’est encore une fois de comparer les opérateurs entre eux.





Le 29/03/2013 à 09h 01







Winderly a écrit :



Que des pourcentages…je peux comprendre qu’on aime les pourcentages mais ne faire que et rien que des pourcentages pffffff.





Peut être parce que ce sont les pourcentages qui sont les seuls pertinents puisque ce sont les seuls permettant de comparer des choses comparables.



Si t’as un service avec 10 clients dont 5 par jour se plaignent et un autre avec 10 000 clients et dont 5 par jour se plaignent, on est pas dans le même monde.



<img data-src=" />


Le 29/03/2013 à 14h 27







Twiz a écrit :



J’allais le dire, c’est une grosse arnaque ! De plus, un crédit à taux variable on sait à quel taux on commence mais pas à quel taux on termine ! Souvenez-vous des subprimes au States …





3 énormités en une phrases <img data-src=" />



Cette inculture en matière économique di Français moyen m’étonnera toujours.


Le 29/03/2013 à 13h 14







David_L a écrit :



Le modèle uniquement payant est viable : la presse papier, Mediapart pour le côté en ligne.





La presse papier est sous perfusion, elle ne survit que grâce à un subventionnement public et le mécénat plus ou moins déguisé. Le Monde, journal de référence en France montre avec éclat cette réalité.



La presse en ligne est dans le même cas: un ado de 17 ans qui vend 20M$ une appli à Yahoo, c’est une exception qui ne doit pas cacher la règle de millions d’applications sur smartphone qui ne peuvent pas faire vivre leurs auteurs même au tarif horaire d’un chinois asmathique.



Médiapart ou Arrêt sur Images, ce sont là aussi des exceptions qui peuvent à peu près survivre grâce à la vente d’une marque forte au delà du contenu. Et pour avoir cette marque, ça revient à avoir su se faire connaître pendant des années auparavant … avec un modèle autre que le modèle payant.



Donc une des composantes du modèle payant reposerait bien sur la capitalisation acquise au départ par le modèle qui a permis de faire prendre de la valeur à la ‘marque’. Et on n’aurait même pas encore abordé la valeur de leur positionnement “unique” sur le marché, ce que PCI n’a pas.







David_L a écrit :



il suffirait de 20 000 abonnés à PCi pour que ce soit le cas, ça reste jouable.





On parle d’un facteur 20 (non mais allo quoi <img data-src=" />), c’est pas ‘jouable’, mais ‘totalement utopique’. Si j’avais en un coup de baguette magique 20x mon patrimoine, ça ferait longtemps que j’aurais racheté ma boite (pis une ou deux autres, tiens). Le monde réel c’est pas exactement ça.



Au mieux, si tu fais 50% d’abonnés en plus en forçant un abonnement payant, tu peux déjà t’estimer ultra chanceux.



Le 29/03/2013 à 12h 33

<img data-src=" /> my mistake, j’ai mal compris. J’étais resté sur l’histoire de Athropos et de Jeje07 avec un contenu uniquement accessible aux premiums.


Le 29/03/2013 à 12h 22







RaYz a écrit :



Ué sauf que la tu prends le gain du nombre de premium, moi je te parle de payer un abo équivalent à tous les lecteurs <img data-src=" />







Le ratio chez PCI est dans la norme de ce qui s’observe un peu partout sur le net: 1% à 2% de gens prêts à payer, pas plus (et encore: 2% t’es déjà béni des dieux).



Le nombre de premium chez PCI comparé aux inscrits, c’est la réalité de ceux qui sont prêts à payer et qui iront voir ailleurs sinon (même si c’est moins bien ailleurs, pourvu que ce soit gratuit). L’utopie, c’est de croire que tous ceux qui sont inscrits seraient prêt à bourse délier, aussi dérisoire que soit la somme.



Je parle par expérience. Je fournis moi aussi du service sur le net ; si l’hypothèse que tu décris était plausible, en considérant qu’un utilisateur qui passe plus de 30 heures devant ton service, pourrait raisonnablement payer un euro, je serais déjà millionnaire. En réalité je ne rentabilise même pas le coût des infras.



Le 29/03/2013 à 11h 49







RaYz a écrit :



Et si je prends un abo soutien équivalent à l’ensemble des lecteurs ? <img data-src=" />

(Bon je gagne au loto d’abord et après je le fais <img data-src=" />)





Mouais, enfin c’est peu ou prou le prix d’une voiture familiale, pas celui d’un yacht non plus.



Sur l’ensemble de l’année, cela représente un gain de 26 500 €



Pour une comparaison plus pertinente, ça finance pas un seul salaire décent à temps plein.



De quoi jeter une pierre dans le jardin de ceux qui affirment qu’un modèle économique pour un modèle sans pub + abonnement payant est viable (cf. les réactions, nombreuses, de YakaFoKon-moiJeSaisTout lors du buzz autour du blocage de pub par Free).





EDIT:





Athropos a écrit :



Je crois au modèle d’abonnement pour du contenu de qualité, et à celui de la pub pour des news bâclées lues en 5 secondes.





CQFD.



Le 29/03/2013 à 10h 41







carbier a écrit :



Et pourtant j’ai passé un certain temps à chercher s’il y avait un cache quelque part <img data-src=" />









David_L a écrit :



Oui, moi j’en ai toujours une copie <img data-src=" />





Oui mais là c’est plus une copie en cache, c’est une copie cachée.



<img data-src=" />


Le 29/03/2013 à 00h 15







carbier a écrit :



Je suis tombé sur PCI un peu par hasard





Et après certains osent dire que le hasard fait bien les choses. <img data-src=" />


Le 28/03/2013 à 23h 12







Teuf a écrit :



(…)





Merci pour les précisions.





le coût des licenciements pour les journalistes ont été énnnnnnnnnnormes



Vu dans la convention collective des journalistes: 5 fois le minimum légal. Effectivement, ça gratouille un peu.



De quoi flinguer encore plus une boite qui n’est pas au top de sa forme (du capt’ain obvious, vu qu’elle licencie).



Le 28/03/2013 à 21h 35

Une question vu le graphique de l’article en 2008: comment le résultat de PCI a plongé de plus de 250k€ en un an alors que le CA a accusé une baisse de ‘seulement’ 100k€ ?



L’année 2008 est particulièrement hors du commun comparé à toutes les autres années qui -elles- sont grosso modo structurées de façon similaire au niveau ratio CA / bénéfices. C’est 2008, et elle seule, qui a plombé complètement la boite.



Que s’est-il passé cette année là exactement ?


Le 28/03/2013 à 15h 52







thekamaster a écrit :



Mais comme c’est payé à l’affichage ici, retirer un max d’AdBlock ferait rentrer un max d’argent dans les caisses quand même.





Oui et non, car ça ne change pas forcément grand chose au final.



L’annonceur se rend compte en fin de campagne que sur PCI il a 10 000 affichages pour un clic (ou une transformation) alors que sur le site voisin ou il affiche les même pubs, le taux est de un pour mille. Alors le prix de l’affichage sur PCI va finir par baisser petit à petit pour valoir jusqu’à un dixième de celui du site voisin.



Ca rejoint ce que je disais avant: le problème principal est que pour un site dont le public cible est celui du technophile, celui qui ne “voit” plus la pub (qu’elle soit bloquée ou non) ; la rémunération par la pub est bien moins aisée sur un site de technophile que pour un site attirant en priorité des Mme Michu.



Le 29/03/2013 à 12h 45







Razorgore a écrit :



“Maintenant, il n’y a plus qu’à espérer que les joueurs sont des gens qui ont plus de 5 ans d’âge mental et qui ont intégré que le plaisir du jeu n’est pas que dans le résultat final; et donc qu’ils utilisent le jeu plutôt que l’hôtel des ventes pour s’équiper”



GAMERZ FAIL





<img data-src=" />



La logique n’est pas en cause, elle serait valable pour des gens normalement constitués. Le problème ici c’est les joueurs.


Le 29/03/2013 à 12h 42







RaYz a écrit :



Ué sauf que quand tout le monde gueule et personne trouve que c’est une bonne idée, faut se poser des questions.





L’article explique que Blizzard lui-même n’est pas capable de quantifié ton “tout le monde” (10% mais plus bruyants que la moyenne ? 50% ? 90% ? 99% ?) et ton “personne”.



Et toi tu viens nous la jouer style “j’ai pas 1% des infos que Blizzard a, mais c’est une évidence, ils sont vraiment trop neuneus” <img data-src=" />



Le 28/03/2013 à 23h 18







razcrambl3r a écrit :



Tout le monde n’a pas cette “connexion” préhistorique qu’est l’ADSL hein <img data-src=" />





48h, c’était le temps estimé pour les fibrés. <img data-src=" /> <img data-src=" />