votre avatar Abonné

Rozgann

est avec nous depuis le 16 janvier 2008 ❤️

1106 commentaires

Le 30/03/2013 à 18h 43







sr17 a écrit :



Dans le très grand public, il n’est pas rare de trouver des gens qui utilisent l’informatique quotidiennement depuis 20 ans dans leur entreprise.





Combien savent les exploiter au meilleur de leur possibilité ? Si tu demandes à un non-geek à quoi servent certains icônes sur leur bureau, souvent ils ne sauront pas répondre. Dans la liste des applications installées, ils en connaissent pas la moitié. C’est là, ils savent pas ce que c’est, ils y touchent pas de peur de faire une bêtise. Ils font les choses par automatisme, parce qu’on leur a appris à faire comme ça, sans comprendre la logique derrière.







sr17 a écrit :



Est t’il donc vraiment pertinent de créer aujourd’hui des interfaces simplifiées “pour utilisateur utilisant l’informatique seulement de manière occasionnelle” sachant que nous serons TOUS amenés à un usage intensif. Dans le futur, l’administration sera dématérialisée. Et les entreprises continueront probablement à utiliser les formes d’interfaces qui sont orientées vers la meilleure productivité.





L’informatique va se développer dans tous les secteurs de l’économie c’est certain. Mais c’est faux de dire qu’on va tous travailler assis devant un ordinateur de bureau. Dans le BTP, l’agriculture, les artisans/commerçant, même s’il vont aussi utiliser des outils informatiques, les outils mobiles et tactiles sont plus adaptés à leurs besoins. Je pense justement qu’on aura des outils très divers et que la part de marché relative des ordinateurs de bureau va diminuer, même si en valeur absolu ça va se maintenir.







brazomyna a écrit :



Je plussoie l’argument global … auquel on peut ajouter le fait que dans notre monde réel, à peu près tout ce qui a moins de 60 ans a déjà utilisé un ordi … et donc à peu près tous sous Windows, donc.





Mouais. On est 7 milliard d’humains sur terre. Seulement 2,5 millliard d’internautes si j’en crois Wikipedia. En extrapolant un peu, il doit bien y avoir la moitié de la population mondiale qui n’a jamais touché à Windows.

Ensuite, avec le développement du marché des smartphones et des tablettes, je suis certain que de plus en plus de particuliers vont se passer d’un ordinateur. Pour avoir vécu quelques temps en Inde, je connais des nouveaux riches qui ont directement acheté un iPad sans passer par la case ordinateur. C’est assez courant en Inde et je suppose que c’est aussi le cas dans les autres pays émergents. Actuellement, la norme, c’est d’avoir un ordinateur. La tablette est un gadget en plus pour ceux qui en ont les moyens. A l’avenir, je pense que la norme sera l’appareil mobile, et l’ordinateur de bureau sera réservé à ceux qui en auront un réel besoin.







brazomyna a écrit :



A la limite, pourquoi pas si ça peut faire sens pour 1% des utilisateurs qui n’ont jamais approché un ordi, ça a parfaitement le droit (et le mréite) de coexister. Mais qu’un projet comme GNOME (pour GS) ou Unity (pour Ubuntu) en fasse le choix principal, celui dans lequel on injecte la majorité des ressources, des efforts, des espoirs et des visions de futur du desktop, c’est une faute.





A la rigueur, je peux comprendre ta remarque pour Gnome-shell. Mais tu peux m’expliquer en quoi Unity Desktop est plus inspiré du mobile que Mac OS X ? Ensuite, que je sache, Gnome a le droit de développer ce qu’il veut, et en plus, c’est un projet libre. Si la direction ne te convient pas, tu peux créer un fork à tout moment. Personne n’a mis un pistolet sur la tempe des développeurs Gnome pour partir dans la direction qu’ils ont pris, ils ont simplement un avis différent du tien auquel ils croient. Ils se trompent peut-être, mais je vois pas ce qui te permet de vouloir leur imposer une autre direction. Celui qui cherche à imposer sa vision des choses aux autres sans tenir compte de l’avis des autres, ça me semble être toi.







brazomyna a écrit :



Exactement. Mode qui pourrait se défendre si elle ne posait pas des régressions en terme de productivité.



Les naif-utopistes qui courent après le Saint Grall de l’IHM universelle (ou du bout de code universel, ou du desgin pattern universel, ou…) ça a existé de tous temps.



Ce qui est triste c’est que ça existe encore malgré les innombrable contre-exemples et autres précédents de l’histoire.





Je suis d’accord sur le fait qu’une bonne interface doit s’adapter en fonction du matériel avec lequel elle est utilisée (périphériques d’entrée et de sortie). Ca veut pas dire pour autant que l’interface de Gnome 2 soit l’apogée de l’ergonomie pour ordinateur de bureau. Par exemple, minimiser une application dans la zone de notification, c’est tout sauf logique et intuitif, mais c’est une astuce nécessaire pour pallier aux lacunes des barres de tâches. Les barres de menu avec “Fichier, Edition, etc…”, on fait ça par convention, mais très souvent ça ne suit pas une organisation logique non plus. Encore une fois, c’est une bonne chose que certains projets expérimentent de nouvelles approches, et personne ne t’empêche d’utiliser MATE ou Cinnamon si ça te convient mieux…


Le 30/03/2013 à 13h 31







Gorkk a écrit :



Donc, d’après ce que tu dis, ils ont tout refait en perdant la capacité a être utilisé efficacement pour un usage poussé, dans l’optique de faire une ergonomie pour un usage “moyen”, et au final ils sont juste “pas plus mauvais qu’un autre” ? Pour cet usage “moyen”, ils étaient déjà “pas plus mauvais qu’un autre” avant (en fait pour cet usage, Windows 3.1 est aussi “pas plus mauvais qu’un autre”), donc rien de changer de ce côté là ; par contre c’est la catastrophe pour l’usage poussé.



Quel est l’intérêt donc ? “On fait pas mieux sur le créneau principal et on fait moins bien sur les autres”, chez moi j’appelle ça un énorme “fail”… Après sur Gnome 3 il y a des évolutions techniques sous-jacentes qui sont intéressantes, cela va sans dire.





J’ai mis “pas plus mauvais qu’un autre” pour ne pas revenir sur le débat du nombre de clic entre Gnome-shell, Unity et Gnome-panel. Mais pour un utilisateur moyen, je pense que Gnome 3 est meilleur que ce qu’était Gnome 2, et pour un néophyte, c’est le meilleur environnement qui existe, alternatives propriétaires incluses. A noter que je me considère pas comme un utilisateur moyen, mais comme un utilisateur avancé. C’est d’ailleurs pour ça que je préfère KDE, qui vise en particulier à répondre aux besoins des utilisateurs avancés. Vu que tu postes des commentaires sur PC INpact, tu dois aussi être plus qu’un simple utilisateur moyen.



Comme je le disais dans un commentaire précédent, j’ai installé Gnome 3 à mes parents et grand-parents. Mais avant de choisir Gnome, j’ai installé plusieurs distributions dans des VM et je les ai fait tester à ma mère (utilisatrice néophyte qui sait lancer Firefox, Thunderbird et le solitaire), et à ma sœur (utilisatrice moyenne, qui passe son temps sur Facebook, qui regarde des films, qui discute sur Skype et qui doit parfois rédiger un document pour l’université). Je leur ai fait tester KDE 4, Gnome 3 et Unity. J’avais pas confiance en l’avenir à long terme de MATE pour les former à ça, j’ai pas non plus fait tester Cinnamon, parce que 3 DE ça fait déjà beaucoup. C’est sur cette expérience que je me base pour affirmer que Gnome 3 est mieux adapté pour un utilisateur moyen.



J’ai commencé par KDE 4, parce que c’est le DE que j’utilise au quotidien, et que c’est celui qui est le plus proche de Windows XP qui était installé sur l’ordinateur de mes parents. Je leur ai montré comment l’utiliser, j’ai ajouté un plasmoïde avec les photos de vacances qui défilent, la météo, elles ont trouvé ça sympa. Je leur ai montrer comment retrouver leurs documents, etc… Ma mère a trouvé l’environnement assez familier, elle m’a dit qu’avec le temps elle s’y habituerait mais qu’il fallait que je lui installe tout bien parce qu’elle serait pas capable d’ajouter un nouveau plasmoide par exemple, c’était trop compliqué. Pour l’utiliser, elle apprenait par cœur comment faire, sans trop comprendre ce qu’elle faisait parfois. Et surtout, elle avait peur de se tromper, il y a beaucoup de choses dans les menus qu’elle ne comprenait pas et elle cherchait à les éviter. Exactement ce qu’elle faisait avec Windows XP d’ailleurs.



Ensuite, je leur ai fait essayer Unity. Là, la première remarque, c’est que c’était joli. Ma sœur a remarqué que “les boutons de fenêtres sont à gauche, comme sur Mac”. Là aussi je leur ai fait le tour du propriétaire, je leur ai montré les bureaux virtuels “comme sur Mac” mais je suis pas certain qu’elles aient saisi l’intérêt, ma sœur a bien aimé qu’on puisse changer son statut de messagerie instantanée directement depuis le bureau. Puis j’ai laissé ma mère prendre le système en main. Au début, elle avait pas dû bien suivre mes explications parce qu’elle avait pas compris que le lanceur faisait aussi office de gestionnaire de fenêtre. Donc quand elle a eu une fenêtre maximisée, et qu’elle voulait passer à une autre fenêtre, elle savait pas quoi faire et elle a réduit la fenêtre. Pour la remettre, elle a cherché un moment puis elle a fini par cliquer sur l’icône de l’application dans le dock, ce qui l’a rétabli. Elle a fini par comprendre le système, mais ça a pas été immédiat. Par contre, le dash l’a complètement perdue. La distinction applications récentes/installées/téléchargeables l’a perturbée. Je lui ai dit qu’elle pouvait passer par le champ de recherche, mais elle trouvait ça plus compliqué.



Donc on est passé à Gnome-shell. Je lui ai dit que ça ressemblait pas mal à Unity, que les applications étaient les mêmes, et je lui ai directement donné la main sans lui montrer quoi que ce soit d’abord. Elle est tout de suite allée cliquer sur Activités et elle a lancé Firefox. Là ce qui les a d’abord surprises, c’est qu’il n’y ait qu’un bouton “Fermer”. Ma sœur m’a dit “Sur l’ordinateur de Mamie, elle a souvent des applications minimisées qu’elle pense avoir fermé. Au moins avec ça, elle pourra que les fermer”. Elle m’a demandé comment les maximiser, et je lui ai montré qu’il fallait la tirer vers le haut, et qu’on pouvait en mettre 2 à côté en les tirant vers les côtés. “Ah oui, tu m’avais montré ça sur Windows 7, mais j’avais oublié.” C’est aussi possible sur les 2 autres DE mais j’avais pas pensé à leur montrer. Je lui ai demandé de passer à une autre application, et là encore elle est directement aller cliquer sur “Activités” et elle a cliqué sur l’autre fenêtre. Puis elle m’a demandé à quoi servait les trucs sur la droite, et je lui ai montré les espaces de travail, et elle a trouvé le système intéressant.



Au final, elle a trouvé que Gnome était le plus simple a utilisé pour elle, et je le leur ai installé. Quelques temps plus tard, je l’ai même vu laisser Thunderbird ouvert sur un espace de travail et lancer son gestionnaire de fichier pour modifier un document sur un second espace de travail, chose à laquelle je m’attendais vraiment pas. J’ai l’impression que la simplicité et l’immédiateté de l’interface font qu’elle avait pas peur de casser quelque chose, et donc elle était en confiance pour essayer d’utiliser ces espaces de travail. Sur un autre DE, si un utilisateur moyen change de bureau virtuel, il va voir que toutes les fenêtres sont parties et ne sont plus visibles, c’est qu’il doit avoir fait une connerie et que tout est fermé. Ma sœur m’a demandé si elle pouvait aussi installer ça sur son portable, parce qu’elle trouvait ça mieux que Windows 7, mais elle a besoin de MS Office pour ses cours, donc je lui ai dit que pour l’instant il valait mieux qu’elle garde ce qu’elle avait et qui marchait.



Tout ce roman pour montrer que si, au moins dans mon expérience personnelle, ils font quelque chose de mieux pour l’utilisateur moyen, et de beaucoup mieux pour le néophyte. Et je pense pas qu’il ait perdu la capacité à être utilisé dans un usage poussé. Honnêtement, j’ai très rarement à faire des allers-retours réguliers avec plus de 2 applications. Et dans ce cas, sous Gnome, tu peux les mettre côte-à-côte sur l’écran très facilement. Simplement ce n’est pas un réflexe évident quand on est habitué à utiliser une interface classique (et sur un écran de moins de 17”, c’est vrai que c’est pas le plus pratique non plus). Bon je vais arrêter de prêcher pour Gnome, surtout que je suis aussi très critique envers eux pour plein d’autres choses (leur problème de Not Invented Here et leur manque de coopération avec les autres acteurs du libre en particulier). Mais je comprends pas bien ce besoin de critiquer leurs choix, alors qu’ils continuent dans la droite ligne de ce qu’ils ont toujours fait, et qu’il existe des alternatives comme Cinnamon pour ceux dont les besoins ne sont pas couverts par Gnome. L’attachement émotionnel certainement.


Le 30/03/2013 à 00h 04







_fefe_ a écrit :



pourtant, ici, tu disais “Quand les gens ont commencé à gueuler que Gnome 3 c’était de la merde”



c’est gentil de préciser, parce que ça ne transpirait pas vraiment dans tes commentaires





Je viens de relire mes 4 commentaire sur cette actualité, et je vois pas du tout en quoi je les stigmatise “les gens qui ont gueulé que Gnome 3 c’était de la merde”. Je dis juste que c’est le bordel autour de Gnome 3 qui a fait que je l’ai essayé, et que je suis pas d’accord avec eux. Ca ne veut pas dire qu’ils ont pas le droit d’avoir cet avis et encore moins que tous les projets concurrents sont nuls. Relis mes commentaires, sans apriori cette fois, et tu verras que j’explique ce qui fait que j’aime bien dans tel ou tel projet, et les seules critiques que je fais, ce sont des critiques (constructives si possibles) de Gnome 3 !







_fefe_ a écrit :



Je situe le respect des “valeurs fondamentales” en amont. Le choix de mon environnement de bureau est purement fonction de l’ergonomie.





Tu peux pas avoir un bureau ergonomique pour tous les usages. Il faut définir un usage cible, et faire des choix d’ergonomie en fonction. C’est ça que j’appelle assez maladroitement les “valeurs fondamentales”, ce qui fait l’identité du projet. Je suis pas designer, il doit y avoir un terme plus adapté.



Manifestement, si ton utilisation nécessite de jongler avec beaucoup de fenêtres très rapidement, tu dois pas faire partie de la cible principale de Gnome, et il doit y avoir d’autres environnements qui conviennent mieux à ton utilisation. C’est un fait, et les développeurs Gnome n’ont jamais prétendu que Gnome-shell était le plus ergonomique pour cet usage. Par contre, pour l’usage d’un utilisateur moyen (web/email/bureautique/photos/vidéos/musiques), il se débrouille pas plus mal qu’un autre.







_fefe_ a écrit :



tu devrais relire les réponses de l’équipe gnome aux critiques lors du lancement de gnome 3.

AMHA, ils ont perdu plus d’utilisateurs qu’ils n’en ont gagné.

D’où ce revirement (sans le nommer) tardif.





Après lecture de cette interview d’un des principaux designer de Gnome sur l’avenir du projet, le revirement n’est pas vraiment évident… J’ai même pas du tout l’impression qu’il cherche à faire revenir les gens qui sont partis. Il ne cite pas le mode classique parmi les nouveautés de Gnome 3.8, et il est pas tendre avec ceux qui veulent conserver une expérience proche de Gnome 2.


Le 29/03/2013 à 21h 53







_fefe_ a écrit :



tu n’écoutes pas, tu ne réponds pas et tu bottes en touche. Ton prochain commentaire sur le sujet stigmatisant les utilisateurs qui “gueulent que c’est de la merde” ne changera rien à la réalité : les utilisateurs de gnome 2 insatisfaits de l’évolution sont allés voir aileurs.





Merci de me faire dire ce que je n’ai pas dit… Je me considère comme quelqu’un “d’extérieur” à Gnome, je n’ai jamais eu d’attachement particulier ni à Gnome 2 ni à Gnome 3, et je trouve en fait que la création de Cinamon est une bonne chose. Plus de diversité, plus de choix, plus de retour d’expérience, je vois aucun problème à ça.



Gnome 3 est tout à fait en accord avec les valeurs fondamentales du projet Gnome. Les membres de la communauté Gnome qui ne partageaient pas ces valeurs, ou pour lesquels il y avait des valeurs fondamentales supplémentaires, se sont reportés sur les projets Cinamon et MATE. Parmi tout les utilisateurs de Gnome 2, une partie l’appréciait pour des raisons qui ne faisaient pas partie de son identité. C’est ça que je dis, rien de plus.



Pour répondre clairement à ta première question sans “botter en touche”, si KDE change toute son ergonomie en conservant les mêmes valeurs fondamentales, en faisant quelque chose qui va plus loin dans la même direction, je ne pense pas que j’irais voir ailleurs, parce que je suis plus attaché à la vision du bureau KDE qu’à son implémentation actuelle.







_fefe_ a écrit :



Un revirement x mois plus tard risque de ne pas changer grand chose. À se demander pourquoi ils réintroduisent un bureau classique.





En même temps, leur bureau classique n’est qu’une collection d’extensions qui existent déjà. L’effort de développement et de maintenance est vraiment minimal pour eux. Et ils ont une chance d’apaiser les critiques qui sont faites contre eux en terme d’écoute de leurs utilisateurs. Mais si tu veux mon avis, c’est plutôt un truc opportuniste pour récupérer des utilisateurs qu’un vrai changement de cap.


Le 29/03/2013 à 21h 21







_fefe_ a écrit :



Pour moi c’est l’inverse : je n’ai jamais accroché à KDE.



Ben voilà : imagine que les dev de KDE, du jour au lendemain, changent radicalement l’ergonomie de KDE au point qu’un utilisateur de gnome 2 l’apprécie.

Probablement, ça ne te conviendrais plus et tu ne te gênerais pas pour dire ce que tu en penses (et non pas c’est de la merde) et tu te tournerais vers un fork de l’ex-KDE.





Le fait que j’apprécie les environnements KDE et Gnome n’a pas grand chose à voir, je les apprécient pour des raisons différentes. Enfin il y a une chose en commun : chaque projet a sa vision propre de ce que doit être un environnement de bureau, et leurs applications sont cohérentes avec cette vision. Quand il y a des choix à faire, ils cherchent pas à plaire à tout le monde, ils se basent sur les fondements qui définissent le projet.



J’ai pas l’impression que les objectifs de Gnome aient vraiment changés avec Gnome 3. Ils ont toujours eu la même philosophie : des applications qui font peu de choses mais qui le font bien. Ils ont toujours privilégié la simplicité aux possibilités de configuration. Gnome 3 et Gnome-shell sont issues en droite ligne de ces valeurs. Je trouve que l’évolution est très logique. Si tu aimais Gnome pour ses possibilités de configuration, c’était pas fait de façon volontaire par les développeurs. C’était une conséquence plus qu’une partie de son identité propre.



Le passage de KDE 3 à KDE 4 a aussi suivi le même schéma. La manière d’utiliser son PC a changé entre les deux environnements, tout le bureau Plasma est basé sur les widgets, Nepomuk et le bureau sémantique étaient assez gourmand en ressources, l’intégration des données personnelles dans le bureau a demandé de gros travaux dans Kontact, qui est longtemps resté inutilisable. Tout ça a fait beaucoup de mécontents aussi. Mais les principes de KDE sont restés les mêmes : permettre à chacun d’adapter son environnement à ses goûts et à ses besoins. Il a fallu changer beaucoup d’habitudes, mais au final, Plasma est beaucoup plus agréable à utiliser que KDE 3, et offre beaucoup plus de possibilités.



La transition a peut-être été un peu mieux gérée du côté de la communauté KDE, ils ont certainement été plus à l’écoute des besoins des utilisateurs, mais leur volonté de sortir les versions rapidement quitte à ce qu’il y ait des bugs a créé pas mal de tension. Certains se sont plaints qu’on ne puisse plus l’utiliser sur des petites configurations (moins de 512Mo de RAM), ils ont clairement dit que ça n’était pas dans leurs priorités. Et il y a aussi eu un fork de KDE 3, Trinity. Mais KDE comme Gnome sont restés fidèles à leur identité propre je trouve.


Le 29/03/2013 à 17h 53







GutsBlack a écrit :



Le gestionnaire de fichier en 3.6 était surtout une première ébauche, le but c’était surtout de le réécrire complètement parce qu’il était trop lourd à faire évoluer tout ça. J’imagine que l’on verra d’içi peu des fonctions sympa arriver.





Oui enfin ils auraient pu faire ça dans une branche de développement et attendre d’avoir quelques unes de ces nouvelles fonctions sympa avant de publier. Ne pas avoir de fonctionnalités uniquement accessibles par clic droit, ça fait partie des UX Guidelines de Gnome (et de la plupart des projets qui s’intéressent un tant soit peu à l’ergonomie), c’est dommage qu’une application majeure ne les respecte pas. Et c’est toujours le cas 6 mois plus tard, puisque je crois pas que ce soit résolu en 3.8. C’est d’autant moins compréhensible que la plupart des décisions qu’ils prennent sont justifiés par l’ergonomie et l’accessibilité facilitée.


Le 29/03/2013 à 17h 08

J’ai jamais vraiment compris ce que les gens trouvaient à Gnome 2. Pour moi c’était très basique, ça manquait d’homogénéité, j’ai jamais compris pourquoi il n’y avait pas un centre de configuration unifié, etc… Bref, j’ai toujours préféré KDE. Quand les gens ont commencé à gueuler que Gnome 3 c’était de la merde, j’ai voulu en juger par moi-même, et je dois dire que j’ai vraiment été agréablement surpris. J’ai trouvé leur environnement vraiment plus cohérent, plus agréable à utiliser qu’avant. Je continue à utiliser le bureau Plasma de KDE parce qu’il est beaucoup plus configurable et que je peux l’adapter à mes besoins, mais je trouve que Gnome 3 est vraiment une amélioration sur ce qui existait avant du côté de chez Gnome. D’ailleurs j’ai installé une openSUSE avec Gnome 3 chez mes parents et grand-parents, et ils se sont adaptés très vite.



Et Gnome 3, c’est pas uniquement Gnome-shell. J’aime bien leur nouveau modèle pour les applications : les fonctionnalités qui concernent toute l’application sont regroupées dans le menu qui apparaît quand on clique sur le nom de l’application dans la barre du haut. Les fonctionnalités qui concernent la fenêtre sont dans le menu avec un icône d’engrenage en haut à droite de la fenêtre, et les fonctionnalités contextuelles (qui concernent un élément sélectionné par exemple) sont présentées dans une barre qui apparait en fonction du contexte. “Documents”, qu’on voit sur la troisième capture, en est un bon exemple. Avec ce système, ils peuvent se passer de barre de menu pour les applications qui n’en ont pas un besoin absolu. Comme la philosophie Gnome, c’est des applications qui font peu de choses mais qui le font bien, les barres de menu peuvent être facilement remplacées. Et là encore, ça donne une vrai cohérence à tout Gnome, et ça facilite beaucoup l’utilisation pour les néophytes, qui font partie de leur cible principale.



Bon après, ils sont critiquables sur pas mal de points. Par exemple, ils ont adapté leur gestionnaire de fichiers à ce nouveau système avec la version 3.6, mais ils l’ont fait à moitié. A mon sens, il manque une barre contextuelle qui apparaisse quand on sélectionne des fichiers. Du coup, obligé de passer par un clic droit pour faire un copier/coller, ce qui est très peu intuitif pour les néophytes. En même temps, avec toutes les applications dédiées à chaque type de données, un gestionnaire de fichiers est pas forcément indispensable pour un néophyte. Je suis pas non plus convaincu de l’intérêt d’ajouter leur onglet “Récent” dans le lanceur d’application pour Gnome 3.8. Ca rajoute une étape de plus pour aller parcourir les applications installées et celles qu’on utilise souvent, en général elles sont épinglées dans le dock à gauche. Ca enlève un peu à la simplicité et à l’immédiateté de Gnome-shell je trouve. Un autre truc qui me dérange avec le lanceur de Gnome-shell, c’est les noms des applications qui sont seulement sur une ligne, et qui sont coupés s’ils sont trop longs. Sur la première capture, deuxième ligne dernier icône, il y a plein de place sous l’icône mais ils ne mettent pas le nom entier. En français où on a beaucoup de noms à rallonge, c’est vraiment gênant et le problème est là depuis la toute première version…

Le 24/03/2013 à 22h 55







foetus a écrit :



Sans jamais oublié, le truc purement français qui embêtent tous les étrangers: les liaisons de fin et début de mot systématique <img data-src=" /> <img data-src=" />





En fait, en français, la mélodie et la fluidité de la parole sont plus importants que la simplicité grammaticale. C’est la principale raison à la plupart des exceptions, ça sonne mieux que si on suivait la règle.



D’ailleurs, dans la vidéo, le caméraman s’étonne qu’on prononce 71 “soixante et onze” et qu’on utilise pas “et” pour 81. Le “professeur” lui dit que la règle est comme ça, comme s’il n’y avait aucune logique, mais en fait c’est simplement que c’est beaucoup plus fluide de dire “soixante et onze” que “soixante onze”, et de dire “quatre vingt un” que “quatre vingt et un”. La fluidité et la facilité de prononciation, toujours… enfin bien sûr, comme on parle de français, il doit bien y avoir une exception à cette règle <img data-src=" />


Le 22/03/2013 à 18h 03

Kdenlive est aussi basé sur MLT, comme la version actuelle de OpenShot. Donc s’il y a des bugs au niveau du framework, ça doit impacter les deux applications.



Je me demande ce qui a poussé l’équipe OpenShot à repartir de zéro plutôt que de corriger les bugs dans MLT. Ce genre de bibliothèque est typiquement un composant qui peut bénéficier de la coopération entre plusieurs projets, tout en permettant une concurrence au niveau de l’interface de l’application. Enfin vu la complexité d’une telle bibliothèque, ils doivent avoir une bonne raison, mais je serais curieux de savoir laquelle.

Le 20/03/2013 à 11h 41

Donc si je comprends bien, BB10 n’a pas reçu la certification, mais seul BB7 l’avait reçue. En lisant le titre de la news, j’ai cru que c’était par rapport à la concurrence (iOS, Android, Windows Phone,…). Ca aurait été un comble alors que la sécurité est un des arguments de vente de Blackberry. Mais il n’en est rien au final. Et ça sera certainement réglé avec une prochaine évolution de l’OS.

Le 17/03/2013 à 11h 21







RedlanceEQ a écrit :



Autre vidéo:youtube.com YouTubeJoueur du Grenier en a sortie une hier soir (ou ce matin vu que c’était passé minuit) sur les jeux Disney. <img data-src=" />





Enorme, avec de la vraie parodie de chansons Disney dedans ! <img data-src=" />


Le 11/03/2013 à 16h 49

Une petite version tactile basée sur QML pour Ubuntu Touch / Plasma Active / Blackberry Playbook, c’est pas au programme ? En plus, le support officiel d’Android et iOS devrait arriver avec Qt 5.1. Et je pense qu’il est aussi possible de faire des applications pour Windows 8/RT, vu que Krita Sketch tourne sous Windows 8. Ca permettrait d’avoir une application tactile multiplateforme comme c’est le cas pour la version Windows/Mac/Linux. Peut-être pour une prochaine version.

Le 10/03/2013 à 14h 05







Drepanocytose a écrit :



+1

Et d’ailleurs je me demande ce qu’ils font chez KDE…

L’explorateur de fichiers c’est quand même un des trucs les plus visibles sur un OS. Le navigateur aussi.

Donc ne pas soigner aux petits oignons un soft qui fait les 2 mêmes temps sur son offre logicielle, c’est un peu étrange.





Personnellement, je trouve que c’est assez contre intuitif de regrouper navigateur internet et gestionnaire de fichier. C’était peut-être le standard à l’époque, mais aujourd’hui je préfère avoir deux applications différentes. Ils soignent quand même beaucoup Dolphin, qui est largement au niveau de la concurrence libre et propriétaire au niveau ergonomique, tout en offrant beaucoup plus d’options de configurations. Et Rekonq est aussi devenu sympathique à utiliser, bien que je préfère toujours utiliser Firefox ou Chrome.







Winderly a écrit :



Je vois pas cette option (et je l’ai pas vue non plus quand j’ai subi ce bug).





Sur cette image, deuxième ligne deuxième module. C’est dans la catégorie “Apparence et comportement général”, c’est vrai que c’est pas forcément intuitif, mais tu peux utiliser le champ de recherche en haut à droite. C’est bizarre si il n’y est pas.


Le 10/03/2013 à 12h 50







Winderly a écrit :



Sinon j’ai eu un autre souci (à priori spécifique au combo openSUSE/KDE cette fois) qui consistait à cliquer sur home dans le menu.

Ça ouvrait gimp au lieu de dolphin (pourquoi ? comment ?).

Obligé d’aller réparer les associations de fichiers au fin fond d’un sous-sous menu d’option de konqueror (là dessus on a réussi à faire pire que windows).





Il y a un module “Associations de fichiers” dans les paramètres systèmes. Ca fonctionnait pas en passant par là ? Personnellement, j’ai jamais lancé Konqueror sous KDE 4. D’ailleurs son interface n’a pratiquement pas évolué depuis KDE 3, ce qui explique que l’interface soit très indigeste.


Le 10/03/2013 à 00h 19







tazvld a écrit :



Dans KDE mon soucis, particluièrement vrai dans le cas des options d’apparence, c’est que trop souvent on ne sais pas trop ou chercher : je vais passer 15min à entrer et sortir des menus qui me semble contexte avec ce que je cherche comme option.





Tu as un champ de recherche en haut à droite. Il est pas beaucoup mis en avant, mais ça t’indique dans quel module se trouve ce que tu cherches. Je suis d’accord que les paramètres systèmes KDE sont complexes, mais à partir du moment où ils choisissent d’offrir beaucoup d’options de configuration, c’est difficile de faire quelque chose de limpide.


Le 09/03/2013 à 20h 02







Winderly a écrit :



<img data-src=" /> Je savais pas.

Merci ça va m’occuper à partir de lundi.





C’est pas dans le dépôt standard, mais dans le dépôt “Jeux”, qui est listé dans les dépôts additionnels recommandés.


Le 08/03/2013 à 21h 09







seb2411 a écrit :



Par contre ils ont une visions bien précise et assez unique de la ou ils veulent aller. Je crois pas que d’autres aient des projets de convergence de ce style du coté du monde libre.





Tu es mal informé. KDE vise à proposer une interface adapté pour chaque type d’appareil, en se basant sur les mêmes concepts d’interfaces et les mêmes bases techniques. Plasma a été pensé dans l’objectif de pouvoir être suffisamment modulable pour s’adapter à tout type d’appareil depuis sa création en 2005.



Plasma Active, la version pour tablette, est dans un état bien plus avancé que Ubuntu Touch par exemple. Ils ne visent pas le marché des smartphones par contre (bien qu’il y ait des proof of concept d’un Plasma Handset qui datent de 2007 je crois), parce qu’ils jugent que c’est un marché trop fermé contrairement aux tablettes. Un Plasma MediaCenter est aussi en cours de développement, bien que l’équipe principale derrière la bibliothèque Plasma ne soit pas impliquée.



Donc non, Canonical n’est pas le seul qui vise à faire tourner un même OS sur tous les types d’appareil, et KDE est même bien plus avancé qu’eux puisque dans l’état actuel des choses, Ubuntu Touch et la distribution Ubuntu pour ordinateur de bureau ne partagent pas grand chose au niveau technique.


Le 08/03/2013 à 18h 48







mirandir a écrit :



Ça dépend surtout des efforts et de la volonté des distributions. Steam est dans les dépôts officiels d’Arch Linux, et fonctionne bien à priori.





Et c’est aussi le cas sous openSUSE.


Le 08/03/2013 à 18h 32

Auto-quote puisque je peux pas éditer :







Rozgann a écrit :



Je vais pas entrer dans les détails, je suis certain que beaucoup de commentaires en parlent.





Ah ben non, après lecture des commentaires, il n’y a pas d’explication claire sur l’annonce de Mir. Pour ceux que ça intéresse, il y a un très bon article sur LinuxFr.org qui explique en quoi ça pose problème à beaucoup de gens.



Le 08/03/2013 à 18h 21

Oui, Linux ne doit pas être réservé aux geeks, c’est évident. L’objectif, beaucoup de gens le partage. C’est sur la méthode que les avis divergent. C’est dommage que l’article ne donne pas plus de contexte, et n’explique pas plus pourquoi Mark Shuttleworth a posté sur son blog hier. Canonical prend de plus en plus de décisions sans consulter personne, dans la communauté GNU/Linux (mais ça rien ne les y oblige), mais aussi dans la communauté Ubuntu, et là ça crée des remous parmi les contributeurs de Kubuntu et des autres variantes communautaires. L’annonce du développement de leur propre serveur d’affichage en début de semaine, sans aucune concertation avec personne, sans même avoir essayé de discuter avec les développeurs de Wayland pour voir s’il était possible qu’il réponde à leur besoin, a mis un peu le feu aux poudres. C’est un composant très important du système qui pourrait rendre Ubuntu totalement incompatible avec les autres distribution GNU/Linux, et les raisons techniques invoquées ne sont visiblement pas valables. Je vais pas entrer dans les détails, je suis certain que beaucoup de commentaires en parlent.



Mais ce n’est que la dernière d’une longue série de chose qui ont déplu. Quand le directeur technique de Canonical propose de ne pas sortir la 13.04 mais de passer en rolling release, alors que l’ensemble de la communauté travaille dur avant le feature freeze, ça montre qu’ils n’ont aucun respect pour cette communauté, et que leurs objectifs commerciaux avec Ubuntu Touch est prioritaire (passer en rolling release d’intégrer les changements plus rapidement, mais aussi que ça se voit moins si les nouveautés sont moins rapides à arriver pour Unity Desktop, puisqu’il n’y a plus de grosse annonce tous les 6 mois).



Je trouve un peu petit de la part de Shuttleworth de dire que la seule manière pour que Linux arrive dans les mains du grand public, c’est la méthode dirigiste qu’ils ont adopté depuis 2009. A mon avis, Ubuntu doit son succès actuel à la communauté sans précédent qu’ils ont réussi à construire, beaucoup plus qu’aux développement internes de Canonical. Leur vision et leur leadership ont certainement permis d’avoir de l’innovation (sur les liveCD, sur l’installeur de la distribution, sur le gestionnaire de paquet et d’applications) qui a stimulé la concurrence et qui a été globalement positive, mais la majeure partie de leur succès est dû à la communauté de développeurs, de contributeurs sur la documentation et sur les forums. S’ils continuent à ne plus écouter cette communauté, ils ont intérêt à réussir leur coup sur les téléphones et sur les tablettes, parce que pour ce qui concerne les ordinateurs, beaucoup de gens vont arrêter de conseiller Ubuntu et vont préférer d’autres alternatives plus ouvertes et plus à l’écoute.

Le 04/03/2013 à 14h 02







timhor a écrit :



j’ai du mal a croire cette histoire… les peperes ont bien des devs kits de wii u pour avoir dev une version wii u. Or ils les ont pas sorti d’un placard, EA etait forcement au courant que cette plateforme etait en dev. On s’amuse pas a ajouter une plateforme dans la chaine de prod pour le fun…

Ca sent surtout le moteur qui tourne mal et la plateforme killee au dernier moment…







Crytek est aussi développeur de middleware. Ils vendent des licences de CryEngine à d’autres développeurs. Donc ils ont certainement des kits de développement pour porter le CryEngine sur WiiU. Mais avoir le moteur qui tourne et un jeu complet, c’est différent, surtout sous Wii U où il faut gérer un second écran. EA a certainement considéré que le parc installé n’est pas assez important pour justifier un développement spécifique, même avec un moteur qui tourne déjà.



edit: D’ailleurs c’est pas le seul exemple. L’Unreal Engine 3 tourne sur Wii U (Batman Arkham City l’utilise), pourtant Bioshock Infinite, qui l’utilise aussi, n’est pas prévu sur cette console.


Le 04/03/2013 à 12h 07

Oui enfin au vu des retours sur le net et autour de moi, c’est pas franchement une grosse perte. Quant au fait qu’il ne veuille pas commenter la PS4, Crytek est un studio partenaire de EA, qui n’était pas présent lors de la conférence de Sony. On parle aussi d’une sorte de partenariat privilégié entre Microsoft et EA, au moins pour des exclusivités temporaires. Donc pas impossible que Crytek soit sur un projet qui sera montré lors de la présentation de la future console de Microsoft. Enfin si c’est du niveau de Crysis 3, non merci.

Le 25/02/2013 à 17h 04







Deep_INpact a écrit :



Pourquoi les politiciens carriéristes agiraient, alors que de ne rien faire leur permet d’avoir toujours cette merveilleuse excuse : “c’est pas de notre faute, c’est à cause de la crise que l’on ne peut pas tenir nos promesses…”



Crise = Joker politique





Si le problème ne venait que des élus, ce serait plutôt simple à régler. Mais c’est la société entière qui n’a pas conscience du défi qui nous attends, qui préfère avoir de l’emploi en 2013, quitte à garder l’industrie automobile française sous perfusion par exemple, que de préparer l’avenir en investissant dans ce qui nous sera vraiment utile et en laissant mourir ce qui ne pourra pas survivre de toute façon. C’est la société entière qui veut bouffer de la viande tous les jours alors que s’en passer est la manière la plus simple et une des plus efficaces pour réduire ses impacts sur l’environnement.



Les élus doivent agir pour répondre aux besoins de leur administrés. Dans plein de collectivités en France, il y a des lignes de bus qui restent désespérément vides, parce que les gens préfèrent le confort de leur voiture au bus qui passe à heure fixe. Evidemment, les politiques pourraient faire bien mieux, mais honnêtement, ils ne sont qu’une partie infime du problème.



Et bien sûr, rien ne t’empêche de te présenter aux élections si tu ne te sens représenté par tes élus. C’est toujours plus facile de critiquer de l’extérieur…


Le 25/02/2013 à 12h 04







Deep_INpact a écrit :



Encore faut il être le seul à avoir l’idée.

Mais quantité d’autres citoyens “normaux” peuvent avoir repérés les mêmes points stratégiques.

Les mafieux qui sont “sensibilisés” à la stratégie de par leurs activités, peuvent avoir le même réflexe, mais en y venant armé.

Armée + secours civil ont normalement déjà dans leurs archives les bon coins repérés à l’avance. Pour eux c’est juste sortir le bon dossier (bonne procédure d’urgence) au bon moment. Et ils sont armés.





Si lors de simples grèves de routiers, les stations services n’étant plus approvisionnés, il y a réquisition pour tous les véhicules publics (pompiers, gendarmerie, ambulance, mairie,…). Crois tu qu’en cas plus grave ils ne soient pas les premiers à mettre la mains dessus ?





Et pendant ce temps là, nos politiciens font les autruches et se combattent sur des problèmes futiles…





C’est déjà pas rapide comme moyen de faire bouillir de l’eau dans des coins super ensoleillés (australie, andalousie,…), alors dans nos contrées…







Autant Raoudoudou fait du second degré, autant toi, j’ai l’impression que tu crois sérieusement à ce que tu dis… Tu sais, tous les champs pétrolier, gaziers et les réserves de charbon ne vont pas se tarir en même temps du jour au lendemain. Il faut arrêter les scénarios apocalyptiques… Pour le pétrole, les très lourds investissements que fait l’industrie actuellement va permettre de maintenir la production au niveau actuel pendant quelques années, puis ça va lentement décroitre. La société ne va pas s’écrouler d’un coup, avec disparition des organisations humaines, retour à la barbarie et à la loi du plus fort. L’argent ne va pas non plus perdre de sa valeur : ceux qui en ont vont pouvoir continuer à vivre comme avant, ceux qui n’en ont pas, qu’ils vivent dans les pays développés ou les autres, vont voir leur niveau de vie décroître (quoique c’est un peu la loi du plus fort quand même). Après ça va certainement créer de l’instabilité sociale, de même que le changement climatique va provoquer des migrations de masse qui vont mener à des conflits armés, mais se construire un bunker en haut d’une colline, alimentée par une centrale à géothermie pour se préparer à l’apocalypse, c’est plus que prématuré.


Le 24/02/2013 à 21h 08







Lanthares a écrit :



Que propose-t-il concrètement dans la vidéo ?

Je me suis arrêté au bout d’une demi-heure, l’ayant déjà écouté à de nombreuses reprises - toujours avec grand intérêt <img data-src=" /> car on sent qu’il maîtrise très bien son sujet et qu’il sait bien vulgariser pour le pékin moyen que je suis - mais là j’ai eu le sentiment qu’il n’aborderait pas plus que les autres fois les solutions à envisager.



De ce que j’ai lu, il semblerait que ce soit : développement du nucléaire et forte hausse du coût de l’énergie.







Je pense que le but de son intervention, c’est surtout de montrer aux députés la situation dans laquelle on est, pour qu’ils l’aient en tête quand ils font les lois. Typiquement, un point sur lequel il insiste, c’est qu’on retrouvera jamais une croissance importante en Europe, quelles que soient nos politiques économiques, parce qu’on ne dispose pas de l’énergie nécessaire. Donc voter un budget en tablant sur 3% de croissance, c’est un non-sens.



Au niveau du simple citoyen, il dit que l’étalement urbain est une conséquence de l’énergie abondante, mais que ce modèle ne pourra pas continuer à l’ère post-énergies fossiles. En gros, acheter une maison en banlieue avec 1h30 de trajet en voiture pour aller bosser au centre-ville, c’est pas la chose la plus intelligente à faire à l’avenir. Il est très probable que le prix de l’immobilier va fortement chuter dans les zones éloignées qui sont difficilement accessibles par les transports en commun dans les décennies qui arrivent.



Il parle aussi de donner de la visibilité : la gestion du photovoltaïque par le gouvernement précédent est un bon exemple de ce qu’il ne faut pas faire. On met un système en place, très avantageux pour les particuliers, résultat beaucoup de gens se lancent dedans, tellement que ça dépasse les prévisions et que ça coûte trop cher à l’état, et donc ils réduisent une première fois puis suppriment carrément le dispositif. Toute la filière qui commençait à se mettre en place a été anéantie par ces changements de cadre, la plupart des boîtes ont fait faillite, beaucoup d’emploi ont été perdus, certains producteurs européens ont dû fermer et c’est leurs concurrents chinois qui se partagent maintenant le marché. La subvention du carburant par Hollande, c’est aussi un bon exemple de mesure stupide et contre-productive. Sur ces points, la droite comme la gauche n’ont pas une vraie vision, et c’est très regrettable.



Il parle aussi de mobiliser la nation derrière ces objectifs, à la manière de ce qu’on fait les américains pour aller sur la Lune (le défi qui nous attends va demander une effort bien plus important, sauf que les enjeux vont au-delà de simplement gagner la Guerre Froide). Certes ce ne sont pas des solutions techniques sur comment se passer d’énergies fossiles, mais c’est tout aussi important, et il faut absolument que ces points fassent consensus avant de pouvoir aborder les questions plus en détail. Quand tu vois les remarques de certains députés (qui ne font que refléter l’état d’esprit du pays), on voit qu’on en est loin. Le plus triste, c’est qu’en Europe, on est pionniers sur ce sujet…


Le 24/02/2013 à 17h 33







Elwyns a écrit :



Je me demandes comment ils peuvent pondre des trucs pareil .. heureusement que le bonus/malus sera pas appliqué ( enfin si j’ai capté ) mais de base bonus / malus , je vois pas “ l’équité sociale” la dedans ..







L’exemple le plus frappant, c’est l’eau. Est-ce que c’est normal que tu payes l’eau que tu utilises pour boire et celle que tu utilises pour remplir ta piscine au même prix ? Le système de bonus/malus qu’ils proposaient se basait sur ce principe. On définit un niveau de consommation de base par foyer, avec lequel tu peux vivre confortablement. Si tu consommes plus, c’est du superflu, et donc tu payes plus cher. Couplé à ça, il y avait un système de lutte contre la précarité énergétique, pour les personnes qui vivent dans des logements en mauvais états qui consomment plus que la normale mais que les gens n’ont pas les moyens de rénover. Selon moi c’est un très bon système.



edit: ce raisonnement n’est bien sûr valable que si le stock global est contraint. Quand la ressource est illimité, le problème ne se pose pas. Or c’est bien le cas avec l’énergie actuellement.


Le 22/02/2013 à 10h 50

Quitte à installer un OS alternatif à Android sur Nexus 7, autant en installer un qui est suffisamment mature pour être utilisable : Plasma Active. Ca tourne pas mal sur Nexus 7. Et le développement est entièrement ouvert et communautaire en plus d’être open-source, contrairement à Ubuntu qui prend de plus en plus Google comme modèle.

Le 21/02/2013 à 17h 39

Ce serait bien qu’ils distribuent les sources de tout le navigateur, pas seulement de Presto. De cette manière, l’ancienne version pourrait continuer à être maintenu par la communauté. Si c’est uniquement le moteur de rendu, l’intérêt est plus limité je trouve, même si on ne peut que s’en réjouir.

Le 21/02/2013 à 11h 29

L’OS de la PS3 était basé sur un système BSD. Si c’est le cas avec l’OS de la PS4, étant donné l’architecture PC, ça pourrait bénéficier à la qualité des pilotes graphiques AMD sous BSD/Linux !

Le 19/02/2013 à 13h 22







Yzokras a écrit :



Une société de 600 personnes pour un navigateur gratuit que personne n’utilise ? Blanchiment d’argent ?





Ils vendaient des licences pour des navigateurs embarqués faits sur mesure. Le navigateur de la Wii est “powered by Opera”. Ce genre de contrat devait assurer une grosse part de leur revenu. Mais c’est vrai que pour payer 600 personnes tous les mois, il faut un revenu conséquent.







earth01 a écrit :



Ils ont la bibliothèque qui s’occupent de l’affichage (et donc l’accélération matérielle également) en commun :http://cairographics.org/

PS : C’est ce qui correspond à Vega dans Opera.





Il me semble que Firefox n’utilise plus Cairo par défaut depuis quelques versions déjà. Ils ont créé leur propre bibliothèque, Azure, qui se base sur Direct2D sous Windows, Qwartz sous Mac OS et OpenGL sous Linux. Cairo n’est plus utilisé que pour l’impression et comme fallback pour l’affichage.

Et Chrome n’utilisait pas la bibliothèque que Google utilise sous Android, Skia ? J’avoue que j’ai pas suivi les évolutions récentes.


Le 15/02/2013 à 10h 39







Jed08 a écrit :



Ca reste à prouver.

Mais si c’est le cas, ce n’est pas virer les branleur qui arrangera les choses. S’il y a vraiment des problèmes dans le management, et qu’on commence a virer à tour de bras, les gens pourraient commencer a vouloir se barrer







L’organisation au sein de Valve est assez différente d’une structure hiérarchique normale. Voir le Valve Handbook. Il n’y a pas de hiérarchie fixe (dans les crédits des jeux Valve, le nom des gens qui ont travaillé dessus est classé par ordre alphabétique sans mention du titre du poste). Chacun peut proposer un projet, convaincre les autres que c’est intéressant pour eux et pour la boite, et former son équipe. Chacun est aussi responsable de trouver ce sur quoi travailler s’il ne propose rien. Les titres qu’ils se donnent sont pour usage externe, parce que quand on discute avec un éditeur, c’est un peu compliqué d’expliquer cette organisation à chaque fois. Les rémunérations sont votées par les collègues, c’est pas impossible que ce genre de décision de licenciement soit aussi décidé par un vote. Le modèle s’inspire de l’organisation des projets open source communautaires. Donc ça repose énormément sur la responsabilité de tous les employés et sur leur capacité à s’adapter à ce modèle. Donc c’est pas impossible que ceux qui n’ont pas réussi à trouver leur place soient remerciés.


Le 13/02/2013 à 17h 10







pamputt a écrit :



Ils auraient pu en profiter pou libérer le code de Presto. Quitte à ce qu’il ne soit plus utilisé autant offrir le code au plus grand nombre, il y avait peut-être des choses à récupérer.





Je me suis fait la même réflexion. En même temps, ça demande un peu de travail de publier du code sous licence libre. Pour WebOS par exemple, ça avait pris plusieurs mois. Ou alors, ils ont peur que ça révèle des failles de sécurité dans les versions actuelles…


Le 08/02/2013 à 15h 04







Jed08 a écrit :



Tu sais dans ce milieux tu rencontres des gens assez facilement.

Surtout si MS travaille sur le développement du kernel Linux, des ingénieurs Microsoft côtoient des libristes.





Ouais enfin Microsoft c’est pas une boite de 100 personnes. Le gars qui travaille sur HyperV, il est au courant de rien à propos de Office, au mieux il a les information quelque temps avant le grand public. Ils font pas non plus des newsletters en interne pour informer des projets qui sont en développement, surtout que ça m’étonnerait qu’un portage Linux, même s’il est vrai, soit en haut de la liste des priorités.







Jed08 a écrit :



Et vu les campagnes de coms agressivent de MS contres leur concurrents, je pense que c’est pas dans l’intérêt des linuxiens de balancer des rumeurs comme ça. C’est facile après de détourner ces propos en disant un truc du genre :







Vous voyez ? Les linuxiens ont tellement envie de la suite Office qu’ils vont jusqu’à faire le buzz pour que nous nous sentons obligé de porter notre produit sur les plateforme Linux.

La preuve que cette suite est reconnu par tous quelque soi leur bord.





“Les linuxiens”, c’est pas un groupe homogène qui parle d’une seule voie. Par contre, pour côtoyer la communauté libre depuis un certain temps, je sais qu’il y a certaines personnes qui aiment se rendre intéressantes, en faisant genre d’avoir des relations et de savoir des choses que les autres ne savent pas, en amplifiant énormément des informations dans le sens qui les arrange, etc.



Comme Phoronix n’est absolument pas regardant sur les rumeurs qu’il relaie, une conversation autour d’une bière avec un type qui te dit qu’il a un pote qui travaille chez Microsoft et qu’ils bossent sur une version linux native de Office, ça suffit pour faire une news. Et au contraire, je trouve que cette news est plutôt en faveur de Linux, qui serait devenue une plateforme commercialement viable même pour le grand ennemi MS, qu’à l’avantage de Office. Un bonne partie des utilisateurs “pragmatiques” de GNU/Linux réclame le portage de logiciels propriétaires depuis longtemps déjà.



Enfin ça sert pas à grand chose de polémiquer là-dessus de toute façon, une rumeur est par définition invérifiable, mais dans beaucoup de commentaires sur cette actu, les gens la prennent pour argent comptant, alors qu’il y a au moins autant de raisons d’en douter que d’y croire.


Le 08/02/2013 à 14h 21







Jed08 a écrit :



Cette rumeur personnellement j’y crois. C’est une très bonne initiative qui peut être bénéfique à MS.





Ben disons que ça aurait été un bruit de couloir dans un salon concernant les produits Microsoft, avec plein de développeurs de Office, là encore, je dis pas. Là c’était au FOSDEM, un salon de développeurs du libre, et le site qui la rapporte, c’est Phoronix, connu dans la communauté libre pour parler de tout et de n’importe quoi. Parfois leurs rumeurs se révèlent vraies (Steam sous Linux par exemple, mais ça venait directement de la source, Gabe Newell en l’occurrence), souvent il y a rien de concret derrière…



En supposant que leur code métier est facilement transposable depuis la version OSX , il manque quand même l’interface. Créer et maintenir une interface spécifique à Linux, c’est quand même un travail énorme. Même si la tendance est plutôt bonne pour Linux, je suis pas certain que la part de marché actuelle justifie un tel investissement. Sans parler du caractère symbolique de cette décision, qui pourrait s’interpréter comme un manque de confiance dans l’avenir de la plateforme Windows, au vu du succès mitigé de Windows 8.



Donc oui, c’est pas totalement impossible qu’ils anticipent l’avenir en expérimentant sur un portage pour Linux, mais je vois pas bien comment un développeur présent au FOSDEM pourrait être au courant…


Le 08/02/2013 à 11h 37

Phoronix est connu pour relayer toutes les rumeurs qui courent. Ca m’étonnerait qu’il y ait un seul développeur Microsoft au FOSDEM, en tout cas c’est certain qu’il n’y avait personne de directement impliqué dans Office. Donc au mieux, c’est un développeur Calligra ou LibreOffice qui côtoie des développeurs Office dans les comités de standardisation des formats de documents bureautique qui a entendu ça directement de la bouche de développeur MS Office. Le plus probable, c’est qu’un gars ait un pote chez Microsoft qui a dit pour déconner que si Valve réussi son coup, Microsoft devra peut-être envisager de porter Office sous Linux, et avec les phénomènes de téléphone arabe, le temps que ça arrive aux oreilles de Larabel, ils avaient une version native qui tournait en interne et qui allait sortir en 2014….

A mon avis, on est pas prêts de voir Office disponible sous Linux, surtout qu’avec Wine ou en entreprise plus probablement un système de client léger, on peut déjà l’utiliser sous Linux si il y a vraiment besoin.



edit:sacré Vincent! Il avait gardé cette news pour trolldi !

Le 05/02/2013 à 09h 54







Jeru a écrit :



j’ai quand même l’impression de déjà faire ça avec google talk (pc-pc; pc-smarphone: smarphone-smartphone)





Le fait que ce soit directement intégré au navigateur, ça permet d’utiliser ces fonctions de communication dans les applications web, sans avoir à installer un plugin. C’est pas tout à fait comparable à une application qui ne permet que la communication. WebRTC ça permet d’éditer un document de façon collaborative par exemple. Bon l’utilisation de la vidéo dans une application c’est moins évident, mais on doit pouvoir trouver des idées qui sont possibles dans le navigateur et pas dans une application de type GTalk.


Le 31/01/2013 à 22h 22

Donc si je comprends bien, l’enjeu du truc, c’était simplement de sauver le gars qui a fait une boulette. En gros plein de gens se sont sacrifiés à cause de lui, sans même un quelconque enjeu de contrôle de zone ou de ressource ! Vu les pertes, il a dû se prendre un sacré souflon !

Le 30/01/2013 à 17h 44







Malesendou a écrit :



Je suis réaliste. Android a tout vampirisé. je vois pas ce qui pourrait sauver BB maintenant. ^^



Quand tu vois que meme une plate-forme comme Windows Phone n’y arrive pas…





Les modes, ça va, ça vient. En 2005, avoir un BlackBerry, c’était le top de la branchitude. T’avais plein de gamins de 16 ans tout fiers de leur téléphone de business men. Ensuite Apple est arrivé avec l’iPhone, tout le monde en voulait un. Au début, Android c’était pour les pauvres qui peuvent pas se payer du Apple, puis Samsung a sorti sa gamme Galaxy. Et maintenant le Galaxy SIII est plus vendu que l’iPhone 5.



BlackBerry a encore une forte image en entreprise, BB10 a de sérieux arguments pour cet usage. S’ils réussissent à redevenir le téléphone du business man, ils peuvent redevenir “hype” et en vendre par camion.



En plus de ça, j’ai pas l’impression que les marques qui utilisent Android aient une base de fans inconditionnels comme c’est le cas avec Apple par exemple. Le seul truc qui pourrait les retenir, c’est les investissements qu’ils ont fait dans les applications, mais sur Android, la plupart des gens se contentent des applications gratuites.



C’est triste, mais le marché des téléphones, j’ai l’impression que c’est plus une histoire de mode que de qualités intrinsèques. Après c’est pas dit que BlackBerry réussisse, mais je pense que le marché est loin d’être aussi fermé que beaucoup le disent. Ironiquement, Windows Phone a peut-être été lancé un peu trop tôt, en pleine vague Android, là où le marché était le plus fermé.


Le 28/01/2013 à 13h 47







Krissssss a écrit :



Pour répondre à neelots xD

Faire une erreur dans le logo officiel… Chapeau !







C’est parce que c’est de la compression avec pertes ! <img data-src=" />


Le 26/01/2013 à 11h 53

Je parlais justement de ce sujet avec un ami d’origine allemande il y a pas longtemps. Il s’étonnait du faible nombre de mots anglais que les jeunes utilisaient en France ! En Allemagne, ils ont moins de mesures de protection de la langue (par exemple, ils ont pas la limite de 50% minimum de musiques en français à l’antenne des radios). Ils ont aussi moins tendance à traduire les mots anglais dans le langage courant. Du coup, la mode est aux anglicismes, à tel point que certains linguistes s’inquiètent de ça. Il m’a dit qu’il avait même vu des débats à la télé pour discuter de l’avenir de la langue allemande.



En ce qui me concerne, je trouve que c’est important de faire ces traductions. Mais il faut dire que parfois, c’est difficile d’avoir une traduction qui ait exactement la même signification, ou alors on se retrouve avec des expressions à rallonge.

Le 24/01/2013 à 10h 57

Comme a son accoutumée, Google continue son lobbying en utilisant des termes qui flattent les instincts primaires anti-étatiques, très présents aux Etats-Unis. Utiliser le terme de “surveillance gouvernementale” en y incluant les requêtes faites dans le cadre d’une décision de justice (les pouvoirs exécutif et judiciaire étant séparés dans les démocraties), ça n’a pas de sens.

Le 23/01/2013 à 19h 29







pafLaXe a écrit :



La première distrib qui me propose de la release “tempérée” pour l’OS, et de la rolling release pour l’applicatif, je signe tout de suite <img data-src=" />





Oui, je comprends pas qu’il n’y ait aucune distribution qui fasse une séparation claire entre les trois éléments majeurs :





  • Le système de base (noyau, pilotes, gestion du réseau, serveur X…) : l’utilisateur moyen il s’en fout complètement, tant que ça marche bien, il y a pas de raisons d’y toucher. Encore que, avec l’arrivée du jeu sur Linux, mettre à jour ses pilotes graphiques sera plus important…

  • L’environnement de bureau (briques systèmes importantes genre Gtk/Qt/EFL, gestionnaire de fenêtres, bureau, applications systèmes comme le gestionnaire de fichiers ou les paramètres systèmes) : ça devrait être possible de passer aux nouvelles versions sans attendre qu’une version majeure de la distribution sorte, mais ça nécessite un peu de test de la part de l’équipe de développement pour s’assurer de l’absence de bugs et de la stabilité du tout.

  • Les applications normales (le reste en fait) : ça devrait pouvoir être mis à jour dès qu’une nouvelle version est disponible.







    Je pense qu’un des problèmes, c’est que les communautés Gnome et KDE, qui s’occupent des deux derniers points, sortent tout de manière synchronisée et c’est pas forcément évident pour les distributions de faire le tri. Je sais que KDE envisage de changer ça à l’avenir.


Le 23/01/2013 à 13h 54

A mon avis, ce changement est envisagé pour masquer le glissement vers le mobile. Canonical veut pousser le plus possible Ubuntu Phone, et une grande partie de l’équipe de développement va se concentrer dessus, ce qui fait qu’il y aura moins de nouveautés dans la version desktop. En continuant avec une version toute les 6 mois, qu’il faut promouvoir en mettant en avant les nouveautés, ça risque d’être un peu trop voyant. Alors qu’avec une version tous les 2 ans, et une rolling release entre les deux, si le rythme est moins soutenu, ça choquera personne.



Un autre changement envisagé, qui mériterait une news parce que beaucoup plus inquiétant selon moi, c’est leurs plans pour le remplacement du serveur Xorg. Jono Bacon, le community manager, a dit dans une interview pour un podcast qu’ils envisagent de créer leur propre serveur d’affichage plutôt que de passer à Wayland. Wayland est principalement soutenu par Redhat, qui n’ a aucun intérêt dans le mobile, et donc c’est pensé pour le desktop. Canonical veut quelque chose qui soit performant pour le mobile, tout en pouvant être utilisé pour le desktop. Et plutôt que de collaborer avec les autres en contribuant à Wayland, ils envisagent faire leur soupe de leur côté. Comme pour le changement évoqué dans la news, aucune décision n’est encore prise, mais le fait qu’ils l’envisage montre clairement qu’ils se dirigent vers un modèle de développement à la Android.



C’est pas la première fois qu’ils travaillent dans leur coin. Alors que la plupart des autres distributions utilisent Systemd pour gérer le démarrage des services, Canonical a annoncé que Ubuntu restera sur leur propre solution, Upstart. Ils font des modifications sur les briques Gnome qu’ils utilisent, à terme, il pourrait y avoir des incompatibilités qui les obligeraient à créer un fork. Mais le serveur d’affichage c’est encore autre chose. Il se pourrait qu’ils perdent carrément la compatibilité avec Wayland pour certaines applications, comme les jeux… Donc l’impact sur le monde GNU/Linux serait potentiellement très important, surtout si Ubuntu s’impose comme une plateforme de jeu grâce à Valve.

Le 23/01/2013 à 18h 59







ff9098 a écrit :



Pourquoi ils vendent alors ?





Ils font un investissement. Ils gagnent de l’argent sur leurs jeux maison, sur les royalties que les éditeurs tiers leur payent pour publier sur leurs consoles, sur les services qu’ils offrent, etc… Plus il y a de consoles sur le marché, plus gros seront leurs revenus dans ces autres secteurs.


Le 23/01/2013 à 18h 30







ff9098 a écrit :



T’as fini de dire nimp?





Plait-il ?

Wii U à 300€.

Nintendo dit qu’ils vendent à perte.


Le 23/01/2013 à 15h 47







Much a écrit :



La “X-Surface” non obligatoire va amener sa non utilisation par défaut, et donc un intérêt très limité.



Le développeur de la prochaine Xbox va devoir se poser la question est-ce que oui ou non l’utilisateur à la tablette adéquat. Je te laisse deviner quel scénario il va privilégier.



Bref, ce sera très intéressant au niveau de l’écosystème (tout compatible) mais niveau vidéo-ludique j’ai quelques doutes.





<img data-src=" />

La compatibilité Gameboy Advance/Gamecube et plus récemment PS3/PS Vita le montre. Mis à part quelques jeux (qui ne se vendent pas), les développeurs n’utilisent pas ces fonctionnalités.


Le 23/01/2013 à 15h 29

J’ai un peu peur au niveau du prix là. La Wii U, vendu 300€, est déjà vendue à perte selon Nintendo avec ses caractéristiques techniques. Là, on a des caractéristiques techniques largement supérieures, à ça vient s’ajouter Kinect 2, et maintenant une tablette (certainement optionnelle), avec du matériel permettant de faire tourner l’Unreal Engine 3 à 60 FPS (ce qui en soit ne veut pas dire grand chose puisque tout dépend de ce que le moteur a à afficher). La facture risque d’être assez lourde si on veut profiter de l’intégralité de “l’expérience Xbox”…

Le 19/01/2013 à 18h 04







AngelSword a écrit :



Le commentaire le plus long que j’ai jamais lu sur PC INpact !





Dans l’absolu, tu as raison, aucune entreprise n’est à l’abri, simplement il est peu probable que Nintendo devienne un simple éditeur même si la Wii U est un échec. Pour l’origine des infos sur la santé de Nintendo, comme ils sont côtés en bourse, ils publient régulièrement leurs résultats financiers. Depuis 1980, ils ont perdu de l’argent qu’une seule année, en 2012 (peu de ventes de Wii, investissement sur le développement de la Wii U, etc…). Ce petit graphique est assez explicite :http://www.afjv.com/news/1065_resultats-nintendo.htm



Quand Sega a arrêté les consoles, ils avaient essuyé échec sur échec avec leur machine, leurs investissements dans la Dreamcast et dans Shenmue ont fini par les tuer. Donc Nintendo peut évidemment disparaitre à terme, mais il faudra plus qu’un simple échec de la Wii U (qui reste à prouver d’ailleurs) pour ça. Il faudra qu’ils fassent beaucoup plus de conneries que ça.



edit:





AngelSword a écrit :



j’aurais tendance à croire les analystes plutôt que des gens qui ne souhaitent tout simplement pas voir ce scénario se produire, ils sont clairement pas objecif.





Les analystes en question disent que dans le cas le plus défavorable, ils peuvent arrêter les consoles. C’est pas le cas le plus probable. Mais dans l’histoire, c’est toi que je trouve pas très objectif. L’impression que me donne ton commentaire, c’est que tu souhaites qu’ils disparaissent parce que tu ne fais plus parti de leur public cible.


Le 18/01/2013 à 15h 10







desmopro a écrit :



Nintendo est meme pas capable de faire un NSMB Wii U en 1080P, il faut du temps pour les editeur tierce, mais si nintendo eux meme n’arrive pas a gerrer leur matos …







Les spécifications de la Wii U ont beaucoup changé au cours du développement, et elles ont été arrêtés assez tardivement. Elle était censée être moins puissante, mais ils ont fait des modifications en fonction du retour des développeurs. Comme ils devaient absolument sortir leur console pour Thanks Giving, ils ont fait ça un peu à l’arrache. La mise à jour du système à la sortie le montre bien. Le support du 1080p, c’est un truc qui se décide en début de développement et qui va avoir une influence sur toute la conception du jeu. Le développement était certainement trop avancé pour faire ce changement au moment où les spécifications de la Wii U ont été finalisés. Les jeux de début de génération sont rarement représentatifs des capacités réelles de la console.


Le 18/01/2013 à 13h 51

Certains enterrent la Wii U bien vite je trouve. Elle est pas sortie depuis 3 mois que ce serait déjà un échec ? Nintendo a laissé le champ libre aux éditeurs tiers pour le lancement, ils ont sorti que 2 petits jeux, avec un budget relativement faible (Nintendo Land et le Mario Bros). C’est aussi relativement calme sur 3DS depuis quelques mois, ce qui veut dire que les studios internes travaillent sur des jeux non annoncés. Nintendo est un des rares éditeurs qui sort parfois ses jeux très peu de temps après l’annonce. A mon avis, ils ont quelques grosses annonces qu’ils gardent au chaud pour le moment où Microsoft et Sony vont présenter leurs prochaines machines.



Ils ont déjà annoncé avoir rassemblé la plus grosse équipe de développement de leur histoire pour faire le prochain Zelda. Je verrais bien une annonce à l’E3,bien que ça m’étonnerait que le jeu sorte cette année. Il faut pas non plus oublier qu’ils peuvent sortir un truc du genre Wii Fit, nouveau concept que personne attendait et qui fait vendre des consoles par cargo. Dans ce domaine, ils ont quand même sorti beaucoup de nouvelles licences sur Wii, ça devrait continuer sur Wii U. Et ils peuvent aussi appuyer sur le bouton “Mario Kart” pour redoper les ventes, ça a marché à tous les coups par le passé (Mario Kart Wii sur un seul support s’est plus vendu que Call of Duty Modern Warfare 3 tous supports confondus).



Comme certains le soulignent, Sony est dans une situation bien plus délicate que Nintendo. Eux ne pourront pas se contenter d’un succès en demi-teinte de leur prochaine console.