si si et c’est pas parce que çà a plein d’avantages que je paie forcement sinon je paierais (et toi aussi) plein plein de choses à en crever et que c’est interdit de critiquer.
je dis justement que je n’en veux pas (“je passe mon tour”) ce que tu assimile à une critique. Quand on en veut pas on doit se taire sur ses raisons mais quand on en veut on doit le dire haut et fort (cf ton post). la démocratie en encore beaucoup de chemin.
donc rectification. si si j’ai le droit de critiquer. t’aimes pas qu’on critique ce que tu aimes? moi si pour des raisons que je ne dirais pas (encore un de mes droits) et même que çà s’appelle la TOLERANCE.
et pour faire preuve de tolérance je te souhaite bon jeu!! camarade!" />
C’est pas “je passe mon tour” que j’assimile à une critique, c’est la première partie de ton post où tu dis qu’ils utilisent “les associations caritatives et les enfants boiteux comme marketing”. C’est même plutôt l’inverse d’ailleurs. C’est les Humble Bundles qui font de la pub à ces associations. Tu connaissais l’EFF ou Child’s Play Charity avant les Humble Bundles ? Moi non. Je pense que c’était aussi le cas de la grande majorité des centaines de milliers de gens qui en ont déjà acheté.
Je n’ai rien contre le fait que tu critiques, seulement je trouve que cette critique particulière n’est pas fondée. Mais je te remercie de ta dernière phrase, j’étais justement en train de jouer à Thomas was Alone, et c’est un petit jeu bien sympathique. " />
Le
30/05/2013 à
20h
28
237domingo a écrit :
donc en gros on utilise les associations caritatives et les enfants boiteux dans les hôpitaux comme marketing pour des jeux et on les rémunère bien sur par une partie des profits??
Je passe mon tour.
C’est assez marrant de te voir critiquer les Humble Bundle sans même avoir pris la peine de te renseigner ne serait-ce qu’un tout petit peu sur ce que c’est.
Tu peux fixer ton prix, tu peux tout donner aux associations si ça te chante, tu peux donner qu’au(x) développeur(s) de ton choix, t’es même pas obligé de donner à Humble Bundle alors que c’est eux qui payent la bande passante (et certains jeux font plusieurs Go), ça fait une énorme publicité à des développeurs indépendants qui n’ont pas nécessairement les moyens de faire parler d’eux, il n’y a pas de DRM, tous les jeux sont sur Windows/Mac/Linux… Il y a pire comme initiative.
Tu as tout à fait le droit de ne pas en vouloir, mais je vois pas en quoi tu critiques ça.
Mint est, à ce jour, la seule distro avec laquelle je n’ai jamais eu de merdes. Toutes les autres, à un moment où à un autre, ont eu un pépin sérieux, voire bloquant.
Ben Mint se base sur Ubuntu et sort avec un gros mois de retard, donc ils profitent de tous les patchs qui viennent stabiliser le système. Ca aide beaucoup pour éviter les problèmes. En contrepartie, ils n’ont pas les toutes dernières versions de certaines applications. Cinamon est toujours basé sur Gnome 3.6 alors que Gnome 3.8 est sorti.
Question aux utilisateurs de Cinnamon : comment ils gèrent le menu Application de Gnome, celui qui apparait en cliquant sur le nom de l’application dans la barre du haut de Gnome-shell, et qui est utilisé dans toutes les nouvelles applications Gnome 3 ?
J’ai tenté le passage à Unity (relativement brièvement, j’avoue, mais plusieurs autres feedbacks de mon équipe convergent) .
C’est justement l’absence de certains concepts qui me paraissaient indispensables (barre des tâches visible, bureaux virtuels avec miniatures, les menus, etc… qui m’avaient convaincu que c’était justement dans l’environnement “professionnel” (ou on cherche l’efficience et la productivité) qu’Unity était le plus problématique.
Pour caricaturer: l’utilisateur moyen qui ouvre un client mail et un browser se fout que tel ou tel accès se fasse avec un clic de plus.
Celui qui a 15 fenêtres ouvertes et qui fait habituellement 500 Ctrl+Alt+[Gauche/Droite] 12h par jour pour switcher d’une activité à une autre (écriture de code, test, check des mails, ptit coup de console, …) ou qui ne veut pas scroller à tout va dans un menu parce que maintenant les icones sont en 512x512, il va vite dézinguer l’interface qui lui engendrera la moindre perte de productivité pour certaines actions répétées des centaines de fois par jour.
Du coup, je trouve intéressant que tu dises que dans le cadre de ton boulot tu trouves unity adapté, car j’ai la vision exactement opposée de la chose.
Je t’avais déjà fait la remarque sur une autre news, mais toutes tes critiques sont applicables à Mac OS X, qui est pourtant reconnu comme un bureau adapté au monde professionnel. La rumeur dit que beaucoup des employés d’Ubuntu travaillaient sous Mac OS avant Unity, et qu’ils ont donc développé au environnement dans lequel ils retrouvaient leurs habitudes.
En ce qui me concerne, j’ai vraiment très peu de critiques à faire sur Ubuntu en terme technique / ergonomique (enfin pas plus que sur Gnome ou KDE quoi), mais c’est sur leur totale incompréhension des bénéfices de la collaboration dans le logiciel libre que je trouve les trouve navrants. Ils pensent qu’ils sont meilleurs que les autres et qu’ils produiront un meilleur logiciel s’ils travaillent seuls. L’histoire a montré à de très nombreuses reprises que c’était faux.
Le
28/05/2013 à
22h
02
atem18 a écrit :
C’est un nouvel environnement de bureau, on le sait tous. Les logiciels de Gnome vont progressivement être remplacés par ceux de Canonical, développés avec le nouveau SDK d’Ubuntu.
Je le pense aussi, mais pourquoi ne pas le dire alors ?
atem18 a écrit :
Bien sûr ! Ce n’est pas pour rien que le seul employé de Canonical qui bossait sur Kubuntu, à été licencié ou réaffecté, je ne sais plus. Le grand public s’en contrefous de KDE, Gnome, etc. Il veut Ubuntu et que ce dernier marche à la perfection.
Oui, mais si tu lis les post de Jono Bacon, le community manager de Ubuntu employé par Canonical, c’est un tout autre discours. Dans les faits, c’est Canonical qui décide de tout.
atem18 a écrit :
Ubuntu va devenir à Gnu/Linux, ce qu’est OS X à FreeBSD.
Ca c’est dans l’hypothèse où ils réussissent leur pari, et c’est pas gagné, malgré les qualités de Unity. D’ailleurs si ils se plantent sur le mobile, c’est pas impossible qu’ils se rendent compte qu’ils ont eu les yeux plus gros que le ventre et que c’est peut-être plus malin et pragmatique de profiter de l’expertise des développeurs d’Intel, de Samsung, de Red-Hat et autres qui travaillent sur Wayland que de développer une pile graphique entière avec uniquement quelques développeurs avec très peu d’expérience dans le domaine. Aux dernières nouvelles, Canonical n’est pas du tout à l’équilibre et c’est le compte personnel de M. Shuttleworth qui paie les salaires à la fin du mois.
Le
28/05/2013 à
21h
03
C’était clairement pas la question la plus intéressante du l’interview. Ah, le beau discours marketting de Shuttleworth qui répond à aucune question. En écrémant le blabla inutile :
I’ve heard that Unity 8 is just “a Qt front-end for GNOME.” How is Unity 8 supposed to function?
…We would like to attract developers from a wide range of backgrounds, including GNOME and KDE and make it easy for them to deliver amazing experiences on Unity….
Merci mais ça répond pas à la question
What are the intentions from NVIDIA and AMD to support Mir? Have they expressed any informal views on that matter?
Too soon to tell (…) The decision making in Mir was solid: Wayland did not meet our needs or yours, we chose to invest in something, and we chose to do it in a very quality-driven way. I find it bizarre to be criticised for writing open source software, and writing it with quality and performance in mind from the start (…)
Aucun argument pour étayer cette décision, mais il se prive pas de sous-entendre que Wayland n’a pas été développé avec un objectif de qualité et de performance, ce qui est totalement faux. Personne ne les critique pour le fait d’avoir développé un logiciel libre. Le principal reproche qu’on leur fait, c’est justement de faire du FUD sur Wayland. Et il continue encore ici. Il pourrait être honnête et expliquer la vraie raison.
How Will GNOME’s development decisions affect Unity 8?
We’ll work as closely with both GNOME and KDE as we can. (…)
Mais encore ? On sait toujours pas si Unity 8 est un environnement à part entière ou s’il se base sur les technologies Gnome.
How do I, as a K/L/Xubuntu user fit into Canonical’s long term plans?
(…) At a bare minimum, you will always be able to run any X environment on Ubuntu. We’ve gone to a lot of effort to retain that.
Now, if a particular person or upstream wants to refuse the ability to engage, that would be weird, but it would be their brand of weird, not mine. So anyway, of all the options you listed, i see no reason why they would cease to exist.
Donc en gros, on pourra les utiliser sous X sans profiter des améliorations d’une couche graphique moderne, à moins que les autres projets soient portés vers Mir par leurs développeurs actuels, ce qui est très improbable.
A mon avis, bien qu’il dise qu’il aime la diversité de la communauté Ubuntu, ils ne vont faire aucun effort pour rester compatible avec les autres environnements. La priorité est pour Unity, le reste ils n’en ont rien à faire…
“(Ubuntu Touch) might be a once in a lifetime chance to break out of the cycle of platforms controlled by giants.”
Vu le comportement de Canonical actuellement, si un jour ils arrivent à avoir une part de marché conséquente, je vois pas bien ce que ça changera à la situation. Ubuntu n’est pas plus développé collaborativement qu’Android…
Toujours les mêmes stats en mousse : Linux c’est 1% du marché, Steam Linux c’est 2%… Steam Linux n’a que 6 mois d’existence, et très peu de jeux ont été portés, donc difficile de faire des plans sur la comète. De plus comme cela a été dit, beaucoup d’utilisateurs Linux n’ont pas attendu que les jeux soient portés, ils jouent aux jeux Windows grâce à WINE (lorsque ça fonctionne, moi-même je joue ou ai joué à Skyrim, Guild Wars 1 & 2, Starcraft 2, et j’en passe).
Par ailleurs il faut arrêter de ne penser qu’au desktop. Certes les systèmes GNU/Linux sont installés sur environ 1% des PC desktop, mais est-ce le seul marché du jeu vidéo ? Non. Quelles autres plates-formes existent ? Les smartphones (plus de 50% Android/Linux, bientôt des téléphones Ubuntu/Linux et Firefox/Linux), les tablettes (+50% Android/Linux), les consoles de jeu (OUYA et nVidia SHIELD qui fonctionneront sous Android/Linux, Steambox qui fonctionnera aussi sur Linux -peut-être une variante d’Ubuntu ?).
C’est fini le temps du duo desktop vs consoles de salon. Les smartphones, tablettes et autres appareils mobiles sont en train de transformer le paysage, et les principaux acteurs qui s’y développent sont Apple (iOS) et différents systèmes basés sur Linux (Android, Firefox OS, Ubuntu…). Tout ce marché est émergent, encore en train de se développer, il y a des parts de marché à prendre et les éditeurs ne s’y tromperont pas. Et pour voir leurs jeux sur ces plates-formes, il faudra bel et bien qu’ils les développent ou les portent sur Linux.
PS: Je tiens à (re)préciser que je ne milite pas pour une hégémonie Linux, au contraire. Mais j’en ai marre des jeux qui ne sortent que pour Windows : vivent les jeux qui sont véritablement multi-plateformes Windows/MacOS/Linux, pour que tout le monde en profite quel que soit son OS. Les tendances du moment indiquent qu’on s’y dirige, lentement mais sûrement.
Regarde mon avatar, je suis utilisateur GNU/Linux, et j’ai au moins autant envie que toi de pouvoir jouer sans avoir à conserver Windows. Maintenant ça m’empêche pas d’être un minimum objectif. Valve n’a pas porté Steam sous GNU/Linux parce qu’il pense que Ubuntu va bientôt passer devant Windows 8 en terme de parts de marché. Sans Steambox, GNU/Linux arrivera peut-être au niveau de Mac OS X, 5% de part de marché sur Steam, mais il ne passera pas devant Windows dans un avenir proche.
Pour l’argument GNU/Linux ce n’est pas uniquement le desktop, ce que tu dis n’est pas exact. Android est basé sur le noyau Linux, mais il a une couche graphique totalement différente. Mac OS X et iOS sont basés sur FreeBSD, pourtant les applications ne sont pas compatibles. C’est la même chose pour Android. Avoir un jeu qui tourne sur Android ne veut absolument pas dire qu’il tourne sous GNU/Linux. Firefox OS est dans le même cas, noyau Linux mais couche graphique indépendante. Ubuntu est le seul qui soit une vraie distribution GNU/Linux, mais ils tendent de plus en plus à se différencier, notamment avec leur serveur graphique propre, Mir. Sans parler du fait que ces deux derniers OS ont encore tout à prouver. Donc ton paragraphe est largement hors sujet par rapport à ce que tu dis au dessus.
Le
23/05/2013 à
10h
34
Nithril a écrit :
La quoi? Ce n’est pas un vaporware? " />
Vu les parts de marché de Linux, tu crois vraiment que Valve se serait fait chier à porter Steam et tous ces jeux dessus ?
Valve se sent menacé à moyen terme par Microsoft qui va chercher à mettre en avant ses propres services. Ils cherchent donc à ne plus dépendre d’eux. Windows représente actuellement plus de 90% de leur base d’utilisateurs. S’ils ne sortent rien de nouveau, cette situation ne peut pas changer radicalement. Gabe Newell l’a dit, sortir une machine dédiée est la seule solution pour assurer la survie de Valve à long terme, donc la Steambox sortira tôt ou tard, c’est une certitude.
Le
23/05/2013 à
10h
17
Pikes a écrit :
Je crois que là vous rêver débout. Y a presque aucune chance que cela arrive, à moins que Valve pousse à fond les éditeurs à sortir leur jeu sur Linux, je vois pas comment ça pourrait arriver.
Mais les éditeurs risques d’être difficiles à convaincre avec un taux de joueurs sur Linux d’à peine 2% sur Steam.
Faudrait créer un cercle vertueux qui pousserait les éditeurs et les joueurs sur Linux. Autant dire que ça va pas être facile.
Valve va commercialiser la Steambox, un PC de salon totalement ouvert qui va venir se positionner comme un concurrent direct de la Xbox One. S’ils atteignent un parc suffisant de machines, ils peuvent attirer les éditeurs. Et tout jeu compatible Steambox sera aussi disponible sous Linux. C’est pas gagné, mais c’est de l’ordre du possible.
Après je pense aussi que de plus en plus de jeux vont être développés en OpenGL, pour la bonne raison que de plus en plus de développeurs sont formés à OpenGL. iOS et Android utilisent OpenGL ES, la PS4 et la Wii U utilisent aussi une API dérivée de OpenGL, les box internet utilisent OpenGL, etc… Il n’y a que la Xbox et Windows Phone qui ne peuvent utiliser que DirectX.
Alors j’approuve ce que tu proposes, mais sur le premier point, je parle bien des étudiants en général. Je vais me restreindre au domaine d’où je viens, la science dite “dure” ou “inhumaine”. Même si je persiste à dire que ce serait utile aux sciences humaines. En fait, à tous ceux qui rédigent des rapports (et y en a beaucoup). SVN peut être utilisé en local par exemple. LaTeX est plus qu’utile dès que ton documents dépasse les 20 pages et contient des références bibliographique. J’ai déjà effectué des petites formations LaTeX même à des non informaticiens. Au début, tous considèrent cela comme horrible puisque ça ressemble plus à du code qu’à du traitement de texte, mais tous disent la même chose après : “pourquoi on ne nous l’a pas appris plus tôt ?”.
Aujourd’hui, 90% à 95% des utilisateurs d’ordinateurs ne connaissent pas l’existence de logiciels, d’outils, souvent gratuits, qui leur simplifieraient la vie.
Je viens des math de mon côté, et sans LaTeX, c’est tout simplement pas possible, J’ai du l’apprendre sur le tas en thèse, avant je ne connaissais pas. Pourtant une petite formation d’une dizaine d’heures suffit à donner les bases.
Je connais des personnes qui ont rédigé leur thèse (>150 pages) en Word avec gestion manuelle des références bibliographiques : à se flinguer…
Je crois que le gros problème c’est que l’informatique et l’utilisation d’un ordi, c’est le genre de matière considérée comme du bricolage qu’on “apprend sur le tas”. Comme l’enseignement.
Pour savoir utiliser LaTeX et un traitement de texte, je suis pas d’accord avec toi. Déjà tu caricatures, on est plus au temps de Office 97 où il plantait toutes les 2 minutes et où l’ordinateur crachait ses poumons dès qu’on faisait défiler la page trop rapidement. J’ai déjà rédigé des documents de plus d’une centaine de pages sans aucun problème.
Je note que tu compares une utilisation de LaTeX par quelqu’un qui a reçu une formation à une utilisation d’un traitement de texte par quelqu’un qui n’y connait rien. Si tu compares une utilisation avancée des deux outils, avec utilisation de styles pour toute la mise en forme, de références, d’un sommaire automatique, etc… on arrive à un résultat très comparable.
Pour les commentaires et la gestion des versions, obligé de passer par un gestionnaire externe pour les fichiers LaTeX, alors que c’est directement intégré au fichier pour un traitement de texte. Il y a des avantages et des inconvénients aux deux, mais un gestionnaire de version est quand même très lourd la plupart du temps,et tu peux très bien l’utiliser aussi en combinaison avec un logiciel de traitement de texte dans le cas où les outils intégrés ne suffisent pas.
Dans la pratique, pour mon utilisation en entreprise, il m’arrive de rédiger des rapports de plusieurs dizaines de pages et de faire des choses impossibles avec LaTeX. Par exemple, coller un graphique ou un tableau depuis mon tableur avec liaison avec l’original, commencer à rédiger une analyse, puis j’ai à faire des modifications dans mes calculs et il me suffit de faire un clic droit sur le graphique et de demander de le mettre à jour.
Ces derniers temps, j’utilise aussi de plus en plus l’édition collaborative d’un même document en même temps, plutôt que de rédiger chacun dans son coin et d’avoir à rassembler les documents par la suite. Je crois pas qu’il existe d’éditeur LaTeX capable de faire ça.
LaTeX est un très bon outil, aucun doute là-dessus, mais à mon sens, en dehors des documents scientifiques, sont utilisation ne se justifie pas. Par contre, la plupart des gens, quelque soit leur domaine d’activité, va avoir à utiliser un logiciel de traitement de texte, donc il faudrait plus de formation sur cet outil. J’ai déjà formé des collègues à l’utilisation de Word, et j’ai le même genre de réaction que ce que tu décris pour LaTeX (“on peut faire ça ? Mais c’est génial ! Pourquoi on me l’a pas appris avant ?”). Mais c’est vrai que le fait d’apprendre LaTeX permet de mieux comprendre la structure d’un document et donc d’utiliser un traitement de texte de manière plus rigoureuse.
Un petit tour du propriétaire en vidéo ici. Dommage qu’ils n’aient rien montré de plus lors de la conférence, mais ils ont bien parlé de la possibilité d’un clavier physique en tant que coque.
Le
20/05/2013 à
15h
54
J’espère qu’ils présenteront d’autres trucs lors de la conférence à 18h30. Je parie qu’il y aura une coque arrière avec clavier physique. Le design ne m’enthousiasme pas plus que ça, mais je pense quand même qu’ils ont une chance de percer. Quand on voit que 95% des profits qui sont réalisés grâce à Android le sont par Samsung, ça fait un paquet d’autres marques qui vont chercher à se démarquer. Si leur couche de compatibilité Android est suffisamment bien, ça peut être intéressant. Je vais encore garder mon N9 quelques temps, mais pourquoi pas y installer Sailfish.
Dans tous les cas, même s’ils se plantent, tout le travail qu’ils font ne sera pas perdu. Ils contribuent directement aux projets upstream plutôt que de travailler dans leur coin. Dernièrement, c’est eux qui ont permis l’utilisation des pilotes Android avec Wayland, la nouvelle couche graphique de Linux, qui va remplacer le serveur X. Ils contribuent aussi à Nemo Mobile, à Mer. Tout ce travail bénéficie à tout le monde. Ils ont compris qu’ils n’auraient rien pu faire sans tout le travail de la communauté et donc ils lui rendent bien les choses. Bonne chance à eux.
C’est une question de gout. Je le trouve pour ma part très distrayant.
Un genre de joueur du grenier qui aurait pété un câble.
Mouais, son filon c’est la moquerie. Quand c’est bien fait ça peut-être drôle, lui me fait pas rire du tout. Quelqu’un comme Coluche était aussi très moqueur, mais c’était beaucoup plus bienveillant, et il se moquait aussi de lui-même. Là c’est de limite de la pure méchanceté parfois.
Bon après c’est certain, comparer un humoriste web à Coluche c’est peut-être pas tout à fait équitable. " />
Ceux qui étaient contents de Windows 7 et qui ne le sont pas de Windows 8 ont peu de raisons valables, si ce n’est celle de drivers (et c’est assez rare).
Parce que globalement, Windows 8 c’est 7 avec le start screen en plus, et le menu démarrer en moins.
Et j’ai pas du foutre les pieds dans le menu démarrer depuis des années (XP, en fait). Le petit software “launchy” qui s’est vu remplacé par windows+Q dans windows 8 fait parfaitement le travail.
Sinon, des petites améliorations sympa (copier/coller, bandeau de l’explorateur, skydrive, etc).
L’échec de Windows 8 est dû à 80% au matraquage médiatique anti Windows 8 (“parce que tout change !”), la presse ayant préféré faire du sensationnel au lieu d’étudier vraiment le produit et beaucoup de “power user geeks” ayant eux aussi descendu le truc en flèche sans lui avoir laissé une chance.
Microsoft a été incapable de contrer cette argumentation (ils auraient probablement pu trouver des arguments).
Demande à quelqu’un qui n’a jamais touché Windows 8 de lancer le panneau de configuration. S’il est malin, il va passer par la recherche. Si il veut garder ses habitudes de Windows 7, où c’était directement visible dans le menu démarrer, il va chercher longtemps ! Il faut être sur le bureau, ouvrir la barre de charme, cliquer sur paramètres, et là il est accessible. Ou bien faire un clic droit dans le coin en bas à gauche. Dans les deux cas, c’est absolument pas intuitif. Et ce n’est qu’un exemple parmi tant d’autres.
Non Windows 8 n’est pas une abomination totale, mais il ne faut pas non plus nier qu’il y a des problèmes. Quand on est un geek et qu’on sait que Windows 8 est composé de deux partie, une partie bureau héritée de Windows 7, et une partie tactile dans le start screen, on peut se débrouiller. Mais pour le néophyte, c’est très difficile à comprendre. “Pourquoi certaines applications se lancent sur le bureau et sont accessibles depuis la barre de tâches, et d’autres se lancent en plein écran ? En plus il n’y a pas de boutons en haut à droite pour les fermer.” Tous les non-geeks qui sont passés à Windows 8 dans mon entourage ont mis très longtemps à s’adapter, quand ils n’ont pas voulu tout simplement changer d’OS. La plupart d’ailleurs préfèrent ne pas utiliser les applications WinRT parce que sinon ils sont perdus. Et c’est pas le matraquage médiatique qui a fait ça, ils ne suivent pas du tout l’actualité informatique, ils ont simplement trouvé qu’il y avait beaucoup de choses pas intuitives et difficiles à se rappeler.
Après rien ne dit que Windows 8.1 ne viendra pas corriger beaucoup de ces problèmes. Je pense quand même que tant qu’ils voudront avoir une utilisation identique pour un appareil avec un petit écran tactile 7” et pour un ordinateur avec un écran 27” et clavier/souris, il y aura toujours des problèmes pour l’une ou l’autre des utilisations.
Le
18/05/2013 à
09h
58
Comme toujours avec ce type de produit, c’est le grand public qui décide. J’utilise Windows 8 sur ma machine de jeu et je le trouve pas si mal, mais tous les non-geeks autour de moi sont perdus avec son interface. La barre de charme par exemple, personne ne s’en rappelle. Le fait qu’il y ait une barre de tâche pour les applications du bureau et une vue différente sur la gauche pour les applications WinRT est aussi très déroutant. Il y a beaucoup de choses comme ça, auxquelles on se fait quand on fait un effort, mais qui sont clairement des points à améliorer qui font que le grand public n’adhère pas.
J’ai fait pas mal de maintenance sur des PC Windows et j’ai aussi installé quelques distributions Linux dans mon entourage. Par comparaison, le passage à openSUSE 12.3 Gnome 3 depuis Windows XP pour mes parents qui n’y connaissent rien du tout s’est mieux passé que le passage à Windows 8 (après achat d’un nouveau portable) chez plusieurs personnes qui sont plus habitués aux nouvelles technologies. J’ai même dû réinstallé Windows 7 chez 2 amis, alors même que je leur conseillais d’essayer de s’adapter. De mon expérience, la première impression des gens pour Windows 8 est désastreuse, pire que Vista, et largement plus mauvaise qu’une distribution Linux. Je parle bien sûr d’une utilisation avec un clavier et une souris, j’ai pas encore de retour sur l’utilisation tactile.
Déjà avoir appelé la nouvelle console Wii U alors que ça n’a rien d’une Wii est une erreur marketing monumentale… tout ça surement pour des économies de bout de chandelle en terme de packaging et identité visuelle :/
En quoi la Wii U a moins à voir avec la Wii que la PS3 avec la PS2 ou la Xbox 360 avec la Xbox ? En plus, les jeux et les accessoires Wii sont compatibles Wii U…
S’ils ont gardé le nom Wii, c’est parce que c’est une marque connue, tout simplement.
Le
17/05/2013 à
18h
37
Pas étonnant qu’ils n’aient presque rien montré vu que l’E3 est dans moins d’un mois et que leurs concurrents montreront de nouvelles consoles. Ils ont intérêt à garder le lourd pour plus tard.
Pour ceux qui enterrent déjà la Wii U et Nintendo par la même occasion, c’est assez marrant. La 3DS et la Wii avant elle devaient aussi signer la fin de Nintendo, on voit où elles en sont aujourd’hui. Nintendo a la capacité de sortir des jeux qui se vendent par cargo entier. Si les ventes de la Wii U ne décollent pas après la sortie de Mario Kart, là on pourra dire que c’est un échec. Beaucoup disent qu’ils ressortent toujours les mêmes licences, mais en fait ils en ont créé pas mal de nouvelles sur Wii, c’est simplement qu’elles étaient destinées au public non-joueur. Il ne faut pas oublier que Nintendo a fait de très grosses ventes avec Wii Fit, un concept totalement nouveau. Je suis certain qu’ils vont encore une fois sortir un truc que personne n’attend pour attirer un nouveau public.
Et même si la Wii U se plante, ce ne sera en rien comparable avec Sega. La Dreamcast n’était pas le premier bide de Sega, il y a eu la Saturn et la Game Gear avant elles qui n’ont pas marché. Sans parler des énormes bénéfices que Nintendo fait sur leur activité d’éditeur de jeux, alors que Sega a perdu beaucoup d’argent à cause de Shenmue. Nintendo est très loin de la situation dans laquelle était Sega. Ils n’ont été dans le rouge que pour la dernière année de vie de la Wii. Les divisions jeu vidéo de Sony et Microsoft ont été en déficit bien plus souvent…
Espérons que ça améliore l’état des pilotes graphiques sous Linux. Parce qu’en dehors des pilotes propriétaires Nvidia, il y a encore du chemin à parcourir. Mais c’est une bonne chose. Merci Valve.
Pour les joueurs sous Linux, il y a aussi le Humble Double Fine Bundle avec plusieurs jeux 3D relativement récents. Brütal Legends en cours de téléchargement sous openSUSE 12.3 ici !
Avec le Gamepad, ils se positionnent comme un concurrent des tablettes pour un certain public. C’est donc assez normal qu’ils cherchent à pousser les développeurs à sortir leurs jeux tactiles sur iOS/Android/Wii U.
C’est le principe de l’abonnement de Soutien non ?
Dans l’exemple du Humble Bundle, c’est plus l’aspect regroupement d’acteurs indépendants pour avoir une meilleure visibilité dont vous pourriez vous inspirer. Le fait de pouvoir fixer son prix n’est pas forcément applicable pour vous. Mais avoir un réseau de sites indépendants, avec par exemple une charte d’éthique journalistique, et chacun spécialisé dans un domaine, avec un système d’abonnement centralisé, je pense que c’est un concept à creuser et qui est susceptible d’intéresser quelques uns de vos confrères. Après, c’est certain qu’il est facile d’avoir l’idée, mais beaucoup plus difficile de la mettre en oeuvre concrètement…
Le
06/05/2013 à
14h
43
deepinpact a écrit :
OK " />
Dans ce cas je ne m’obstine pas plus dans la réflexion d’avoir eu l’idée du siècle ( " /> ) et j’espère que vous trouverez tous un juste terrain d’entente avec ces autres acteurs !
A mon sens c’est vraiment la meilleure solution !
Il faut lancer un Humble Indie News Website Premium Suscription Bundle ! Le nom est un peu long, mais ça ferait un bon gros coup de pub " />
Le
06/05/2013 à
12h
07
J’ai voté pour les abonnements, parce que je pense que c’est l’unique solution à long terme, même si ça reste un pari difficile. Après, vous pourriez aussi envisager d’autres pistes. Pour l’instant, vous visez uniquement les particuliers. Les entreprises pourraient aussi être une source de revenu, et elles seraient peut-être prêtes à mettre plus d’argent. Ca permettrait de diversifier encore les sources de revenu. Je pense par exemple à un service de veille personnalisé, mais en réfléchissant un peu plus, il y a peut-être moyen de mettre à profit votre expertise pour les entreprises.
Ensuite, il faut attirer plus de monde sur PC INpact, et pour ça, une collaboration avec un autre média permettrait d’augmenter votre notoriété. Que ce soit pour quelques articles pour un site généraliste, ou par un partenariat privilégié un autre site. Arrêt sur Image et Mediapart ont par exemple un accord qui fait qu’on paye moins cher si on s’abonne aux deux. D’ailleurs, parmi les technophiles abonnés à Arrêt sur Image, beaucoup sont aussi abonnés à CanardPC. Ceux qui sont prêts à payer pour de l’information de qualité se retrouvent souvent d’un site à l’autre, donc je pense que vous devriez essayer de vous faire connaître en priorité auprès de ce public, même si vous avez une cible très différente des exemples que je cite.
Enfin voilà pour les quelques pistes de réflexions auxquelles j’ai pensé, même si je suis certainement pas le seul à y avoir pensé. Joyeux anniversaire et en espérant pouvoir fêter les 20 ans de PC INpact !
C’est une très bonne idée. La dernière fois où j’ai réinstallé de mon système, j’ai préféré repartir avec un profil Firefox tout propre, j’ai réinstallé AdBlock mais j’ai complètement oublié de remettre ma liste blanche. Avec un simple message comme ça, j’y aurais pensé. Là j’ai passé plusieurs semaines sans m’en rendre compte (bizarrement, quand j’utilise un navigateur sans bloqueur de pub, je le remarque plus vite).
C’est pas une raison technique mais politique. En clair Cannonical veut avoir la main mise sur le server graphique notamment pour la convergence PC de bureau/Tablette/Smartphone sans être dépendant d’un tiers qui peut refuser les commit que cannonical devra proposé pour cette convergence.
En clair ils veulent pas être dépendant des mainteneur de Wayland pour mener leur projet de convergence Desktop/Tabllette/Téléphone.
Canonical n’est pas le premier à vouloir faire de la convergence. Wayland a été pensé dès le départ pour pouvoir être utilisé aussi bien sur ordinateur que sur smartphone. La plupart des développeurs Wayland sont employés par Intel, pour l’utiliser d’abord sur MeeGo puis sur Tizen, des OS pour smartphones, tout en étant le remplaçant de Xorg sur ordinateur de bureau… Jolla, dans le cadre du développement de Sailfish, son OS pour smartphone, l’a même rendu compatible avec les pilotes graphiques Android récemment. Je suis curieux de connaitre les besoins spécifiques de Canonical par rapport à ces autres acteurs, sur une brique aussi élémentaire que le serveur graphique.
Le
26/04/2013 à
10h
19
Anthony25 a écrit :
Pareil pour les drivers de cartes graphiques, surtout que wayland ça leur plait moyen car ils seront obligé d’implanter leurs drivers dans le noyau, et il faudra forcément que ce qui est implanté soit libre.
Canonical a annoncé qu’ils travaillaient à ce que les pilotes Mir puissent être utilisés par Wayland. Sans plus de précisions pour l’instant.
Okki a écrit :
De toute façon, pour un jeu, t’as toujours un moteur qui peut gérer plein de choses, puis éventuellement un certain nombre de bibliothèques supplémentaires, telles quy’OpenGL pour la 3D, OpenAL pour l’audio, SDL pour tout un tas de parties, dont les périphériques d’entrée… Tu n’as donc pas besoin de faire tourner un environnement de bureau en arrière plan XD
Wikipedia Wikipedia WikipediaLe problème, c’est surtout pour les applications propriétaires. Si elles utilisent un toolkit ou dépendent d’une bibliothèque système, ça devrait pas poser problème. Mais si ce n’est pas le cas, c’est là qu’il pourrait y avoir des incompatibilités.
Bon en même temps, je me trompe peut-être. On le saura bien assez tôt. Mais si la raison à la création de Mir n’est pas d’ordre technique, il y a deux possibilités. Soit il y a une raison d’ordre stratégique derrière, soit c’est de l’incompétence.
Le
25/04/2013 à
18h
30
Ishan a écrit :
@Rozgann> 99% des jeux sont en OpenGL donc MIR ou Wayland ça change pas grand chose.
Un serveur graphique, en plus de l’affichage, ça gère aussi tout ce qui est entrée (clavier, souris, écran tactile, manette, etc…). Que je sache, OpenGL, contrairement à DirectX, ne concerne que l’affichage sur l’écran. Si on peut voir les images mais pas interagir avec, ça risque d’être beaucoup moins fun de jouer…
Ishan a écrit :
Perso je suis pas un accro de Ubuntu mais tout ce que je vois c’est qu’ils éssaient d’avoir une vrai cohérence dans un monde Linux très fragmenté. Ça va dans le bon sens du moment que ça reste Open, qui vivra verra " />
J’aurai aimé qu’ils choisissent KDE comme bureau mais en même temps ils veulent garder le contrôle, donc des projets spécifiques ont du sens.
edit: d’ailleurs ça me fait penser qu’il devraient passer tout leurs outils sous Qt plutôt que Gtk, c’est bien plus clean et robuste à mon gout (mais c’est que mon avis hein :) ).
Le Ubuntu SDK s’appuie sur Qt5, Unity Next sera écrit en Qt, et c’est très probable que les applications qui seront avec soient écrites avec le SDK. Donc à mon avis, ils vont se dissocier entièrement de Gnome à la prochaine version majeure.
Le
25/04/2013 à
17h
20
J’arrive pas à me décider sur Ubuntu et Canonical.
D’un côté, j’aime bien Unity. Ils ont su prendre les bons éléments d’inspiration dans Mac OS et Windows, et il y a de réelles bonnes idées. J’ai l’habitude de mettre ma barre de tâche sur le côté gauche sous Windows ou sous Plasma, c’est comme ça par défaut sous Unity. Leur HUD est vraiment bien une fois qu’on y a goûté : plutôt que d’aller fouiller dans la barre de menu, qui est loin en haut de l’écran en plus, un appui sur la touche alt, puis les premières lettres de la fonctionnalités qu’on cherche, et c’est gagné. Pour les applications un peu bordéliques et qu’on utilise pas souvent, c’est très pratique. Leur dash est perfectible, j’aimerais pouvoir virer plus de trucs qui me servent pas, mais au moins maintenant la recherche est vraiment rapide, ce qui n’était pas le cas au début. Ils ont aussi une vraie identité visuelle, largement au niveau des systèmes propriétaires à mon avis, c’est important pour attirer de nouveaux utilisateurs, et trop souvent négligé par ses concurrentes.
D’un autre côté, j’aime pas du tout leur manière de se comporter au sein de la communauté GNU/Linux. Depuis toujours, ils ont joué très perso. La plupart de leurs développements sont faits pour être spécifiques à leur distribution (leur installeur, leur logithèque, puis Unity qui se base sur Gnome mais dans une version lourdement patchée qui fait que les autres distributions ne peuvent pas facilement le proposer). Ils ont bien contribué quelques trucs comme Upstart ou LightDM, mais tous leurs projets sont sujets à un Contributor Licence Agreement, qui fait qu’en gros, si on veut contribuer au projet, on est obligé d’abandonner ses droits d’auteur au profit de Canonical, et que rien ne les empêche de passer le code sous licence propriétaire si ça leur chante. Jusqu’à présent, c’était pas vraiment grave, puisque ça n’avait d’impact que sur Ubuntu et pas sur toute la communauté GNU/Linux. Mais avec l’annonce de Mir, ils sont passés d’une attitude “je roule pour ma pomme et je m’en fous des autres” à une attitude “je tente d’imposer ma propre brique élémentaire dont j’ai le contrôle total au reste de la communauté GNU/Linux plutôt que de contribuer à Wayland pour lequel je ne serais qu’un acteur parmi d’autres”.
Avec Mir, il y a un réel risque de fragmentation pour le monde GNU/Linux. Pour la plupart des applications libres, elles se basent sur un toolkit comme Qt ou GTK, qui eux pourront fonctionner à la fois sur Mir et sur Wayland sans problème. Mais pour certaines applications spécifiques comme les jeux par exemple, est-ce qu’un développeur va se faire chier à proposer une version Mir et une version Wayland ? Déjà que le support de Linux est très rare, je ne pense pas. Avec ce coup bas, ils pourront stabiliser durablement leur position de leader des distributions voire carrément faire dans l’inconscient collectif Linux = Ubuntu de la même manière que Microsoft a réussi à faire PC = Windows. Le pire c’est qu’ils n’ont même pas cherché à discuter avec les développeurs de Wayland pour voir si il pouvait satisfaire à leurs besoins. Ils ont évaluer les choses dans leur coin, sans rien dire à personne, et alors qu’ils avaient annoncé leur support à Wayland, ils ont décrété un beau jour que Wayland c’était pourri et qu’ils allait faire leur propre truc de leur côté. En réalité, les arguments techniques qu’ils ont donné n’ont aucun fondement, donc soit l’équipe en charge du développement de Mir est incompétente, soit les arguments réels sont de l’ordre de la stratégie commerciale.
C’est cette attitude que je trouve vraiment, vraiment pas cool. C’est dommage, parce que leur distribution a beaucoup de qualités. Mais pour moi c’est rédhibitoire. Je préfère utiliser une distribution qui attache plus d’importance aux valeurs communautaires, comme openSUSE.
L’E3 c’est avant tout une tradition, tradition pour les joueurs qui aimaient se retrouver ou acheter les bouquins pour cet évènement très sympa.
Que Nintendo ne se présente pas c’est à la fois un bras d’honneur à cette tradition (franchement même si je ne suis pas porté sur l’univers Nintendo j’ai les boules qu’ils ne soient pas la ) et à la fois une façon de fuir la concurrence, voir de n’avoir rien de concret à annoncer à cette date, ce qui est plutôt inquiétant.
D’habitude, les conférences des constructeurs sont des conférences pré-E3, elles ne font pas officiellement partie du salon. Ils présentent les nouveautés que les journalistes pourront voir sur le salon. Nintendo sera bien présent sur le salon, simplement ils ne feront pas la grosse conférence avant. A mon avis, ils vont faire monter la pression petit à petit en présentant un jeu par jour la semaine précédente, ou un truc du genre. Comme ça, ils éviteront de faire une conférence le même jour que les deux autres constructeurs, au risque qu’on ne parle pas d’eux mais uniquement des nouvelles consoles.
Il n’y a pas d’espace perdu, simplement la fenêtre n’est pas maximisée sur les captures, et la nouvelle interface se comporte exactement comme l’actuelle.
Par contre, si tu te soucies de l’espace vertical, tu peux gagner encore une ligne en hauteur sur ta capture, en supprimant la barre personnelle, et en utilisant le panneau latéral de marques-pages. Chose que ne propose pas Chrome.
j’ai revendu mon n9 car je voulais un ecran plus grand et un hardware plus puissant (pour le reste l’os etait top !!)
Même avec Opera il y a des incompatibilités. Impossible d’utiliser Google Maps par exemple. La dernière version pour Harmattan est la 12.1.1, ils sont en 12.1.4 sous Android. Mais de toute façon, ça m’étonnerait qu’on ait encore des mises à jour après le passage à Blink en moteur de rendu.
Par contre, il y a un navigateur basé sur le moteur Gecko de Firefox en développement avec une interface en QML, mais c’est des développeurs de la communauté Maemo qui s’en occupent, pas directement Mozilla. Comme ils sont pas nombreux, ça avance pas vite. L’avantage c’est qu’ils utilisent la même base que la version Android de Firefox, donc toute mise à jour du moteur est facilement applicable.
Le
19/04/2013 à
10h
22
Possesseur de N9 aussi, Sailfish a l’air intéressant, mais j’ai l’impression qu’ils n’ont pas pu inclure certaines fonctionnalités de MeeGo/Harmattan à cause des brevets Nokia. Les applications qui s’estompent mais restent fixes quand on balaie l’écran depuis l’extérieur par exemple, c’est beaucoup moins intuitif que l’aspect de carte qu’on fait glisser utilisé pour le N9. Je suis pas convaincu que l’absence de barre de statut soit une bonne idée non plus, mais c’est à voir à l’usage. Leur menu poulie à l’air intéressant par contre. Et au moins, ça a le mérite de ne pas être un clone d’Android, contrairement à ce que j’ai vu de Firefox OS et Tizen.
En ce qui me concerne, je pense que je suis parti pour au moins 3 ans de plus avec mon N9, donc je ne ferais pas partie des acheteurs de Jolla Phone. J’installerais peut-être Sailfish dessus si c’est possible et s’il y a un réel intérêt. Je me sers quand même pas mal des services Nokia, particulièrement le GPS et la cartographie, qui sont d’excellente qualité. C’est d’ailleurs sur les services autour de l’OS que j’ai peur que Sailfish pêche un peu. Mais un navigateur mis à jour, ça va commencer à manquer sur Harmattan. Il commence déjà à y avoir des sites mobiles incompatibles avec le navigateur par défaut.
vu l’autonomie des dites “lunettes” en utilisation (3h); peu de chance que les gens s’“infligent” les lunettes actives + les 3 recharges par jour …
semble assez evident que les gens ne porteront pas les lunettes en permanence (quel interet quand tu es au bureau; quand tu fais la cuisine, etc … ??)
De ce que j’ai compris de l’utilisation, c’est des lunettes que tu portes toute la journée sur le nez. Après, tu actives la réalité augmentée quand tu le souhaites (c’est ça qui doit vider la batterie en 3h), mais ça permet de recevoir des appels par exemple. Donc elles seront connectées au réseau GSM avec des échanges fréquents avec l’antenne de l’opérateur.
indyiv a écrit :
par contre; on est en PERMANENCE entourés d’ondes …
Oui enfin plus on est proche de l’émetteur, et plus l’intensité est importante. Etre exposé à une forte intensité à longueur de journée, et l’être quelques dizaines de minutes par jour quand on porte le téléphone à l’oreille pour passer un appel, ça peut avoir des effets différents. Ou pas d’ailleurs, mais ça mériterait qu’on s’y intéresse.
Et toutes les longueurs d’onde n’ont pas le même effet. La lumière visible n’a aucun effet sur le corps humain, les UV te crament la peau, les micro-ondes font raisonner les molécules d’eau. Ca n’a aucun sens de généraliser à tous les types d’ondes. Actuellement, il y a pas beaucoup de gens qui ont en permanence un émetteur GSM collé à la tempe.
indyiv a écrit :
et ça n’est pas prêt de diminuer …
Pas nécessairement. Plus tu multiplies les émetteurs, moins l’intensité nécessaire est importante, puisque la distance entre émetteur/récepteur est moins importante. Si une quelconque nocivité au-delà d’un certain seuil était démontrée, il serait techniquement possible de réduire l’exposition en multipliant le nombre d’antennes.
Le
22/04/2013 à
09h
44
Avec un bidule qui émet des ondes GSM et 3G/4G à quelques centimètres de la cervelle plus de 12h par jour, on devrait assez rapidement être fixés sur la nocivité ou non de ces ondes. Moi je vais laisser les autres être cobayes, surtout que je suis pas certain que les quelques avantages que peu procurer ce type d’appareil justifient qu’on envoie ma position et tout ce qui est dans mon champ de vision sur un serveur Google.
équipement réseau, cartographie… Ils ont beaucoup de domaines encore.
Et Nokia a aussi ses propres usines d’assemblage. Ils ont fermé toutes celles qui étaient en Europe, mais ils en ont plusieurs en Asie. Il me semble que beaucoup d’autres constructeurs sous-traitent entièrement et n’ont aucune usine à eux.
L’objectif de 100.000$ parait maintenant très difficile à atteindre en moins de 8 jours, surtout ils semblent n’avoir pas aussi bien communiqué (Slashdot, Reddit, Techcrunch, Kickstarter…) qu’OpenShot, mais qui sait ?
C’est aussi qu’un bon logiciel de montage vidéo, facile d’accès et sans bugs, ça court pas les rues parmi les logiciels libres. Alors que du côté de l’email, même si Geary a l’air intéressant, il y a plusieurs clients mail libres, sans parler des webmails qui ont tellement gagné en fonctionnalités ces derniers temps qu’ils suffisent à beaucoup de gens.
Et c’est plus “parlant” pour la majorité du peuple qui n’est pas “écolo”, de leur faire comprendre qu’il seront au chômage et qu’ils n’auront pas de retraite, plutôt que le problème climatique qui sera un problème “secondaire”…
Je ne suis pas d’accord sur le fait que le changement climatique sera un problème secondaire. Il aura énormément de répercutions sur l’humanité, autant sinon plus que la réduction de la disponibilité de l’énergie.
Les populations se sont installés à des endroits où les terres sont arables, où l’eau est disponible en quantité. En 2012, 65% de pluie en moins lors de la mousson en Inde du Sud, plus de 800 millions de personnes concernées. Ces changements se produisent à une vitesse telle qu’il sera très difficile de s’y adapter assez rapidement pour éviter les problèmes d’approvisionnement en eau et en nourriture. Avec le changement climatique, les zones les plus favorables à l’installation humaine vont bouger, et les populations aussi. Si tu ajoutes à ça l’élévation du niveau des mers, cela va entrainer des mouvements de population énormes, de l’ordre de plusieurs centaines de millions de personnes dans le monde. Regarde les problèmes que posent les roms en France, alors qu’ils ne représentent qu’un nombre très faible de personnes. Le problème israélo-palestinien est aussi dû à un mouvement de population au final, et il a des répercutions géopolitique à l’échelle mondiale. Plus le changement climatique sera important, plus les mouvements de population le seront, plus il y aura de conflits, de montée de la xénophobie dans les zones les plus épargnées, et tous les problèmes qui vont avec.
Le changement climatique va aussi entrainer des modifications dans les écosystèmes qu’il est très difficile d’évaluer. J’ai plus le chiffre en tête, mais la part du PIB mondial directement issue de la nature est très importante. Dernier truc qui me vient à l’esprit, l’appauvrissement de la biodiversité va très fortement réduire la résistance aux maladies.
La vie sur terre a survécu à des crises bien plus graves. Les civilisations humaines, elles, n’ont jamais été confrontées à un défi aussi important. Personnellement, s’il y avait à choisir entre le pic pétrolier et le changement climatique, je choisirais le pic pétrolier sans hésitation. Mais la question ne se pose pas, on va devoir affronter les deux problèmes, la grande majorité de la population mondiale n’en a même pas conscience, et parmi ceux qui sont au courant une bonne partie préfère s’occuper des conséquences plutôt que de travailler à de réelles solutions pour s’attaquer aux causes.
Deep_INpact a écrit :
Les média font parti des chiens de garde, donc ils ne vont pas montrer que tout est lié.
Il y a du vrai dans ce que tu dis, mais je pense que le problème est plus profond que ça. La société toute entière a une vision à court terme. La plupart des gens ne se soucient que du chômage, de la “crise” financière, de la dette. Quand tu leur parles de changement climatique ou d’approvisionnement en énergie, ils te répondent qu’il y a plus urgent à régler. Les médias ont certainement une responsabilité là-dedans, mais pas seulement. En dehors des gens qui s’intéressent aux problèmes environnementaux ou énergétiques, les gens n’ont pas intégré les changements qui s’opèrent actuellement. Le point le plus frappant selon moi, c’est que toutes les théories économiques majeures aujourd’hui raisonnent encore dans un monde aux ressources infinies.
Le
15/04/2013 à
14h
51
raoudoudou a écrit :
Parce que le nucléaire est une énergie fossile comme le pétrole, que l’expansion de la Chine augmente la consommation des ressources fossiles dans des proportions de dingue et que c’est une énergie dont il faudra bien se passer quand il n’y en aura plus. Donc OK c’est bien pratique pour le moment, mais il faut développer autre chose, et très rapidement, concrètement.
Une autre vidéo liée au sujet, qui vient d’être publiée aujourd’hui:
Je recommande aussi la lecture du blog de ce journaliste, qui contient beaucoup d’information intéressantes :http://petrole.blog.lemonde.fr/
Le plus triste, c’est que les médias n’en parlent plus du tout. Depuis un an ou deux, tous les thèmes environnementaux sont passés au second plan, il n’y a que la crise financière qui est importante. Alors que tout est lié, et qu’une des causes principale est l’énergie.
Le
14/04/2013 à
14h
17
Ph11 a écrit :
Merci, grâce à toi, je me suis couché super tard…
" />
" /> oui ça m’a fait le même effet quand on m’en a parlé la première fois. Le manga est toujours en cours de rédaction, 3 nouvelles pages par semaines en moyenne, traduites dans plusieurs dizaines de langues. Le scénariste et le dessinateur principal (qui a maintenant été remplacé mais qui a fait la majorité des premiers chapitres) sont français d’ailleurs.
Le
13/04/2013 à
22h
13
Flipbook Dragon Ball : un travail titanesque, mais basé sur Dragon Ball GT (honte).
Travail impressionnant ! Pour ceux qui ne connaitrait pas, une suite à Dragon Ball Z de bien meilleure qualité que Dragon Ball GT : Dragon Ball Multiverse.
Mouai .. Ubuntu est devenu super lourd, mon pc qui tourne aisement sous Xp en chie sur l’interface d’ubuntu , et pour mint linux ça se lance tout simplement pas " /> les autres pas test, j’ai réinstalle Xp du coup " />
Par défaut avec les dernières versions d’Ubuntu, si les pilotes graphiques ne sont pas installés ou ne supportent pas la 3D, ils font tourner les effets graphiques sur le CPU, donc ça rame sévère. A mon avis, ça vient certainement de là. Donc soit il faut installer des pilotes graphiques propriétaires, soit la carte graphique n’est pas assez récente pour supporter la 3D nécessaires pour Unity, et alors il faut ce tourner vers un environnement qui ne dépends pas d’effets 3D, comme KDE (en désactivant les effets présents par défaut), XFCE ou MATE.
Mouais, ils font un sacré pari Opera quand même. Avec Webkit, le développement est ouvert et ils ont leur mot à dire sur son évolution. Avec Blink, ils sont obligés de suivre Google dans la direction où ils veulent aller. Google est loin d’être un modèle de coopération.
Ou alors ils vont utiliser Blink parce que le travail sur Chromium est déjà très avancé, et qu’ils prévoient de repasser sous Webkit dès que possible.
Quelle valeur aura cet avis de la Hadopi ? Je n’ai que très peu de notions de droit, mais si je comprends bien, actuellement les textes ne sont pas clairs à ce sujet. Donc si VLC inclue les fichiers qu’il faut pour lire un Blu-ray, VideoLAN pourrait être attaquée par Sony, et ce serait à un juge de trancher, alors il y aurait une jurisprudence qui clarifierait ce point.
Maintenant qu’il va y avoir un avis de la Hadopi, si VLC inclue quand même les fichiers, le juge pourra-t-il avoir une interprétation différente des textes dans le cas d’un procès ? En gros, cet avis aura-t-il la même valeur qu’une jurisprudence ? Si j’en crois la dernière phrase de l’article, non. Donc il sert pas à grand chose au final cet avis.
Unity, c’est une alternative à Gnome-shell et c’est tout… Le reste, c’est Gnome 3.x …
Il y a plus que simplement le shell qui change dans Unity. Les paramètres systèmes sont différents. Le module “Vie privée”, le module “Comptes en ligne” sont différents et incompatibles. Ubuntu n’utilise pas GDM comme display manager, mais LightDM. Et avec Unity Next, qui sera réécrit en Qt pour avoir un même code qui fonctionne sur smartphone, tablette et ordinateur, c’est pas encore très clair qu’elle est la part de technologie Gnome qu’ils vont garder. A mon avis, ils vont faire un environnement tout nouveau entièrement développé avec le Ubuntu SDK qui est basé sur Qt.
Le
01/04/2013 à
13h
22
sr17 a écrit :
L’informatique est de plus en plus omniprésente, partout et pour tout, dans tous les métiers, dans tous les lieux.
Quasiment personne n’y échappera.
Mon constat, c’est que je vois tous les jours des utilisateurs qui souffrent parce qu’ils utilisent l’informatique sans avoir reçu la formation adéquate. Et qu’ils ont de très gros soucis avec ça. Au final, cela leur demande beaucoup plus d’efforts et de souffrances que s’ils avaient reçu un minimum de formation.
Et quelque part, les raisons pour lesquelles ils ne se forment pas, c’est parce qu’on ne leur pas fait comprendre qu’il le fallait vraiment.
L’argument de la simplicité, c’est avant tout du marketing pour vendre du matériel. C’est comme le sucre dans les aliments : c’est bon pour les affaires, pas pour la santé.
C’est comme si vous disiez aux gens : pas besoin d’apprendre à lire, on va mettre de la synthèse vocale partout. Pas besoin d’apprendre à compter, on va vous donner des calculatrices. Pas besoin d’apprendre… c’est plus simple de ne pas apprendre.
Oui, dire aux gens qu’ils n’ont pas d’effort à faire, c’est vendeur. Mais j’ai vu assez de gens souffrir de cela pour vous dire que cela ne sera pas bon pour vous.
Je suis d’accord avec toi sur le fait qu’il faut de la formation. Mais comme je l’ai dit dans mon commentaire précédent, je pense pas que le fait de faire un environnement adapté au néophyte nuise à son apprentissage. Pour les développeurs Gnome, quand il y a trop d’options, quand c’est trop compliqué, les néophytes vont avoir peur de faire une bêtise, ils ne vont pas chercher à comprendre ce qui se cache derrière ces options, ils vont faire les choses par automatisme, et quand ils ont un problème, ils appellent quelqu’un “qui s’y connait”.
Je te reprends l’exemple de ma mère que je décrivais ici : Sous Gnome-shell, elle utilise maintenant les bureaux virtuels. Quand je le lui ai présenté, j’ai fait l’analogie avec les tiroirs d’un bureau. Quand elle est en train de faire quelque chose, si elle veut commencer autre chose qui n’a pas de rapport, elle range ses fenêtres dans un tiroir et elle commence sur un bureau rangé. Cette analogie est valable tout autant pour Gnome-shell que pour n’importe quel autre environnement qui propose des bureaux virtuels. Pourtant, je connais aucun non-geek qui les utilise. J’ai un ami qui a un Mac, c’est moi qui lui ai fait découvrir Spaces, il l’avait jamais utilisé. Je lui ai expliqué à quoi ça servait en faisant la même analogie que pour ma mère, mais je suis certain qu’il ne s’en sert toujours pas. Par contre, Gnome-shell, en supprimant la possibilité de minimiser, pousse à l’utilisation des bureaux virtuels, ce qu’ils considèrent comme étant une bonne pratique.
Autre exemple avec l’absence de bouton pour maximiser la fenêtre. Vu la logique de Gnome-shell, il est difficile de passer rapidement d’une fenêtre à l’autre. Ce qui fait qu’il vaut mieux privilégier l’utilisation des fenêtres non-maximisées. Quand il faut faire des allers-retours entre 2 fenêtres, le plus simple c’est de les mettre côte-à-côte, en maximisant sur un demi-écran. Sur Gnome-shell, quand j’ai montré comment maximiser une fenêtre, j’ai directement pensé à montrer comment les mettre côte-à-côte, parce que le geste est similaire. Sur les autres environnements, alors que les mêmes fonctionnalités sont disponibles, j’ai pas pensé à les montrer.
Je fais pas ici de jugement pour savoir si remplacer la minimisation par les bureaux virtuels ou le bouton de maximisation par un geste est une bonne chose, je veux juste illustrer qu’en supprimant certaines options, ils veulent favoriser l’utilisation d’autres qu’ils jugent meilleures. Pour moi, le geek est assez curieux pour aller chercher les différentes options qui s’offrent à lui, et choisir celles qui sont les plus adaptées à ses besoins. Le néophyte va juste utiliser l’option qui est la plus mise en évidence.
sr17 a écrit :
Je pense que c’est une profonde erreur.
Pourquoi ? Parce qu’être débutant n’est pas un état définitif. Un débutant, ça évolue… sauf si on l’infantilise.
Le résultat d’enlever toutes les options avancées c’est que cela bloquera l’évolution des utilisateurs.
Plus on cache le fonctionnement, plus on infantilise les utilisateurs, plus on les maintiendra longtemps dans l’état d’utilisateurs débutants.
Je comprends bien ta façon de voir les choses, mais il faut aussi dire que pour qu’un débutant évolue, ça demande un investissement de sa part. Investissement que tout le monde ne peut pas fournir. Oui, on devrait mieux enseigner l’utilisation de l’informatique dans les écoles, mais pour les actifs et les retraités, se former ça demande de trouver du temps pour le faire, ça demande de faire l’effort d’apprendre certains principes complexes. C’est un investissement qui est sans aucun doute rentable, mais que certaines personnes n’ont pas forcément envie ou ne sont pas capables de fournir.
Enlever certaines options permet de favoriser l’apprentissage de bonnes pratiques, qui permettent une utilisation plus avancée, mais qui serait parasitées par d’autres fonctions qui couvrent une partie de leur utilité. Simplifier les choses permet aussi de mettre les utilisateurs en confiance, de leur enlever l’idée qu’ils peuvent casser quelque chose, ce qui les pousse à mieux comprendre comment ça marche. J’ai pas l’impression que Gnome cherche à simplifier à outrance, ils suppriment les options qui parasitent l’apprentissage de concepts plus poussés.
Le
31/03/2013 à
18h
07
sr17 a écrit :
c’est pour cela qu’un bureau doit être paramétrable pour s’adapter à ces cas précis. Et il peut y avoir des outils spécifiquement adaptés.
Mais en aucun cas, ce n’est une bonne solution de niveler par le bas les possibilités des utilisateurs qui ont leur plein moyens.
…un bureau doit… il peut y avoir… en aucun cas… au final c’est ta conception des choses. Selon toi, un utilisateur novice ne doit être considéré que de façon secondaire (puisqu’il faut changer les paramètres par défaut, et utiliser des outils spécifiques), et un utilisateur moyen doit être formé pour atteindre le niveau d’un utilisateur avancé. A partir de là, tu as une vision cohérente des choses, qui se tient tout à fait, mais qui s’appuie sur ce postulat de départ.
Les développeurs Gnome considèrent que les novices et ceux qui ont des déficiences font partie de leur cible principale au même titre qu’un utilisateur moyen, et que l’utilisateur avancé qui veut pouvoir paramétrer son système n’est pas prioritaire. Si une option utile à un utilisateur avancé perturbe un utilisateur novice, ils ne vont pas l’inclure, ou alors ils vont bien la cacher (en utilisant une extension à aller chercher sur un site internet dédié par exemple). A partir de ce postulat, il font aussi un truc cohérent.
En ce qui me concerne, je pense pas qu’il y ait des règles valables dans tous les cas comme celles que tu énonces, je pense pas non plus qu’on pourra faire un jour un environnement qui puisse répondre aux besoins de tous les types d’utilisateurs. J’utilise KDE parce que c’est l’environnement qui répond le mieux à mes besoins, mais je trouve Gnome très bien pour les utilisateurs auxquels il s’adresse en priorité. Et je ne pense pas que leurs choix soient motivés par une mode venue du tactile, mais par un raisonnement très logique.
Le
31/03/2013 à
15h
49
_fefe_ a écrit :
Ben moi je me considère comme extérieur à KDE, par conséquent je n’irai jamais commenter où exprimer quoi que ce soit un article sur KDE " />
J’utilise pas Gnome 3 moi-même, mais je l’ai installé à plusieurs personnes. Tu me présentais comme un fanboy Gnome 3 qui stigmatise les gens qui font des critiques. Je dis que je suis extérieur à Gnome dans le sens où j’en ai rien à faire qu’une grosse partie des utilisateurs de Gnome 2 utilisent maintenant MATE ou Cinnamon.
_fefe_ a écrit :
et c’est compatible avec “l’expérience utilisateur” pronée dans l’article ?
Je comprends pas ta question.
Le
31/03/2013 à
12h
42
brazomyna a écrit :
Et donc ? Ils vont avoir des tablettes et des smartphones avec l’IHM qui est pensée pour eux et tout le monde sera content.
En quoi ça devrait induire que le desktop doit tout à coup devenir une tablette ?
Je répondais à l’argument qu’il faut obligatoirement tenir compte de l’expérience acquise parce que tout le monde est habitué à l’utilisation de Windows. C’est déjà faux actuellement, et ce sera encore plus faux à l’avenir étant donné qu’une proportion importante de gens vont se passer d’ordinateurs.
brazomyna a écrit :
T’es idiot ou tu le fais exprès ? En quoi j’impose quoi que ce soit quand je dis que leur orientation est à mon sens une erreur ? J’ai encore le droit d’exprimer mon désaccord ou c’est interdit ?
Tu dis ici : “Mais qu’un projet comme GNOME (pour GS) ou Unity (pour Ubuntu) en fasse le choix principal, celui dans lequel on injecte la majorité des ressources, des efforts, des espoirs et des visions de futur du desktop, c’est une faute.” Je comprends que Gnome ne devrait pas injecter la majorité de ses ressources dans Gnome-shell, non ? S’ils ont le droit de faire ce qu’ils veulent, en quoi c’est une faute ? Le fait est que sur toutes les actualités sur Gnome 3, il y a une bonne partie des gens qui viennent se plaindre de la direction qu’ils ont pris. Ca fait 2 ans que Gnome 3.0 est sorti, ils envisagent pas de changer de cap, et les critiques continuent encore. J’ai vraiment du mal à comprendre ça.
brazomyna a écrit :
Personne n’a dit que Gnome 2 ou KDE étaient parfait, on dit juste que certains fondements sont liés intimement avec la nature d’un desktop.
Et en quoi le fait que Gnome 2 serait imparfait validerait la thèse que GS ou Unity sont meilleurs ? C’est pas un argument ça, c’est l’absence d’argument.
On pointe beaucoup les problèmes de Gnome-shell, comme quoi c’est lent, que ça ne tient pas compte des habitudes. Je fais seulement remarquer que Gnome-panel a aussi des défauts. En ce qui me concerne, je trouve Gnome 3 beaucoup plus cohérent et logique que Gnome 2. Pour Unity, mis à part le dash, il repompe tous ces concepts sur Mac OS X. En fait, tous les environnements de bureau destinés au grand public utilisent soit une barre de tâche à la Windows 3.1, soit un dock à la Mac OS. Gnome essaye au moins quelque chose de différent.
brazomyna a écrit :
Par contre, les pertes en terme d’ergonomie sont beaucoup plus visibles. Pas besoin d’aller loin: prends la 2ème et la 5ème capture d’écran d’article qu’on est en train de commenter (on pourra pas me reprocher d’avoir été chercher loin un cas extrême), puis explique moi en quoi c’est une avancée ergonomique, plus intuitif, plus efficient, etc… d’avoir à scroller pour voir l’ensemble d’une liste d’options ou d’éléments alors qu’il était parfaitement possible de faire tenir tout ça d’un seul tenant à l’écran ?
Je te prends l’exemple de ma grand-mère, vraie débutante en informatique, qui a du mal à déplacer la souris avec précision et à faire un double-clic. Dans Windows XP, elle avait du mal à utiliser le menu Démarrer parce qu’elle n’arrivait pas à se déplacer dans les hiérarchies du menu, les mouvements de sa souris n’étant pas assez précis, l’élément sélectionné changeait ou disparaissait. Au point que j’ai fini par lui conseiller d’utiliser le clavier pour naviguer dans le menu. Avec Gnome-shell, elle n’a plus aucun problème. Enorme avantage pour le néophyte contre perte de place : quand ton objectif est l’accessibilité à tous, le choix est vite fait. Le pavé tactile est aussi une horreur pour pas mal de gens. A noter que Gnome intègre directement des aides d’accessibilités pour les personnes handicapées, là-aussi tout l’environnement est pensé pour pouvoir s’adapter à ce public, et les choix de conception le prennent en compte.
Pour les paramètres systèmes, tu n’es pas non plus censé y aller tous les 4 matins. Est-ce que c’est vraiment grave de perdre quelques secondes à scroller dans certaines sections (assez rares d’ailleurs) si ça permet plus de clarté ? Par contre c’est vrai qu’on pourrait condenser les résultats de recherche tout en gardant de grandes zones cliquables. Gnome 3 est loin d’être parfait, mais ils font pas ces choix pour le plaisir de copier les interfaces tactiles, mais parce que ça répond à un vrai besoin d’une catégorie d’utilisateurs qui n’a aucun environnement PC adapté pour lui.
Le
30/03/2013 à
21h
02
sr17 a écrit :
Je suis d’accord, mais les “nouveaux” environnements ne règlent pas du tout le problème. Au contraire, ils infantilisent encore plus ces utilisateurs, les éloignant des questions qu’ils devront se poser OBLIGATOIREMENT s’ils veulent utiliser l’informatique sans danger.
A entretenir l’illusion qu’on peut utiliser un ordinateur sans un minimum de formation, on ne fait qu’alimenter les sinistres informatiques. Et ce n’est pas rien.
Crois moi que le jour ou tu doit annoncer à quelqu’un que ses 5 ans de travail sont perdus sans aucun espoir de récupération faute d’avoir sauvegardé, tu comprends qu’on ne devrait pas mettre un ordinateur dans les mains de quelqu’un qui n’a pas le minimum de formation requise.
L’ordinateur est aujourd’hui un outil indispensable, c’est à l’école de donner la formation adéquate.
Je suis d’accord sur le fait que la formation est importante, et qu’on pourra jamais se passer d’un minimum de formation. Mais c’est complémentaire, tu peux faire les deux. Je crois pas que la simplification des interfaces nuise à la compréhension. Au contraire, moins on passe de temps à former à la pratique, plus on en a pour expliquer les concepts et les principes importants.
Pour reprendre l’analogie avec la voiture plus haut, tu peux pas devenir pilote de F1 sans avoir des connaissances en mécaniques pour comprendre le comportement de la voiture, mais une personne normale peut avoir des connaissances extrêmement basiques et être un bon conducteur. Le fait d’avoir l’ABS, ça ne nuit pas au fait de savoir quand freiner, pas plus que la direction assistée ou la boite automatique ne nuise à la conduite. Il y a des cas où la technologie a des effets pervers, sans aucun doute, mais je pense pas que ça justifie de ne pas chercher à simplifier quand c’est possible. En caricaturant et en allant au bout de ta logique, on devrait revenir à la ligne de commande, au moins les gens seraient obligés de comprendre comment ça marche pour pouvoir utiliser leur ordinateur.
Pour la perte de données, il me semble qu’Apple synchronise déjà automatiquement toute les données personnelles sur iCloud dans iOS par exemple. Evidemment, c’est pas applicable à tous les cas, ça pose des problèmes de vie privée et ça ne doit pas remplacer la formation, mais ça illustre qu’il y a des choses qui peuvent être compensées par des innovations technologiques et des simplifications du point de vue de l’utilisateur.
sr17 a écrit :
Non, même les métiers les plus manuels sont aujourd’hui touchés par l’informatique. Et je connais un certain nombre d’artisans qui sont en plein dedans. Car toute entreprise doit faire sa compatibilité, ses devis, des courriers, des commandes à ses fournisseurs. Elle doit faire sa publicité (site web, etc…). Faire ses déclarations en ligne… (l’e-administration va se généraliser). Se renseigner sur l’évolution de la réglementation.
Toutes ces taches ne se contenteront pas d’un outil simple et tactile du type tablette.
Bien sûr, l’informatique va se démocratiser, même aux métiers manuels. Mais ça veut pas dire que ça va forcément passer uniquement par un ordinateur. Dans tout ce que tu cites, je vois rien qui ne puisse pas fondamentalement se faire sur un OS mobile. Il y a déjà des ERP pour mobile. Les télé-déclarations sont aussi possible à faire sur des sites mobiles, pour peu qu’on les code. Ce ne sont pas des usages qui nécessitent forcément un ordinateur. Les services peuvent s’adapter en fonction des appareils que les gens auront.
Bon après je peux aussi totalement me planter sur ce point : deviner aujourd’hui à quoi ressembleront les technologies de l’information d’ici une dizaine d’année ça revient à faire de la voyance. Il y a 10 ans, je pensais qu’avoir un appareil photo sur son téléphone, c’était du gadget, que ça servait à rien et que ce serait qu’une mode… Je verse peut-être dans l’extrême inverse aujourd’hui " />
1106 commentaires
Humble Indie Bundle 8 : Hotline Miami et six autres titres sont à l’honneur
30/05/2013
Le 30/05/2013 à 22h 12
Le 30/05/2013 à 20h 28
La distribution Linux Mint se renforce avec sa nouvelle version 15
30/05/2013
Le 30/05/2013 à 14h 19
Pour Mark Shuttleworth, Microsoft a fait le bon choix avec Windows 8
28/05/2013
Le 29/05/2013 à 10h 27
Le 28/05/2013 à 22h 02
Le 28/05/2013 à 21h 03
C’était clairement pas la question la plus intéressante du l’interview. Ah, le beau discours marketting de Shuttleworth qui répond à aucune question. En écrémant le blabla inutile :
I’ve heard that Unity 8 is just “a Qt front-end for GNOME.” How is Unity 8 supposed to function?
…We would like to attract developers from a wide range of backgrounds, including GNOME and KDE and make it easy for them to deliver amazing experiences on Unity….
Merci mais ça répond pas à la question
What are the intentions from NVIDIA and AMD to support Mir? Have they expressed any informal views on that matter?
Too soon to tell (…) The decision making in Mir was solid: Wayland did not meet our needs or yours, we chose to invest in something, and we chose to do it in a very quality-driven way. I find it bizarre to be criticised for writing open source software, and writing it with quality and performance in mind from the start (…)
Aucun argument pour étayer cette décision, mais il se prive pas de sous-entendre que Wayland n’a pas été développé avec un objectif de qualité et de performance, ce qui est totalement faux. Personne ne les critique pour le fait d’avoir développé un logiciel libre. Le principal reproche qu’on leur fait, c’est justement de faire du FUD sur Wayland. Et il continue encore ici. Il pourrait être honnête et expliquer la vraie raison.
How Will GNOME’s development decisions affect Unity 8?
We’ll work as closely with both GNOME and KDE as we can. (…)
Mais encore ? On sait toujours pas si Unity 8 est un environnement à part entière ou s’il se base sur les technologies Gnome.
How do I, as a K/L/Xubuntu user fit into Canonical’s long term plans?
(…) At a bare minimum, you will always be able to run any X environment on Ubuntu. We’ve gone to a lot of effort to retain that.
Now, if a particular person or upstream wants to refuse the ability to engage, that would be weird, but it would be their brand of weird, not mine. So anyway, of all the options you listed, i see no reason why they would cease to exist.
Donc en gros, on pourra les utiliser sous X sans profiter des améliorations d’une couche graphique moderne, à moins que les autres projets soient portés vers Mir par leurs développeurs actuels, ce qui est très improbable.
A mon avis, bien qu’il dise qu’il aime la diversité de la communauté Ubuntu, ils ne vont faire aucun effort pour rester compatible avec les autres environnements. La priorité est pour Unity, le reste ils n’en ont rien à faire…
“(Ubuntu Touch) might be a once in a lifetime chance to break out of the cycle of platforms controlled by giants.”
Vu le comportement de Canonical actuellement, si un jour ils arrivent à avoir une part de marché conséquente, je vois pas bien ce que ça changera à la situation. Ubuntu n’est pas plus développé collaborativement qu’Android…
Microsoft Studios mise tout sur la Xbox One et délaisse le monde PC
23/05/2013
Le 23/05/2013 à 12h 17
Le 23/05/2013 à 10h 34
Le 23/05/2013 à 10h 17
[MàJ] Wauquiez dit niet à la formation aux enjeux du numérique à la fac
24/05/2013
Le 23/05/2013 à 10h 01
tex
Jolla annonce son premier smartphone pour la fin d’année à 399 €
20/05/2013
Le 20/05/2013 à 18h 57
Un petit tour du propriétaire en vidéo ici. Dommage qu’ils n’aient rien montré de plus lors de la conférence, mais ils ont bien parlé de la possibilité d’un clavier physique en tant que coque.
Le 20/05/2013 à 15h 54
J’espère qu’ils présenteront d’autres trucs lors de la conférence à 18h30. Je parie qu’il y aura une coque arrière avec clavier physique. Le design ne m’enthousiasme pas plus que ça, mais je pense quand même qu’ils ont une chance de percer. Quand on voit que 95% des profits qui sont réalisés grâce à Android le sont par Samsung, ça fait un paquet d’autres marques qui vont chercher à se démarquer. Si leur couche de compatibilité Android est suffisamment bien, ça peut être intéressant. Je vais encore garder mon N9 quelques temps, mais pourquoi pas y installer Sailfish.
Dans tous les cas, même s’ils se plantent, tout le travail qu’ils font ne sera pas perdu. Ils contribuent directement aux projets upstream plutôt que de travailler dans leur coin. Dernièrement, c’est eux qui ont permis l’utilisation des pilotes Android avec Wayland, la nouvelle couche graphique de Linux, qui va remplacer le serveur X. Ils contribuent aussi à Nemo Mobile, à Mer. Tout ce travail bénéficie à tout le monde. Ils ont compris qu’ils n’auraient rien pu faire sans tout le travail de la communauté et donc ils lui rendent bien les choses. Bonne chance à eux.
430ème édition des LIDD : Liens Idiots Du Dimanche
18/05/2013
Le 19/05/2013 à 22h 14
Windows 8, échec et mat ?
18/05/2013
Le 18/05/2013 à 13h 47
Le 18/05/2013 à 09h 58
Comme toujours avec ce type de produit, c’est le grand public qui décide. J’utilise Windows 8 sur ma machine de jeu et je le trouve pas si mal, mais tous les non-geeks autour de moi sont perdus avec son interface. La barre de charme par exemple, personne ne s’en rappelle. Le fait qu’il y ait une barre de tâche pour les applications du bureau et une vue différente sur la gauche pour les applications WinRT est aussi très déroutant. Il y a beaucoup de choses comme ça, auxquelles on se fait quand on fait un effort, mais qui sont clairement des points à améliorer qui font que le grand public n’adhère pas.
J’ai fait pas mal de maintenance sur des PC Windows et j’ai aussi installé quelques distributions Linux dans mon entourage. Par comparaison, le passage à openSUSE 12.3 Gnome 3 depuis Windows XP pour mes parents qui n’y connaissent rien du tout s’est mieux passé que le passage à Windows 8 (après achat d’un nouveau portable) chez plusieurs personnes qui sont plus habitués aux nouvelles technologies. J’ai même dû réinstallé Windows 7 chez 2 amis, alors même que je leur conseillais d’essayer de s’adapter. De mon expérience, la première impression des gens pour Windows 8 est désastreuse, pire que Vista, et largement plus mauvaise qu’une distribution Linux. Je parle bien sûr d’une utilisation avec un clavier et une souris, j’ai pas encore de retour sur l’utilisation tactile.
Pour être plus fort que toi, Nintendo s’associe à Sega
17/05/2013
Le 17/05/2013 à 19h 47
Le 17/05/2013 à 18h 37
Pas étonnant qu’ils n’aient presque rien montré vu que l’E3 est dans moins d’un mois et que leurs concurrents montreront de nouvelles consoles. Ils ont intérêt à garder le lourd pour plus tard.
Pour ceux qui enterrent déjà la Wii U et Nintendo par la même occasion, c’est assez marrant. La 3DS et la Wii avant elle devaient aussi signer la fin de Nintendo, on voit où elles en sont aujourd’hui. Nintendo a la capacité de sortir des jeux qui se vendent par cargo entier. Si les ventes de la Wii U ne décollent pas après la sortie de Mario Kart, là on pourra dire que c’est un échec. Beaucoup disent qu’ils ressortent toujours les mêmes licences, mais en fait ils en ont créé pas mal de nouvelles sur Wii, c’est simplement qu’elles étaient destinées au public non-joueur. Il ne faut pas oublier que Nintendo a fait de très grosses ventes avec Wii Fit, un concept totalement nouveau. Je suis certain qu’ils vont encore une fois sortir un truc que personne n’attend pour attirer un nouveau public.
Et même si la Wii U se plante, ce ne sera en rien comparable avec Sega. La Dreamcast n’était pas le premier bide de Sega, il y a eu la Saturn et la Game Gear avant elles qui n’ont pas marché. Sans parler des énormes bénéfices que Nintendo fait sur leur activité d’éditeur de jeux, alors que Sega a perdu beaucoup d’argent à cause de Shenmue. Nintendo est très loin de la situation dans laquelle était Sega. Ils n’ont été dans le rouge que pour la dernière année de vie de la Wii. Les divisions jeu vidéo de Sony et Microsoft ont été en déficit bien plus souvent…
Smartphones et tablettes, les usages des lecteurs de PC INpact
15/05/2013
Le 15/05/2013 à 16h 47
Si je comprend bien, l’OS Nokia, c’est pour les téléphones Nokia qui ne sont ni Symbian, ni Windows Phone. Ca comprend MeeGo/Harmattan du Nokia N9 ?
Et MOT, c’est quoi comme OS ?
Half-Life 2 et ses dérivés disponibles sous Steam pour Linux
10/05/2013
Le 10/05/2013 à 12h 58
Espérons que ça améliore l’état des pilotes graphiques sous Linux. Parce qu’en dehors des pilotes propriétaires Nvidia, il y a encore du chemin à parcourir. Mais c’est une bonne chose. Merci Valve.
Pour les joueurs sous Linux, il y a aussi le Humble Double Fine Bundle avec plusieurs jeux 3D relativement récents. Brütal Legends en cours de téléchargement sous openSUSE 12.3 ici !
Nintendo chercherait à amener les jeux des mobiles sur Wii U
06/05/2013
Le 06/05/2013 à 15h 21
Avec le Gamepad, ils se positionnent comme un concurrent des tablettes pour un certain public. C’est donc assez normal qu’ils cherchent à pousser les développeurs à sortir leurs jeux tactiles sur iOS/Android/Wii U.
Retour sur 10 ans d’INpactitude, et sur notre avenir incertain
06/05/2013
Le 06/05/2013 à 15h 15
Le 06/05/2013 à 14h 43
Le 06/05/2013 à 12h 07
J’ai voté pour les abonnements, parce que je pense que c’est l’unique solution à long terme, même si ça reste un pari difficile. Après, vous pourriez aussi envisager d’autres pistes. Pour l’instant, vous visez uniquement les particuliers. Les entreprises pourraient aussi être une source de revenu, et elles seraient peut-être prêtes à mettre plus d’argent. Ca permettrait de diversifier encore les sources de revenu. Je pense par exemple à un service de veille personnalisé, mais en réfléchissant un peu plus, il y a peut-être moyen de mettre à profit votre expertise pour les entreprises.
Ensuite, il faut attirer plus de monde sur PC INpact, et pour ça, une collaboration avec un autre média permettrait d’augmenter votre notoriété. Que ce soit pour quelques articles pour un site généraliste, ou par un partenariat privilégié un autre site. Arrêt sur Image et Mediapart ont par exemple un accord qui fait qu’on paye moins cher si on s’abonne aux deux. D’ailleurs, parmi les technophiles abonnés à Arrêt sur Image, beaucoup sont aussi abonnés à CanardPC. Ceux qui sont prêts à payer pour de l’information de qualité se retrouvent souvent d’un site à l’autre, donc je pense que vous devriez essayer de vous faire connaître en priorité auprès de ce public, même si vous avez une cible très différente des exemples que je cite.
Enfin voilà pour les quelques pistes de réflexions auxquelles j’ai pensé, même si je suis certainement pas le seul à y avoir pensé. Joyeux anniversaire et en espérant pouvoir fêter les 20 ans de PC INpact !
Publicités bloquées, un message informatif va désormais s’afficher
29/04/2013
Le 29/04/2013 à 17h 40
C’est une très bonne idée. La dernière fois où j’ai réinstallé de mon système, j’ai préféré repartir avec un profil Firefox tout propre, j’ai réinstallé AdBlock mais j’ai complètement oublié de remettre ma liste blanche. Avec un simple message comme ça, j’y aurais pensé. Là j’ai passé plusieurs semaines sans m’en rendre compte (bizarrement, quand j’utilise un navigateur sans bloqueur de pub, je le remarque plus vite).
Ubuntu 13.04 : peu de nouveautés mais un système plus fiable et plus réactif
25/04/2013
Le 26/04/2013 à 14h 27
Le 26/04/2013 à 10h 19
Le 25/04/2013 à 18h 30
Le 25/04/2013 à 17h 20
J’arrive pas à me décider sur Ubuntu et Canonical.
D’un côté, j’aime bien Unity. Ils ont su prendre les bons éléments d’inspiration dans Mac OS et Windows, et il y a de réelles bonnes idées. J’ai l’habitude de mettre ma barre de tâche sur le côté gauche sous Windows ou sous Plasma, c’est comme ça par défaut sous Unity. Leur HUD est vraiment bien une fois qu’on y a goûté : plutôt que d’aller fouiller dans la barre de menu, qui est loin en haut de l’écran en plus, un appui sur la touche alt, puis les premières lettres de la fonctionnalités qu’on cherche, et c’est gagné. Pour les applications un peu bordéliques et qu’on utilise pas souvent, c’est très pratique. Leur dash est perfectible, j’aimerais pouvoir virer plus de trucs qui me servent pas, mais au moins maintenant la recherche est vraiment rapide, ce qui n’était pas le cas au début. Ils ont aussi une vraie identité visuelle, largement au niveau des systèmes propriétaires à mon avis, c’est important pour attirer de nouveaux utilisateurs, et trop souvent négligé par ses concurrentes.
D’un autre côté, j’aime pas du tout leur manière de se comporter au sein de la communauté GNU/Linux. Depuis toujours, ils ont joué très perso. La plupart de leurs développements sont faits pour être spécifiques à leur distribution (leur installeur, leur logithèque, puis Unity qui se base sur Gnome mais dans une version lourdement patchée qui fait que les autres distributions ne peuvent pas facilement le proposer). Ils ont bien contribué quelques trucs comme Upstart ou LightDM, mais tous leurs projets sont sujets à un Contributor Licence Agreement, qui fait qu’en gros, si on veut contribuer au projet, on est obligé d’abandonner ses droits d’auteur au profit de Canonical, et que rien ne les empêche de passer le code sous licence propriétaire si ça leur chante. Jusqu’à présent, c’était pas vraiment grave, puisque ça n’avait d’impact que sur Ubuntu et pas sur toute la communauté GNU/Linux. Mais avec l’annonce de Mir, ils sont passés d’une attitude “je roule pour ma pomme et je m’en fous des autres” à une attitude “je tente d’imposer ma propre brique élémentaire dont j’ai le contrôle total au reste de la communauté GNU/Linux plutôt que de contribuer à Wayland pour lequel je ne serais qu’un acteur parmi d’autres”.
Avec Mir, il y a un réel risque de fragmentation pour le monde GNU/Linux. Pour la plupart des applications libres, elles se basent sur un toolkit comme Qt ou GTK, qui eux pourront fonctionner à la fois sur Mir et sur Wayland sans problème. Mais pour certaines applications spécifiques comme les jeux par exemple, est-ce qu’un développeur va se faire chier à proposer une version Mir et une version Wayland ? Déjà que le support de Linux est très rare, je ne pense pas. Avec ce coup bas, ils pourront stabiliser durablement leur position de leader des distributions voire carrément faire dans l’inconscient collectif Linux = Ubuntu de la même manière que Microsoft a réussi à faire PC = Windows. Le pire c’est qu’ils n’ont même pas cherché à discuter avec les développeurs de Wayland pour voir si il pouvait satisfaire à leurs besoins. Ils ont évaluer les choses dans leur coin, sans rien dire à personne, et alors qu’ils avaient annoncé leur support à Wayland, ils ont décrété un beau jour que Wayland c’était pourri et qu’ils allait faire leur propre truc de leur côté. En réalité, les arguments techniques qu’ils ont donné n’ont aucun fondement, donc soit l’équipe en charge du développement de Mir est incompétente, soit les arguments réels sont de l’ordre de la stratégie commerciale.
C’est cette attitude que je trouve vraiment, vraiment pas cool. C’est dommage, parce que leur distribution a beaucoup de qualités. Mais pour moi c’est rédhibitoire. Je préfère utiliser une distribution qui attache plus d’importance aux valeurs communautaires, comme openSUSE.
Nintendo ne fera pas de grande conférence à l’E3
25/04/2013
Le 25/04/2013 à 12h 09
Mozilla : des nouvelles de la future interface Australis pour Firefox
22/04/2013
Le 22/04/2013 à 17h 34
Jolla : les précommandes des smartphones sous Sailfish dès le mois de mai
19/04/2013
Le 22/04/2013 à 16h 19
Le 19/04/2013 à 10h 22
Possesseur de N9 aussi, Sailfish a l’air intéressant, mais j’ai l’impression qu’ils n’ont pas pu inclure certaines fonctionnalités de MeeGo/Harmattan à cause des brevets Nokia. Les applications qui s’estompent mais restent fixes quand on balaie l’écran depuis l’extérieur par exemple, c’est beaucoup moins intuitif que l’aspect de carte qu’on fait glisser utilisé pour le N9. Je suis pas convaincu que l’absence de barre de statut soit une bonne idée non plus, mais c’est à voir à l’usage. Leur menu poulie à l’air intéressant par contre. Et au moins, ça a le mérite de ne pas être un clone d’Android, contrairement à ce que j’ai vu de Firefox OS et Tizen.
En ce qui me concerne, je pense que je suis parti pour au moins 3 ans de plus avec mon N9, donc je ne ferais pas partie des acheteurs de Jolla Phone. J’installerais peut-être Sailfish dessus si c’est possible et s’il y a un réel intérêt. Je me sers quand même pas mal des services Nokia, particulièrement le GPS et la cartographie, qui sont d’excellente qualité. C’est d’ailleurs sur les services autour de l’OS que j’ai peur que Sailfish pêche un peu. Mais un navigateur mis à jour, ça va commencer à manquer sur Harmattan. Il commence déjà à y avoir des sites mobiles incompatibles avec le navigateur par défaut.
Larry Page : Android pour les Google Glass, cela ne serait qu’un début
22/04/2013
Le 22/04/2013 à 10h 09
Le 22/04/2013 à 09h 44
Avec un bidule qui émet des ondes GSM et 3G/4G à quelques centimètres de la cervelle plus de 12h par jour, on devrait assez rapidement être fixés sur la nocivité ou non de ces ondes. Moi je vais laisser les autres être cobayes, surtout que je suis pas certain que les quelques avantages que peu procurer ce type d’appareil justifient qu’on envoie ma position et tout ce qui est dans mon champ de vision sur un serveur Google.
426ème édition des LIDD : Liens Idiots Du Dimanche
20/04/2013
Le 21/04/2013 à 20h 36
Le visiteur du futur - saison 3 : Le dernier épisode de la saison vient de sortir aujourd’hui.
Nokia ecoule plus de Lumia mais les ventes des autres téléphones s’ecroulent
18/04/2013
Le 18/04/2013 à 14h 18
[MàJ] OpenShot réussit son pari de réunir 20 000 dollars sur KickStarter
17/04/2013
Le 17/04/2013 à 17h 57
Bonne nouvelle pour OpenShot !
425ème édition des LIDD : Liens Idiots Du Dimanche
13/04/2013
Le 16/04/2013 à 10h 57
Le 15/04/2013 à 14h 51
Le 14/04/2013 à 14h 17
Le 13/04/2013 à 22h 13
Flipbook Dragon Ball : un travail titanesque, mais basé sur Dragon Ball GT (honte).
Travail impressionnant ! Pour ceux qui ne connaitrait pas, une suite à Dragon Ball Z de bien meilleure qualité que Dragon Ball GT : Dragon Ball Multiverse.
Un an seulement avant l’arrêt définitif du support de Windows XP
08/04/2013
Le 08/04/2013 à 14h 41
Google quitte Webkit et officialise Blink, son nouveau moteur de rendu
04/04/2013
Le 04/04/2013 à 10h 28
Mouais, ils font un sacré pari Opera quand même. Avec Webkit, le développement est ouvert et ils ont leur mot à dire sur son évolution. Avec Blink, ils sont obligés de suivre Google dans la direction où ils veulent aller. Google est loin d’être un modèle de coopération.
Ou alors ils vont utiliser Blink parce que le travail sur Chromium est déjà très avancé, et qu’ils prévoient de repasser sous Webkit dès que possible.
[MàJ] Blu-Ray et DRM : télécharger l’avis VLC de la Hadopi
08/04/2013
Le 03/04/2013 à 16h 50
Quelle valeur aura cet avis de la Hadopi ? Je n’ai que très peu de notions de droit, mais si je comprends bien, actuellement les textes ne sont pas clairs à ce sujet. Donc si VLC inclue les fichiers qu’il faut pour lire un Blu-ray, VideoLAN pourrait être attaquée par Sony, et ce serait à un juge de trancher, alors il y aurait une jurisprudence qui clarifierait ce point.
Maintenant qu’il va y avoir un avis de la Hadopi, si VLC inclue quand même les fichiers, le juge pourra-t-il avoir une interprétation différente des textes dans le cas d’un procès ? En gros, cet avis aura-t-il la même valeur qu’une jurisprudence ? Si j’en crois la dernière phrase de l’article, non. Donc il sert pas à grand chose au final cet avis.
GNOME 3.8 fait le plein de nouveautés et présente un mode classique
29/03/2013
Le 03/04/2013 à 12h 25
Le 01/04/2013 à 13h 22
Le 31/03/2013 à 18h 07
Le 31/03/2013 à 15h 49
Le 31/03/2013 à 12h 42
Le 30/03/2013 à 21h 02