votre avatar Abonné

Rozgann

est avec nous depuis le 16 janvier 2008 ❤️

1106 commentaires

Le 16/01/2013 à 17h 01







Commentaire_supprime a écrit :



Tiens, à faire en plus de l’installation de Mate par défaut. Merci pour le rappel.







Nemo est un fork de la version 3.4 de Nautilus, parce que la version 3.6 supprimait certaines fonctionnalités. Si tu installes MATE, ton gestionnaire de fichier sera celui de MATE, qui est un fork de la version 2.x, avec toutes les fonctionnalités qu’elle avait. Donc l’intérêt est limité.



Par contre, il est possible d’avoir une expérience comparable à MATE dans Gnome 3, mais il faut installer pas mal d’extensions. Je comprends pas pourquoi aucune distribution ne fait un simple paquet “Gnome-legacy” ou un truc du genre, qui te configure ton Gnome-shell pour retrouver une expérience à la Gnome 2. Ce serait tellement plus simple qu’encombrer ses serveurs avec MATE, qui disparaitra tôt ou tard.







cid_Dileezer_geek a écrit :



Mint qui se mouille pas… Ils ont tellement sorti de nouveaux outils que certain ont été adopté par d’autres distrib, mint est tellement user friendly qu’elle est devenue la distrib numero 1, et je t’assure que ce n’est pas une ubuntu avec un mate installé dessus(même si elle est basée sur ubuntu et debian), pour parler comme ça tu n’a pas du l’essayer beaucoup voire pas du tout.





Il veut simplement dire que Mint n’intègre pas les dernières versions des bibliothèques/noyau/drivers, et il a raison. Ils se basent sur les versions présentent dans Ubuntu pour garder la compatibilité, et ils sortent avec quelques semaines de retard par rapport à Ubuntu, qui n’est déjà pas aussi blending edge que Fedora. Ca veut pas dire qu’ils n’innovent pas, mais sur la base du système, il préfèrent garder ce que fait Ubuntu plutôt que de mettre une version plus récente qui n’a pas forcément été suffisamment testée.



Du point de vue utilisateur final, je trouve que ça change pas grand chose, mis à part éventuellement pour les pilotes graphiques libres dont les performances peuvent être grandement améliorée avec une nouvelle version pour certaines cartes.


Le 16/01/2013 à 14h 36

On comprend mieux où ils ont trouvé l’inspiration pour les lunettes du pyro que tu peux équiper à tes personnages dans Team Fortress 2 :youtube.com YouTube

Le 14/01/2013 à 20h 36







Alucard63 a écrit :



Prends un PC top moumoute de 20052006 avec 512 Mo de ram et essaye de lui faire bouffer Metro 2033, Crysis 2 ou Farcry 3 pour voir, même au minimum il y a peu de chance que tu atteinges le framerate des versions xbox/ps3…



Les jeux sont en effet cross plateformes mais les moteurs sont optimisés( a toc ) pour les consoles.







Je suis pas expert en hardware, mais en l’occurrence, je dirais que la différence de performance ne vient pas tant de l’optimisation des moteurs graphiques que de l’architecture des consoles. Les vitesses de bus sont beaucoup plus importantes sur les consoles, les 512 Mo de RAM sont de la mémoire vidéo partagée avec le CPU et beaucoup plus rapide que la DDR2 qu’on trouvait sur une configuration de 2005, etc… Il n’y a pas que le CPU, le GPU et la quantité de RAM qui jouent sur les performances, comment tout ça fonctionne ensemble joue aussi beaucoup.


Le 14/01/2013 à 15h 42

Personnellement, je suis beaucoup plus inquiet pour Sony que pour Nintendo. Si la Wii U n’est pas suivie par les développeurs tiers, ils ont assez de licences à eux pour alimenter l’énorme base de fan qu’ils ont. En plus, ils restent les seuls à vraiment mettre en avant le multijoueur local, et je suis certain qu’il reste un marché pour ça. Au pire, elle fera des chiffres proches de ceux de la Nintendo 64 ou du Gamecube. Même si ces consoles n’ont pas été un franc succès, elles ont quand même été rentables pour Nintendo. La 3DS marche bien, et je pense qu’ils doivent être encore le premier éditeur mondial, donc ils sont loin de la situation de Sega avec la Dreamcast.



Par contre, Sony est dans une situation délicate au niveau financier, la PS Vita est un échec, Microsoft va certainement être encore plus agressif qu’avec la Xbox 360 et ils sont en concurrence frontale. Donc ils ont pas le droit à l’erreur avec leur prochaine console, il faut que ce soit un succès sinon ça va aller très mal. Et contrairement à Nintendo, je suis pas certain que leur identité propre soit suffisamment marquée pour retenir leurs clients d’acheter la prochaine Xbox si elle a de réels atouts par rapport à la future Playstation.



A mon avis, s’il y a un risque de voir disparaitre un des constructeurs actuels, c’est plutôt Sony que Nintendo. J’espère que ce sera pas le cas, je préfère de loin les exclusivités Sony à celles de Microsoft, mais il faut pas qu’ils ratent leur coup.

Le 11/01/2013 à 16h 30







rsegismont a écrit :



Sans moi le jeu, connexion permanente = boycott







Quand c’est une connexion permanente pour le seul prétexte de bloquer les utilisateurs qui n’ont pas payé leur licence (genre ce que faisait Ubisoft avec Assassin’s Creed avant de se rendre compte que c’était inutile), il y a une vraie raison de boycotter.



Mais là, l’influence des autres joueurs n’est pas une petite chose ajoutée en plus à la va-vite, le jeu a été entièrement pensé autour de ça. C’est comme dire : pour jouer à Counter Strike, il faut être connecter à Internet, donc je boycotte (bon ok, on peut jouer à Counter en LAN, mais une partie de SimCity, ça dure légèrement plus longtemps…)







rsegismont a écrit :



Ouais et dans 10 ans tu pourras plus y jouer quand les serveurs seront fermés alors qu’un sim city 4 tu pourra toujours… <img data-src=" />





Il y a la possibilité qu’ils mettent à disposition la partie serveur. J’y crois pas beaucoup connaissant EA, mais techniquement c’est possible. Enfin ils ont bien publié le code source du premier SimCity après 20 ans…







malrepast a écrit :



l’expérience de jeu est majoritairement solitaire. De ce fait, les métropoles bâties par les joueurs devaient se suffire à elles-mêmes sur tous les points….



C’est faut il était possible de construire plusieurs villes en solo puis de les spécialiser et de les relier entre elles (comme ce que propose ce prochain SimCity, l’obligation de connexion permanente pour le solo et l’obligation de souscription et d’installation de cette merde d’origin en plus).



Comme quoi ils n’ont rien inventé si ce n’est une nouvelle justification foireuse pour prendre les gens pour des cons.





Bref boycott pour moi aussi.





Oui, sauf que si tu voulais faire ça, tu devais t’occuper de toutes les villes à la fois. Là tu peux te faire une partie entre potes, en se mettant d’accord pour développer tes villes de façon complémentaires, et ne t’occuper que des villes qui t’intéressent. Que je sache, c’était pas possible sur les anciennes versions.


Le 08/01/2013 à 18h 17







benamey a écrit :



Pourquoi ne pas avoir développé Unity directement avec des bibliothèques standards ?



Volonté de la part de Cannonical d’empêcher d’autres distribs d’utiliser Unity ?



Il n’y a qu’un pas à faire pour penser ça. <img data-src=" />







Parce que si tu veux utiliser des bibliothèques standards, quand tu veux faire des modifications, il faut en parler à tout le monde, composer avec les besoins de tous et éventuellement faire des compromis. Canonical veut développer le plus vite possible, sans concession à sa vision propre et sans s’embarrasser des autres. C’est regrettable, mais je pense pas qu’il y ait une volonté d’incompatibilité, simplement ils se sont fixés des objectifs et être compatibles avec Gnome n’est pas une de leurs priorités. Un peu comme ce qu’à fait Google avec le noyau Linux pour Android.



Je sais pas très bien comment se passe le développement d’Unity. On a accès au dépôt pendant le développement ? Tout le monde peut soumettre du code ou simplement les employés de Canonical ? Qui décide ce qui est accepté ou pas et comment sont-ils désignés ? Je crois que c’est quand même très contrôlé par Canonical. En ça, oui, je pense pas que Ubuntu Phone sera pas beaucoup plus ouvert qu’Android, dont le développement est fermé et le code source publié à posteriori.


Le 08/01/2013 à 17h 49







m_spot a écrit :



Je comprend ta déduction mais je ne suis pas sur que ce soit le cas ! <img data-src=" />



Au point de vu développement et marketing, je vois pas l’intérêt ! D’autant que Steam aurait alors communiqué, depuis ces dernier temps, sur un possible Label et non sur une console !



Si c’était le cas tous les constructeurs pourrait faire leurs mini PC certifié Steam.

ça serait du bon pour les contributions au manchots que les constructeurs s’y mettent. Mais la différence avec un PC serait ténue et le risque de dilution du message de Steam serait Grand.



Alors qu’avec une console, Steam maitrise le développement et la communication en s’appuyant sur l’interopérabilité et la possibilité de jouer contre des joueurs PC et NUX soit une communauté déjà très active et un nombre de joueur déjà grand ! L’argument marketing est énorme pour lancer le produit !

(Mine de rien un joueur PS ou Xbox ne joue que contre des joueur de la même console, soit pas grand monde au moment de la sortie !)

Voila simplement mon avis, ce n’est ici encore que spéculation !

<img data-src=" />





Leur stratégie n’est pas encore très claire. Mais Valve n’a jamais officiellement communiqué sur une “console”. Ils ont dit qu’ils feraient du hardware pour le salon, mais c’est la presse qui affirme qu’ils veulent se lancer sur le marché des consoles. Gabe Newell a dit dans une interview qu’ils feraient un hardware de référence, mais que d’autres constructeurs seraient libres de faire leur propres machines compatibles. Mais ça peut prendre beaucoup de formes différentes.



Dans cette interview d’un gars de Xi3 sur le CES, il corrige le journaliste qui lui pose une question sur la Steambox, en lui disant que sa boite commercialisera la Piston de Xi3, pas la Steambox. Il parle pas officiellement de partenariat avec Valve ni rien. Donc on y verra plus clair une fois que Valve aura fait une annonce officielle.


Le 08/01/2013 à 13h 52







Ellierys a écrit :



Ça ressemble à la description d’un APU A10, mais je n’ai vu cette info nulle part.







Apparemment, c’est les caractéristiques de l’X7A, qu’ils ont consulté avant que la page ne soit plus disponible.


Le 08/01/2013 à 13h 29

Clair qu’en version companion cube, ce serait énorme !



Sur Gameblog, ils parlent d’un processeur x86 QuadCore à 3,2 Ghz, d’une Radeon HD 7660 et de 8 Go de RAM. Par contre, ils citent la même source que l’article PCI, qui ne contient pas ces informations, donc à prendre au conditionnel.



Ce qui est intéressant, c’est la carte mère de la machine. Ils ont un format spécial en plusieurs parties, qui permet de changer les composants qu’on veut, sans que ça prenne une place énorme comme sur un PC monté classique. Il y a une vidéo de présentation du concept Xi3 ici :youtube.com YouTube

Le 07/01/2013 à 23h 59







martino a écrit :



Il y a beaucoup de manière de consommer sur console (comme sur pc).

Pourquoi prendre la pire situation possible pour console ? tout ce ne semble bien orienté







Je parlais du prix d’achat conseillé à la sortie du jeu, en général c’est 70€ sur console et 50€ sur PC. Tu as raison, c’est possible d’avoir ses jeux à moins de 70€ sur console aussi. J’ai pas de statistique, mais je pense quand même qu’en moyenne, on paie ses jeux moins cher sur PC.



Mais tu auras noté que je précise que jouer sur PC est moins cher “pour mon utilisation”. J’achète une quinzaine de jeux par an, beaucoup à la sortie, d’autres plus tard, et je joue pas en multijoueur local. C’est certainement pas vrai pour tout le monde, mais pour moi, jouer sur console HD me couterait plus cher.



Dans tous les cas, je répondais à misterB qui disait qu’on ne pouvait plus jouer sur PC pendant 6 ans avec la même machine. Mon cas montre que c’est faux.


Le 07/01/2013 à 16h 08







misterB a écrit :



Au mois ça permet de jouer avec la même machine pendant 6 ans <img data-src=" />





C’est le cas aussi sur PC… J’ai acheté un PC à 800€ en 2007 pour la sortie de Crysis, capable de le faire tourner en Haute qualité (même pas en Très haute qualité). Je peux encore jouer à tous les jeux qui sortent aujourd’hui dans des conditions supérieures à ce qui se fait sur console. D’accord, 800€ c’est plus cher qu’une console, mais tu économises plus de 20€ par jeu sur PC, sans parler des promotions Steam. Et je parle que du fait de jouer, puisque la plupart des gens ont un autre PC en parallèle. Pour mon utilisation, c’est moins cher de jouer sur PC…



Et je compte bien le garder encore le temps que les nouvelles consoles de salon sortent, et que je puisse acheter un autre PC dans ces prix là, qui me permettra encore de jouer toute la durée de vie des consoles, en profitant des exclus PC comme Starcraft, Diablo, Sim City, Civilization, des FPS à la souris, de tous les mods faits par la communauté, etc…



edit; Et ce sera peut-être encore plus rentable quand on pourra se passer d’une licence Windows s’il y a assez de jeux sous Linux. Ah moins que je m’oriente vers une SteamBox…


Le 07/01/2013 à 15h 29

Très heureux de leur initiative. Si ça fonctionne, ça permettra à Linux de devenir une plateforme de choix pour le jeu vidéo, et donc une alternative viable pour le grand public, sur tous les plans. Je pense que s’il y a une année pour lancer une “console” Steam, c’est 2013. En ça, leur timing est bon. Maintenant est-ce qu’ils auront assez d’arguments pour s’imposer, ça reste à voir. Mais ils ont encore rien montré d’officiel, ils ont peut-être des atouts qu’ils réservent pour plus tard.









Groumfy a écrit :



Comment ils vont fait pour les jeux non-Valve ? Ils vont scripter du Wine ?







A mon avis, ils vont pas s’embêter à ça. Ils misent sur le fait que les éditeurs vont sortir leurs prochains jeux en multi-support Consoles/Windows/Mac/Linux. Pour les anciens jeux, tu pourras jouer à ceux qui ont une version Linux, mais pas aux autres. Eventuellement, il pourront distribuer des versions basées sur Wine ou Cedega, comme certains jeux Mac, mais ce sera un développement fait par l’éditeur, pas intégré à Steam.



Après, si c’est assez ouvert, tu pourras certainement bidouiller Wine sur ta SteamBox pour faire tourner des jeux Windows, mais ça m’étonnerait que ce soit officiellement supporté.


Le 04/01/2013 à 14h 02







sylware a écrit :



<img data-src=" />



Donc que les gens lisent mon argumentaire dans les threads sur qt5 et décident par eux-même si canonical a fait une maladresse technique avec son OS mobile. Personnellement, je le pense.



Et j’ai le droit de le dire.



<img data-src=" />







Ah mais tu peux dire et penser ce que tu veux. Encore heureux d’ailleurs. Mais je peux aussi faire des corrections quand ce que tu avances est inexact. Tu ne t’entêterais pas à faire du FUD, j’aurais rien trouvé à redire.


Le 04/01/2013 à 13h 20







sylware a écrit :



Faux. Le fait que qt ait été au milieu de manips crosoftiennes nauséabondes n’était qu’un élément de mon argumentation, et un bref et petit, y a tout le reste qui n’a rien à voir.







J’ai jamais dit que tu disais que des conneries sur Qt/QML, j’ai dit que tu en disais. Quand tu dis qu’il faut une bête de course pour faire tourner un truc en Qt, et que Qt est sous le contrôle de Microsoft, c’est simplement faux. Quand tu dis que développer en C++ avec Qt est très complexe, que Qt est une usine à gaz, c’est pas vrai non plus.



Après sur le fait que tu préfères coder en C avec GTK+ ou EFL qu’en C++ avec Qt, c’est ton droit, j’ai rien à redire là dessus. Il y a en effet des cas où c’est plus pertinent. Dans le même temps, si 3 des nouveaux OS mobiles de 2013 ont choisi Qt comme technologie mobile (BB10, Sailfish et Ubuntu), ça m’étonnerait que ce soit un choix idéologique, c’est simplement que c’est la technologie libre la plus adaptée au développement d’applications natives sur mobile.


Le 03/01/2013 à 13h 51







sylware a écrit :



Et bé… qml! <img data-src=" /> Va falloir un smart phone de course pour que ça ne soit pas un escargot.





Il faut arrêter de dire n’importe quoi sur Qt. L’interface du Nokia N9 est entièrement écrite en QML, elle est très réactive et c’est loin d’être un smartphone de course (Cortex A8 1Ghz, SGX530, en gros, c’est entre un iPhone 3GS et un iPhone 4). La plupart des smartphones qui sortent aujourd’hui ont des performances supérieures.







sylware a écrit :



Avis aux trolleurs: mon avis argumenté est dans les threads sur qt5. Je condamne donc les choix des composants logiciels majeurs de l’OS linux mobile de canonical.





Oui en effet, on a déjà discuté de ça sur l’autre thread, où tu as dis nombre de conneries sur Qt, dont le fait que c’était “contrôlé” par Microsoft…. Et tu continues à faire du FUD à propos des performances maintenant.


Le 03/01/2013 à 11h 57

L’OS en lui-même est intéressant, mais comme pour les autres prétendants, j’ai bien peur qu’il arrive beaucoup trop tard. Quand tu vois que WP8 a du mal à décoller, alors que l’OS a beaucoup de qualités, qu’il y a le marketing de Microsoft et de Nokia derrière, et que les modèles proposés ont globalement une belle gueule, je vois mal un OS mobile Ubuntu s’imposer, surtout qu’ils sont nombreux à vouloir leur part du gâteau (Blackberry avec BB10, Mozilla avec Firefox OS, Samsung/Intel avec Tizen, Jolla avec Sailfish OS, et maintenant Canonical).



En voyant cette interface, on comprend d’un coup le nom “Unity”. On retrouve bien un lanceur d’applications sur la gauche, un moteur de recherche à la fois local et Internet en haut, la maximisation de l’espace alloué aux applications, la synchronisation des données avec Ubuntu One, etc… Quelqu’un qui utilise déjà Ubuntu sur son PC ne sera pas dépaysé. Même Microsoft n’a pas un tel niveau de cohérence entre Windows 8 et Windows Phone 8.



Au niveau technique, le couple Qt/HTML5 est une très bonne idée. QML a été développé avec le mobile comme objectif, et Nokia a fait un choix de stratégie commerciale en l’abandonnant, pas un choix technique. BB10 et Sailfish utilisent aussi Qt, mais s’ils font comme pour MeeGo/Harmattan, ils vont tous avoir leurs composants QML propres, et le portage réclamera une adaptation (mineure certes, mais adaptation quand même). On a pas vu le clavier virtuel, ce serait bien qu’ils collaborent avec les autres projets qui découlent de MeeGo et qu’ils utilisent Maliit, le clavier virtuel du Nokia N9, qui est très bon.



Là où Canonical peut avoir une chance, et Shuttleworth y met l’accent dessus, c’est pour les entreprises qui ont un système d’information basé sur Ubuntu. Ils disent que ça se gèrera avec les outils existants, ça peut être un argument. Mais je pense que Blackberry va reconquérir cette “niche”, et les entreprises qui utilisent Ubuntu, ça court pas les rues non plus.



Mais bon, comme ils utilisent des briques logicielles libres, ils n’ont fait que développer l’interface et adapter quelques trucs. A maintenir, ça doit pas demander des masses de travail, et ils doivent pouvoir réutiliser pas mal du travail qui a été fait par MeeGo/Mer. En plus, ils partagent les bases techniques avec les versions desktop, TV, et la future version tablette. Ils font cette annonce maintenant dans l’espoir qu’un constructeur vienne les voir au CES pour discuter d’un partenariat. Ils vont pousser pour que ça décolle, mais si c’est pas le cas, ils pourront toujours se recentrer sur la version desktop.

Le 02/01/2013 à 13h 26







Malesendou a écrit :



Les changements ne serait pas un probleme, si ils étaient bons. Et ça n’est pas le cas du tout.







Oui je suis assez d’accord. Le pire étant qu’ils changent des trucs mais en gardent d’autres, sans la continuité qu’il y avait dans le comic.



[Spoiler]

Exemple avec le coup de téléphone après la mort de Lorie dans la saison 3 : dans le comic, il est tout seul avec son fils, il a plus rien à quoi se raccrocher, et il entend la sonnerie d’un téléphone dans une maison abandonnée. Au début, tu crois vraiment à des survivants, puis ensuite tu comprends qu’il hallucine, mais c’est cohérent avec sa situation. Dans la série, c’est évident qu’il débloque dès le début, ils sont encore en sécurité dans la prison, il a deux enfants dont il faut qu’il s’occupe, ça perd tout son sens.

[/Spoiler]



C’est un exemple parmi d’autres mais c’est un des plus parlants. Et la série est vraiment pensée pour plaire au plus grand nombre, alors que le comic parle de l’histoire de Rick telle que le scénariste l’imagine, sans concessions à sa vision. Et forcément, tu perds beaucoup en qualité quand tu crées avec pour objectif de plaire aux masses.


Le 02/01/2013 à 11h 07







Zed-K a écrit :



Mais quelle pompe à fric quoi…

En espérant que l’achat de la licence par Activision ne condamne pas la saison 2 du The Walking Dead de TellTale.







Pas d’inquiétude. Activision a acheté les droits de la série à AMC. Le héros du jeu sera Daryl, un des personnages “badass” sans grand intérêt qu’ils ont ajoutés à la série pour que les ados accrochent mieux.



Telltale a les droits sur le comic, et Robert Kirkman, le scénariste original, est directement impliqué et donne son avis sur le jeu.



Le jeu d’Activision partait déjà avec un gros handicap, maintenant qu’on a les premières vidéos, c’est certain que je l’achèterais pas, bien que je sois un gros fan de The Walking Dead.



En plus, le survival horror ne va pas si bien à cet univers. Les zombis et la peur panique ne sont pas l’essentiel, ce qui est important, c’est comment les gens s’adaptent et comment ils réagissent dans une situation apocalyptique. La peur, elle vient plutôt du désespoir que ça ne pourra finir que par sa propre mort. Le jeu de Telltale retranscrit tout ça bien mieux que n’importe quel survival horror…


Le 26/12/2012 à 15h 12







sylware a écrit :



Si tu as suivi l’actualité de qt/nokia/crosoft… c’est dans le même plan de manipulation que novell/crosoft. Ils sont “grillés”. Dans le milieu linuxien, il n’est pas rare de considérer la distribution gnu/linux suse comme la distribution crosoft… Simplement, la méthode du “proxy” est moins voyante que la méthode employée par oracle…







Même à l’époque où Qt était une propriété de Nokia, associer Qt à Microsoft relevait du troll. C’est encore plus le cas maintenant que c’est totalement indépendant de Nokia, puisqu’ils ont vendu l’entité commerciale à Digia et céder la propriété intellectuelle au Qt Project, qui est un projet communautaire. Tu t’entêtes à répandre du FUD sur Qt, malgré toutes les personnes qui te montre que tu as tort, et c’est triste. Tu as droit d’avoir un avis négatif sur Qt, mais au moins, base toi sur des faits réels, pas sur des élucubrations.


Le 23/12/2012 à 17h 20







pafLaXe a écrit :



Ca fait longtemps que j’ai pas mis le nez dans leur roadmap, mais je pense pas (je peux me tromper) qu’ils passent à Qt5 avant une prochaine version majeure, qui ne sera utilisable qu’au bout de x versions mineures, donc rien, à mon avis, à court terme.







Ca dépend. Pour l’instant, ils travaillent sur KDE Frameworks 5, qui regroupe l’ensemble des bibliothèques KDE sur lesquelles sont bâties les applications et les environnements KDE. Le projet a été mené en parallèle de Qt5 puisque certaines parties de bibliothèques KDE ont été directement intégrée à Qt. Et ils mettent l’accent sur la modularité pour éviter d’avoir beaucoup de dépendances inutiles dès qu’on veut utiliser la moindre fonction, comme c’est le cas actuellement. Ca devrait permettre d’augmenter l’utilisation de leur technologie par les développeurs indépendants, et de réduire les temps de chargement des applications KDE utilisées dans d’autres environnements.



Je crois que pour l’instant rien n’est décidé, mais au moment de l’annonce de KF5, ils avaient dit qu’il était tout à fait envisageable d’avoir une version de KDE 4 (au sens l’environnement de bureau) qui tourne sur KF5 (et donc sur Qt5). Ils ont bien dit qu’ils ne voyaient pas du tout la nécessité de tout révolutionner cette fois-ci. S’ils sont repartis sur une base saine avec KDE4, c’est justement pour pouvoir travailler proprement par la suite. Donc la transition pour l’utilisateur sera pratiquement invisible, c’est pour les développeurs uniquement qu’il va y avoir du changement.



Récemment, Martin Grässlin, le mainteneur de KWin, a dit sur son blog qu’il considérait que KDE 4.12 était un objectif raisonnable pour un passage à Qt5, au moins pour les early-adopters. KWin est un des projets qui ne peuvent pas être portés facilement de Qt4 à Qt5, mais pour le reste, le plus gros du travail concerne KF5, qui est relativement avancé. KDE 4.10 sortira en Janvier 2013, Janvier 2014 pour la 4.12. Donc en effet, à court terme, pas de grand changement.


Le 22/12/2012 à 20h 05







divide a écrit :



[…]





<img data-src=" /> Je suis Rozgann et j’approuve ce message ! <img data-src=" />


Le 22/12/2012 à 18h 07







sylware a écrit :



Ne pas oublier GTK+ et les EFL.





Comme dit de nombreuses fois au fil des commentaires, ce n’est pas comparable. Déjà, GTK+ et EFL sont des bibliothèques permettant de faire des interfaces graphiques à base de widgets, alors que Qt est un framework complet qui couvre beaucoup de choses, dont les interfaces, avec la possibilité d’utiliser des composants (QWidget) ou des interfaces déclaratives (QtQuick/QML).



Ensuite, ils ne sont pas aussi multiplateforme. EFL ne fonctionne que sur un dérivé Unix, GTK+ ne fonctionne que sous Unix/Windows/MacOS X. Voir le dernier paragraphe de l’article pour les systèmes supportés par Qt. Pour une application mobile multiplateforme, Qt a un train d’avance sur les alternatives que tu cites.


Le 19/12/2012 à 15h 17







colonelhati a écrit :



Il y avait quand même un paquet d’applications Nokia exclusives à leurs téléphones, notamment le “vrai” GPS fourni gratos, et ça c’était quand même un gros point fort!





Oui mais c’était déjà le cas sur les smartphones Symbian avant lui. C’est un plus appréciable, mais c’est pas un truc nouveau qu’ils ont introduit avec le Lumia 800.



C’est quand même léger si tu compares au N9 qui était censé être leur ambassadeur pour cette période et qui apportait beaucoup d’innovations : l’interface utilisable à une seule main sans bouton physique, l’heure et les notifications sur l’écran de veille sans avoir à toucher le téléphone, le double tap sur l’écran pour sortir de veille, le NFC/Bluetooth pour associer les accessoires, et pas mal d’autres choses pas liées au hardware et pas forcément nouvelles mais qui étaient un vrai plus (écran d’accueil regroupant les notifications, multi-tâche réel, messagerie instantanée directement intégrée à l’OS, GPS sans connexion Internet, et j’en oublie).



Je dis pas que le Lumia 800 était un mauvais téléphone, mais c’est le modèle haut-de-gamme le moins novateur qu’ils aient sorti. Enfin tout ça pour dire que hormis ce modèle qui est un cas particulier, Nokia essaie de toujours avoir un truc en plus sur chacune de ses générations, c’est pour ça que cette future tablette attire mon attention.


Le 19/12/2012 à 14h 04







zaknaster a écrit :



C’est vrai je me souviens de cette phrase de Nokia, sauf que bon je veux pas dire mais avec un Windows RT c’est pas comme si Nokia avait une vraie marge de manoeuvre, perso j’ai la sensation que ça sera une tablette comme les autres. J’espère me tromper mais bon <img data-src=" />





Pour ses appareils phares, Nokia a toujours une petite innovation pour se différencier. Parmi les exemples récent qui me viennent en tête : l’appareil photo qui explose la concurrence pour le N8 et le 808 pureview ; la stabilisation de l’image, le chargement sans fil et l’écran tactile hyper sensible pour le Lumia 920 ; le NFC pour le Lumia 800 ? (c’est un peu maigre pour ce modèle, puisque la plupart des très nombreuses innovations du N9 étaient liées à MeeGo/Harmattan).



edit: Maintenant que j’y pense, le Lumia 800 avait même pas de NFC en fait ! A part son design, il avait pas grand chose pour lui le pauvre…



C’est vrai que depuis qu’ils ne maitrisent plus l’aspect logiciel, ça limite pas mal les marges de manœuvre. Je m’attends pas à un truc exceptionnel, mais je pense qu’il y aura ce genre de petite innovation qui apporte un plus appréciable.







krelix a écrit :



Une protection comme le Touch Cover mais qui utiliserais du NFC plutôt qu’un port propriétaire qui fait “click” pour être utilisé ? ^^





C’est probable. Ils utilisent déjà le couple NFC/Bluetooth pour relier leurs enceintes sans rien configurer, ils peuvent étendre ça à d’autres accessoires. Est-ce que c’est suffisant pour ne pas être un constructeur parmi d’autres, pour moi non.


Le 19/12/2012 à 13h 27

Marko Ahtisaari, le responsable du design et de l’expérience utilisateur chez Nokia, a confirmé dans une interview il y a plusieurs mois passer plus d’un tiers de son temps sur un projet de tablette. On sait aussi que Nokia travaillait déjà sur un appareil de ce genre avant l’accord avec Microsoft (le projet Senna). Elle reprenait un design proche de celui du Nokia N9 (et des Lumia 800 puis 820 et 920) et devait tourner sous MeeGo à l’époque. Leur future tablette sous Windows RT en reprendra sûrement les grandes lignes.



Nokia a toujours dit qu’ils ne se lancerait pas sur ce marché pour être un constructeur parmi d’autres, donc j’attends avec impatience qu’ils en montrent plus, pour savoir s’ils ont changé de point de vue ou s’ils vont vraiment apporter quelque chose de nouveau. Les innovations de Nokia sur ses smartphones ne sont pas forcément révolutionnaires, mais ils ont souvent des petits plus intéressants. Par contre, autant la photographie est un vrai argument différenciateur pour un smartphone qu’on a toujours sur soi, autant pour une tablette, il faudra qu’ils trouvent autre chose. On peut supposer qu’ils auront du chargement sans fil, mais ça va aussi venir chez la concurrence. Ca fait plusieurs années qu’ils planchent sur le concept, ils ont peut-être quelque chose à proposer…

Le 17/12/2012 à 11h 25

Bah ils ont bien Windows Phone, et tout le monde comprend que c’est Windows sur un téléphone, mais ne s’attend pas à faire lancer un .exe. A la rigueur, ils pourraient renommer Windows RT en Windows Tablet ou WIndows Device, mais en même temps Windows RT est censé couvrir des appareils avec et sans écran tactile, avec et sans clavier, etc., donc ce serait pas forcément plus clair pour un consommateur lambda.

Le 17/12/2012 à 11h 18

La question, c’est pourquoi personne n’a encore sorti un protocole libre qui ait les mêmes fonctionnalités que EAS ?

Le 14/12/2012 à 15h 25







Ingénieur informaticien a écrit :



C’est plus notre tour.

Nous avons eu notre heure de gloire.

Nous sommes un pays post-industriel.

Certains ont du mal à l’accepter.







Je préfère voir ça du côté optimiste : on a enfin grandi, fini les concours de qui c’est qui a la plus grosse avec le reste de la planète, faisons plutôt des choses qui sont utiles. Parce qu’en plus, en parallèle de ces projet, les inégalités sociales sont bien plus grandes dans ces pays, et ne cessent de s’accroitre. Pour avoir vécu quelques temps en Inde, qui fait aussi partie des BRICS, la situation réelle de la majorité de la population est loin d’être aussi enviable que certains le croient.


Le 14/12/2012 à 15h 10







yvan a écrit :



Dans ce genre de luttes (déjà menée contre une centrale nucléaire au carnet dans la région) c’est un rapport de force matériel qui joue. Le reste est accessoire et tient du gagne pain de journalistes/politiciens ou du divertissement de masse molle qui n’agit jamais ni dans un sens ni dans l’autre.







Ou alors vos adversaires réussiront à vous faire passer pour une bande d’idéologues, bruyants mais minoritaires, le grand public n’entendra que les arguments favorables à l’aéroport. C’est d’ailleurs leur seule solution de sortie.



Par chez moi, il n’y a pas de projet d’aéroport ou de centrale nucléaire, mais d’exploitation de gaz de schiste. Et c’est la mobilisation citoyenne massive et très majoritairement mesurée et pacifique qui a arrêté le projet. Mais je te concède que chaque situation est unique, et la problématique des gaz de schiste avait une importance à la fois locale et nationale.


Le 14/12/2012 à 14h 31







yvan a écrit :



Sauf qu’un lobbyiste est un professionnel rémunéré. Je te renvois à wikipediasur le sujet effectivement il existe une tendance qui voudrait que des citoyens organisés défendant des valeurs morales/politiques deviennent l’équivalent d’un fabriquant de cigarettes ou d’un vendeur d’armes.

C’est bien entendu complètement con ou alors lobby perd tout son sens premier (dans un couloir, dans le secret etc.).





J’ai pas le temps de parcourir toute la page wikipédia (où d’ailleurs j’ai pas trouvé la référence à la rémunération) mais les quelques bribes que j’ai lues semblent bien faire la différence entre la définition du lobby à l’anglo-saxonne, et l’interprétation française qui y associe une connotation péjorative. Comme beaucoup d’autres choses, en soi ce n’est pas mauvais, mais dans les faits, ce sont les puissances financières qui en tirent le plus d’avantages. Mais un lobby peut aussi représenter une ONG, une association de consommateur ou tout autre chose qui entend défendre l’intérêt général. Si tu prends la définition à la lettre, un lobby n’a rien de sale.







yvan a écrit :



Europe écologie les verts sont complètement marginaux/inexistants sur place.

Quand bové se déplace ya la télé mais c’est tout. Éventuellement le parti de Mélanchon avec Françoise Verchère l’ancienne maire de Bouguenais (commune de l’aéroport actuel) fait quelque chose mais sinon c’est absolument pas un mouvement animé par des partis politiques et les gens qui pouvaient en retirer des sous à part trois paysans qui ont refusé l’expropriation sinon ils ont tous pris leur blé et ça y est, il n’y a plus aucune spéculation foncière à faire.





Tu présentais les opposants comme défendant l’intérêt général, je te faisais juste remarquer que parmi eux, certains défendent aussi leur intérêt particulier, et que c’est pas seulement de l’autre côté. Je pense que vous avez beaucoup plus à gagner en adoptant une position calme, en présentant les nombreux arguments pertinents que vous avez auprès de la majorité de la population qui ne s’intéresse pas encore au projet, plutôt qu’à stigmatiser vos adversaires en les faisant passer pour des gens corrompus qui ne pensent qu’à eux. Un simple conseil d’ami…


Le 14/12/2012 à 13h 48







yvan a écrit :



<img data-src=" />

Un lobby est une structure organisée pour représenter et défendre les intérêts d’un groupe donné.



Le lobbying, qui consiste « à procéder à des interventions destinées à influencer directement ou indirectement l’élaboration, l’application ou l’interprétation de mesures législatives, normes, règlements et plus généralement, toute intervention ou décision des pouvoirs publics »







Et cette définition de lobby colle exactement avec les opposants à NDDL. Ils cherchent à influencer une décision des pouvoirs politique par des interventions (manifestations, occupations, expressions dans les médias, etc…).







yvan a écrit :



Là les antis défendent l’intérêt général il ne s’agit donc pas de lobbying (je ne vois pas vraiment pour qui ils bosseraient d’ailleurs… je pense que l’ensemble du monde économique n’en veut pas des ces écolos hirsutes et de ces bouseux teigneux syndiqués)







Je suis plutôt opposé à ce projet, mais il faut pas non plus fausser le débat. Ceux qui défendent l’aéroport sont aussi convaincu de défendre l’intérêt général. Je pense qu’ils se trompent dans leurs évaluations, mais je ne mets pas en doute leur bonne foi. Dans le lot il y en a qui ont des intérêts financiers et politiques, mais chez les opposants, il y en a aussi chez Europe Ecologie/Les Verts qui y ont des intérêts politiques. C’est une confrontation d’idées et surtout de conception du monde, c’est ridicule de résumer ce débat aux méchants politiques et financiers contre les gentils citoyens.







yvan a écrit :



Il ne faut pas confondre lobby et mouvement politique, à ce tarif là les partis politiques sont aussi des lobbys ainsi que les journalistes ou les personnalités publiques dès qu’ils parlent politique et plus aucun mot n’a de sens.





Un parti a souvent un rôle de lobby, en tant que partie prenante qui peut être consultée pour prendre une décision politique. Mais il a aussi d’autres rôles. Un journaliste est censé rester impartial et objectif, et quand il parle d’un sujet, il est censé refléter tous les points de vue.


Le 12/12/2012 à 17h 27







Alkore a écrit :



Ou alors passer à WP8 qui sépare les 2 sphères d’activité, pro et perso sur un même smartphone<img data-src=" />







J’avoue que j’ai suivi la sortie de Windows Phone 8 d’un peu loin, mais j’ai pas vu passer cette fonctionnalité. La session limitée à quelques applications où on peut pas accéder aux données utiliisateurs (Kids Corner) oui, une séparation perso/pro, je veux bien que tu me donnes un lien, j’ai rien trouvé là-dessus dans les archives de news WP8 sur PCI.


Le 10/12/2012 à 23h 28

C’est évident qu’ils vont pas sortir une machine de course à plus de 1000€ destiné au gars qui veut jouer avec tous les paramètres au maximum sur le dernier gros jeu. L’intérêt principal d’une SteamBox, c’est que ça simplifierait la vie des gens qui veulent s’acheter un PC pour jouer. Actuellement, pour un néophyte, savoir si tel PC va pouvoir faire tourner le jeu qu’il veut, c’est loin d’être simple. “Alors pour ce jeu, il faut minimum une Geforce 8800 GT. Donc moi j’ai une Geforce GT 120, c’est plus ou moins puissant ? Aucune idée, il faut aller voir sur Internet. Ah, GT 120 c’est deux générations après la série Geforce 8000, donc c’est bon”. Raté…



A mon avis, leur SteamBox sera un PC tout ce qu’il y a de plus classique, avec un OS dérivé d’Ubuntu où Steam sera préinstallé et livré avec une manette de jeu. D’un côté, les développeurs de jeux, quand ils feront leur version Linux, l’optimiseront pour le hardware de la SteamBox et pour l’interface à la manette (donc sans les truc du genre UPlay et compagnie). D’un autre côté, les constructeurs de PC pourront utiliser un label “compatible SteamBox”, qui permettra au consommateur de savoir facilement quel jeu peut tourner sur sa machine.



Dans un premier temps, je pense pas que ça ira chercher bien plus loin. Leur but c’est de simplifier le jeu sur PC pour pouvoir attirer de nouveau clients sur Steam, y compris ceux qui jouent sur des PC Windows qui seront commercialisés par d’autres. Par contre pour l’avenir, les gens de la R&D chez Valve travaillent sur de la réalité augmentée. On sait ça via plusieurs sources dont récemment un économiste qui a été embauché chez Valve qui l’évoque sur son blog (oui ils ont un économiste qui travaille sur les échanges de biens dans leurs mondes virtuels <img data-src=" />). S’ils se mettent à produire du hardware, ils peuvent aussi produire des accessoires différents qui ajouteraient une plus-value dont on ne connaît rien pour l’instant.



Dans tous les cas, leur succès va dépendre principalement du soutien ou non des autres éditeurs, parce que c’est les jeux qui font tout. Mais vu comment Gabe parle de Microsoft et d’Apple, ils vont tout faire pour que ça réussisse, parce qu’ils considèrent que leur survie à moyen terme en dépend.

Le 07/12/2012 à 17h 20

Ce mec est comme la plupart des gars qui bossent pour des instituts ou des cabinets d’analyses et qui s’expriment dans les média, il cherche à faire parler de lui pour rapporter des clients à sa boîte, et c’est à peu près tout. Il n’a pas plus de crédibilité qu’un autre sur ses prédictions. Que Nintendo ne soit plus un acteur important du marché du jeu vidéo dans quelques années, alors qu’en plus d’être le premier constructeur de console, c’est aussi le premier éditeur de jeu, c’est juste une grosse connerie.



Pour ce qui est du multijoueur payant, à l’époque du Free-to-play, je veux bien voir ça. Le modèle de WoW a bien fonctionné, mais peu voire aucun autre jeu n’a réussi à trouver son public avec le même modèle.



Le seul point où je le rejoins, c’est que tous les jeux seront aussi disponibles en téléchargement d’ici quelques années. C’est déjà le cas sur la Wii U (alors que Nintendo était le plus en retard sur ce marché), ce sera aussi le cas avec les prochaines consoles de Microsoft et de Sony.

Le 29/11/2012 à 20h 19







Nathan1138 a écrit :



Tu ne seras pas le vrai maire de la ville. Tu géreras juste les affaires courantes <img data-src=" />







<img data-src=" /> <img data-src=" />


Le 27/11/2012 à 11h 51







psikobare a écrit :



nintendo se fait prendre à sons propre piège



[…]



le problème c’est que la wii U n’est pas en mesure de rivaliser avec la x360 ni la ps3, et ne sera carrément pas dans la même cour lors de la sortie des nouvelles consoles de sony et ms

tout en ne proposant absolument rien de transcendant par rapport à la wii U (je doute que qui que ce soit n’ayant pas d’actions chez nintendo puisse dire que la manette mal foutue de la wii U apporte quoi que ce soit)

pas de killer feature



et on le voit bien

400k wii U et 300k wii vendu dans le même laps de temps, quel lancement raté! il s’en ai fallu de peu pour que la wii se vende plus que sa grande soeur



je pense que nintendo fait une grande erreur







En même temps, difficile de vendre plus de consoles que ce qui est disponible… La console étant en rupture de stock, ils ont simplement tout vendu.



Moi je dis que Nintendo a de grandes chances de réussir son pari avec la Wii U. Pour la prochaine génération de consoles chez Sony et Microsoft, les coûts de développement des jeux vont encore doubler, donc à moins que les jeux soient vendus plus cher, il faudra qu’ils en vendent en gros de fois plus pour être rentable. Or, en début de vie d’une console, le parc installé est extrêmement faible, et ça va être très dur de faire des ventes qui excèdent les 2 millions de copies sur des parcs si petit. Donc qu’est-ce qui va se passer ? Les éditeurs vont développer des versions qui tournent sur PS360 parce que c’est là qu’ils pourront faire des grosses ventes, et si le parc installé de Wii U est suffisant pour que le portage soit rentable, ils sortiront aussi une version Wii U. On en a déjà quelques indices avec les moteurs de jeux destinés aux consoles de prochaine génération qu’on nous montre ces temps-ci, et qui sont pensés pour tourner aussi sur PS360. Et je pense que ce phénomène risque de durer assez longtemps.



Si elle réussi à décoller assez rapidement, on aura au moins tous ces jeux là qui seront à la fois sur la génération actuelle et la génération suivante. Sans compter les jeux indépendants, puisque Nintendo a des conditions très avantageuses pour eux maintenant, et la Wii U accueillera certainement aussi certains jeux pour tablette grâce à son écran tactile.



Pour la suite, je pense qu’elle a plus de chances que la Wii de durer longtemps. La Wii est une Gamecube à peine overclockée. La Wii U est capable de sortir une image en gros équivalente à la génération actuelle pour un portage bâclé, tout en gérant un second écran, dont l’image doit en plus être compressée et envoyée. Je serais pas étonné que certains développeurs tiers demandent à pouvoir se passer de ce second écran à gérer pour rediriger toute la puissance de calcul vers l’affichage principal. Aucune chance que ça comble son retard sur ses futures concurrentes, mais ça permettra peut-être de porter un jeu sans trop perdre en qualité, alors que ça serait plus possible de le faire tourner sur la génération actuelle.



Et puis il faut aussi voir que Nintendo a toujours eu un rythme de sortie d’une nouvelle console tous les 5 ans. Il y a que la Wii qui en aura duré 6, et ils ont attendu pour se positionner au mieux par rapport à la concurrence, mais dans les faits ils ont arrêté de supporter la Wii il y a un an, en gros avec Zelda. Donc on pourrait avoir une nouvelle console Nintendo pour Noël 2017. La concurrence ne va dégainer qu’au Noël 2013 au mieux, et soit ils vendent pas trop à perte et l’écart technique avec la Wii U ne sera pas faramineux, soit ils font comme la dernière fois et ils vont avoir besoin d’une durée de vie de 7 à 8 ans pour pouvoir retrouver leurs billes, donc jusqu’en 2020 au minimum. Dans les deux cas Nintendo peut s’adapter.


Le 23/11/2012 à 11h 01







Industriality a écrit :



Franchement, je ne connais personne à l’heure actuelle qui envie de repasser sur BB, au contraire…







C’est aussi que beaucoup de gens n’en ont pas connaissance. Il y a encore peu de temps, tu me parlais de BlackBerry, ça me donnait aucune envie. Et puis j’ai vu le Hands on de Engadget sur BB10. Et maintenant, je suis convaincu qu’ils ont une vraie carte à jouer, avec énormément de points forts, surtout pour l’entreprise, mais aussi pour le grand public. En ce qui me concerne, je trouve BB10 beaucoup plus prometteur que WP8.


Le 21/11/2012 à 18h 24







FelX a écrit :



Ils ont pas une sorte de partenariat avec samsung qui “devait” faire une sorte de SIII sur cet OS ?







Non, tu confonds avec Tizen, un autre successeur de MeeGo. MeeGo était à la base un partenariat Nokia-Intel, autour duquel un communauté de développeurs indépendants s’étaient créée. Quand Nokia s’est retiré, Intel a créé un nouveau partenariat avec Samsung pour travailler sur Tizen, en reprenant une partie du travail effectué sur MeeGo, mais en se concentrant sur le HTML5 plutôt que sur Qt, le framework poussé par Nokia.



Les développeurs indépendants ayant été échaudés par le fait que le retrait d’une entreprise puisse causer autant de dégât ont préféré créer leur propre projet, Mer, plutôt que de contribuer à Tizen. Et eux ont souhaité garder Qt en tant que framework de prédilection. Là dessus, une grande partie des développeurs de MeeGo chez Nokia qui avaient quitté l’entreprise suite au changement de stratégie, et se sont retrouvé chez Jolla, fondée par des anciens de chez Nokia, pour développer Sailfish en se basant sur Mer.



Voilà pour la petite histoire. C’est tout simple au final <img data-src=" />


Le 21/11/2012 à 16h 44







ActionFighter a écrit :



Moi je trouve ça pas mal pour une première présentation. Laissons à Jolla le temps de peaufiner un peu l’UI.







Ben disons qu’ils arrivent avec énormément de retard quoi… Le N9, dont l’OS est le meilleur OS smartphone encore à ce jour en ce qui me concerne, est déjà arrivé avec au moins un an de retard pour pouvoir s’imposer. Il devait sortir en 2010 au départ, mais il était pas prêt. Sans parler des conditions dans lesquelles il est sorti, mais c’est un autre sujet.



Pour s’imposer aujourd’hui, surtout quand on est une startup qui a pas beaucoup de moyen, il faut proposer quelque chose de différent et de plus efficace. Oui il y a des choses intéressantes dans Sailfish, mais est-ce que ça va suffire ? La première fois que j’ai vu une vidéo de MeeGo Harmattan, je me suis dit : “Waouh, il me faut ce téléphone”. Là, j’ai pas eu cet effet.



Après, comme ils sont encore relativement loin de la commercialisation, ils gardent peut-être des cartes dans leurs manches pour pas se faire piquer leurs idées révolutionnaires, au final ils ont pas montré grand chose pour l’instant, seulement leur interface tout en verticalité, et les applications d’appel et de multimédia. Ils réservent peut-être la fonctionnalité qui tue pour plus tard, on peut toujours rêver. Mais leur approche de développement ouvert me ferait dire que c’est pas le cas.


Le 21/11/2012 à 15h 42

Quelques vidéos de prise en main, c’est plus clair qu’une simple vidéo de présentation :

youtube.com YouTubeyoutube.com YouTubeL’OS semble intéressant, mais ça manque clairement d’identité propre et d’un concept révolutionnaire pour pouvoir percer à mon avis. Mais c’est que le tout début, ils viennent de présenter leur travail, ils peuvent encore changer pas mal de choses.

Le 20/11/2012 à 17h 36

Le software de la Wii U n’était simplement pas prêt pour le lancement, mais ils se devaient de lancer la console pour Thanks Giving aux Etats-Unis. S’ils attendaient plus, ils n’auraient pas eu le temps nécessaire pour prendre de l’avance sur les consoles concurrentes qui arriveront certainement l’année prochaine, au moins pour l’une d’entre elle.



Par exemple, pour jouer à la console virtuelle, il faut redémarrer en mode Wii, c’est pas directement accessible depuis l’OS de la Wii U. Ce qui fait qu’on peut jouer uniquement sur la télé avec une wiimote, pas sur l’écran de la manette. A mon avis, ils ont fait au plus simple pour le lancement, et quand ils ajouteront les jeux Gamecube en dématérialisé, ils sortiront la version Wii U de la console virtuelle. Et les mises à jour viendront corriger les défauts de départ, comme ça a été le cas chez Sony et Microsoft.

Le 19/11/2012 à 11h 32

La machine est quand même vendue à perte (une première pour Nintendo), donc son hardware doit pas être trop à la ramasse. Elle est censée afficher du 1080p sur la télévision et du 480p sur l’écran tactile, en compressant cette seconde image pour la transmettre en WiFi, et le tout à 60 FPS sur les deux écrans avec une seule image de décallage pour l’écran de la manette. Elle réussi à faire tourner des jeux de la même qualité visuelle que sur PS360, à la différence que ces consoles là ne sortent que 720p sur un seul écran, qui est souvent calculé dans une résolution inférieure puis subit un upscale, et qui tourne à 30 FPS.



D’ailleurs je serais curieux de savoir à quoi pourraient ressembler les jeux si elle n’avait pas à gérer ce deuxième affichage. Ca me parait peu probable que Nintendo autorise les éditeurs tiers à couper le second écran pour rediriger toute la puissance de calcul sur la télévision, mais je suis sûr que certains développeurs vont le demander une fois que les consoles concurrentes seront sorties.

Le 14/11/2012 à 11h 55







wanou2 a écrit :



Je ne vois pas trop le problème.



Quelle est la différence entre le retrait des billets diffamatoires d’un blog et le retrait de la distribution d’un périodique avec un article présentant des propos diffamatoires ?



Ou encore la différence entre la saisine par la justice d’informations concernant un individu chez Google et cette même saisine dans une banque ou un club de sport ?



En fait, ça fait chier Google d’être auxiliaire de justices (comme peut l’être tout à chacun) et veut se soustraire des lois. En gros, ils veulent faire ce qu’ils veulent sans en répondre à personne en faisant passer des choses normales pour une “inquiétante montée des surveillances gouvernementales”.



Le plus absurdes c’est que dans le cas de fausses demandes, ils n’iraient même pas prévenir les justices de différents pays non ils se contentent de ne pas donner suite…



Edit : correction de phôtes







Exactement. J’ajouterais que dans les démocraties, le pouvoir exécutif et le pouvoir judiciaire sont indépendants. Parler de requête d’un “gouvernement” suite à une décision de justice, ça n’a juste aucun sens.


Le 07/11/2012 à 18h 06

Je viens d’installer, ça fonctionne correctement. A mon avis, le contournement possible de la beta fermée est tout à fait intentionnel. Une manière de laisser les gens tester sans s’engager en terme de qualité, puisque le terme Beta est aussi utilisé sur des produits qui sont assez stables pour être utilisés (genre Gmail qui est resté en beta plusieurs années). Là c’est une vraie beta pleine de bugs, ils voulaient pas que les gens se jettent dessus et viennent se plaindre ensuite, tout en permettant à ceux qui le veulent vraiment de tester par une petite manip non officielle. Je trouve ça plutôt malin de leur part.



Par contre, impossible d’installer Team Fortress 2 en ce qui me concerne. Il n’est pas présent dans la liste de mes jeux (pas uniquement mes jeux Linux, il n’est pas dans mes jeux tout court, alors qu’il est installé sur la version Windows). Quand je lance la commande “steam -dev steam://install/440”, ça me répond que le serveur est trop occupé. Ca m’étonnerait pas que ce soit une limitation du fait que je n’ai pas de compte éligible à la beta… dommage… Je ferais un autre essai plus tard, mais j’ai pas grand espoir que ça fonctionne.



A part ça, World of Goo fonctionne bien. J’espère que les autres jeux des Humble Bundle arriveront vite. Ils sont tous disponibles à la fois sur Linux et sur Steam Windows/Mac, donc espérons que ça arrive vite. Par contre, si on passe l’interface en français, il y a certaines chaînes de caractères qui n’apparaissent pas, donc il vaut mieux le laisser en anglais. Le mode Big Picture est sympa, encore un peu jeune, mais ça m’a l’air prometteur.

Le 07/11/2012 à 11h 33

Pour ceux qui ont déjà Team Fortress 2 installé sous Windows, il est pas nécessaire de télécharger tout le jeu de nouveau. On peut lancer le téléchargement sous Linux, puis quitter Steam, copier les fichiers .gcf de la partition Windows vers l’installation Linux et ensuite relancer Steam, qui téléchargera les fichiers manquants. En tout cas, ça marche pour passer de la version Windows à la version OSX, donc a priori idem pour Linux. Je testerais ça ce soir.

Le 29/10/2012 à 11h 01







ssojjj a écrit :



Bein oui. ça me choque pas plus que ça.



Les opérateurs sont distincts techniquement, donc les problèmes peuvent être liés à une partie logicielle de l’un ou de l’autre…



T’as jamais entendu dire : ça marche pas chez Free alors que ça marche chez Orange ? Pourtant, c’est le même réseau (à 90%).







Sosh et Orange sont distincts uniquement sur la partie commerciale : boutiques, service client, site web (et encore, la gestion du compte se fait depuis le site Orange). Mais sur la partie technique, c’est la même chose. Sur mon téléphone, j’ai “Orange F” comme nom d’opérateur, bien que je sois chez Sosh. Chez Free, même que tu sois dans une zone non couverte par leur réseau propre, tu as quand même “Free” comme nom d’opérateur.


Le 27/10/2012 à 19h 45







WereWindle a écrit :



ton abnégation et ton approche si totalement désintéressée mériteraient qu’on t’élève une statue <img data-src=" />







Je me contenterais d’une sélection pour la beta, mais t’as pas tort. <img data-src=" />



Non en fait j’en ai aucune idée, mais je me dis que si tu as des jeux Source et d’autres jeux disponible sous Linux associés à ton compte, il y a moyen que ton profil soit plus intéressant pour eux. Tu peux tester plus de choses. A moins qu’ils te permettent de tester des jeux que tu n’as pas acheté. Pour leurs propres jeux c’est envisageable, pour ceux d’autres développeurs, non.


Le 27/10/2012 à 17h 04







raoudoudou a écrit :



Bah en fait, faut forcément avoir Windows ou un Mac, vu qu’il faut déjà avoir un compte steam pour s’inscrire à la beta Linux, c’est complètement con… <img data-src=" />







C’est une beta limitée à 1000 utilisateurs, ce serait logique qu’ils privilégient les utilisateurs fidèles de Steam et qui ont une expérience Linux (ceux qui l’utilisaient sur Wine ou qui ont gardé un dual boot). Les utilisateurs comme moi quoi <img data-src=" />


Le 27/10/2012 à 17h 16

Un peu HS, mais je pose la question quand même :

Je suis le seul à avoir des problèmes avec mon touchpad ? Par défaut, toute mise à jour Windows Update faite, le défilement à deux doigts n’était pas proposé dans les paramètres. J’ai installé le pilote Synaptic depuis leur site Internet, j’ai configuré comme il faut, ça fonctionne, mais parfois, sans aucune raison apparente, le défilement ne répond pas, et ce côté aléatoire est très agaçant. Après vérification, Windows 8 n’est pas dans la liste des systèmes compatibles. J’espère que ce sera vite réglé par une mise à jour, surtout que ça fonctionne sans rien faire sur n’importe quelle distribution Linux, donc c’est pas du matériel exotique.

Le 26/10/2012 à 14h 27

Donc juste pour clarifier : Tous les commentaires qui parlent de licence liée au matériel quand on passe par l’utilitaire de mise à jour qui permet d’acheter la version dématérialisée se basent sur du vent, n’est-ce pas ? J’ai rien lu d’officiel à ce propos.



Je peux acheter 2 licences sur le même ordinateur, télécharger un seul ISO et l’installer sur 2 ordinateurs différents (ayant tous les 2 une licence Windows valide) ? C’est ce que j’ai compris, mais certains commentaires me mettent le doute.