votre avatar Premium

Rozgann

est avec nous depuis le 16 janvier 2008 ❤️

1110 commentaires

A mon avis, ce changement est envisagé pour masquer le glissement vers le mobile. Canonical veut pousser le plus possible Ubuntu Phone, et une grande partie de l’équipe de développement va se concentrer dessus, ce qui fait qu’il y aura moins de nouveautés dans la version desktop. En continuant avec une version toute les 6 mois, qu’il faut promouvoir en mettant en avant les nouveautés, ça risque d’être un peu trop voyant. Alors qu’avec une version tous les 2 ans, et une rolling release entre les deux, si le rythme est moins soutenu, ça choquera personne.



Un autre changement envisagé, qui mériterait une news parce que beaucoup plus inquiétant selon moi, c’est leurs plans pour le remplacement du serveur Xorg. Jono Bacon, le community manager, a dit dans une interview pour un podcast qu’ils envisagent de créer leur propre serveur d’affichage plutôt que de passer à Wayland. Wayland est principalement soutenu par Redhat, qui n’ a aucun intérêt dans le mobile, et donc c’est pensé pour le desktop. Canonical veut quelque chose qui soit performant pour le mobile, tout en pouvant être utilisé pour le desktop. Et plutôt que de collaborer avec les autres en contribuant à Wayland, ils envisagent faire leur soupe de leur côté. Comme pour le changement évoqué dans la news, aucune décision n’est encore prise, mais le fait qu’ils l’envisage montre clairement qu’ils se dirigent vers un modèle de développement à la Android.



C’est pas la première fois qu’ils travaillent dans leur coin. Alors que la plupart des autres distributions utilisent Systemd pour gérer le démarrage des services, Canonical a annoncé que Ubuntu restera sur leur propre solution, Upstart. Ils font des modifications sur les briques Gnome qu’ils utilisent, à terme, il pourrait y avoir des incompatibilités qui les obligeraient à créer un fork. Mais le serveur d’affichage c’est encore autre chose. Il se pourrait qu’ils perdent carrément la compatibilité avec Wayland pour certaines applications, comme les jeux… Donc l’impact sur le monde GNU/Linux serait potentiellement très important, surtout si Ubuntu s’impose comme une plateforme de jeu grâce à Valve.







AngelSword a écrit :



Le commentaire le plus long que j’ai jamais lu sur PC INpact !





Dans l’absolu, tu as raison, aucune entreprise n’est à l’abri, simplement il est peu probable que Nintendo devienne un simple éditeur même si la Wii U est un échec. Pour l’origine des infos sur la santé de Nintendo, comme ils sont côtés en bourse, ils publient régulièrement leurs résultats financiers. Depuis 1980, ils ont perdu de l’argent qu’une seule année, en 2012 (peu de ventes de Wii, investissement sur le développement de la Wii U, etc…). Ce petit graphique est assez explicite :http://www.afjv.com/news/1065_resultats-nintendo.htm



Quand Sega a arrêté les consoles, ils avaient essuyé échec sur échec avec leur machine, leurs investissements dans la Dreamcast et dans Shenmue ont fini par les tuer. Donc Nintendo peut évidemment disparaitre à terme, mais il faudra plus qu’un simple échec de la Wii U (qui reste à prouver d’ailleurs) pour ça. Il faudra qu’ils fassent beaucoup plus de conneries que ça.



edit:





AngelSword a écrit :



j’aurais tendance à croire les analystes plutôt que des gens qui ne souhaitent tout simplement pas voir ce scénario se produire, ils sont clairement pas objecif.





Les analystes en question disent que dans le cas le plus défavorable, ils peuvent arrêter les consoles. C’est pas le cas le plus probable. Mais dans l’histoire, c’est toi que je trouve pas très objectif. L’impression que me donne ton commentaire, c’est que tu souhaites qu’ils disparaissent parce que tu ne fais plus parti de leur public cible.








desmopro a écrit :



Nintendo est meme pas capable de faire un NSMB Wii U en 1080P, il faut du temps pour les editeur tierce, mais si nintendo eux meme n’arrive pas a gerrer leur matos …







Les spécifications de la Wii U ont beaucoup changé au cours du développement, et elles ont été arrêtés assez tardivement. Elle était censée être moins puissante, mais ils ont fait des modifications en fonction du retour des développeurs. Comme ils devaient absolument sortir leur console pour Thanks Giving, ils ont fait ça un peu à l’arrache. La mise à jour du système à la sortie le montre bien. Le support du 1080p, c’est un truc qui se décide en début de développement et qui va avoir une influence sur toute la conception du jeu. Le développement était certainement trop avancé pour faire ce changement au moment où les spécifications de la Wii U ont été finalisés. Les jeux de début de génération sont rarement représentatifs des capacités réelles de la console.


Certains enterrent la Wii U bien vite je trouve. Elle est pas sortie depuis 3 mois que ce serait déjà un échec ? Nintendo a laissé le champ libre aux éditeurs tiers pour le lancement, ils ont sorti que 2 petits jeux, avec un budget relativement faible (Nintendo Land et le Mario Bros). C’est aussi relativement calme sur 3DS depuis quelques mois, ce qui veut dire que les studios internes travaillent sur des jeux non annoncés. Nintendo est un des rares éditeurs qui sort parfois ses jeux très peu de temps après l’annonce. A mon avis, ils ont quelques grosses annonces qu’ils gardent au chaud pour le moment où Microsoft et Sony vont présenter leurs prochaines machines.



Ils ont déjà annoncé avoir rassemblé la plus grosse équipe de développement de leur histoire pour faire le prochain Zelda. Je verrais bien une annonce à l’E3,bien que ça m’étonnerait que le jeu sorte cette année. Il faut pas non plus oublier qu’ils peuvent sortir un truc du genre Wii Fit, nouveau concept que personne attendait et qui fait vendre des consoles par cargo. Dans ce domaine, ils ont quand même sorti beaucoup de nouvelles licences sur Wii, ça devrait continuer sur Wii U. Et ils peuvent aussi appuyer sur le bouton “Mario Kart” pour redoper les ventes, ça a marché à tous les coups par le passé (Mario Kart Wii sur un seul support s’est plus vendu que Call of Duty Modern Warfare 3 tous supports confondus).



Comme certains le soulignent, Sony est dans une situation bien plus délicate que Nintendo. Eux ne pourront pas se contenter d’un succès en demi-teinte de leur prochaine console.







Commentaire_supprime a écrit :



Tiens, à faire en plus de l’installation de Mate par défaut. Merci pour le rappel.







Nemo est un fork de la version 3.4 de Nautilus, parce que la version 3.6 supprimait certaines fonctionnalités. Si tu installes MATE, ton gestionnaire de fichier sera celui de MATE, qui est un fork de la version 2.x, avec toutes les fonctionnalités qu’elle avait. Donc l’intérêt est limité.



Par contre, il est possible d’avoir une expérience comparable à MATE dans Gnome 3, mais il faut installer pas mal d’extensions. Je comprends pas pourquoi aucune distribution ne fait un simple paquet “Gnome-legacy” ou un truc du genre, qui te configure ton Gnome-shell pour retrouver une expérience à la Gnome 2. Ce serait tellement plus simple qu’encombrer ses serveurs avec MATE, qui disparaitra tôt ou tard.







cid_Dileezer_geek a écrit :



Mint qui se mouille pas… Ils ont tellement sorti de nouveaux outils que certain ont été adopté par d’autres distrib, mint est tellement user friendly qu’elle est devenue la distrib numero 1, et je t’assure que ce n’est pas une ubuntu avec un mate installé dessus(même si elle est basée sur ubuntu et debian), pour parler comme ça tu n’a pas du l’essayer beaucoup voire pas du tout.





Il veut simplement dire que Mint n’intègre pas les dernières versions des bibliothèques/noyau/drivers, et il a raison. Ils se basent sur les versions présentent dans Ubuntu pour garder la compatibilité, et ils sortent avec quelques semaines de retard par rapport à Ubuntu, qui n’est déjà pas aussi blending edge que Fedora. Ca veut pas dire qu’ils n’innovent pas, mais sur la base du système, il préfèrent garder ce que fait Ubuntu plutôt que de mettre une version plus récente qui n’a pas forcément été suffisamment testée.



Du point de vue utilisateur final, je trouve que ça change pas grand chose, mis à part éventuellement pour les pilotes graphiques libres dont les performances peuvent être grandement améliorée avec une nouvelle version pour certaines cartes.


On comprend mieux où ils ont trouvé l’inspiration pour les lunettes du pyro que tu peux équiper à tes personnages dans Team Fortress 2 :youtube.com YouTube







Alucard63 a écrit :



Prends un PC top moumoute de 20052006 avec 512 Mo de ram et essaye de lui faire bouffer Metro 2033, Crysis 2 ou Farcry 3 pour voir, même au minimum il y a peu de chance que tu atteinges le framerate des versions xbox/ps3…



Les jeux sont en effet cross plateformes mais les moteurs sont optimisés( a toc ) pour les consoles.







Je suis pas expert en hardware, mais en l’occurrence, je dirais que la différence de performance ne vient pas tant de l’optimisation des moteurs graphiques que de l’architecture des consoles. Les vitesses de bus sont beaucoup plus importantes sur les consoles, les 512 Mo de RAM sont de la mémoire vidéo partagée avec le CPU et beaucoup plus rapide que la DDR2 qu’on trouvait sur une configuration de 2005, etc… Il n’y a pas que le CPU, le GPU et la quantité de RAM qui jouent sur les performances, comment tout ça fonctionne ensemble joue aussi beaucoup.


Personnellement, je suis beaucoup plus inquiet pour Sony que pour Nintendo. Si la Wii U n’est pas suivie par les développeurs tiers, ils ont assez de licences à eux pour alimenter l’énorme base de fan qu’ils ont. En plus, ils restent les seuls à vraiment mettre en avant le multijoueur local, et je suis certain qu’il reste un marché pour ça. Au pire, elle fera des chiffres proches de ceux de la Nintendo 64 ou du Gamecube. Même si ces consoles n’ont pas été un franc succès, elles ont quand même été rentables pour Nintendo. La 3DS marche bien, et je pense qu’ils doivent être encore le premier éditeur mondial, donc ils sont loin de la situation de Sega avec la Dreamcast.



Par contre, Sony est dans une situation délicate au niveau financier, la PS Vita est un échec, Microsoft va certainement être encore plus agressif qu’avec la Xbox 360 et ils sont en concurrence frontale. Donc ils ont pas le droit à l’erreur avec leur prochaine console, il faut que ce soit un succès sinon ça va aller très mal. Et contrairement à Nintendo, je suis pas certain que leur identité propre soit suffisamment marquée pour retenir leurs clients d’acheter la prochaine Xbox si elle a de réels atouts par rapport à la future Playstation.



A mon avis, s’il y a un risque de voir disparaitre un des constructeurs actuels, c’est plutôt Sony que Nintendo. J’espère que ce sera pas le cas, je préfère de loin les exclusivités Sony à celles de Microsoft, mais il faut pas qu’ils ratent leur coup.







rsegismont a écrit :



Sans moi le jeu, connexion permanente = boycott







Quand c’est une connexion permanente pour le seul prétexte de bloquer les utilisateurs qui n’ont pas payé leur licence (genre ce que faisait Ubisoft avec Assassin’s Creed avant de se rendre compte que c’était inutile), il y a une vraie raison de boycotter.



Mais là, l’influence des autres joueurs n’est pas une petite chose ajoutée en plus à la va-vite, le jeu a été entièrement pensé autour de ça. C’est comme dire : pour jouer à Counter Strike, il faut être connecter à Internet, donc je boycotte (bon ok, on peut jouer à Counter en LAN, mais une partie de SimCity, ça dure légèrement plus longtemps…)







rsegismont a écrit :



Ouais et dans 10 ans tu pourras plus y jouer quand les serveurs seront fermés alors qu’un sim city 4 tu pourra toujours… <img data-src=" />





Il y a la possibilité qu’ils mettent à disposition la partie serveur. J’y crois pas beaucoup connaissant EA, mais techniquement c’est possible. Enfin ils ont bien publié le code source du premier SimCity après 20 ans…







malrepast a écrit :



l’expérience de jeu est majoritairement solitaire. De ce fait, les métropoles bâties par les joueurs devaient se suffire à elles-mêmes sur tous les points….



C’est faut il était possible de construire plusieurs villes en solo puis de les spécialiser et de les relier entre elles (comme ce que propose ce prochain SimCity, l’obligation de connexion permanente pour le solo et l’obligation de souscription et d’installation de cette merde d’origin en plus).



Comme quoi ils n’ont rien inventé si ce n’est une nouvelle justification foireuse pour prendre les gens pour des cons.





Bref boycott pour moi aussi.





Oui, sauf que si tu voulais faire ça, tu devais t’occuper de toutes les villes à la fois. Là tu peux te faire une partie entre potes, en se mettant d’accord pour développer tes villes de façon complémentaires, et ne t’occuper que des villes qui t’intéressent. Que je sache, c’était pas possible sur les anciennes versions.








benamey a écrit :



Pourquoi ne pas avoir développé Unity directement avec des bibliothèques standards ?



Volonté de la part de Cannonical d’empêcher d’autres distribs d’utiliser Unity ?



Il n’y a qu’un pas à faire pour penser ça. <img data-src=" />







Parce que si tu veux utiliser des bibliothèques standards, quand tu veux faire des modifications, il faut en parler à tout le monde, composer avec les besoins de tous et éventuellement faire des compromis. Canonical veut développer le plus vite possible, sans concession à sa vision propre et sans s’embarrasser des autres. C’est regrettable, mais je pense pas qu’il y ait une volonté d’incompatibilité, simplement ils se sont fixés des objectifs et être compatibles avec Gnome n’est pas une de leurs priorités. Un peu comme ce qu’à fait Google avec le noyau Linux pour Android.



Je sais pas très bien comment se passe le développement d’Unity. On a accès au dépôt pendant le développement ? Tout le monde peut soumettre du code ou simplement les employés de Canonical ? Qui décide ce qui est accepté ou pas et comment sont-ils désignés ? Je crois que c’est quand même très contrôlé par Canonical. En ça, oui, je pense pas que Ubuntu Phone sera pas beaucoup plus ouvert qu’Android, dont le développement est fermé et le code source publié à posteriori.








m_spot a écrit :



Je comprend ta déduction mais je ne suis pas sur que ce soit le cas ! <img data-src=" />



Au point de vu développement et marketing, je vois pas l’intérêt ! D’autant que Steam aurait alors communiqué, depuis ces dernier temps, sur un possible Label et non sur une console !



Si c’était le cas tous les constructeurs pourrait faire leurs mini PC certifié Steam.

ça serait du bon pour les contributions au manchots que les constructeurs s’y mettent. Mais la différence avec un PC serait ténue et le risque de dilution du message de Steam serait Grand.



Alors qu’avec une console, Steam maitrise le développement et la communication en s’appuyant sur l’interopérabilité et la possibilité de jouer contre des joueurs PC et NUX soit une communauté déjà très active et un nombre de joueur déjà grand ! L’argument marketing est énorme pour lancer le produit !

(Mine de rien un joueur PS ou Xbox ne joue que contre des joueur de la même console, soit pas grand monde au moment de la sortie !)

Voila simplement mon avis, ce n’est ici encore que spéculation !

<img data-src=" />





Leur stratégie n’est pas encore très claire. Mais Valve n’a jamais officiellement communiqué sur une “console”. Ils ont dit qu’ils feraient du hardware pour le salon, mais c’est la presse qui affirme qu’ils veulent se lancer sur le marché des consoles. Gabe Newell a dit dans une interview qu’ils feraient un hardware de référence, mais que d’autres constructeurs seraient libres de faire leur propres machines compatibles. Mais ça peut prendre beaucoup de formes différentes.



Dans cette interview d’un gars de Xi3 sur le CES, il corrige le journaliste qui lui pose une question sur la Steambox, en lui disant que sa boite commercialisera la Piston de Xi3, pas la Steambox. Il parle pas officiellement de partenariat avec Valve ni rien. Donc on y verra plus clair une fois que Valve aura fait une annonce officielle.








Ellierys a écrit :



Ça ressemble à la description d’un APU A10, mais je n’ai vu cette info nulle part.







Apparemment, c’est les caractéristiques de l’X7A, qu’ils ont consulté avant que la page ne soit plus disponible.


Clair qu’en version companion cube, ce serait énorme !



Sur Gameblog, ils parlent d’un processeur x86 QuadCore à 3,2 Ghz, d’une Radeon HD 7660 et de 8 Go de RAM. Par contre, ils citent la même source que l’article PCI, qui ne contient pas ces informations, donc à prendre au conditionnel.



Ce qui est intéressant, c’est la carte mère de la machine. Ils ont un format spécial en plusieurs parties, qui permet de changer les composants qu’on veut, sans que ça prenne une place énorme comme sur un PC monté classique. Il y a une vidéo de présentation du concept Xi3 ici :youtube.com YouTube







martino a écrit :



Il y a beaucoup de manière de consommer sur console (comme sur pc).

Pourquoi prendre la pire situation possible pour console ? tout ce ne semble bien orienté







Je parlais du prix d’achat conseillé à la sortie du jeu, en général c’est 70€ sur console et 50€ sur PC. Tu as raison, c’est possible d’avoir ses jeux à moins de 70€ sur console aussi. J’ai pas de statistique, mais je pense quand même qu’en moyenne, on paie ses jeux moins cher sur PC.



Mais tu auras noté que je précise que jouer sur PC est moins cher “pour mon utilisation”. J’achète une quinzaine de jeux par an, beaucoup à la sortie, d’autres plus tard, et je joue pas en multijoueur local. C’est certainement pas vrai pour tout le monde, mais pour moi, jouer sur console HD me couterait plus cher.



Dans tous les cas, je répondais à misterB qui disait qu’on ne pouvait plus jouer sur PC pendant 6 ans avec la même machine. Mon cas montre que c’est faux.








misterB a écrit :



Au mois ça permet de jouer avec la même machine pendant 6 ans <img data-src=" />





C’est le cas aussi sur PC… J’ai acheté un PC à 800€ en 2007 pour la sortie de Crysis, capable de le faire tourner en Haute qualité (même pas en Très haute qualité). Je peux encore jouer à tous les jeux qui sortent aujourd’hui dans des conditions supérieures à ce qui se fait sur console. D’accord, 800€ c’est plus cher qu’une console, mais tu économises plus de 20€ par jeu sur PC, sans parler des promotions Steam. Et je parle que du fait de jouer, puisque la plupart des gens ont un autre PC en parallèle. Pour mon utilisation, c’est moins cher de jouer sur PC…



Et je compte bien le garder encore le temps que les nouvelles consoles de salon sortent, et que je puisse acheter un autre PC dans ces prix là, qui me permettra encore de jouer toute la durée de vie des consoles, en profitant des exclus PC comme Starcraft, Diablo, Sim City, Civilization, des FPS à la souris, de tous les mods faits par la communauté, etc…



edit; Et ce sera peut-être encore plus rentable quand on pourra se passer d’une licence Windows s’il y a assez de jeux sous Linux. Ah moins que je m’oriente vers une SteamBox…


Très heureux de leur initiative. Si ça fonctionne, ça permettra à Linux de devenir une plateforme de choix pour le jeu vidéo, et donc une alternative viable pour le grand public, sur tous les plans. Je pense que s’il y a une année pour lancer une “console” Steam, c’est 2013. En ça, leur timing est bon. Maintenant est-ce qu’ils auront assez d’arguments pour s’imposer, ça reste à voir. Mais ils ont encore rien montré d’officiel, ils ont peut-être des atouts qu’ils réservent pour plus tard.









Groumfy a écrit :



Comment ils vont fait pour les jeux non-Valve ? Ils vont scripter du Wine ?







A mon avis, ils vont pas s’embêter à ça. Ils misent sur le fait que les éditeurs vont sortir leurs prochains jeux en multi-support Consoles/Windows/Mac/Linux. Pour les anciens jeux, tu pourras jouer à ceux qui ont une version Linux, mais pas aux autres. Eventuellement, il pourront distribuer des versions basées sur Wine ou Cedega, comme certains jeux Mac, mais ce sera un développement fait par l’éditeur, pas intégré à Steam.



Après, si c’est assez ouvert, tu pourras certainement bidouiller Wine sur ta SteamBox pour faire tourner des jeux Windows, mais ça m’étonnerait que ce soit officiellement supporté.








sylware a écrit :



<img data-src=" />



Donc que les gens lisent mon argumentaire dans les threads sur qt5 et décident par eux-même si canonical a fait une maladresse technique avec son OS mobile. Personnellement, je le pense.



Et j’ai le droit de le dire.



<img data-src=" />







Ah mais tu peux dire et penser ce que tu veux. Encore heureux d’ailleurs. Mais je peux aussi faire des corrections quand ce que tu avances est inexact. Tu ne t’entêterais pas à faire du FUD, j’aurais rien trouvé à redire.








sylware a écrit :



Faux. Le fait que qt ait été au milieu de manips crosoftiennes nauséabondes n’était qu’un élément de mon argumentation, et un bref et petit, y a tout le reste qui n’a rien à voir.







J’ai jamais dit que tu disais que des conneries sur Qt/QML, j’ai dit que tu en disais. Quand tu dis qu’il faut une bête de course pour faire tourner un truc en Qt, et que Qt est sous le contrôle de Microsoft, c’est simplement faux. Quand tu dis que développer en C++ avec Qt est très complexe, que Qt est une usine à gaz, c’est pas vrai non plus.



Après sur le fait que tu préfères coder en C avec GTK+ ou EFL qu’en C++ avec Qt, c’est ton droit, j’ai rien à redire là dessus. Il y a en effet des cas où c’est plus pertinent. Dans le même temps, si 3 des nouveaux OS mobiles de 2013 ont choisi Qt comme technologie mobile (BB10, Sailfish et Ubuntu), ça m’étonnerait que ce soit un choix idéologique, c’est simplement que c’est la technologie libre la plus adaptée au développement d’applications natives sur mobile.








sylware a écrit :



Et bé… qml! <img data-src=" /> Va falloir un smart phone de course pour que ça ne soit pas un escargot.





Il faut arrêter de dire n’importe quoi sur Qt. L’interface du Nokia N9 est entièrement écrite en QML, elle est très réactive et c’est loin d’être un smartphone de course (Cortex A8 1Ghz, SGX530, en gros, c’est entre un iPhone 3GS et un iPhone 4). La plupart des smartphones qui sortent aujourd’hui ont des performances supérieures.







sylware a écrit :



Avis aux trolleurs: mon avis argumenté est dans les threads sur qt5. Je condamne donc les choix des composants logiciels majeurs de l’OS linux mobile de canonical.





Oui en effet, on a déjà discuté de ça sur l’autre thread, où tu as dis nombre de conneries sur Qt, dont le fait que c’était “contrôlé” par Microsoft…. Et tu continues à faire du FUD à propos des performances maintenant.


L’OS en lui-même est intéressant, mais comme pour les autres prétendants, j’ai bien peur qu’il arrive beaucoup trop tard. Quand tu vois que WP8 a du mal à décoller, alors que l’OS a beaucoup de qualités, qu’il y a le marketing de Microsoft et de Nokia derrière, et que les modèles proposés ont globalement une belle gueule, je vois mal un OS mobile Ubuntu s’imposer, surtout qu’ils sont nombreux à vouloir leur part du gâteau (Blackberry avec BB10, Mozilla avec Firefox OS, Samsung/Intel avec Tizen, Jolla avec Sailfish OS, et maintenant Canonical).



En voyant cette interface, on comprend d’un coup le nom “Unity”. On retrouve bien un lanceur d’applications sur la gauche, un moteur de recherche à la fois local et Internet en haut, la maximisation de l’espace alloué aux applications, la synchronisation des données avec Ubuntu One, etc… Quelqu’un qui utilise déjà Ubuntu sur son PC ne sera pas dépaysé. Même Microsoft n’a pas un tel niveau de cohérence entre Windows 8 et Windows Phone 8.



Au niveau technique, le couple Qt/HTML5 est une très bonne idée. QML a été développé avec le mobile comme objectif, et Nokia a fait un choix de stratégie commerciale en l’abandonnant, pas un choix technique. BB10 et Sailfish utilisent aussi Qt, mais s’ils font comme pour MeeGo/Harmattan, ils vont tous avoir leurs composants QML propres, et le portage réclamera une adaptation (mineure certes, mais adaptation quand même). On a pas vu le clavier virtuel, ce serait bien qu’ils collaborent avec les autres projets qui découlent de MeeGo et qu’ils utilisent Maliit, le clavier virtuel du Nokia N9, qui est très bon.



Là où Canonical peut avoir une chance, et Shuttleworth y met l’accent dessus, c’est pour les entreprises qui ont un système d’information basé sur Ubuntu. Ils disent que ça se gèrera avec les outils existants, ça peut être un argument. Mais je pense que Blackberry va reconquérir cette “niche”, et les entreprises qui utilisent Ubuntu, ça court pas les rues non plus.



Mais bon, comme ils utilisent des briques logicielles libres, ils n’ont fait que développer l’interface et adapter quelques trucs. A maintenir, ça doit pas demander des masses de travail, et ils doivent pouvoir réutiliser pas mal du travail qui a été fait par MeeGo/Mer. En plus, ils partagent les bases techniques avec les versions desktop, TV, et la future version tablette. Ils font cette annonce maintenant dans l’espoir qu’un constructeur vienne les voir au CES pour discuter d’un partenariat. Ils vont pousser pour que ça décolle, mais si c’est pas le cas, ils pourront toujours se recentrer sur la version desktop.







Malesendou a écrit :



Les changements ne serait pas un probleme, si ils étaient bons. Et ça n’est pas le cas du tout.







Oui je suis assez d’accord. Le pire étant qu’ils changent des trucs mais en gardent d’autres, sans la continuité qu’il y avait dans le comic.



[Spoiler]

Exemple avec le coup de téléphone après la mort de Lorie dans la saison 3 : dans le comic, il est tout seul avec son fils, il a plus rien à quoi se raccrocher, et il entend la sonnerie d’un téléphone dans une maison abandonnée. Au début, tu crois vraiment à des survivants, puis ensuite tu comprends qu’il hallucine, mais c’est cohérent avec sa situation. Dans la série, c’est évident qu’il débloque dès le début, ils sont encore en sécurité dans la prison, il a deux enfants dont il faut qu’il s’occupe, ça perd tout son sens.

[/Spoiler]



C’est un exemple parmi d’autres mais c’est un des plus parlants. Et la série est vraiment pensée pour plaire au plus grand nombre, alors que le comic parle de l’histoire de Rick telle que le scénariste l’imagine, sans concessions à sa vision. Et forcément, tu perds beaucoup en qualité quand tu crées avec pour objectif de plaire aux masses.








Zed-K a écrit :



Mais quelle pompe à fric quoi…

En espérant que l’achat de la licence par Activision ne condamne pas la saison 2 du The Walking Dead de TellTale.







Pas d’inquiétude. Activision a acheté les droits de la série à AMC. Le héros du jeu sera Daryl, un des personnages “badass” sans grand intérêt qu’ils ont ajoutés à la série pour que les ados accrochent mieux.



Telltale a les droits sur le comic, et Robert Kirkman, le scénariste original, est directement impliqué et donne son avis sur le jeu.



Le jeu d’Activision partait déjà avec un gros handicap, maintenant qu’on a les premières vidéos, c’est certain que je l’achèterais pas, bien que je sois un gros fan de The Walking Dead.



En plus, le survival horror ne va pas si bien à cet univers. Les zombis et la peur panique ne sont pas l’essentiel, ce qui est important, c’est comment les gens s’adaptent et comment ils réagissent dans une situation apocalyptique. La peur, elle vient plutôt du désespoir que ça ne pourra finir que par sa propre mort. Le jeu de Telltale retranscrit tout ça bien mieux que n’importe quel survival horror…








sylware a écrit :



Si tu as suivi l’actualité de qt/nokia/crosoft… c’est dans le même plan de manipulation que novell/crosoft. Ils sont “grillés”. Dans le milieu linuxien, il n’est pas rare de considérer la distribution gnu/linux suse comme la distribution crosoft… Simplement, la méthode du “proxy” est moins voyante que la méthode employée par oracle…







Même à l’époque où Qt était une propriété de Nokia, associer Qt à Microsoft relevait du troll. C’est encore plus le cas maintenant que c’est totalement indépendant de Nokia, puisqu’ils ont vendu l’entité commerciale à Digia et céder la propriété intellectuelle au Qt Project, qui est un projet communautaire. Tu t’entêtes à répandre du FUD sur Qt, malgré toutes les personnes qui te montre que tu as tort, et c’est triste. Tu as droit d’avoir un avis négatif sur Qt, mais au moins, base toi sur des faits réels, pas sur des élucubrations.








pafLaXe a écrit :



Ca fait longtemps que j’ai pas mis le nez dans leur roadmap, mais je pense pas (je peux me tromper) qu’ils passent à Qt5 avant une prochaine version majeure, qui ne sera utilisable qu’au bout de x versions mineures, donc rien, à mon avis, à court terme.







Ca dépend. Pour l’instant, ils travaillent sur KDE Frameworks 5, qui regroupe l’ensemble des bibliothèques KDE sur lesquelles sont bâties les applications et les environnements KDE. Le projet a été mené en parallèle de Qt5 puisque certaines parties de bibliothèques KDE ont été directement intégrée à Qt. Et ils mettent l’accent sur la modularité pour éviter d’avoir beaucoup de dépendances inutiles dès qu’on veut utiliser la moindre fonction, comme c’est le cas actuellement. Ca devrait permettre d’augmenter l’utilisation de leur technologie par les développeurs indépendants, et de réduire les temps de chargement des applications KDE utilisées dans d’autres environnements.



Je crois que pour l’instant rien n’est décidé, mais au moment de l’annonce de KF5, ils avaient dit qu’il était tout à fait envisageable d’avoir une version de KDE 4 (au sens l’environnement de bureau) qui tourne sur KF5 (et donc sur Qt5). Ils ont bien dit qu’ils ne voyaient pas du tout la nécessité de tout révolutionner cette fois-ci. S’ils sont repartis sur une base saine avec KDE4, c’est justement pour pouvoir travailler proprement par la suite. Donc la transition pour l’utilisateur sera pratiquement invisible, c’est pour les développeurs uniquement qu’il va y avoir du changement.



Récemment, Martin Grässlin, le mainteneur de KWin, a dit sur son blog qu’il considérait que KDE 4.12 était un objectif raisonnable pour un passage à Qt5, au moins pour les early-adopters. KWin est un des projets qui ne peuvent pas être portés facilement de Qt4 à Qt5, mais pour le reste, le plus gros du travail concerne KF5, qui est relativement avancé. KDE 4.10 sortira en Janvier 2013, Janvier 2014 pour la 4.12. Donc en effet, à court terme, pas de grand changement.








divide a écrit :



[…]





<img data-src=" /> Je suis Rozgann et j’approuve ce message ! <img data-src=" />








sylware a écrit :



Ne pas oublier GTK+ et les EFL.





Comme dit de nombreuses fois au fil des commentaires, ce n’est pas comparable. Déjà, GTK+ et EFL sont des bibliothèques permettant de faire des interfaces graphiques à base de widgets, alors que Qt est un framework complet qui couvre beaucoup de choses, dont les interfaces, avec la possibilité d’utiliser des composants (QWidget) ou des interfaces déclaratives (QtQuick/QML).



Ensuite, ils ne sont pas aussi multiplateforme. EFL ne fonctionne que sur un dérivé Unix, GTK+ ne fonctionne que sous Unix/Windows/MacOS X. Voir le dernier paragraphe de l’article pour les systèmes supportés par Qt. Pour une application mobile multiplateforme, Qt a un train d’avance sur les alternatives que tu cites.








colonelhati a écrit :



Il y avait quand même un paquet d’applications Nokia exclusives à leurs téléphones, notamment le “vrai” GPS fourni gratos, et ça c’était quand même un gros point fort!





Oui mais c’était déjà le cas sur les smartphones Symbian avant lui. C’est un plus appréciable, mais c’est pas un truc nouveau qu’ils ont introduit avec le Lumia 800.



C’est quand même léger si tu compares au N9 qui était censé être leur ambassadeur pour cette période et qui apportait beaucoup d’innovations : l’interface utilisable à une seule main sans bouton physique, l’heure et les notifications sur l’écran de veille sans avoir à toucher le téléphone, le double tap sur l’écran pour sortir de veille, le NFC/Bluetooth pour associer les accessoires, et pas mal d’autres choses pas liées au hardware et pas forcément nouvelles mais qui étaient un vrai plus (écran d’accueil regroupant les notifications, multi-tâche réel, messagerie instantanée directement intégrée à l’OS, GPS sans connexion Internet, et j’en oublie).



Je dis pas que le Lumia 800 était un mauvais téléphone, mais c’est le modèle haut-de-gamme le moins novateur qu’ils aient sorti. Enfin tout ça pour dire que hormis ce modèle qui est un cas particulier, Nokia essaie de toujours avoir un truc en plus sur chacune de ses générations, c’est pour ça que cette future tablette attire mon attention.








zaknaster a écrit :



C’est vrai je me souviens de cette phrase de Nokia, sauf que bon je veux pas dire mais avec un Windows RT c’est pas comme si Nokia avait une vraie marge de manoeuvre, perso j’ai la sensation que ça sera une tablette comme les autres. J’espère me tromper mais bon <img data-src=" />





Pour ses appareils phares, Nokia a toujours une petite innovation pour se différencier. Parmi les exemples récent qui me viennent en tête : l’appareil photo qui explose la concurrence pour le N8 et le 808 pureview ; la stabilisation de l’image, le chargement sans fil et l’écran tactile hyper sensible pour le Lumia 920 ; le NFC pour le Lumia 800 ? (c’est un peu maigre pour ce modèle, puisque la plupart des très nombreuses innovations du N9 étaient liées à MeeGo/Harmattan).



edit: Maintenant que j’y pense, le Lumia 800 avait même pas de NFC en fait ! A part son design, il avait pas grand chose pour lui le pauvre…



C’est vrai que depuis qu’ils ne maitrisent plus l’aspect logiciel, ça limite pas mal les marges de manœuvre. Je m’attends pas à un truc exceptionnel, mais je pense qu’il y aura ce genre de petite innovation qui apporte un plus appréciable.







krelix a écrit :



Une protection comme le Touch Cover mais qui utiliserais du NFC plutôt qu’un port propriétaire qui fait “click” pour être utilisé ? ^^





C’est probable. Ils utilisent déjà le couple NFC/Bluetooth pour relier leurs enceintes sans rien configurer, ils peuvent étendre ça à d’autres accessoires. Est-ce que c’est suffisant pour ne pas être un constructeur parmi d’autres, pour moi non.


Marko Ahtisaari, le responsable du design et de l’expérience utilisateur chez Nokia, a confirmé dans une interview il y a plusieurs mois passer plus d’un tiers de son temps sur un projet de tablette. On sait aussi que Nokia travaillait déjà sur un appareil de ce genre avant l’accord avec Microsoft (le projet Senna). Elle reprenait un design proche de celui du Nokia N9 (et des Lumia 800 puis 820 et 920) et devait tourner sous MeeGo à l’époque. Leur future tablette sous Windows RT en reprendra sûrement les grandes lignes.



Nokia a toujours dit qu’ils ne se lancerait pas sur ce marché pour être un constructeur parmi d’autres, donc j’attends avec impatience qu’ils en montrent plus, pour savoir s’ils ont changé de point de vue ou s’ils vont vraiment apporter quelque chose de nouveau. Les innovations de Nokia sur ses smartphones ne sont pas forcément révolutionnaires, mais ils ont souvent des petits plus intéressants. Par contre, autant la photographie est un vrai argument différenciateur pour un smartphone qu’on a toujours sur soi, autant pour une tablette, il faudra qu’ils trouvent autre chose. On peut supposer qu’ils auront du chargement sans fil, mais ça va aussi venir chez la concurrence. Ca fait plusieurs années qu’ils planchent sur le concept, ils ont peut-être quelque chose à proposer…

Bah ils ont bien Windows Phone, et tout le monde comprend que c’est Windows sur un téléphone, mais ne s’attend pas à faire lancer un .exe. A la rigueur, ils pourraient renommer Windows RT en Windows Tablet ou WIndows Device, mais en même temps Windows RT est censé couvrir des appareils avec et sans écran tactile, avec et sans clavier, etc., donc ce serait pas forcément plus clair pour un consommateur lambda.

La question, c’est pourquoi personne n’a encore sorti un protocole libre qui ait les mêmes fonctionnalités que EAS ?







Ingénieur informaticien a écrit :



C’est plus notre tour.

Nous avons eu notre heure de gloire.

Nous sommes un pays post-industriel.

Certains ont du mal à l’accepter.







Je préfère voir ça du côté optimiste : on a enfin grandi, fini les concours de qui c’est qui a la plus grosse avec le reste de la planète, faisons plutôt des choses qui sont utiles. Parce qu’en plus, en parallèle de ces projet, les inégalités sociales sont bien plus grandes dans ces pays, et ne cessent de s’accroitre. Pour avoir vécu quelques temps en Inde, qui fait aussi partie des BRICS, la situation réelle de la majorité de la population est loin d’être aussi enviable que certains le croient.








yvan a écrit :



Dans ce genre de luttes (déjà menée contre une centrale nucléaire au carnet dans la région) c’est un rapport de force matériel qui joue. Le reste est accessoire et tient du gagne pain de journalistes/politiciens ou du divertissement de masse molle qui n’agit jamais ni dans un sens ni dans l’autre.







Ou alors vos adversaires réussiront à vous faire passer pour une bande d’idéologues, bruyants mais minoritaires, le grand public n’entendra que les arguments favorables à l’aéroport. C’est d’ailleurs leur seule solution de sortie.



Par chez moi, il n’y a pas de projet d’aéroport ou de centrale nucléaire, mais d’exploitation de gaz de schiste. Et c’est la mobilisation citoyenne massive et très majoritairement mesurée et pacifique qui a arrêté le projet. Mais je te concède que chaque situation est unique, et la problématique des gaz de schiste avait une importance à la fois locale et nationale.








yvan a écrit :



Sauf qu’un lobbyiste est un professionnel rémunéré. Je te renvois à wikipediasur le sujet effectivement il existe une tendance qui voudrait que des citoyens organisés défendant des valeurs morales/politiques deviennent l’équivalent d’un fabriquant de cigarettes ou d’un vendeur d’armes.

C’est bien entendu complètement con ou alors lobby perd tout son sens premier (dans un couloir, dans le secret etc.).





J’ai pas le temps de parcourir toute la page wikipédia (où d’ailleurs j’ai pas trouvé la référence à la rémunération) mais les quelques bribes que j’ai lues semblent bien faire la différence entre la définition du lobby à l’anglo-saxonne, et l’interprétation française qui y associe une connotation péjorative. Comme beaucoup d’autres choses, en soi ce n’est pas mauvais, mais dans les faits, ce sont les puissances financières qui en tirent le plus d’avantages. Mais un lobby peut aussi représenter une ONG, une association de consommateur ou tout autre chose qui entend défendre l’intérêt général. Si tu prends la définition à la lettre, un lobby n’a rien de sale.







yvan a écrit :



Europe écologie les verts sont complètement marginaux/inexistants sur place.

Quand bové se déplace ya la télé mais c’est tout. Éventuellement le parti de Mélanchon avec Françoise Verchère l’ancienne maire de Bouguenais (commune de l’aéroport actuel) fait quelque chose mais sinon c’est absolument pas un mouvement animé par des partis politiques et les gens qui pouvaient en retirer des sous à part trois paysans qui ont refusé l’expropriation sinon ils ont tous pris leur blé et ça y est, il n’y a plus aucune spéculation foncière à faire.





Tu présentais les opposants comme défendant l’intérêt général, je te faisais juste remarquer que parmi eux, certains défendent aussi leur intérêt particulier, et que c’est pas seulement de l’autre côté. Je pense que vous avez beaucoup plus à gagner en adoptant une position calme, en présentant les nombreux arguments pertinents que vous avez auprès de la majorité de la population qui ne s’intéresse pas encore au projet, plutôt qu’à stigmatiser vos adversaires en les faisant passer pour des gens corrompus qui ne pensent qu’à eux. Un simple conseil d’ami…








yvan a écrit :



<img data-src=" />

Un lobby est une structure organisée pour représenter et défendre les intérêts d’un groupe donné.



Le lobbying, qui consiste « à procéder à des interventions destinées à influencer directement ou indirectement l’élaboration, l’application ou l’interprétation de mesures législatives, normes, règlements et plus généralement, toute intervention ou décision des pouvoirs publics »







Et cette définition de lobby colle exactement avec les opposants à NDDL. Ils cherchent à influencer une décision des pouvoirs politique par des interventions (manifestations, occupations, expressions dans les médias, etc…).







yvan a écrit :



Là les antis défendent l’intérêt général il ne s’agit donc pas de lobbying (je ne vois pas vraiment pour qui ils bosseraient d’ailleurs… je pense que l’ensemble du monde économique n’en veut pas des ces écolos hirsutes et de ces bouseux teigneux syndiqués)







Je suis plutôt opposé à ce projet, mais il faut pas non plus fausser le débat. Ceux qui défendent l’aéroport sont aussi convaincu de défendre l’intérêt général. Je pense qu’ils se trompent dans leurs évaluations, mais je ne mets pas en doute leur bonne foi. Dans le lot il y en a qui ont des intérêts financiers et politiques, mais chez les opposants, il y en a aussi chez Europe Ecologie/Les Verts qui y ont des intérêts politiques. C’est une confrontation d’idées et surtout de conception du monde, c’est ridicule de résumer ce débat aux méchants politiques et financiers contre les gentils citoyens.







yvan a écrit :



Il ne faut pas confondre lobby et mouvement politique, à ce tarif là les partis politiques sont aussi des lobbys ainsi que les journalistes ou les personnalités publiques dès qu’ils parlent politique et plus aucun mot n’a de sens.





Un parti a souvent un rôle de lobby, en tant que partie prenante qui peut être consultée pour prendre une décision politique. Mais il a aussi d’autres rôles. Un journaliste est censé rester impartial et objectif, et quand il parle d’un sujet, il est censé refléter tous les points de vue.








Alkore a écrit :



Ou alors passer à WP8 qui sépare les 2 sphères d’activité, pro et perso sur un même smartphone<img data-src=" />







J’avoue que j’ai suivi la sortie de Windows Phone 8 d’un peu loin, mais j’ai pas vu passer cette fonctionnalité. La session limitée à quelques applications où on peut pas accéder aux données utiliisateurs (Kids Corner) oui, une séparation perso/pro, je veux bien que tu me donnes un lien, j’ai rien trouvé là-dessus dans les archives de news WP8 sur PCI.


C’est évident qu’ils vont pas sortir une machine de course à plus de 1000€ destiné au gars qui veut jouer avec tous les paramètres au maximum sur le dernier gros jeu. L’intérêt principal d’une SteamBox, c’est que ça simplifierait la vie des gens qui veulent s’acheter un PC pour jouer. Actuellement, pour un néophyte, savoir si tel PC va pouvoir faire tourner le jeu qu’il veut, c’est loin d’être simple. “Alors pour ce jeu, il faut minimum une Geforce 8800 GT. Donc moi j’ai une Geforce GT 120, c’est plus ou moins puissant ? Aucune idée, il faut aller voir sur Internet. Ah, GT 120 c’est deux générations après la série Geforce 8000, donc c’est bon”. Raté…



A mon avis, leur SteamBox sera un PC tout ce qu’il y a de plus classique, avec un OS dérivé d’Ubuntu où Steam sera préinstallé et livré avec une manette de jeu. D’un côté, les développeurs de jeux, quand ils feront leur version Linux, l’optimiseront pour le hardware de la SteamBox et pour l’interface à la manette (donc sans les truc du genre UPlay et compagnie). D’un autre côté, les constructeurs de PC pourront utiliser un label “compatible SteamBox”, qui permettra au consommateur de savoir facilement quel jeu peut tourner sur sa machine.



Dans un premier temps, je pense pas que ça ira chercher bien plus loin. Leur but c’est de simplifier le jeu sur PC pour pouvoir attirer de nouveau clients sur Steam, y compris ceux qui jouent sur des PC Windows qui seront commercialisés par d’autres. Par contre pour l’avenir, les gens de la R&D chez Valve travaillent sur de la réalité augmentée. On sait ça via plusieurs sources dont récemment un économiste qui a été embauché chez Valve qui l’évoque sur son blog (oui ils ont un économiste qui travaille sur les échanges de biens dans leurs mondes virtuels <img data-src=" />). S’ils se mettent à produire du hardware, ils peuvent aussi produire des accessoires différents qui ajouteraient une plus-value dont on ne connaît rien pour l’instant.



Dans tous les cas, leur succès va dépendre principalement du soutien ou non des autres éditeurs, parce que c’est les jeux qui font tout. Mais vu comment Gabe parle de Microsoft et d’Apple, ils vont tout faire pour que ça réussisse, parce qu’ils considèrent que leur survie à moyen terme en dépend.

Ce mec est comme la plupart des gars qui bossent pour des instituts ou des cabinets d’analyses et qui s’expriment dans les média, il cherche à faire parler de lui pour rapporter des clients à sa boîte, et c’est à peu près tout. Il n’a pas plus de crédibilité qu’un autre sur ses prédictions. Que Nintendo ne soit plus un acteur important du marché du jeu vidéo dans quelques années, alors qu’en plus d’être le premier constructeur de console, c’est aussi le premier éditeur de jeu, c’est juste une grosse connerie.



Pour ce qui est du multijoueur payant, à l’époque du Free-to-play, je veux bien voir ça. Le modèle de WoW a bien fonctionné, mais peu voire aucun autre jeu n’a réussi à trouver son public avec le même modèle.



Le seul point où je le rejoins, c’est que tous les jeux seront aussi disponibles en téléchargement d’ici quelques années. C’est déjà le cas sur la Wii U (alors que Nintendo était le plus en retard sur ce marché), ce sera aussi le cas avec les prochaines consoles de Microsoft et de Sony.







Nathan1138 a écrit :



Tu ne seras pas le vrai maire de la ville. Tu géreras juste les affaires courantes <img data-src=" />







<img data-src=" /> <img data-src=" />








psikobare a écrit :



nintendo se fait prendre à sons propre piège



[…]



le problème c’est que la wii U n’est pas en mesure de rivaliser avec la x360 ni la ps3, et ne sera carrément pas dans la même cour lors de la sortie des nouvelles consoles de sony et ms

tout en ne proposant absolument rien de transcendant par rapport à la wii U (je doute que qui que ce soit n’ayant pas d’actions chez nintendo puisse dire que la manette mal foutue de la wii U apporte quoi que ce soit)

pas de killer feature



et on le voit bien

400k wii U et 300k wii vendu dans le même laps de temps, quel lancement raté! il s’en ai fallu de peu pour que la wii se vende plus que sa grande soeur



je pense que nintendo fait une grande erreur







En même temps, difficile de vendre plus de consoles que ce qui est disponible… La console étant en rupture de stock, ils ont simplement tout vendu.



Moi je dis que Nintendo a de grandes chances de réussir son pari avec la Wii U. Pour la prochaine génération de consoles chez Sony et Microsoft, les coûts de développement des jeux vont encore doubler, donc à moins que les jeux soient vendus plus cher, il faudra qu’ils en vendent en gros de fois plus pour être rentable. Or, en début de vie d’une console, le parc installé est extrêmement faible, et ça va être très dur de faire des ventes qui excèdent les 2 millions de copies sur des parcs si petit. Donc qu’est-ce qui va se passer ? Les éditeurs vont développer des versions qui tournent sur PS360 parce que c’est là qu’ils pourront faire des grosses ventes, et si le parc installé de Wii U est suffisant pour que le portage soit rentable, ils sortiront aussi une version Wii U. On en a déjà quelques indices avec les moteurs de jeux destinés aux consoles de prochaine génération qu’on nous montre ces temps-ci, et qui sont pensés pour tourner aussi sur PS360. Et je pense que ce phénomène risque de durer assez longtemps.



Si elle réussi à décoller assez rapidement, on aura au moins tous ces jeux là qui seront à la fois sur la génération actuelle et la génération suivante. Sans compter les jeux indépendants, puisque Nintendo a des conditions très avantageuses pour eux maintenant, et la Wii U accueillera certainement aussi certains jeux pour tablette grâce à son écran tactile.



Pour la suite, je pense qu’elle a plus de chances que la Wii de durer longtemps. La Wii est une Gamecube à peine overclockée. La Wii U est capable de sortir une image en gros équivalente à la génération actuelle pour un portage bâclé, tout en gérant un second écran, dont l’image doit en plus être compressée et envoyée. Je serais pas étonné que certains développeurs tiers demandent à pouvoir se passer de ce second écran à gérer pour rediriger toute la puissance de calcul vers l’affichage principal. Aucune chance que ça comble son retard sur ses futures concurrentes, mais ça permettra peut-être de porter un jeu sans trop perdre en qualité, alors que ça serait plus possible de le faire tourner sur la génération actuelle.



Et puis il faut aussi voir que Nintendo a toujours eu un rythme de sortie d’une nouvelle console tous les 5 ans. Il y a que la Wii qui en aura duré 6, et ils ont attendu pour se positionner au mieux par rapport à la concurrence, mais dans les faits ils ont arrêté de supporter la Wii il y a un an, en gros avec Zelda. Donc on pourrait avoir une nouvelle console Nintendo pour Noël 2017. La concurrence ne va dégainer qu’au Noël 2013 au mieux, et soit ils vendent pas trop à perte et l’écart technique avec la Wii U ne sera pas faramineux, soit ils font comme la dernière fois et ils vont avoir besoin d’une durée de vie de 7 à 8 ans pour pouvoir retrouver leurs billes, donc jusqu’en 2020 au minimum. Dans les deux cas Nintendo peut s’adapter.








Industriality a écrit :



Franchement, je ne connais personne à l’heure actuelle qui envie de repasser sur BB, au contraire…







C’est aussi que beaucoup de gens n’en ont pas connaissance. Il y a encore peu de temps, tu me parlais de BlackBerry, ça me donnait aucune envie. Et puis j’ai vu le Hands on de Engadget sur BB10. Et maintenant, je suis convaincu qu’ils ont une vraie carte à jouer, avec énormément de points forts, surtout pour l’entreprise, mais aussi pour le grand public. En ce qui me concerne, je trouve BB10 beaucoup plus prometteur que WP8.








FelX a écrit :



Ils ont pas une sorte de partenariat avec samsung qui “devait” faire une sorte de SIII sur cet OS ?







Non, tu confonds avec Tizen, un autre successeur de MeeGo. MeeGo était à la base un partenariat Nokia-Intel, autour duquel un communauté de développeurs indépendants s’étaient créée. Quand Nokia s’est retiré, Intel a créé un nouveau partenariat avec Samsung pour travailler sur Tizen, en reprenant une partie du travail effectué sur MeeGo, mais en se concentrant sur le HTML5 plutôt que sur Qt, le framework poussé par Nokia.



Les développeurs indépendants ayant été échaudés par le fait que le retrait d’une entreprise puisse causer autant de dégât ont préféré créer leur propre projet, Mer, plutôt que de contribuer à Tizen. Et eux ont souhaité garder Qt en tant que framework de prédilection. Là dessus, une grande partie des développeurs de MeeGo chez Nokia qui avaient quitté l’entreprise suite au changement de stratégie, et se sont retrouvé chez Jolla, fondée par des anciens de chez Nokia, pour développer Sailfish en se basant sur Mer.



Voilà pour la petite histoire. C’est tout simple au final <img data-src=" />








ActionFighter a écrit :



Moi je trouve ça pas mal pour une première présentation. Laissons à Jolla le temps de peaufiner un peu l’UI.







Ben disons qu’ils arrivent avec énormément de retard quoi… Le N9, dont l’OS est le meilleur OS smartphone encore à ce jour en ce qui me concerne, est déjà arrivé avec au moins un an de retard pour pouvoir s’imposer. Il devait sortir en 2010 au départ, mais il était pas prêt. Sans parler des conditions dans lesquelles il est sorti, mais c’est un autre sujet.



Pour s’imposer aujourd’hui, surtout quand on est une startup qui a pas beaucoup de moyen, il faut proposer quelque chose de différent et de plus efficace. Oui il y a des choses intéressantes dans Sailfish, mais est-ce que ça va suffire ? La première fois que j’ai vu une vidéo de MeeGo Harmattan, je me suis dit : “Waouh, il me faut ce téléphone”. Là, j’ai pas eu cet effet.



Après, comme ils sont encore relativement loin de la commercialisation, ils gardent peut-être des cartes dans leurs manches pour pas se faire piquer leurs idées révolutionnaires, au final ils ont pas montré grand chose pour l’instant, seulement leur interface tout en verticalité, et les applications d’appel et de multimédia. Ils réservent peut-être la fonctionnalité qui tue pour plus tard, on peut toujours rêver. Mais leur approche de développement ouvert me ferait dire que c’est pas le cas.


Quelques vidéos de prise en main, c’est plus clair qu’une simple vidéo de présentation :

youtube.com YouTube

youtube.com YouTube



L’OS semble intéressant, mais ça manque clairement d’identité propre et d’un concept révolutionnaire pour pouvoir percer à mon avis. Mais c’est que le tout début, ils viennent de présenter leur travail, ils peuvent encore changer pas mal de choses.

Le software de la Wii U n’était simplement pas prêt pour le lancement, mais ils se devaient de lancer la console pour Thanks Giving aux Etats-Unis. S’ils attendaient plus, ils n’auraient pas eu le temps nécessaire pour prendre de l’avance sur les consoles concurrentes qui arriveront certainement l’année prochaine, au moins pour l’une d’entre elle.



Par exemple, pour jouer à la console virtuelle, il faut redémarrer en mode Wii, c’est pas directement accessible depuis l’OS de la Wii U. Ce qui fait qu’on peut jouer uniquement sur la télé avec une wiimote, pas sur l’écran de la manette. A mon avis, ils ont fait au plus simple pour le lancement, et quand ils ajouteront les jeux Gamecube en dématérialisé, ils sortiront la version Wii U de la console virtuelle. Et les mises à jour viendront corriger les défauts de départ, comme ça a été le cas chez Sony et Microsoft.

La machine est quand même vendue à perte (une première pour Nintendo), donc son hardware doit pas être trop à la ramasse. Elle est censée afficher du 1080p sur la télévision et du 480p sur l’écran tactile, en compressant cette seconde image pour la transmettre en WiFi, et le tout à 60 FPS sur les deux écrans avec une seule image de décallage pour l’écran de la manette. Elle réussi à faire tourner des jeux de la même qualité visuelle que sur PS360, à la différence que ces consoles là ne sortent que 720p sur un seul écran, qui est souvent calculé dans une résolution inférieure puis subit un upscale, et qui tourne à 30 FPS.



D’ailleurs je serais curieux de savoir à quoi pourraient ressembler les jeux si elle n’avait pas à gérer ce deuxième affichage. Ca me parait peu probable que Nintendo autorise les éditeurs tiers à couper le second écran pour rediriger toute la puissance de calcul sur la télévision, mais je suis sûr que certains développeurs vont le demander une fois que les consoles concurrentes seront sorties.







wanou2 a écrit :



Je ne vois pas trop le problème.



Quelle est la différence entre le retrait des billets diffamatoires d’un blog et le retrait de la distribution d’un périodique avec un article présentant des propos diffamatoires ?



Ou encore la différence entre la saisine par la justice d’informations concernant un individu chez Google et cette même saisine dans une banque ou un club de sport ?



En fait, ça fait chier Google d’être auxiliaire de justices (comme peut l’être tout à chacun) et veut se soustraire des lois. En gros, ils veulent faire ce qu’ils veulent sans en répondre à personne en faisant passer des choses normales pour une “inquiétante montée des surveillances gouvernementales”.



Le plus absurdes c’est que dans le cas de fausses demandes, ils n’iraient même pas prévenir les justices de différents pays non ils se contentent de ne pas donner suite…



Edit : correction de phôtes







Exactement. J’ajouterais que dans les démocraties, le pouvoir exécutif et le pouvoir judiciaire sont indépendants. Parler de requête d’un “gouvernement” suite à une décision de justice, ça n’a juste aucun sens.


Je viens d’installer, ça fonctionne correctement. A mon avis, le contournement possible de la beta fermée est tout à fait intentionnel. Une manière de laisser les gens tester sans s’engager en terme de qualité, puisque le terme Beta est aussi utilisé sur des produits qui sont assez stables pour être utilisés (genre Gmail qui est resté en beta plusieurs années). Là c’est une vraie beta pleine de bugs, ils voulaient pas que les gens se jettent dessus et viennent se plaindre ensuite, tout en permettant à ceux qui le veulent vraiment de tester par une petite manip non officielle. Je trouve ça plutôt malin de leur part.



Par contre, impossible d’installer Team Fortress 2 en ce qui me concerne. Il n’est pas présent dans la liste de mes jeux (pas uniquement mes jeux Linux, il n’est pas dans mes jeux tout court, alors qu’il est installé sur la version Windows). Quand je lance la commande “steam -dev steam://install/440”, ça me répond que le serveur est trop occupé. Ca m’étonnerait pas que ce soit une limitation du fait que je n’ai pas de compte éligible à la beta… dommage… Je ferais un autre essai plus tard, mais j’ai pas grand espoir que ça fonctionne.



A part ça, World of Goo fonctionne bien. J’espère que les autres jeux des Humble Bundle arriveront vite. Ils sont tous disponibles à la fois sur Linux et sur Steam Windows/Mac, donc espérons que ça arrive vite. Par contre, si on passe l’interface en français, il y a certaines chaînes de caractères qui n’apparaissent pas, donc il vaut mieux le laisser en anglais. Le mode Big Picture est sympa, encore un peu jeune, mais ça m’a l’air prometteur.

Pour ceux qui ont déjà Team Fortress 2 installé sous Windows, il est pas nécessaire de télécharger tout le jeu de nouveau. On peut lancer le téléchargement sous Linux, puis quitter Steam, copier les fichiers .gcf de la partition Windows vers l’installation Linux et ensuite relancer Steam, qui téléchargera les fichiers manquants. En tout cas, ça marche pour passer de la version Windows à la version OSX, donc a priori idem pour Linux. Je testerais ça ce soir.







ssojjj a écrit :



Bein oui. ça me choque pas plus que ça.



Les opérateurs sont distincts techniquement, donc les problèmes peuvent être liés à une partie logicielle de l’un ou de l’autre…



T’as jamais entendu dire : ça marche pas chez Free alors que ça marche chez Orange ? Pourtant, c’est le même réseau (à 90%).







Sosh et Orange sont distincts uniquement sur la partie commerciale : boutiques, service client, site web (et encore, la gestion du compte se fait depuis le site Orange). Mais sur la partie technique, c’est la même chose. Sur mon téléphone, j’ai “Orange F” comme nom d’opérateur, bien que je sois chez Sosh. Chez Free, même que tu sois dans une zone non couverte par leur réseau propre, tu as quand même “Free” comme nom d’opérateur.