votre avatar Abonné

Citan

est avec nous depuis le 17 mai 2005 ❤️

4446 commentaires

Le 17/12/2013 à 13h 04







Lafisk a écrit :



je me posais la même question, ça me parait vraiment léger quand on sait que la plupart des apps sur tablettes vont utiliser internet etc… donc du trafic, il y en a, par contre c’est l’utilisation des browsers qui doit diminuer





En fait perso je visais plutôt les innombrables usages du pc poussés par une connexion permanente (avec le téléchargement en haut de panier) et les usages professionnels.



Je n’avais pas du tout considéré toutes les connexions “in app” des tablettes, tu as raison cela doit représenter un volume non négligeable également. <img data-src=" />


Le 17/12/2013 à 11h 04

“Le trafic global d’internet”, faut-il comprendre par là “trafic global sur protocole www” (&gt;&gt; surf web) ? Ou trafic tout confondu, auquel cas entre le mail, le ftp, les torrents, vpn, streaming etc etc, cette stat n’a absolument rien d’étonnant, les tablettes étant généralement en connexion limitée (wifi chez soi, éventuellement 3G en mobilité) quand les pc ont une connexion permanente.



Sinon pour la domination Apple / Android, très différente des parts de marché, je l’expliquerais par…




  • Apple arrivé premier sur le marché, seul pendant deux ans &gt; encore une bonne avance je crois sur le taux de possession.

  • Peut-être plus d’Apple users disposant d’un abonnement illimité, voire d’une carte 3G dédiée à la tablette.

  • Énormément de tablettes Android ne sont pas utilisées pour le surf, soit qu’elles n’aient pas été achetées dans cette optique (GPS, station vidéo pour soi/les mômes, liseuse), soit qu’elles soient trop limitées pour ça en puissance/résolution (noublions pas l’invasion des tablettes à &lt;200 euros, qui ne ressemblaient à rien jusqu’à mi-2012).



    My 2 cents… <img data-src=" />

Le 17/12/2013 à 12h 08

Vous ne devriez pas prendre la peine de répondre au troll de Boglob, même pas une tentative de le rendre drôle ou efficace. <img data-src=" />



Je plussoie Metaphore, les éditeurs indépendants ont pris une grande place et ce n’est pas plus mal. On assistait ces dernières années à la corruption des grands éditeurs par l’esprit de cupidité des pires financiers, or ils étaient les principaux pourvoyeurs de notre dope. <img data-src=" />



La montée en puissance des indé signe un retour vers la créativité comme moteur de conception du jeu, et ça fait franchement plaisir. Même s’il faut pour cela subir aussi l’accroissement de jeux moisis ou juste pas finis, qu’on veut nous vendre plein pot d’entrée, ça reste (pour l’instant) un cas minoritaire…<img data-src=" />



Et ça a permis l’apparition de nombreuses pépites (Monaco, Dust, Expeditions: Conquistador, Frozen Synapse, Magicka, Payday, j’en passe et des meilleurs)… <img data-src=" />







Delqvs a écrit :



Un monopole s’éteint, un être s’éveille. <img data-src=" />



Merci Steam en passant, en fournissant une plateforme commune aux indés et aux éditeurs en place, il leur a donné une sacrée visibilitée.





Certes Steam est le principal moteur et l’initiateur du mouvement, mais il faut reconnaître tout de même l’influence qu’ont eues un certain nombre d’initiatives menées en parallèle, genre GOG, HumbleBundle sur PC, les WiiWare PSN &co sur les consoles dans un deuxième temps.



Je pense que l’explosion de la pratique du jeu flash n’est pas non plus étrangère, de même que la génération du casual gaming qui a permis l’essor de jeux simples et rapides à jouer, assurant le financement de jeux plus complexes… <img data-src=" />



N’oublions enfin pas la politique de merde DRM d’un côté (gros éditeurs), contre politique ouverture/multiplateforme de l’autre (indépendants).



Tout ça bout à bout a généré la vague actuelle ! <img data-src=" />


Le 17/12/2013 à 10h 04







Ramichou a écrit :



Ca reste une donnée à nuancer. Dans le cas de cette ville, la migration s’est bien déroulée, et atteint donc l’objectif d’économies, maintenant, si tu as :




  • Des applis desktop windows uniquement

  • Des applis web IE uniquement

  • Des utilisateurs qui grognent dès qu’on souhaite touches à leur outil de travail

    Alors, ca pourrais moins bien se passer.



    Bref, suivre l’exemple, oui, mais surtout pas aveuglément !





    Anéfé, mais tu ne fais au final que rappeler une règle basique de tout projet d’évolution : examiner les besoins et contraintes de départ, projeter ce qu’on peut avoir à l’arrivée, et tracer le chemin optimum en fonction de ses priorités et de ses moyens.



    Dans les faits il sera sans doute impossible d’atteindre 100% de libre, même dans les administrations. Mais à qualité égale, plus il y a de libre, mieux c’est.



    D’ailleurs, je tire mon chapeau à Munich pour avoir réellement compris l’esprit du libre, en partageant leurs ressources LibreOffice.

    Je soupçonne qu’énormément d’administrations et d’entreprises utilisent des logiciels libres sans jamais faire cet effort, c’est dommage parce que cela constitue un très bon moyen de promotion aussi (surtout pour le cas particulier de LibreOffice, le manque de modèles esthétiquement corrects en out-of-the-box est bloquant pour beaucoup de gens).


Le 17/12/2013 à 09h 57







Anna Lefeuk a écrit :



Nos mafieux au pouvoir, oublierons de citer cet exemple allemand à importer “C’est allemand, donc faut faire pareil, surtout quand il faut attaquer les droits de la majorité.

Mais j’ai entetndu dire que le gouvernement dans la bouche de Naja B. aller faire passer une nouvelle loi morale (car plus urgent que ce truc du chômage et du pouvoir d’achat) à savoir d’interdire la Levrette car jugé dégradant pour pour la condition féminine (projet de loi qui a déjà le soutien des chiennes de Garde et des associations anti-quenelle)





Je sais bien que c’est une grande gueule cette fille, mais de là à y mettre tout le gouvernement, je crois que tu exagères un peu…<img data-src=" />



Sinon, bravo à Munich pour cette migration, malgré un processus houleux (dû notamment au lobbying de Microsoft, qui avait réussi à Berlin).

Passer à du tout libre ce n’est pas donné, peut éventuellement provoquer des pertes de cheveux prématurées, mais c’est comme s’assurer au maximum l’indépendance énergétique ou agricole, faut le faire, point barre. <img data-src=" />


Le 17/12/2013 à 09h 50

Se rend-elle compte, la ministre des droits de la femme, qu’elle nuit bien plus considérablement à l’image de la femme auprès des hommes “indélicats”, qu’à peu près toute blague sexiste possible ?



Une des bases du “machisme” étant de considérer la femme comme incapable de réfléchir, faire preuve d’une telle vacuité intellectuelle est vraiment contre-productif.



Entre elle, l’autre fourbe qui faisait style de s’intéresser au Net pour mieux asseoir sa carrière ou encore “miss anéfé”… Heureusement que beaucoup d’hommes politiques sont aussi gerbants, prouvant ainsi que ce n’est pas une question de sexe mais de choix de carrière reflétant des valeurs “particulières”, sinon je serais depuis longtemps (re?)devenu un macho primaire.<img data-src=" />



Et le Sénat aussi, sans déconner, ils ont décidé de parier sur le nombre de lois liberticides et crétines qu’ils pourraient faire adopter avant le 31 ou quoi ? <img data-src=" /><img data-src=" />



Après “attrapez-les tous”, je propose… “Virez-les tous” (j’aurais même proposé une méthode plus sûre, mais il paraît que ça se fait pas en démocratie<img data-src=" />).

Le 16/12/2013 à 16h 32







noraj a écrit :



un Fzero modable en somme <img data-src=" />





Voilà <img data-src=" /> bien résumé ! <img data-src=" />





Zergy a écrit :



Et à 60 FPS stable surtout bon dieu ! (Oui, comme GX quoi), en 720p sur c’est pas stable en 1080p, mais pas de jeu mou du genoux en 30 FPS. <img data-src=" />

Le segment du jeu de caisse mou et chiant avec des adversaires cons comme des huîtres étant déjà occupé par Gran Tourista Tourismo. <img data-src=" />





Cela va sans dire…<img data-src=" />



EDIT : Par curiosité, j’ai cherché s’il existait une pétition… Il y en a bien une… Qui atteint 750 signatures ! <img data-src=" />

Levez-vous mes frères, le rassemblement approche, la victoire est à portée… <img data-src=" />

(sérieusement, c’est pitoyable, je m’attendais pas à un truc mirobolant, mais au moins quelques milliers de signatures… À croire que tous les fans de F-Zero s’en branlent en fait).


Le 16/12/2013 à 15h 48







5h31k a écrit :



Je ne veux pas que Nintendo sorte des jeux de façon à sortir des jeux. Chaque jeu doit être voulus (pas de viol !) et surtout consentis par les fans.

Lorsque en face, nous avons chaque année un CoD ou un Fifa qui n’est que le même que l’année dernière sauf les persos principales (+ menu d’écran titre différent !), je crie au viol. Je ne veux pas que Nintendo fasse ça et j’espère qu’il(s) ne le fera(ont) jamais !





Certes, mais ce qui me fait doucement rire, c’est qu’au final ils ont sorti les New Super Mario Bros, qui sont unanimement reconnus comme de très bons jeux, sans être révolutionnaires en quoi que ce soit (à si, des graphismes HD et un Mario géant/minus, supeeer).

Donc l’argument “on veut pas développer par manque d’idées innovante”, voilà quoi…



En plus pour un jeu de courses il est effectivement plus dur de trouver des idées innovantes de gameplay, si l’on considère tout ce qui a été fait tous éditeurs confondus.



Mais rien que s’approprier, chez Nintendo, des concepts vus dans d’autres jeux en les améliorant… Vu le souci de qualité qu’ils ont généralement, ça pourrait déjà bien donner matière… Éditeur de niveaux, multijoueurs en ligne, système d’armement dans un mode de jeu dédié (je sens déjà les puristes me tomber dessus <img data-src=" />), jouer avec des effets environnementaux (genre gravité qui change d’orientation, visibilité ultra réduite), l’évolution du tracé en fonction des actions des pilotes voire d’intervenants extérieurs, améliorer encore les possibilités de personnalisation du véhicule, des défis pour récompenses supplémentaires, un système de stats pour le pilote…



Effectivement tout ça n’a rien d’innovant, et la difficulté est de ne pas partir dans tous les sens, à fortiori pour un jeu centré sur le pilotage brut. N’empêche que ça pourrait faire un grand jeu (cf les New Super Mario, et même le nouveau World qui n’a rien de folichon niveau innovations - youpi 3 costumes - mais unanimement salué pour la réussite de son level design). <img data-src=" />



EDIT : En fait, personnellement, un FZero-GX jouable sur les consoles récentes (ou mieux sur PC on y croit), en multijoueur local/online, avec éventuellement de meilleurs graphismes mais SURTOUT des circuits supplémentaires ET un éditeur de circuits à partager sur le net, ça me suffirait totalement ! <img data-src=" />


Le 16/12/2013 à 14h 47

Allez hop, c’est parti pour la fête du quote dans mes 5mn de pause. ;)







dodo021 a écrit :



Tu oublies de dire que Nintendo ne s’adresse pas seulement au “vieux” gamer mais aussi au nouveau.

Les nouveaux joueur s’en fiche de savoir qu’avant il y a eu le même gameplay sur Mario 64 ou SMB vu que leur premier Mario c’est ceux qui sont sortis sur Wii ou Wii U. Pareille pour les Zelda etc.

C’est sur que si tu es un fan et que tu as joué à ça depuis petit, tu peux te dire que c’est toujours la même soupe. Mais pour un nouveau joueur c’est juste une fantastique aventure dans un monde très bien réalisé.





Ben, c’est pourtant bien ce que je dis, quand je parle de l’image forte de Nintendo qui lui permet de toucher le grand public, soit les gens qui ne s’intéressent pas par eux-mêmes au jeu vidéo, à fortiori donc ceux qui débarquent… <img data-src=" />





Edtech a écrit :



Je ne suis pas d’accord avec ta logique. Regarde Bravely Default : Studio complètement inconnu (Silicon Stduio) et pourtant un succès phénoménal (et ne me dis pas que c’est parce que SquareEnix édite !).



Donc le meilleur moyen de se faire connaitre et de vendre, c’est de faire un BON jeu !





Et pourtant…





Bhaal42 a écrit :



Avant que tu ne me le dise, je savais même pas que c’était un jeu d’un petit studio, je croyais que ça venait du studio main de SE.

Si BD s’en sort bien, c’est pce que SE a mis le max sur la com au japon et a l’international.





Voilà, on en revient exactement à ce que je dis : l’éditeur a les moyens (ici, par l’intermédiaire de son producteur) de faire de la grosse com’. À fortiori quand c’est Square qui n’est ni petit ni débutant. Rien que les pubs TV dépassent déjà largement les moyens com’ du petit indépendant. Même la com’ sur internet, passé une certaine échelle, demande des moyens. Heureusement sur internet un bon jeu se verra bien relayé uniquement par le bouche à oreille, mais là encore essentiellement auprès des communautés joueuses, peu au niveau grand public sauf rare cas.

Par ailleurs, tu parles de gros succès, ok c’est un succès critique, et j’espère pour eux un succès commercial. Cependant il y a un monde entre succès commercial “hardcore gamer” et succès commercial grand public. J’ai peur que Square n’atteigne pas le deuxième stade, mais c’est tout le mal que je leur souhaite. Bref, vivement les chiffres de vente au bout de 6 mois. <img data-src=" />





5h31k a écrit :



Sur Wii je ne sais pas, mais sur WiiU un jeu que j’ai acheté pour “passer le temps” et qui a été une (très) bonne surprise est Rayman (30€). Durée de jeu très longue, possibilité de jouer avec des amis dont la co-opération sert réellement (et pas juste pour faire décor), des décors beaux, du super son et une rigolade à plusieurs lors des niveaux de courses ;-)

A côté de ça, j’ai aussi acheté les Lapins Crétins (20€) et franchement je suis déçu. Le jeu est drôle en soit mais les midi-jeux sont très peu nombreux et répétitif (3 niveaux d’IA dans un même mini-jeu = 3 mini-jeu différent pour Ubisoft).



Veux-tu vraiment un F-Zero 3D parce c’est hype d’être en 3D ? moi non.





Je veux un F-Zero parce que, épisodes Gameboy mis à part (je les connais pas), chaque opus était une ode à la qualité de pilotage du joueur, servie par une réalisation technique impeccable et une difficulté à vomir son estomac de frustration (seuls des asiatiques pouvaient survivre aux ultimes défis du GX <img data-src=" />).





Lafisk a écrit :



Il y en a déjà un sur gamecube …





En fait, je crois qu’il voulait dire F-Zero en vue en trois dimensions sur 3DS… <img data-src=" />


Le 16/12/2013 à 13h 36







noraj a écrit :



Ca me fera toujours rire les gens qui trouvent que nintendo recycle ses licences sans arrêt.

Jusqu’a preuve du contraire ca doit être une des seules boites qui fait ca qui n a sorti que des bonnes suites. Le jour où ces suites ne seront plus bonnes vous pourrez râler <img data-src=" />





Je suis plutôt d’accord avec toi, mais je nuancerais néanmoins vu l’évolution de ces dernières années…




  • Marios en 2D façon gros recyclage (‘tention hein, c’étaient de bons jeux, je les ai bien aimés, mais 0 réelle innovation dans les mécanismes de gameplay contrairement à Galaxy par exemple).

  • Zelda, perso j’ai aimé à peu près tous les opus, mais beaucoup de fans dans mon entourage décrient l’évolution de la franchise tant sur l’univers que sur le gameplay. Je n’ai pas joué à ceux sortis après Twilight Princess ceci dit.

  • Licences phares inexplicablement ignorées depuis deux générations sous le prétexte fallacieux de “manque d’idées” (F-Zero, on t’aime…).





    Bhaal42 a écrit :



    C’est le probleme avec les console Nintendo. Tout le monde dit qu’il n’y a que du Mario/Zelda/Pokemon, mais quand des licences tiers sortent, personne ne les achetent.

    Je peux facile citer une 15aine de bons jeux sur Wii qui ne sont pas du Nintendo “classique”





    Le souci, c’est que la marque Nintendo, c’est un gage de qualité (justifié dans 95% des cas) dans l’esprit des acheteurs. Et vu qu’ils utilisent toujours les mêmes univers ils sont identifiables immédiatement.

    Ce n’est pas uniquement par flemme que Nintendo réutilise systématiquement les deux trois univers archi-connus pour faire des jeux, même innovants sur le gameplay…



    Aucun éditeur tiers n’a à ma connaissance réussi à construire une image aussi solide auprès du grand public. Si on y ajoute la quantité invraisemblable de merdes sorties sur la console par des éditeurs peu scrupuleux…

    L’éditeur qui sort un bon jeu doit lui 1) se faire connaître du grand public au milieu des dizaines d’étrons 2) convaincre de la qualité de son produit. Pour ça, il a essentiellement soit les moyens marketing, soit le bouche à oreille… Qui fonctionne auprès des connaisseurs (quelques % du marché), rarement auprès du grand public.



    D’où grosses difficultés pour beaucoup… Ce n’est d’ailleurs pas pour rien que les indé se tournent vers le démat : le marché n’est pas plus gros, voire moins, mais constitué majoritairement de gens qui se renseignent par eux-même, et coûte beaucoup moins cher à la distribution.


Le 16/12/2013 à 13h 25







jeje07 a écrit :



on est plusieurs a avoir expliqué que le priorité pour les gens c’est souvent d’avoir un grand écran. Après blu ray ou DVD, pas mal de gens s’en moquent et ne savent meme pas ce qu’apporte le blu ray.

je connais des personnes avec un joli écran plat HD dans le salon et un lecteur DVD….. et pourtant des gens qui ont largement les moyens de s’acheter un lecteur blu ray a 100 euros…..



quant a dire que l’intéret d’un blu ray est limité sur tel ou tel film, désolé mais c’est n’importe quoi….. ce n’est pas parce que tu n’aimes pas certaines catégories de films qu’il faut les dénigrer pour autant. Que ce soit un film d’auteur, un huis clos, un film d’action, le JT, un documentaire, du cirque, intervilles, des concerts, master chef ou tout ce que tu veux, la HD et le blu ray apportent toujours un énorme gain qualicatif.



….





Tu devrais vraiment apprendre à lire…

Je n’ai pas dit… “Le Blu-ray n’apporte aucun gain qualitatif”.

J’ai dit… “La plupart des gens ne voient pas l’intérêt de payer beaucoup plus cher au vu du gain apporté”.

Si tu n’es pas capable de saisir la nuance, il est inutile de poursuivre la discussion. <img data-src=" />





gavroche69 a écrit :



C’est toujours pareil, tout dépend de l’usage et des exigences…

Ripper un BR ça peut prendre jusqu’à une 12 heure et alors ?

Sauf à acheter 10 BR/jour je trouve que ce n’est pas catastrophique quand on a à traiter 1 ou 2 BR/mois et après sur un bon HTPC c’est que du bonheur, tu choisis ton film, tu le lances sans bouger de ton canapé…

D’ailleurs un HTPC c’est fait pour ça, pour lire des vidéos sous forme de fichiers…





Une demi-heure ? Non seulement ce n’est pas catastrophique, mais c’est même top !! Je m’attendais à ce que tu sortes genre “2 heures”.

Par curiosité, tu as un proc au top ? Un SSD ? Un soft multi-threadé ? Les trois à la fois ?





RisingForce a écrit :



Linux sur tous mes PC mais je lis sans trop de difficulté tous les Blu-Rays avec VLC:

lien<img data-src=" />



Cela dit, en général je ne mets qu’une fois le BR dans le lecteur, un coup de makemvk (dispo pour tous OS), et j’ai un chouette mkv de qualité (de 30-35Go) avec les pistes audio et les sous-titres que j’ai choisis pour remplir mon NAS.<img data-src=" />





Merci beaucoup pour les liens, je vais consulter ça avec attention ! Je boycotte les BLu-ray depuis qu’ils ont décidé de les rezoner, et vu que c’était la misère sous Linux. Je n’avais pas suivi l’évolution depuis 2-3 ans, ça va peut-être me réconcilier avec le format. <img data-src=" />


Le 16/12/2013 à 13h 03







jeje07 a écrit :



oui un blu ray est plus cher qu’un DVD, ca parait assez logique. T’as pas inventé l’eau chaude hein.



et si quelqu’un n’a pas les moyens d’acheter un blu ray, je pense qu’a un moment donné il faut vivre selon ses moyens et qu’il ne fallait pas acheter un écran 50 pouces a confo en payant en 20 fois avec un crédit a 20%

tout ceux qui ont un écran plat ont les moyens d’acheter quelques blu ray par an, faut pas pousser. et puis y a le marché de l’occasion, la location……



quant a ton premier message qui disait qu’un blu ray vaut le coup pour un film comme le seigneur des anneaux et pas pour un huit clos, excuses moi mais c’est n’importe quoi….. la qualité HD, tu l’as partout. faut arreter de raconter n’importe quoi





Dis, tu pourrais arrêter les préjugés à deux balles sur tout et n’importe quoi ?





  1. Non, les gens n’en ont pas rien à foutre de la qualité des films (cf ton premier com’). Simplement ils adaptent en fonction de leur budget. Comme le dit celui que tu quotes, l’intérêt d’une qualité Full HD est limité pour des films centrés sur l’histoire et non sur la réalisation : pour comédies, films romantiques, documentaires, etc… La qualité DVD est largement suffisante, surtout avec le point 3 qui suit.

    Donc, quand pour un film donné, le DVD est à 5 euros max, le Blu-Ray à 15, le choix est vite fait.



  2. Non, les télévisions Full HD ne coûtent plus cher : on a des modèles à partir de 300, 400 euros. Un bon modèle en 42 coûte aujourd’hui dans les 500 euros. Donc exit ton deuxième préjugé de merde selon lequel les gens n’ont aucune logique ni raison dans leur manière de consommer.



  3. Tandis que la qualité du Blu-Ray est très variable (cf tests de sites spécialisés qui montrent qu’on a de tout, du top au scandaleux), le DVD a une qualité à peu près homogène. Qualité qui profite à fond des capacités de traitement en upscale des télévisions et platines Blu-ray, qui assurent au final un rendu très propre sur 95% des équipements. Loin de la finesse d’une définition native certes, mais tout de même très regardable. Ce qui renvoie directement au premier point : pour beaucoup de films la “perte potentielle” de qualité est négligeable.



  4. Le DVD se lit partout, pas le Blu-ray.



  5. Qu’ils aiment ça ou non, les gens se tournent de plus en plus vers le média numérique : beaucoup moins de place dans l’armoire, beaucoup plus pratique d’accès. De ce fait, les téléchargements de toute nature grignotent le marché physique.



  6. Non, on ne trouve pas tout en trois clics sur internet (cf un autre de tes com’s). Qu’il s’agisse de contenus légaux ou illégaux, dès qu’on cherche autre chose que les blockbusters des dix dernières années c’est la galère, sauf à aller sur des sites spécialisés ou fouiller les vieux réseaux P2P. Et entre nous, quand ils auront compris que, pour la plupart des gens ayant les moyens, le P2P n’est pas uniquement une solution de facilité, et qu’ils déplaceront le budget “répression/lobbyisme” vers l’entrée “développement de l’offre légale numérique”,



    Parce que pour l’instant, l’offre numérique est pitoyable en termes de qualité, de choix, de tarifs et de compatibilité.



    Pour reprendre tes propres termes, “qu’est-ce qu’il faut pas lire…”


Le 13/12/2013 à 14h 44







Konrad a écrit :



Je voyais plutôt ça comme un boîtier «gamer» de bureau, mais effectivement il peut être pertinent de le voir aussi comme une console de salon. Je disais juste qu’à titre perso je le vois mal en boîtier «multimedia/TV» dans un salon parce qu’il reste assez moche.



Après chacun fait ce qu’il veut…





Clairement la cible c’est le pc de salon, mais je partage votre avis sur son esthétique (on croirait presque que c’est un archétype de geek développeur qui a été chargé du design). Après pour ceux qui peuvent le planquer dans ou derrière un meuble, si la qualité suit ça sera un des meilleurs choix !<img data-src=" />


Le 13/12/2013 à 14h 41







Shwaiz a écrit :



Parfait pour se monter un PC de salon. Mais ils auraient pu faire un effort sur le style, je le trouve pas super beau pour le mettre sous la TV….





+1 pour le style (personnellement pas fan des bandes, même si ça change du simple noir brillant) et dommage aussi pour le slot-in. Plus cher, moins de choix, un peu moins fiable sur la durée. J’aurais préféré un format standard pour le prix d’un emplacement 2,5 pouces, et là on tenait vraiment le boîtier parfait. <img data-src=" />



Avis aux amateurs parmi les constructeurs qui lisent les com’s de PCInpact (on y croit).


Le 13/12/2013 à 10h 31







Goldoark a écrit :



<img data-src=" />



Le commentaire le plus à côté de la plaque jamais vu.



Les vitres électriques sont un progrès sur les manivelles car elles vont à la même finalité : baisser la vitre, mais en plus vite et plus pratique.

Impossible de comparer ça avec le passage W7 - W8.



Tu es vraiment un arriéré. <img data-src=" />





Je ne sais pas si tu réponds sérieusement à un com’ qui était évidemment une boutade, ou si tu l’as vraiment pris au sérieux…



Pour la peine je fais pareil : oui, je milite moi aussi pour le retour aux manivelles pour baisser les vitres, moins pratique mais beaucoup plus sûr ! <img data-src=" />

(EDIT : Je suis très sérieux <img data-src=" />)


Le 13/12/2013 à 10h 03







Séphi a écrit :



Je trouve vraiment dommage la casualité imposée aux users de nos jours.

Et dans cette optique Microsoft a tenté un truc, l’idée de ModernUI était d’avoir quelque chose d’ergonomique mais pas du tout intuitif à la base.

A croire que réapprendre fait chier la population…. Je trouve ça dommage.



Plus de curiosité, plus de challenge… <img data-src=" />





Pas d’accord avec toi sur ce point non plus. À mon avis ModernUI est très facile à apprendre pour un néophyte. En revanche c’est clair pour tous les utilisateurs “casual” qui ont déjà utilisé un minimum un ordi sous Windows, c’est la misère.

Parce que, au-delà du changement d’habitude, ceux qui connaissent l’ère pré-XP3 gardent en tête l’idée selon laquelle le truc va leur péter à la tête s’ils essayent d’aller au-delà de l’usage minimum, donc ils se restreignent.

Alors qu’aujourd’hui, pour arriver à vraiment casser un Windows, faut y aller quoi… <img data-src=" /> (à part visiter une cinquantaine de sites porno+warez avec un compte admin, avec un mdp de 6 lettres, en désactivant le firewall, je vois pas…).



Même les “simples” plantages sont devenus rarissimes, sauf pilote matériel foireux.


Le 13/12/2013 à 09h 19







Séphi a écrit :



Mais pourquoi un outil quel qu’il soit devrait être intuitif ?

Justement l’idée serait de trouver le juste milieu entre ergonomie et intuitivité non ?

Justement, je trouve ça bien plus intéressant de devoir apprendre à s’en servir.

Attention, je ne parle pas d’un bordel à la manière d’un Microsoft Dynamics.

Mais apprendre à maitriser l’outil met l’utilisateur un niveau au dessus de la machine.





D’une c’est ce que je fais personnellement (du moins jusqu’à avoir atteint tous mes besoins), de deux je n’ai pas dit autre chose si tu regardes bien.





Alors qu’il est si simple de proposer une entrée de menu, dans laquelle tu indiques discrètement le raccourci clavier, ce qui permet à peu de frais de contenter tout le monde (c’est heureusement de plus en plus courant)…



Je trouve aussi regrettable que toi qu’aussi peu de gens cherchent à maîtriser l’outil informatique. Je ne vais pas leur jeter la pierre pour autant, on peut avoir de très bonnes raisons de ne pas s’y mettre, à commencer par un manque de temps inextricable (genre quand t’as &gt;3 mômes à gérer seul(e)).



Par ailleurs un outil est fait pour être utilisé, il est donc évident qu’il doit être un minimum intuitif. Intuitif ne signifie pas forcément qu’on fait tout en claquant des doigts. Mais qu’au moins on sache immédiatement où chercher une information qu’on n’a pas, et que cette source ne dépende pas de facteurs externes.



S’agissant de Windows, il s’agit de l’interface primaire entre l’utilisateur et l’informatique, et il s’adresse à des personnes très différentes en terme d’expérience. Il est donc d’autant plus indispensable pour un tel logiciel d’atteindre un haut niveau d’intuitivité. Tout spécialement vis-à-vis des néophytes ou des gens qui veulent juste utiliser. Les autres feront de toute façon tous les efforts nécessaires par eux-mêmes.

Pourquoi à ton avis Apple a cassé la baraque avec l’iPhone ? Contrôle au doigt (et à l’oeil <img data-src=" />), soit déjà la barrière de la souris en moins. Plus un certain nombre de contrôles correspondant à ce qu’on ferait en vrai avec des objets/feuilles. Bref, intuitif (bon ce n’était pas mon ressenti perso, mais je n’étais probablement pas assez néophyte <img data-src=" />).


Le 12/12/2013 à 16h 58







Séphi a écrit :



Oui mais il est désactivé par défaut, c’est pour ça que je demande.







Il existe depuis W7, les gens devraient le savoir depuis le temps non ?





Je ne savais même pas que ça existait, et pourtant mon curseur de souris se balade souvent dans le coin bas droite pour gérer les périphériques et autre…<img data-src=" />

Simplement je suis suffisamment précis (joueur inside) pour ne jamais avoir dérapé “au-delà” du bord, donc jamais eu l’occasion de découvrir.



Tu vois, c’est typiquement le genre de trucs qui m’insupportait aussi chez Apple, censément “top ergonomique et intuitif”. Des fonctionnalités utiles mais qui ne sont signalées nulle, part, ce qui fait qu’il faut soit lire le manuel (ou chercher en ligne) soit faire tout et n’importe quoi. Spécial décidace à Apple d’ailleurs pour l’impression d’écran, versatile mais paye tes raccourcis.

Ça peut être ergonomique à l’usage (chacun son goût), mais c’est absolument pas intuitif.



À ce compte là, si on part du principe que l’utilisateur doit lire et apprendre, n’importe quel environnement linux depuis 1995 est aussi un modèle d’ergonomie et même écrase les autres vu qu’on peut tout changer… <img data-src=" />



Alors qu’il est si simple de proposer une entrée de menu, dans laquelle tu indiques discrètement le raccourci clavier, ce qui permet à peu de frais de contenter tout le monde (c’est heureusement de plus en plus courant)…



Sur le point particulier des “coins” de bureau, on aime ou on déteste. Je sais que mes parents n’aiment pas car le déclenchent souvent alors qu’ils voulaient juste atteindre un menu… <img data-src=" />



Bref, intuitif =/= ergonomique.

Et à mon sens ce qui importe pour l’utilisateur peu averti, c’est le côté intuitif (ou au moins la présence permanente de repères ou d’aides).


Le 12/12/2013 à 16h 29







Lafisk a écrit :



Qu’il soit sur le bureau sous forme d’icone ou sur le startscreen sous forme de tuile, c’est la même chose sauf que pour le coup j’ai tout au même endroit.



Pour Steam, faire un clic droit ou aller dans la bibliothèque pour ouvrir ses jeux, je trouve ça bien lourd, surtout que je ne joue pas à 30 jeux différent à un moment donné, je joue à 3-4 jeux et je désinstalle quand j’ai fini.





Je ne sais pas comment ça gère sous 8 avec le MUI, mais sous 7 les trois meilleures méthodes si tu ne papillonnes pas trop sont soit de créer le raccourci bureau au moment de l’install soit d’ajouter le jeu aux “favoris” steam soit carrément épingler le jeu à la barre des tâches au premier lancement (il lance steam automatiquement si besoin je crois). <img data-src=" />


Le 12/12/2013 à 16h 13







Séphi a écrit :



L’obstacle principal c’est les devs car ils devront faire un layout par tranche de taille de tiling pour toutes les applis.





C’est vrai… Si l’on veut un truc optimum. Même problématique que pour les sites web.

Après, tu peux toujours choisir de ne supporter que certaines des tailles…



Ou pire ne pas supporter et laisser un truc fixe, charge à l’utilisateur de lui “laisser” la bonne taille (ex : je ne suis pas sûr que développer une UI à 110 du tiling total soit très utile pour un Photoshop. Sauf si on éclate les menus en plusieurs tuiles évidemment).



Mais j’admets qu’une tuile dans laquelle il faudrait scroller (soit ce qu’on a souvent actuellement en fait <img data-src=" />), c’est pas über efficace…


Le 12/12/2013 à 16h 06







Lafisk a écrit :



Ouai m’enfin c’est la version 1, faut parier qu’à l’avenir, le tiling va ce développer et permettre plus, pour moi il faudrait pouvoir en mettre 6 d’ailleurs, au moins car, autant pour un site web, une tile verticale sur toute la hauteur ça va, que d’autre tile d’app où y’a pas grand chose, la moitié de la hauteur ça suffit.



Les raccourcis sont les même qu’avant et tu as la barre de gauche qui sert de barre des tâches pour les app comme sur le desktop





Justement, je doute qu’il y ait un obstacle technique derrière. Auquel cas, pourquoi avoir introduit cette limitation ? “Bonne pratique” imposée aux utilisateurs ? Je n’arrive vraiment pas à comprendre.



Ou alors je me plante méchamment et le sujet est non trivial, auquel cas je veux bien qu’on m’explique… Parce que je ne vois pas en quoi les mécanismes changeraient fondamentalement en passant de 3 à x.



Cela étant, KDE a abandonné (pour le moment) le tiling automatique justement parce que son comportement ne les satisfaisait pas quand on commençait à accumuler les fenêtres… Donc c’est peut-être juste moi effectivement qui me plante…





kamuisuki a écrit :



Ce sont les habitudes qui sont difficiles a changer, si on part de Zéro tu peux habituer n’importe qui à WIndow 8 , Macos, distribution linux, même Haiku ou msdos si tu veux..





+1000





j-c_32 a écrit :



(j’ai pas encore lui tout les commentaires, mais jusqu’à ~100, on a pas encore vraiment répondu sur ce point)





En fait si j’avais réagi sur ce point dans un précédent commentaire, mais le tien l’explicite encore plus. :)


Le 12/12/2013 à 15h 57







Lafisk a écrit :



Pas tout à fait équivalent, tu peux séparer en trois zones. Tu peux légèrement réduire la taille de chaque zone mais bien sur le total des 3 occupe toujours la totalité de l’écran donc ce que tu enlèves à une zone, la voisine le gagne. mais déjà, avec un découpage en trois zone … tu peux en faire pas mal de chose, le gars qui me dit qu’ils regadent plus de 34 fenêtres d’un coup sur le bureau, je dirais que c’est un bon gros menteur car oui tu peux avoir 50 fenêtres ouvertes mais c’est en rien productif et c’est juste bordélique.





Ah.

Ok.

Un tiling du pauvre quoi.<img data-src=" /> (demi-<img data-src=" />).



Autant, qu’ils aient intégré la notion de tiling, c’est un très bon point ! Pour le coup, tous OS confondus, ça m’a toujours scié qu’on ait du galérer pendant des années pour combler une fonction pourtant essentielle à une interface basée sur des fenêtres. Seul le de Enlightnment sous Linux, je crois, avait exploré cette voie avec succès depuis genre 10 ans et ainsi pavé la route pour tous les autres.

Que le redimensionnement distribue automatiquement est également un très bon point.



Autant, limiter à trois, c’est vraiment… Limite justement ! <img data-src=" />

Comme dit plus haut dans d’autres commentaires, certaines fenêtre d’applis non pas besoin d’être en plein écran, mais au contraire se suffisent d’une très petite surface.



Maintenant, j’attends de tester en vrai pour voir l’équilibre et me faire une opinion ferme, parce que je suppose que les notifications intégrées doivent pallier en partie cette limite, et peut-être existe-t-il des raccourcis intelligents pour naviguer entre les fenêtres…



@arno53 : merci pour le lien, que je n’ai vu qu’après le présent post. Vais voir ça…


Le 12/12/2013 à 15h 47







DDReaper a écrit :



Quand je lis ce message, je désepere du manque de communication sur la fonction “snap” de windows 8 et 8.1

Il y a tellement de gens persuadé que les application windows 8 s’execute en plein écran alors que c’est faux :/

Ce que tu décrit tu peux le faire sans bureau avec windows 8.

sur un écran la j’ai twitter, skype et mes mails.





Ah, merci d’avoir précisé. Ça fait quatre pages que j’attends cette précision.

Du coup, si l’on peut avoir plusieurs applications/fenêtres en parallèle sur un même écran, fixes, avec choix de la taille pour chacune, j’avoue avoir un peu de mal à comprendre la levée de boucliers ?? Même si ça ne vaut pas certaines solutions poussées de DE Linux, ça équivaut à soi-même dimensionner et caler les fenêtres sous le bureau Windows classique non ?



Faudrait que je réessaye un jour Windows 8 quand même pas évident de suivre les débats sans expérience propre…<img data-src=" />


Le 12/12/2013 à 14h 35







Edtech a écrit :



Et pourtant si ! Ou alors, on fait deux choses mais mal !



Quand je regarde une vidéo, je ne chatte pas. Quand je développe, je ne regarde pas le tracker de bogue en même temps ! C’est l’un puis l’autre ! Donc que le tracker me notifie d’une erreur suffit, pas besoin de l’avoir toujours à l’écran.



Énormément de choses sont comme ça ! Pourquoi afficher tout le temps sa messagerie vu qu’elle notifie ? Pareil pour les mails, les actualités, etc. !



Bref, ceux qui disent faire plusieurs choses en même temps ne font que basculer fréquemment ce qui engendre souvent perte de concentration et mauvais résultats…





Euh non, ça c’est ta méthode de travail, nullement généralisable. Un autre t’a répondu, mais je vais reformuler : on peut dire qu’on ne fait “qu’une tâche à la fois”, ex rédiger un texte, développer une méthode, etc…

Mais cette tâche requiert souvent d’avoir plusieurs applications actives : ex rédaction de document &gt; traitement de texte pour rédiger + client mail pour référence d’actions passées + navigateur pour recherche d’infos + chat pour discuter du fond avec un collègue distant.

Dans ce cas de figure (assez courant), si chacune est en plein écran, le fait de switcher sans arrêt fait perdre du temps et de la concentration. Au contraire, le fait de caler une fois pour toutes chacune au bon endroit et à la bonne dimension te facilite la tâche : quand une se met à jour, tu le vois à la périphérie du regard. Si t’as besoin de l’info, tu sais déjà où porter le regard.



C’est le même principe qui a conduit Apple à faire une barre de menus commune : figer l’emplacement d’une source d’infos/interaction pour éviter de devoir chercher et viser précisément, donc perdre du temps.



Après, ce que je comprends pas… Par défaut sous Windows 8 chaque appli est en plein écran ? On ne peut pas faire du tiling de différentes tailles comme sur l’accueil ? Parce que si oui à priori tout le monde est content non ?







Chamaloxxx a écrit :



Voilà. Les gens n’ont pas envie de s’embêter.

L’informatique est déjà considérée par une grosse majorité de la population comme de la merde. C’est compliqué, ça plante, il y a des virus, des popups, des toolbars, ils se font engueuler par le petit cousin qui s’y connait, bref : ils n’ont CERTAINEMENT PAS ENVIE de se faire chier à réapprendre ce qu’ils ont péniblement compris avec l’antique “bureau”.



Et c’est tout. Vous pouvez retourner le problème dans tous les sens, une interface à ce point différente ne peut intéresser que les geeks et ceux qui n’ont jamais touché un ordi.





Bien résumé : idée tenace implantée dans la tête de 90% de la population, après avoir subi des systèmes Windows pendant 20 ans. <img data-src=" />

Je serais prêt à parier que si MS s’était imposé directement avec Windows 7, rien que le côté fiabilité et sécurité aurait évité une bonne part des problèmes, et les personnes normales se seraient senti plus prêtes à s’investir dans l’apprentissage.

M’enfin ce qui est fait est fait.







yl a écrit :



Quand on voit une progression moindre que celle de Vista, pourtant déjà pas un succès, avec Seven qui continue à grappiller des parts de marché 2 ans après la sortie de son successeur! Franchement, 2 ans pour admettre l’erreur et capituler en rase campagne dans un marché PC sinistré par un retour en arrière jamais vu, faisant se poser la question de pourquoi on a bien pu inventer un jour le multitâches si c’est pour limiter ainsi l’affichage. Il n’y a pas de quoi être confiant dans l’avenir d’une boite qui traite ainsi ses clients et mets autant de temps à renoncer après les avoir envoyés par millions acheter une tablette au lieu d’un laptop ou un mac au lieu d’un PC: Avoir réussi à rendre ces alternatives plus séduisantes que son offre si bien établie, franchement, quel tour de force!?



Bon courage pour l’inversion de la vapeur… Mais pas dit que la perception des clients soit plus aisément réversible que l’inertie incroyable dont microsoft a fait preuve.





Meuh non t’as rien compris, Windows 8 c’est trop de la balle et plébiscité, notre gourou Plymouth nous l’a prêché sur l’autre news (le fait que ce soit préinstallé sur 99% des pc à la vente n’a bien évidemment aucune incidence… <img data-src=" />).


Le 12/12/2013 à 18h 51







sepas a écrit :



Toujours pas.

Tu as soit un problème de compréhension et j’en suis désolé pour toi, ou alors c’est de la mauvaise foi.

Tu prends le mot “réparé” au premier degré, il n’a pas réparer une voiture.

Il dit juste que 7 est une version qui corrige les défaut (on parle pas de bugs) du Vista.





Tu auras beau te voiler la face, le terme “bêta” est largement approprié pour Vista.



Un logiciel en bêta n’est pas seulement buggué, il est aussi incomplet en termes de fonctionnalités et non optimisé niveau perfs. Du moins dans le sens couramment admis, y compris par les dev de grands logiciels. Même si à l’origine la version bêta d’un logiciel était censée être fonctionnellement complète, on est d’accord. Aujourd’hui on utilise le terme dans un sens bien plus large.



Et au-delà du chipotage sur les mots, le fait est que Vista était bien instable et lent au possible. Et le coup de “ça tournait pas parce que vendu sur des machines pas puissantes”, ça me fait doucement rire. Même si par ailleurs les éditeurs tiers ont effectivement une part de responsabilité en ayant traîné sur les pilotes.



En tous les cas je ne relancerai pas le débat sans fin, ça a été tourné dans tous les sens sur de précédentes news. Juste, quand on parle de réparation, ça renvoie généralement à la notion de problème, qu’il s’agisse de panne, comportement non voulu ou autre.

Je te félicite de défendre encore à ce point Vista alors que même Ballmer reconnaît que 7 est ce qu’aurait dû être Vista dès l’époque de sa sortie. <img data-src=" />


Le 12/12/2013 à 16h 24







uzak a écrit :



Ça t’empêche pas de lui dire que sa loi est anticonstitutionnelle et que t’as pas voté pour elle pour qu’elle fasse n’importe quoi…





+10. Écris lui donc, signale lui qu’elle a une dernière chance de faire amende honorable avant de perdre ta voix et potentiellement plusieurs dizaines d’autres de ton entourage. Ça a l’air peanuts dit comme ça, mais finalement vu le taux d’abstention généralement constaté, ça peut représenter jusqu’à 0,1% des suffrages. <img data-src=" />


Le 12/12/2013 à 14h 11







deepinpact a écrit :



Et je crois si je ne m’abuse qu’ils évoquaient quand même une GTX Titan…



les rumeurs, même si j’ignore quel crédit leur apporter parlent d’une best config avec un Core i7 4770, 16 go ram, 1To de disque dur et une GTX Titan à 1556 $



Ce qui est cher, mais pas si mal compte tenu les prix des Alienware et ASUS à config équivalentes…



Cependant pour arriver “massivement” dans les salons, 1000 euros c’est un prix psychologique maximum AMHA qu’ils doivent éviter de dépasser…





J’ai peur que tu surestimes la limite psychologique. Après tout, le public cible ce ne sont pas à priori (àma) des connaisseurs qui auront plutôt tendance à sélectionner leur matos par pièce, mais plus du “grand public” qui serait séduit par le modèle d’acquisition des jeux de Steam. Ce qui implique une limite psychologique nettement plus proche des consoles actuelles, soit 500600 euros.

Je mets entre guillemets parcequ’à mon avis ce sera quoiqu’il arrive une cible plus réduite que celle des consoles, plus orientée “adultes”, moins “familial” si on se fie aux meilleures ventes et moyennes d’âge respective… En excluant simplement les Callof et WoW. <img data-src=" />



Ou alors ils visent les gros gamers pc qui n’ont pas peur de faire péter le budget, mais dans ce cas ils ne vendront qu’au fur et à mesure du renouvellement du matos. Et encore, à condition que le gamer 1) veuille jouer dans son salon et 2) soit assuré d’un minimum de pérennité du matos.



Entre les deux mon coeur balance, dans les deux cas ce sera un succès critique mais probablement pas un grand succès commercial.



L’essentiel étant de toute façon d’introduire le cheval de Troie, la possible démocratisation ne venant que dans un second temps…


Le 12/12/2013 à 09h 16







0rsa a écrit :



Je ne crois absolument pas au succès du projet.





T’as dû réfléchir longtemps pour sortir un argumentaire aussi poussé. <img data-src=" />



Bref, bonne nouvelle, j’aurai de quoi faire mumuse pendant la période de Noël !


Le 12/12/2013 à 14h 04

Comme tout le monde, content d’apprendre que Nvidia se bouge pour le support Linux d’Optimus. Je ne suis pas sûr que ce soit Linux le moteur, mais peut-être plutôt les nombreux utilisateurs lambdas qui ont rebondi sur son troll pour signaler par commentaire sur réseaux ou mails leur intérêt pour un tel support. <img data-src=" />



Ce serait bien qu’AMD réagisse maintenant. J’ai beau faire tout mon possible pour privilégier le challenger, s’ils continuent à se faire distancer sur l’investissement dans Linux, j’arriverai au bout de ma tolérance et passerai comme tout le monde du côté vert de la force (remarque, pour le portable c’est déjà le cas, mais là tellement peu de choix AMD…).



@Tous : inutile de répondre à Plymouth, qui commente les news linux (entre autres) avec à peu près autant d’à-propos et de délicatesse qu’un éléphant bourré sous amphet dans un magasin de porcelaine de Chine…<img data-src=" />

Le 11/12/2013 à 18h 20







Kako78 a écrit :



On ne va pas reprendre ton commentaire initial, c’est un juste un troll. Quand tu dis qu’il y a dix ans, tu te serais profondément apitoyé sur le sort de Lafisk parce qu’il utilisait XP, ça me fait juste marrer tellement ce n’est pas crédible.



C’est amusant d’ailleurs de lire ton commentaire après celui que tu as fait à Typhoon par rapport à la manière dont il a formulé son troll post.







  1. Je parlais des précédents commentaires.

  2. Contrairement à toi de toute évidence, je sais de quoi je parle.



    Mon commentaire bien que sur un ton trollesque pour plaisanter, était à moitié sérieux. La plupart des gens ne se souviennent d’XP qu’en version SP3.



    Pour l’avoir utilisé quotidiennement et intensivement, parallèllement à Linux, tant pour travailler que pour jouer, depuis sa sortie jusqu’à l’arrivée de 7, je prétends avoir suffisamment d’expérience pour comparer. C’est mon opinion et je la partage. <img data-src=" />



    A sa sortie XP c’était vraiment nimp’ sur plein d’aspects : sécurité, fiabilité, insuffisance du support des HDD, 0 possibilité de personnalisation (vive le look playskool), support des encodages insuffisants, 0 support de métadonnées, fonctions basiques absentes du gestionnaire de fichiers, pas d’onglets, pas de bureaux virtuels (bon ça c’est au goût de chacun), impossibilité de multilangue sauf édition ultime, logiciels fournis par défaut tout moisis, installation rébarbative au possible, maintenance ultra velue (vive les erreurs cryptiques)…



    Les distros Linux étaient largement supérieures dans tous les aspects, sauf…

  3. le look par défaut bien pourri (normal, les devs travaillent en shell ils s’en tapent <img data-src=" />),

  4. le manque de pilotes pour 70% du matériel induisant au mieux un matos non fonctionnel à 100% (imprimantes) au pire un presse-papier encombrant, ce qui est effectivement un problème bloquant dans tous les sens du terme pour un utilisateur normal (note qu’il y a eu quelques ratés sous XP aussi, mais très rare en comparaison),

  5. logithèque évidemment limitée par rapport à windows (peu d’applis métiers, jeux et softs éducatifs de Windows non utilisables).

    (4) et pour mon cas personnel, le partage réseau et les pilotes vidéos qui ont toujours été un enfer. En même temps, j’ai jamais trop cherché, parce que justement je suis un utilisateur normal, prêt à apprendre mais dans une certaine limite. Aller enchaîner 30 commandes et lire des trucs que je comprends pas, très peu pour moi).

    Et je passe évidemment sur le côté gratuit du système et des applis, argument qui n’intéresse somme toute que… Quoi, 99% des utilisateurs ? <img data-src=" />

    Je passe aussi sur la gratuité des mises à jours, ou sur le respect de l’utilisateur justement (cf les portes dérobées et autres spywares, ou encore Windows 8 et son changement de paradigme imposé).



    M’enfin, c’est bien connu, Linux c’est tout pourri et on fait rien que troller… <img data-src=" />

    Bref, j’arrêterai de te répondre, contrairement à d’autre tu n’es là que pour la provoc gratuite, le deuxième degré tu connais pas… Tu peux avoir le dernier mot si ça t’amuses…:bye:


Le 11/12/2013 à 17h 02







Lafisk a écrit :



Clairement, je te rejoins sur l’offre logiciel, pro ou particulier. Après, je ne trouve pas aberrant que des entreprises dont le but c’est de faire du fric ne fasse pas beaucoup d’effort pour un os dont les pdm ne sont pas assez haute pour créer un CA suffisant pour justifier le dèv de pilotes etc … A un moment donné, je pense que tu préfères que ta boite “survive” plutôt que d’investir par principe





Bah disons qu’il y a les boîtes (généralement grosses) pour qui le modèle économique repose sur l’enfermement. Celles-là j’aimerais bien qu’elles crèvent, mais c’est mal barré car la plupart ont réussi à imposer leur monopole (MS et Dassault en tête). Pour arriver à sortir des logiciels qui soient équivalent à tous points de vue c’est presque mission impossible, d’autant plus qu’il faudrait assurer une compatibilité max avec le format proprio.



Après pour les autres boîtes notamment les petits éditeurs spécialisés, c’est effectivement juste une question de survie, ce n’est pas moi qui leur reprocherai de privilégier un investissement qui leur permette de manger à leur faim… <img data-src=" />


Le 11/12/2013 à 16h 31







Lafisk a écrit :



Et bien, je crois que ça dépend vraiment des habitudes car pour avoir été sous linux à la fac et avoir fait des essais aussi chez moi à plusieurs moment même plusieurs années après qu’XP soit sorti, la facilité d’utilisation d’xp par rapport à linux était évidente à l’époque et je parle même pas du look rétro qu’avait linux (style win98) alors que vista sortait … Oui tu as beaucoup plus de personnalisation mais faut-il encore ce que tu changes et où le faire, ect … l’accès est bien plus compliqué, déjà t’arrives faut encore savoir quoi choisir entre xfce, kde, gnome, etc… mes premières fois je me rappelle avoir installé un peu tout et n’importe quoi d’ailleurs pour voir ce que ça faisait et foutre un beau bordel sur mes distrib <img data-src=" />



Après, c’est qûr que pour naviguer et consulter ces mails, xp, linux, macOS, trouve un navigateur et c’était bon, surtout à l’époque et que sur les 3 ça ce faisait en un clic ou deux “out of the box” <img data-src=" />





Ah ok, au temps pour moi, je n’avais pas compris que tu l’avais utilisé intensivement.

Chacun son opinion donc. Peut-être n’avions nous pas les mêmes usages non plus <img data-src=" /> (perso le seul truc qui me sortait de la tête à l’époque c’était le partage réseau de documents <img data-src=" />). Je serais curieux de comparer nos ressentis pour savoir ce qui te sortait par les yeux comparé à XP, mais je crois que ce n’est pas le bon endroit… <img data-src=" />





Kako78 a écrit :



C’est assez caustique quand même de dire que XP n’est pas super utilisable et en même temps recommander KDE qui reprends à la base le look et l’ergonomie du shell de XP…



Pour en revenir à la news, je crois moyen à la percée d’Ubuntu Touch, que ce soit en bas de gamme ou en haut de gamme. J’ai bien peur que ça se termine comme les Meego et cie. Dommage, une alternative à Android ne serait pas du luxe (pour la partie respect de la vie privée).





Ça, ça sent bon le mec du type qui juge sur trois screenshots ! <img data-src=" /><img data-src=" />

Oui l’apparence du menu principal était proche, de même que l’organisation de la barre des tâches… Pour le reste, plein de petits détails faisaient la différence (un de ceux qui m’a le plus marqué, impossibilité dans Windows de rajouter des “emplacements rapides” dans les popups pour enregistrer un fichier…<img data-src=" />).

Et puis ce serait bien de lire les commentaires en intégralité, je parlais de l’expérience utilisateur globale, soit interface + logiciels de l’environnement…

‘Fin bref…



Sur la news, je réitère mon point de vue, qu’il s’agisse ou non de l’objectif réel de Canonical, il est évident que dans un premier temps les Ubuntu phones resteront marché de niche.

À terme… J’aurais tendance à partager votre “pessimisme”, après si Google continue à pourrir l’expérience utilisateur en forçant l’usage de ses outils et l’exploitation des données privées, peut-être le raz-de-bol atteindra-t-il un niveau suffisant dans le grand public…

M’enfin, vu le manque de réaction sur des sujets critiques tel le projet de loi qui vient de passer, j’y crois moyen quand même… <img data-src=" />



Mais au final, qu’il y ait une alternative crédible pour ceux qui se soucient réellement de leur vie privée, n’est-ce pas l’essentiel ? À chacun selon son usage…


Le 11/12/2013 à 16h 14







Lafisk a écrit :



En terme, d’ergonomie, XP restait quand même plus simple à utiliser qu’une ditrol inux de l’époque quand même. Aujourd’hui, par exemple, tu peux te passer de la ligne de commande même sur linux. A l’epoque d’XP c’était pas vrai me semble t il … et ça c’est niet pour moi déjà.



En terme d’UI, pareil, Xp était devant, déjà que même les dernières améliorations sur linux n’arrivent toujours pas à me contenter, alors y’a 10 ans … certainement pas au point non plus <img data-src=" />



Après en terme de fonctionnalité, linux était certainement en avance et l’est peut être aujourd’hui encore, mais parle t on réellement de fonctionnalités réclamée par le grand public, utiles au grand public etc… ? j’ai des doutes <img data-src=" />



Je pense que même aujourd’hui, Windows reste tout de même ce qu’il y a des plus accessible pour le grand public, que ce soit sur pc ou mobile, car franchement sur smartphone, même l’iphone je trouve pas ça du tout naturel des que je touche à celui de ma copine de même sur android même si c’est un peu mieux mais un peu bazar quand même.





En fait, non tu te plantes. <img data-src=" /> Sur tous les plans, y compris et notamment l’interface, Linux était déjà devant Windows XP, qu’il s’agisse de KDE ou Gnome (pour parler des plus utilisés). Que l’on parle de la facilité de prise en main, des fonctionnalités intégrées ou de la possibilité de personnaliser son interface.



En revanche, le vrai gros point noir qui est resté durant de lonnngues années, et qui touche encore quelques personnes pour du matériel exotique, c’était la compatibilité matérielle : manque de respect de standards par les fabricants (genre imprimantes) + désintérêt total des constructeurs donc 0 développement de pilote, même priori + complexité de la pile Linux sur certains aspects (genre audio et vidéo) = merdier infâme pour l’utilisateur lambda sur la reconnaissance de son matos.



Cela étant dit, déjà à l’époque en prenant le temps de s’informer un minimum on évitait 95% des problèmes. Il fallait juste être suffisamment motivé pour investir ce temps-là, et ça c’est chacun son point de vue. ;)



Après reste la compatibilité “logicielle” (aka équivalence fonctionnelle pour les usages métiers), ou, ma foi, on va globalement dire qu’il y a encore une belle marge de progression. <img data-src=" />

Enfin, déjà à l’époque, Windows XP était suffisant pour tous les usages basiques, donc pour une bonne partie du public.

Même, quand je vois encore aujourd’hui la proportion de gens pour qui pc = consulter mails/sites informations/réseaux + mater des vidéos + écouter la musique + écrire son courrier, j’oserais dire que soucis de stabilité et sécurité mis à part, Windows 98 était déjà suffisant. <img data-src=" />



Et ma foi, il est compréhensible qu’une personne pour qui le système actuel convient, qui n’est pas techniquement curieuse et pas très à l’aise avec l’abstraction, ne voit pas l’intérêt de fournir l’effort nécessaire pour s’adapter à un nouveau système avec lequel elle fera globalement la même chose…

D’où l’intérêt de faire découvrir autre chose que Windows en premier contact avec l’informatique (et hop, une petite passerelle vers le sujet de l’enseignement de l’informatique à l’école… <img data-src=" />).



(Et voilà, au final je participe au HS… Je suis vraiment trop faible <img data-src=" />)


Le 11/12/2013 à 15h 12







Lafisk a écrit :



Ou alors chacun sa came.



Perso, j’ai essayé linux, je suis (ou j’essais) mais Windows reste ce que je préfère bien que gnome 3 en terme d’UI à fait faire un bon en avant à linux.



Tu as certes plus de libertés quand à ce que tu peux faire sur linux mais bon ce que je peux faire sur Windows me suffit amplement.



Maintenant, je jette quand même un coup d’œil de temps en temps car j’aime bien linux sur le principe, moins sur l’application di dit concept. Par contre, android, non y’a pas moyen, déjà rien que le fait que ce soit Google, c’est juste pas possible, il y a pour moi une incompatibilité entre la “philosophie” linux (certes qui est peut être une image personnel que j’ai del inux) et la soif commercial de Google (en plus de l’espionnage industrialisé des clients produits, y’a d’autres aspects plus technique que je reproche à android mais bon ça c’est encore autre chose.





Anéfé, à chacun selon ses besoins.

Il y a dix ans je me serais profondément apitoyé sur ton sort (époque WinXP). Windows 7 a apporté beaucoup (BEAUCOUP) d’améliorations à tout point de vue, ce qui rend la plate-forme enfin utilisable pour la plupart des usages communs.



Après, il y a encore plein d’aspects qui m’insupportent, mais je me suis adapté, je le lance que pour les jeux comme ça…



Je te rejoins également sur le fait que la politique Google ne reflète pas la philosophie Linux. Et ça m’importe d’autant plus que des alternatives pleinement libres (du moins j’espère) arrivent. Néanmoins, l’impact d’Android a été globalement positif : éviter une hégémonie Apple/Windows, bonnes possibilités de customisation.



S’il devient possible un jour, sur n’importe quel téléphone, de couper complètement le lien avec Google, ça me va (pour l’instant, en dépit des efforts d’équipes telles Cyanogen, ce n’est clairement pas une manip grand public).



EDIT : Quand je parle d’expérience utilisateur, je comprends tous les aspects, pas uniquement l’interface. Raison pour laquelle je recommande souvent KDE pour un usage avancé, même si j’aime bien Gnome 3. Out-of-the-box, c’est bien sans plus (un choix comme un autre quoi), quand on l’utilise vraiment (applis natives, widgets, activités) on ressent un gros bond en avant en terme d’expérience utilisateur. Faudrait juste qu’ils mettent un gros coup de collier pour régler des incohérences sur l’interface et rendre plus accessibles/lisibles toutes les fonctions. <img data-src=" />


Le 11/12/2013 à 14h 55







typhoon006 a écrit :



Je connais bien LinuxWindows mais côté end user/desktop <img data-src=" /> ce qui ne pose aucun soucis particulier.

Je parle côté end user/ desktop là je pourrais déverser ma bile des heures durant <img data-src=" />

Mais bon c’est amusant de se faire agresser gratuitement ;) vive la tolérance





Je sais je ne devrais pas citer, mais je me reconnais tellement dans ce propos, une fois deux-trois retouches faites… <img data-src=" /><img data-src=" />

Honnêtement, j’ai aussi de bons dossiers sur l’expérience end-user Linux, mais ça reste tellement incomparable comme confort en dépit de tous les petits détails, par rapport à Windows… Mais bref je m’arrête là avant de (re)lancer le HS.


Le 11/12/2013 à 14h 42







typhoon006 a écrit :



C’est amusant de penser ça, a aucun moment j’ai dis que c’était de la merde.

Juste que leur business plan me parait foireux vis à vis du positionnement du produit…et que j’ai bien étayé sur plusieurs post sans troller justement, mais en exposant mon point de vue. Après on est d’accord ou pas.

Vis à vis à l’interprétation de mes posts par rapport à mon avatar, je soulignerais que je n’ai même pas évoqué Windows Phone dans mes post comme concurrence tellement les PDM sont faibles…



Après sur ce post en particulier :



Erreur sur l’expression employée “ le seul truc potable”. C’était dans le sens “le seul truc qui a connu un large succès”

Linux c’est “potable” mais bon ce n’est pas un succès au premier sens du terme et bon de mon point de vue qui n’engage que moi tout seul et ma pensée perso égoïste à moi, Linux c’est pas potable pour plein de raisons. Mais c’est pas le sujet.





Nous sommes tout à fait d’accord que tes deux premiers posts formaient des opinions “neutres” (au sens non trollesque).

Les autres en revanche, et tout particulièrement le deuxième que tu cites, ne peuvent être qualifiés autrement que “trolls”. Non pour l’opinion en elle-même, mais pour la manière dont elle est formulée.



Maintenant étant d’accord avec toi sur le fait que ce n’est pas le sujet, je ne rebondirai pas. ;)

Quant à ton premier commentaire, à priori nos divergences d’opinion viennent de ce que nous avons une idée différente de la cible de Canonical. Pour toi ils visent direct la prise de part de marché au niveau grand public, pour moi ils visent avant tout la promotion de leur système par une niche d’early-adopters passionnés.

Dans le premier cas, je te rejoins sur le fait qu’ils risquent fortement de se planter, dans le deuxième cas ils àma ils vont toucher. Wait and see… <img data-src=" />


Le 11/12/2013 à 13h 48







brazomyna a écrit :



Rassurez-moi (ou pas), typhoon006 est aux news ‘Linux’ ce que platoona GGGG est aux news Free ?





Il y a quelque temps je t’aurais dit non, mais là il enchaîne les trolls de base. J’avoue que j’ai un doute du coup… :transpi!


Le 11/12/2013 à 13h 43







brazomyna a écrit :



Vu le montant délirant mis comme objectif de départ, c’est même sans doute l’objectif premier que s’était fixé canonical: surfer sur la vague des financements participatifs pour se faire de la pub gratuite.





Ouais, ou alors ils ont juste fait les gros boulets parce qu’un big boss a décidé de rusher l’opération.

Je ne me souviens plus exactement du montant demandé, mais àma, vu la popularité générale d’Ubuntu et l’attente des gens pour des alternatives réellement libres, renforcée encore par l’évolution des pratiques de Google et le scandale NSA…

Dans l’absolu c’était complètement jouable.



En revanche, limiter l’appel à trois semaines, en pleine période d’été, c’est le genre de conneries trois étoiles que ne devrait plus faire même un étudiant 2ème année école de commerce. Ça revient à se tirer une grenade à fragmentation entre les jambes en espérant que tous les éclats éviteront tes parties.



D’où mon hypothèse sur le big boss qui a foutu la merde, car pour le reste les mecs de Canonical me donnent plutôt l’impression d’être compétents sur la com’.


Le 11/12/2013 à 13h 37







typhoon006 a écrit :



Viser le HdG, erreur majeure

Echec cuisant en perspective





Au contraire, c’est le meilleur choix…

Beaucoup de projets “de niche” de ces dernières années ont illustré les risques de partir sur une conception “accessible / bas de gamme”. Ces projets rencontrant généralement bon nombre de difficultés (soucis de gestion / manque de thunes / obstacles techniques), accumulent le retard par rapport au buzz.

Sachant qu’en plus de base les buzz sont toujours exagérément optimistes sur les releases. <img data-src=" /> Et que, s’agissant de productions de petite envergure, le prix n’est jamais compétitif par rapport à la concurrence. Ce qui fait que le vrai moteur d’achat c’est l’intérêt pour la spécificité du produit.



L’objectif en concevant un tel haut de gamme n’est pas de toucher un large public. C’st de tirer parti des passionnés, prêts à investir une bonne somme et à être patients. Tant qu’au final le produit n’est pas obsolète dès sa release (cf par exemple la Ouya, la tablette Vivaldi, certaines consoles portables open source…).



Haut de gamme = “vous aurez un produit de qualité, qui tiendra la route un moment”. C’est ça le message important, à destination des primo-intéressés.

Le grand public, s’il adhère, ce sera à la troisième “génération” d’Ubuntu phones minimum, ce n’est pas la cible actuelle.

Enfin j’espère pas pour Canonical, car s’ils comptent sur un succès de masse, là je suis 100% d’accord avec toi ça va chauffer…


Le 11/12/2013 à 15h 02







Grumlyz a écrit :



Ils sont lourdingues à ne sortir du 4.3” qu’avec des specs dépassées.

Aujourd’hui t’es obligé de te trimbaler avec un frigo si tu veux des specs correctes.



<img data-src=" />





Bof, vu la taille et la visée entrée de gamme (300 euros tel + tablette) la faible définition du smartphone ne m’aurait pas choqué, SI la définition de la tablette avait compensé.



Vu l’usage supposé (tu téléphones/pares au plus urgent sur smartphone, tu consommes vraiment du média sur la tablette), il fallait investir lourdement, genre Full HD sur la tablette…



En revanche, là effectivement résolution faiblarde aussi sur la tablette, ça perd beaucoup de son intérêt…





luxian a écrit :



En outre, le prix de l’offre est de 550 €.





300 euros HT = 550 euros TTC ??? Je veux bien des sources…


Le 11/12/2013 à 09h 27







Citan666 a écrit :



Je m’y perds un peu ces derniers temps dans tous les modèles.

Au final, quelqu’un saurait-il s’il existe un smartphone 4g, à environ 300 euros de budget max, de taille au moins 4,5 pouces ?

Ou faut-il encore prendre son mal en patience ?











NeoYoH a écrit :



Nexus 5 pour 350 euros, sans micro SD malheureusement (et c’est bien son seul défaut pour l’avoir). Après pour 300 euros les tél 4G sa court pas les rues…









damrod a écrit :



tel 4g, aec extension memoire et ecran 4.5p hd ?

bonne config ? À part un nokia 820625..sous wp8… Sinon vous avez le xperia SP…vu sur cdiscount a 285euros et odr de 50euros :)









HellXionS a écrit :



Tu as le Sony Xperia SP à 299€ (écran 4,6” processeur double coeur, 8 Go extensible par micro SD)









Alkore a écrit :



{…}Pour moins de 400€, tu peux trouver un phone d’un grand constructeur.

Sinon, attendre le 1er trimestre 2014, les nouveaux SoC Mediatek seront compatible LTE et les constructeurs devraient proposer des devices intéressants au niveau rapport perf/prix/fonctionnalité.

<img data-src=" />





Merci beaucoup à tous pour vos réponses (que j’ai vaguement adapté pour condenser). <img data-src=" /><img data-src=" /><img data-src=" />







kvasir a écrit :



Hého vous pouvez mettre une SD de 32Go. Ça vous suffit pas? Vous voulez un HD de 2To aussi?





Techniquement dans la plupart des téléphones on peut même mettre des SD de 64 Go. Seulement il faut les reformater dans un format lisible (FAT32), et si sous Windows 7 je n’ai aucun soucis, sous Linux (vieux Ubuntu sous KDE de début 2012) pour l’instant il n’aime pas l’astuce (ne voit pas la mémoire)… Mais cela vient peut-être avant tout du protocole proprio pourri MTP (Google, pourquoi as-tu abandonné le montage basique… <img data-src=" />).



EDIT : Tant qu’à faire de recycler les com’s (soyons écolos) j’ai remis ma question pour les lecteurs qui débarqueraient… <img data-src=" />


Le 10/12/2013 à 14h 32

Je m’y perds un peu ces derniers temps dans tous les modèles.

Au final, quelqu’un saurait-il s’il existe un smartphone 4g, à environ 300 euros de budget max, de taille au moins 4,5 pouces ?



Ou faut-il encore prendre son mal en patience ?

Le 10/12/2013 à 09h 46







papinse a écrit :



L’étude précédente était foireuse, il faut recommencer avec les valeurs qui prouvent qu’on avait raison ! <img data-src=" />

D’ailleurs, il faudra que je regarde dans quelle tranche je me situe au cas où ils voudraient m’interroger.

Je sais que je suis sur une barre rouge (avec une pincée de bleu) mais je ne sais pas si je suis sur la dernière ou l’avant-dernière





+10.



Après, faut voir aussi si le questionnaire est assez précis.

Perso je ne pirate plus aucun jeu, je dépense facile 60 euros par mois. En revanche je télécharge des films/séries, je n’achète quasiment plus de DVD/Bluray et rien en démat’.



La raison est simple : considérant le manque de place qui fait que je n’investis que dans du démat’, d’un côté une offre légale qui tient la route (Steam, GOG, GreenManGaming, sites de clés, etc), de l’autre une offre moisie (trois fois trop cher, qualité variable, manque de choix de langues, sous-titres, choix de films).



Mais seraient-ils capables d’assez de recul pour voir ça en face ? J’en doute malheureusement. Je parierais plutôt sur “ahaaa, c’est la preuve que les protections ça marche pour le jeu vidéo, faut en foutre plus partout”…<img data-src=" />



EDIT : Après, ce que je pointe au-dessus est un cas courant. Pour moi perso il faudrait rajouter 1) une forte rancune personnelle vis-à-vis des majors, du fait de leur lobby infâme, des attaques gratuites envers le public et leurs protections qui pourrissent le quotidien, ce qui fait que je suis nettement plus exigeant sur l’offre que ce qu’il serait raisonnable d’être, 2) un ratio 80% jeux / 20% vidéo pour mes loisirs solitaires, qui explique aussi le peu d’investissement.

Illustration supplémentaire du fait que les comportements dépendent de beaucoup de facteurs, et qu’il serait plus profitable pour eux de commander des études détailler sur ces facteurs que sur “est-il vraiment vrai que les téléchargeurs consomment plus, c’est tellement incroyable comme concept vraiment on y croit pas…”


Le 09/12/2013 à 14h 13

<img data-src=" /> le sous-titre <img data-src=" /> T’es vraiment un salaud Xavier j’adore…<img data-src=" />

Le 09/12/2013 à 10h 53







chaps a écrit :



Pour ça, il y a des solutions





Ouais, bof en fait. J’avais essayé une fois un multitap Peritel, qualité moisie du signal sur chaque peritel…



Je suppose qu’en payant le prix fort (&gt;100 euros) on a un truc de qualité, mais ça commence à faire cher. Tu me diras, quelqu’un qui achète conscencieusement toute console dès sa sortie ainsi que l’indispensable pléthore de jeux à ne pas manquer, n’en est plus à ça près à priori… <img data-src=" />



Mais personnellement je ne suis pas (encore ?) arrivé à ce niveau. <img data-src=" />


Le 09/12/2013 à 10h 09







jpaul a écrit :



Non la Wii U n’est plus physiquement compatible avec la Gamecube: il n’y a plus de ports GC, et le lecteur est incapable de lire les disques 8cm (sauf à vouloir l’exploser).

Par contre les hacks ont évolué: On peut jouer avec n’importe quelle manette bluetooth (incluant wiimote+nunchuck, manette PS3 …) mais cela nécessite de ripper le jeu original depuis une Wii





Je sais que c’est plus physiquement compatible, c’était pour ça que je posais la question. Je n’avais pas trouvé de page sur le web disant explicitement qu’avec les hacks on pouvait jouer aux isos avec une wiimote (voire mablette ?) + sauvegarde sur mémoire interne.



Merci pour l’info. <img data-src=" />

Surtout que la compatibilité avec toute manette bluetooth, c’est classe, notamment quand on sait que le Wii U Pro controller, qui me semble un très bon contrôleur, est également bluetooth (et utilisable sur pc avec deux-trois manips et un driver en plus pour les intéressés).


Le 09/12/2013 à 10h 06







Network a écrit :



y’a pas de petites économies ! <img data-src=" />

… et j’ai plus de place sous la TV <img data-src=" />





+10000 Là est la vraie raison pour laquelle on aime la rétrocompatibilité, et pour laquelle on aime encore plus le PC et ses moult émulateurs dispo sans se prendre la tête.

Ça et la connectique aussi (allez donc trouver une TV avec 8 péritels et 8 HDMI <img data-src=" />, voire plus pour les plus acharnés de la collectionnite consoleuse).


Le 09/12/2013 à 09h 56







jpaul a écrit :



A voir, Ok ici l’architecture est différente.



Mais dans le cas de la Wii U par exemple, qui n’a aucune compatibilité pour les jeux GC, il est en fait possible de jouer aux jeux GC après un hack: pour la compatibilité Wii, Nintendo a laissé un firmware Wii très peu modifié (si peu modifié qu’il est encore hackable avec les vieux hacks de la Wii), firmware qui contient le firmware Gamecube de la Wii. Il est donc possible avec un hack de lancer des jeux GC qui tournent alors très très bien. Et il est même possible d’y jouer avec une manette PS3 branchée en bluetooth :)



Source





Intéressant, merci pour l’info. Mais comme tu le soulignes ainsi qu’un autre INpactien, l’architecture est proche. Si proche qu’ils ont pu embarquer le firmware de la Wii, ce qui permet comme tu le précises de bénéficier avec quelques manips de tout le potentiel originel de la Wii (merci à Nintendo au passage, même si je ne suis pas sûr qu’ils aient vraiment désiré cet usage <img data-src=" />).



En revanche, je suppose qu’on souffre des mêmes limites qu’à l’époque de la Wii du coup non (jouer aux jeux Gamecube avec une manette Gamecube + carte mémoire Gamecube) ?


Le 09/12/2013 à 09h 53







Niktareum a écrit :



<img data-src=" />

La marmotte avec le chocolat, c’est des conneries ???

<img data-src=" />





Bah ouais… En fait, le chocolat, elle l’emballait pas, elle le bouffait direct, Milka a jamais vraiment réussi à les dresser…



Il n’y en a que trois qui avaient accepté d’obéir, ils ont fait la pub avec, mais les autres marmottes ont vu ça comme une trahison et elles les ont balancé dans la marmite de chocolat fondu…



Face à tant de haine, Milka a sagement décidé que les marmottes ne valaient pas mieux que les humains, et qu’il n’y avait décidément que les robots pour faire un travail fiable sans faire chier…<img data-src=" />



Désolé de casser le mythe…<img data-src=" />


Le 09/12/2013 à 09h 07

Ça c’est du piège à cons de compet ! <img data-src=" />

Je veux dire, quelqu’un d’assez motivé pour aller bidouiller la console devrait être à 99% des cas quelqu’un d’assez au fait de l’outil informatique pour avoir eu la capacité de se renseigner AVANT d’acheter sur la console.



Quand des mecs annoncent dès le départ l’absence de rétro-compatibilité, il est clair qu’ils ne vont rien investir dans ce sens…




  • Aucune chance qu’ils intègrent un module physique pour une feature qu’ils ne vendent pas.

  • Pas plus de chance que la nouvelle génération puisse émuler l’ancienne de façon purement logicielle, ne serait-ce qu’à cause de la différence d’architecture (sans compter le bond en spec techniques pas si violent au final).



    Croire qu’en fait ça existe c’est comme croire à la marmotte… <img data-src=" />

    Vous auriez pas des noms de mecs qui ont tenté ? Je leur vendrais bien des tickets gagnants au loto, par pur altruisme bien entendu… <img data-src=" />