votre avatar Abonné

ragoutoutou

est avec nous depuis le 25 juillet 2007 ❤️

3766 commentaires

Le 13/06/2013 à 16h 45







Pochi a écrit :



Rien à voir on parle de l’adéquation entre un contrôleur et le gameplay d’un jeu. Moi aussi, j’ai un PC, un gamepad, une TV et un sofa… mais c’est pour jouer à un jeu adapté au pad (SSFIV en l’occurence), pas à un fps…







Jouer à SSFIV au pad est une hérésie! (et si c’est un pad x360, tu vas au bûcher direct).


Le 13/06/2013 à 14h 45







tAran a écrit :



FPS + console = hérésie <img data-src=" />





Pad + PC = folie furieuse

TV + PC = crime de guerre

PC + Sofa = attentat à la pudeur


Le 13/06/2013 à 13h 58



l’exclusivité de Titanfall sur les consoles de Microsoft serait simplement due à « une opportunité tactique »



Un coup de pouce à la console collant le plus à la vision d’E.A. concernant les DRM et le marché de l’occasion?

Le 13/06/2013 à 11h 22







Cypus34 a écrit :



Le gamepad est actuellement largement sous-exploité par les jeux.

Il n’y a qu’à voir les vidéos multi de Rayman : celui qui a la manette voit sur la télé toutes les plate-formes identiques, l’autre voit dans le gamepad celles qui sont piégées. Le coup de ZombiU aussi, avec l’inventaire en temps réel (le jeu ne se met pas en pause quand tu regardes le gamepad pour utiliser ton inventaire et tu peux te faire attaquer)







Mon impression face à ça est que c’est plutôt un confort de jeu qu’un réel élément de gameplay comme la wiimote par exemple.







Cypus34 a écrit :



Le genre de street view où tu vois dans le gamepad ce qu’il y a dans la télé ET ce qu’il y a tout autour à 360° avec l’utilisation du gyroscope : mis dans un jeu ça peut être super.



Mwais… mon opinion est que ça va se faire laminer par les vrais systèmes de réalité augmentée. Le Wii U Gamepad est trop simpliste pour atteindre un bon niverau de réalisme à ce sujet.







Cypus34 a écrit :



Et tout simplement, pouvoir jouer sur l’écran en laissant la télé libre pour les autres habitants de la maison, ou pour suivre une émission en même temps, c’est bien chouette aussi <img data-src=" />





Mwais, à nouveau c’est un confort, pas une évolution vidéoludique… Dans le même genre tu peux faire du remote play des titres PS3 avec la VITA, il me semble.







Cypus34 a écrit :



Le gamepad innove quand même bien plus que la “zone tactile” de la manette PS4 ou que le Kinect 2, qui est au Kinect 1 ce qu’est le wiimotion plus à la wiimote : la version aboutie d’un produit qui n’était pas finalisé.



Mwais… mais ça reste plus une fusion relative de genres préexistants qu’une approche vidéoludique originale… Beaucoup de choses qu’on peut faire avec ce pad se font déjà depuis un bout de temps avec les tablettes et smartphones.


Le 13/06/2013 à 09h 08







Cherryblue a écrit :



Ils ont donc préféré prendre les devants en changeant l’interfaçage du joueur plutôt que de continuer dans le même axe et se faire virer en plombant les bénéfices de l’entreprise. Ils ont tout compris. (Ils ont vu SEGA qui a proposé une console super évoluée pour son époque très performante. Et qui s’est fait plombée. Ils en ont tiré des leçons.)







Sony aussi pensait avoir tout compris à l’époque de la sortie de la PS3… Après une PS2 qui avait tout ravagé, Sony pensait que le succès serait naturel pour sa nouvelle console, alors qu’elle n’avait pas grand-chose de différent à proposer par rapport à des produits déjà présents sur le marché, et il a encaissé financièrement cette bourde pendant plusieurs années.



La Wii U est peut-être dans la situation de la PS3 à sa sortie… une console qui apporte peu au niveau hardware, avec peu de titres originaux pour son lancement, et de forts signes d’essoufflement.



Si on prend juste l’exemple du contrôleur, à la sortie de la Wii, Nintendo tenait un produit unique, jamais vu, et surtout avait le courage d’en faire le point central de sa stratégie vidéoludique. 6 ans plus tard, les concurrents ont tous des contrôleurs inscrits dans cette philosophie, mais technologiquement supérieurs (voir largement supérieurs si on parle du kinect).

Le Wii U Gamepad n’a pas ce qu’il faut pour réitérer l’exploit de la Wiimote.



Tiens, et puisqu’on parle de Sega, rappelons-nous tout de même qu’un des éléments ayant précipité la chute de la Dreamcast est l’abandon de la plateforme par Electronic Arts.


Le 12/06/2013 à 14h 41







Locke a écrit :



La Wii U pour l’instant ne marche pas bien, mais qui doute de sa montée en puissance avec les futurs Zelda, Mario, Pokemon et cie ?







Ben, faudra voir… ça reprendra sans-doutes, mais faut pas oublier que la première Wii avait surtout gagné du terrain grâce à Wii Sport … là la Wii U, elle à quoi pour installer une dynamique équivalente?


Le 12/06/2013 à 14h 18







exover a écrit :



pour ma part c’est tout ce que je lui demande, déja tout ce qui est FPS sans clavier souris pour ma part c’est de la merde donc les consoles….. jeux de foot m’en tappe, pour le reste la console Nintendo me va tres bien.







C’est un peu réducteur comme vision de ce que l’on peut trouver sur console… bon, de nos jours, pas mal de jeux biens sont aussi disponibles sur PC, et souvent avec une qualité supérieure, mais il y a aussi des jeux exclusivement console et de qualité, et pas que sur Nintendo.


Le 12/06/2013 à 13h 34

Nintendo a fait un véritable exploit avec la Wii, le problème est que même eux n’ont pas dû complètement comprendre d’où venait ce succès… du coup ils se sont sont cru en “god mode” et n’ont pas mis les efforts pour réitérer l’exploit.



Reste que la Wii U est la meilleure console pour jouer à des jeux Nintendo, mais en dehors de ça, elle n’a pas grand-chose à apporter face à la concurrence.

Le 12/06/2013 à 14h 49







gab69110 a écrit :



Note qu’ils n’ont pas besoin des mots de passe pour mettre le nez dans tes data…







Seulement dans les datas qu’on laisse chez eux… mais avec les mots de passe, ils (ou plus vraisemblablement des acteurs ayant négocié un droit de consultation) peuvent accéder au reste (comptes mails tiers, vpn, infra réseau,… )







Le 12/06/2013 à 14h 21



Enfin, comme Apple l’avait annoncé durant sa keynote, le Trousseau synchronisé est de retour dans iCloud. Cela signifie que les identifiants utilisés sur les sites ainsi que les réseaux Wi-Fi pourront y être enregistrés. Mais dans Safari, le Trousseau peut également se proposer pour créer un mot de passe sécurisé.



La pertinence de la fonctionnalité, très pratique au demeurant, dépend directement de l’environnement informatique de l’utilisateur. S’il ne possède que des Mac et des appareils sous iOS, et qu’il n’utilise que Safari, iCloud se chargera de la synchronisation et il n’y aura donc pas besoin de se souvenir du mot de passe.





Ayez confiance, donnez nous tous vos mots de passe <img data-src=" />

Le 12/06/2013 à 12h 22

Je pense qu’effectivement la Wii U aurait dû avoir son entrée dans le sondage, genre “La Wiii U car j’aime être tout seul quand je joue en ligne, pour me familiariser avec les niveaux”

Le 12/06/2013 à 08h 30

Bon, c’est pas tout rose, mais en fait pour se faire une meilleure idée de la situation, il faudrait savoir si l’utilisation des DRM sur PS4 est:





  • facultative, mais doit impérativement utiliser un framework Sony (avec surcoût licence chez l’éditeur)

  • libre, l’éditeur peut utiliser un framework Sony mais c’est pas obligatoire, l’éditeur peut cumuler les DRM

  • non supportée: les éditeurs implémentent ce qu’ils veulent comme il le veulent et endossent le coût et la responsabilité complète du processus.





    Une autre question, par rapport à Microsoft, c’est de savoir si les DRM sur la XBOX one sont limités à ceux supportés par Microsoft ou si les éditeurs ont le droit de rajouter aussi leurs propres DRM en plus de ce qui est déjà proposé par Microsoft.

Le 11/06/2013 à 20h 19







juntawflo a écrit :



Un apple mini pro serait le top, avec des performance de fou en étant un peu plus grand + fusion drive HDD&SDD + ram changeable facilement







Ben c’est la bonne nouvelle pour toi alors… Le nouveau Mac Pro est plus proche de ce que tu cherches que l’ancien … une machine compacte, mono-cpu, double gpu, très orientée performances et pas bidouillable.

Bon, le stockage est assez radical, mais pour le reste c’est ce que tu cherches, non?



Le 11/06/2013 à 11h 25

hmm… sinon, ça a l’air d’être du mono socket… encore une régression face au mac pro actuel …

Le 11/06/2013 à 08h 40







turrican a écrit :



Perso j’aime bien le design …





J’aime beaucoup le design également… mais je vois ce système plus comme un Hyper Mac Mini que comme un successeur du Mac Pro


Le 11/06/2013 à 08h 09







turrican a écrit :



Ils ont bien du tester le bouzin en réel, c’est évident, après pour les extensions propriétaires et le TB il y a pas mal de discussions sur les forums pro que j’ai consultés … et là ça chauffe pas mal <img data-src=" />





Tu m’étonnes, en plus, Apple a décidé d’exercer un contrôle strict sur l’accès au thunderbolt, donc, par exemple, pour les cartes pci express en convertisseur, les constructeurs de cartes d’extension devront revoir leurs pilotes et passer par un processus de certification assez serré, ce qui semble poser problème pour ProTools HDX, par exemple, vu que le soft et le hard se parlent normalement en direct en contournant l’OS au maximum pour minimiser les latences.


Le 11/06/2013 à 07h 47







kwak-kwak a écrit :





  • 0 Port PCI express







    ça, ça va être un nouvel argument dans le divorce entre Apple et les milieux audiovisuel les plus pointus…



    Les grosses cartes de contrôle AVID, les systèmes Pro Tools, … tout ce monde se retrouve soudainement abandonné par Apple…



    Alors bon, le thunderbolt est supposé permettre de déporter ces cartes dans des boîtiers externes, mais ça va faire beaucoup de chipotage, et il faut voir que le thunderbolt offre réellement des performances suffisantes.



    Si le thunderbolt tient ses promesses, rapidement, l’accessoire le plus en vogue chez les pros va être le boîtier tour contenant tout ce que le bidon aurait dû contenir.

    Sinon, on peut s’attendre à une migration vers le monde PC.


Le 11/06/2013 à 06h 51







yukon_42 a écrit :



en tant que hate boy inconditionnel de la pomme je trouve ce mac pro….. très bien

ça change du format classique, c’est ce que j’attends d’une boite qui think different.







Perso, je trouve que c’est un très bel objet, et que dans l’ensemble c’est une workstation très sexy pour ceux qui veulent une gigantesque puissance de calcule dans un format ultra compact.









yukon_42 a écrit :



bon l’argument pas upgradable et cher… c’est vrai que Apple est connu pour ses ordi bon marché et très ouverts <img data-src=" />







Ben justement, le mac pro était dans l’ensemble une référence en la matière: un hardware de luxe, un design stylé et industriel, une facilité d’extension assez correcte, le tout pour un prix relativement compétitif face aux bécanes équivalentes chez Dell et HP. Ici, le nouveau Mac Pro ne fait pas trop honneur à cet héritage est s’inscrit plus dans la succession du Mac Mini que dans celle du Power Mac / Mac Pro…


Le 10/06/2013 à 21h 53

Sympa le Mac Bidon …. sérieusement, c’est un design très radical qui devrait ravir ceux qui veulent une belle boîte desing à côté de leur écran, mais pour les utilisateurs exigeants qui étaient habitués à la flexibilité du hardware des versions précédentes, ça ne va pas le faire…. Pas rackable, stockage interne trop limité, pas upgradable…. ça va finir en petit Mac Bidon, plus grosse tresse de câbles, plus le pib d’une nation en voie de développement en boîtiers externes thunderbolt.



En fait, c’est un Mac Mini pro…

Le 11/06/2013 à 14h 55







spidy a écrit :



Sony a retenu la leçon du CELL.







Technologiquement, le CELL avait beaucoup de sens à l’époque… par contre Sony s’est bien fait saigner par IBM pour le coup… et n’a pas su suivre avec les kits de développement par rapport à un Microsoft bien rodé sur le sujet.



A l’époque, il n’y avait pas de CUDA, il n’y avait pas d’opencl, le gpgpu était encore loin, le multicore en était à ses balbutiements pour les architectures grand public, …


Le 10/06/2013 à 14h 55







Fuinril a écrit :



J’ai de très fort doutes sur les raisons qui le poussent à tout déballer…



Personne ne me fera croire qu’un type qui a été embauché par la CIA et la NSA, qui a effectué des missions d’espionnage sur le terrain, etc… donc qui sait très bien - nettement mieux que quiconque ici - ce qu’il risque et la quasi impossibilité d’y échapper, balance tout ça sans raison. D’autant qu’il ne tente même pas de se cacher…







Ben il ne balance pas sans raisons, c’est un cas de conscience… bon de nos jours, en avoir une n’est plus très accepté socialement, mais ça arrive encore …



Reste que quand tu balances un truc pareil anonymement et que t’as le début du commencement de l’ombre d’un doute d’avoir été identifié, ta meilleure chance de récupérer un peu d’espérance de vie, c’est de t’exposer au grand jour le plus vite possible.







Fuinril a écrit :



D’autant que ce genre de type est connu pour être retors… ce n’est très certainement qu’un des rares coups mineurs visibles dans une partie d’échec qui nous dépasse complètement. Pour qui il joue ? Pourquoi ces “révélations” dont tout technophile se doutait ? Pourquoi “assumer” et révéler son identité ? Il y a bien plusieurs hypothèses qui viennent immédiatement à l’esprit mais sans autres pièces du puzzle impossible d’y voir clair.







La beauté de la politique est que tant que tout le monde s’en doute mais qu’il n’y a pas de preuves, personne n’a réellement de comptes à rendre. Tant qu’on reste dans le domaine du doute et de la rhétorique, c’est facile pour nos sociétés de ne pas se remettre en question. On en reste à “la guerre c’est mal”, “on ne fait pas d’omelettes sans casser des oeufs, …” , mais dès qu’on a une info solide comme par exemple le nom d’un officier ayant ordonné un massacre de civiles, ou d’un organisme ayant violé la constitution en faisant de l’espionnage de masses, garder la tête dans le sable devient beaucoup plus difficile, pas impossible, mais beaucoup plus difficile, parce qu’il y a des noms, des dates et des actes.


Le 07/06/2013 à 11h 21

Message des gouvernements US et européens aux internautes:



Utilisez office 365, google docs et les autres svp, cessez d’utiliser des fichiers locaux.

Le 07/06/2013 à 09h 41

Le problème en Australie est que la liste de blocage imposée aux FAI est conçue en dehors de tout processus démocratique et fait l’objet de clauses de confidentialité qui empêchent toute analyse citoyenne à postériori.


Le 04/06/2013 à 15h 20







t-la a écrit :



Kick Off 2 puis Fifa 96. Voilà qui résume de façon assez exhaustive ma carrière de joueur de jeux de foot.





Moi mon dernier jeu de foot, c’était Sensible World of Soccer…<img data-src=" />


Le 03/06/2013 à 15h 14

ça n’a presque rien à voir, mais je me demande à quoi ressembleront les stats des victimes d’accidents traversant la rue avec des lunettes de réalité augmentée…

Le 30/05/2013 à 14h 11

Sympa, depuis le temps qu’on dit que ça surchauffe, ils nous font maintenant la fonction grille-pain <img data-src=" />

Le 30/05/2013 à 13h 23

“Ni roues ni cheminée, c’est quoi ce bordel?”

un chef de projet chez lian li

Le 30/05/2013 à 10h 14







arobase40 a écrit :



Les gouts et les couleurs…







Exactement… remarque, ça répondait à un message très peu nuancé également de quelqu’un qui a des positions très absolues… (rien de mieux que COD, rien de mieux que Touchwizz, rien de mieux que Samsung …)





Le 29/05/2013 à 21h 08







darkdestiny a écrit :



Oh un comique <img data-src=" />

J’ai adoré ton argumentation, tes citations et comparaisons envers les autres références…ou pas.

J’avais espéré être autre chose qu’un troll, désolé je dois me tromper de site.









Sérieusement, …. CoD … <img data-src=" />



ça sent le champ de distortion de la réalité… Après coup ça ne m’étonne pas que tu déconsidères à ce point les autres constructeurs de smartphones…


Le 29/05/2013 à 17h 47







darkdestiny a écrit :



Quand les concurrents proposeront mieux à tout point de vue, ce qui aujourd’hui n’est pas le cas.





Déjà, les concurrents ne proposent pas touchwiz, ce qui est un grand avantage en leur faveur <img data-src=" />



Ensuite, Samsung ne vise pas la qualité mais la quantité: suffit de voir l’ensemble de la gamme Galaxy, il y en a pour tout et n’importe quoi à n’importe quel prix.



Alors bon, ils ont bien entendu de bons produits, mais là ils en sont plus à l’effet de mode.



Maintenant, en ce qui concerne Nokia, si ce dernier vendait des smartphones sous Androïd avec le savoir faire Nokia, ils seraient imbattables, mais bon, leur objectif et de faire prospérer Microsoft à tout prix.


Le 29/05/2013 à 12h 27







CR_B7 a écrit :



Qui chauffe a mort, avec des usb qui merdent et une valse des chipset moins fini les un que les autres.



Le seul avantage de cette époque a été de lancer Intel dans une grosse remise en question.







D’accord pour la chauffe sur les premiers modèles (dépourvus de protection contre la surchauffe, un comble)… Pour le reste, les cheapsets VIA étaient de loin le plus gros problème.



A côté de ça, le K7 a servi d’alternative face au Pentium 4 de première génération qui nécessitait un type de mémoire abominablement cher et sans réel avantage face à la SDRAM.



Et puis il y a eu le K8 qui a mené l’architecture x86 sur les sentiers du 64bit, sentiers où Intel refusait de s’aventurer pour favoriser l’Itanium dans les gros systèmes quitte à sacrifier le desktop. Et même en 32 bit c’était une alternative bien agréable face aux P4 chers et bien trop chauds.


Le 22/05/2013 à 08h 31







batoche a écrit :



Le raisonnement se tient, mais bizarrement on parle d’industrie du divertissement aux US face à la culture en Europe.







Faut arrêter de se croire plus vertueux que les ricains… Regarde un peux les camions de comédies franchouillardes poisseuses qui sont déversées sur les écrans chaque années, les salaires exorbitants que leurs têtes d’affiche touchent ( cfr Vincent Maraval et sa tribune dans Le Monde), le tout subsidié à mort et en dépit du bon sens, ou d’un quelconque sens artistique.





Les américains ont bien entendu de camions de grosses daubes (rentables pour le coup), mais ils ont aussi de bons films et de (très) bonnes séries.


Le 21/05/2013 à 21h 50







FelX a écrit :



A voir aussi le BeagleBone Black qui est sorti récemment est très intéressant pour avoir autant PLUS de gpio que les arduino est plus puissant que le Pi (enfin un peu ^^‘) pour la même gamme de prix, a savoir dans les 35€.

:)





65 GPIO sur le beaglebone black… et une puissance cpu plus adaptée (ça ne sert à rien d’avoir plein de gpio si le cpu ne suit pas….)


Le 15/05/2013 à 19h 17







Ricard a écrit :



Quand tu vois les prix de l’IFC6410, de la Cubox etc… ça n’a strictement rien à voir.<img data-src=" />









Oui, mais le beaglebone black, pour les projets robotiques, c’est vachement plus intéressant que le raspberry pi…


Le 14/05/2013 à 13h 54

Feraient mieux de faire un format facile à ripper au lieu de mettre en place tout le chipot téléchargement/codes d’accès/expiration…



A mon humble avis, les fichiers téléchargés seront avec une jolie signature dissimulée pour identifier qui a laissé trainer ses fichiers sur bittorent….

Le 13/05/2013 à 11h 11







Edtech a écrit :



Il y a exFat.







C’est bien ce que je dis, il n’y a pas de FS sous windows qui soit réellement adapté à la flash…



exFat est un fs un peu amélioré par rapport à FAT, avec une régression pour la récupération de données (table d’allocation unique sans copies), et fonctionnellement loin derrière le NTFS. Le tout bien entendu sans offrir des éléments spécifiques aux besoins de la flash comme la gestion d’usure.



C’est juste un outil pour Microsoft pour optimiser les royalities des constructeurs d’APN, de tablettes/smartphones et de GPS.


Le 13/05/2013 à 09h 16







ldesnogu a écrit :



Tu n’auras surement pas les meme perfs qu’avec les 128 Go internes ; apparemment MS a fait des efforts sur la flash interne qui est un veritable SSD pas une carte SD alacon <img data-src=" />







Il vaut mieux, car sinon NTFS ferait la peau à la carte SD en quelques semaines d’utilisation. Dommage que Windows n’ait pas de FS réellement adapté à la flash comme ubifs ou même jffs2, ça réduirait fortement le coût et la complexité du stockage sur flash (ssd plus simples)


Le 13/05/2013 à 08h 24







Simfr24 a écrit :



Je me suis mal exprimé : elle existe mais n’est pas nuisible, elle est même positive puisqu’elle prolonge la durée de vie des puces…







Non, elle ne prolonge pas la durée de vie des puces, c’est la gestion d’usure du contrôleur qui le fait.

Notons tout de même que les contrôleurs font de la compression et peuvent allouer un peu plus qu’un bloc logique sur un physique, et que dans certains contextes, une fragmentation des données sur la vue logique du périphérique pourrait éventuellement provoquer un peu plus d’écritures de blocs physiques que s’il n’y avait pas de fragmentation (p-ex petit incrément à la fin d’un fichier)


Le 13/05/2013 à 07h 57







Mr.Nox a écrit :



C’est de la mémoire flash, il n’y a aucune fragmentation.







Techniquement, il y a autant de fragmentation sur de la flash que sur n’importe quel stockage de masse. La différence entre un disque magnétique et un SSD est que la fragmentation a beaucoup moins d’impact sur le second car le temps d’accès est constant.



Même la ram fragmente.


Le 10/05/2013 à 08h 55

circulez citoyens, vous n’avez plus le droit de contrôler si les urnes n’ont pas un double fond…

Le 08/05/2013 à 21h 32







coolspot a écrit :



Même si pas assez couteaux suisse comme Photoshop. En fait faudrait de la concurrence pour que GIMP se bougent le cul là, je trouve qu’il stagne parce que dans le domaine du libre c’est la référence et qu’aucun autre logiciel ne lui arrivent à la cheville.



Il y a Krita qui est assez prometteur même s’il semble peu performant quand on bosse avec de grandes images.







sr17 a écrit :



Pour être passé sous Gimp depuis des années, je peux dire que Photoshop n’est pas indispensable. Du moins pour ceux qui sont passé au dématérialisé et ne font plus qu’occasionnellement de l’impression papier.







Pour être utilisateur de Gimp depuis très longtemps, je peux dire que Photoshop n’est pas indispensable si on est prêt à passer beaucoup plus de temps et qu’on n’enchaîne pas les manipulations sur les courbes des différents canaux. Triturer la dynamique d’une photo peut rapidement déboucher sur des dégradés avec des bandes et une perte général de la richesse du contenu… Sous photoshop, avec le support 32 bits, tu peux manipuler ta dynamique pendant des jours avant de voir un impact type bandes dans les dégradés, sous Gimp, il suffit d’hésiter un peu et d’enchaîner quelques manips pour commencer à voir une dégradation.



Bref, pour les pros, Gimp = logiciel pour les ultra rigoureux qui planifieront leurs opérations avec beaucoup de structure , photoshop = logiciel pour les perfectionnistes qui revisiteront la pile d’opérations à la dernière minute.


Le 08/05/2013 à 13h 05







hurd a écrit :



Techniquement sûrement mais je peut t’assurer que c’est extrêmement important tout de même..







Prend Blender, par exemple: l’interface est très différente des autres produits du marché mais pourtant de plus en plus de pros y passent…



Gimp est un produit bien plus visible que blender, bien plus utilisé chez le grand public, et pourtant les pros le snobent encore car il y a des fondamentaux qui manquent.







Para-doxe a écrit :



Nul besoin de prendre un aire condescendant. Gimp va passer au moteur GEGL dès que les derniers plugins y seront porté. GEGL permettra le support 1632 bits par canal dès la prochaine version et l’édition non-destructrice dès la suivante. Ça permettra aussi de grandement simplifier le dév.







Ah, sans doutes que ce sera une architecture bien plus clean et plus pro mais c’est aussi beaucoup plus tard… A ce stade on peut se poser la question d’à quel point le gimp pre-gegl est mauvais d’un point de vue architecture pour avoir eu besoin d’un tel chantier pour rattraper le coup.

Je sais, la critique est aisée, mais il suffirait qu’on arrête de comparer Gimp à toshop pour qu’on regarde Gimp pour ce qu’il est: un excellent outil pour le graphiste occasionnel et la publication web.


Le 08/05/2013 à 11h 36







hurd a écrit :



Et gimp, avec l’apport de la nouvelle interface fenêtre unique va être bien plus «jouable» je pense. Parce que je me rapelle des vieilles interface de gimp, encore en 2.6 ça allait mais avant c’était vraiment… particulier <img data-src=" /> .







Le problème n°1 de gimp en usage pro, ce n’est pas l’interface… <img data-src=" />

Quand Gimp aura un support 1632 bits par canal (comme photoshop depuis 1990) et un système d’édition non-destructive (comme PhotoShop depuis 1998), on pourra reparler de l’interface comme frein à l’adoption dans le monde professionnel.


Le 08/05/2013 à 09h 47







after_burner a écrit :



Une fois de plus,“l’absence” des tiers sur console n’est pas le plus inquiétant c’est historique. Ce qui est plus inquiétant, c’est absence de Nintendo lui même pour ses gros titres.



Bah, au prochain super mario/zelda/metroid/pokemon ce sera la ruée…


Le 08/05/2013 à 09h 41







dmann a écrit :



Comment Nintendo a t’il pu gagner le combat face à Sega, je ne comprendrais jamais comment on peut préférer un Plombier bedonnant à un Hérisson ultra rapide <img data-src=" />



Et Sega innover bien plus en terme de console.







Nintendo était beaucoup plus gros que Sega, et avait à l’époque beaucoup plus de revenus diversifiés. Sega de son côté avait déjà le demi-échec de la Saturn derrière lui et les effets d’annonce de la PS2 ont eu raison de la Dreamcast.


Le 08/05/2013 à 09h 31







ol1v1er a écrit :



Le piratage de la Dreamcast était ultra simple, sans puce le jeu se lancé sans aucune autre modification la sécurité avait été bâclée.







Lancer un jeu déjà piraté sur la dreamcast était assez simple, mais copier un jeu original n’était pas du tout à la portée du premier venu.



Ça changeait de la PS où il suffisait d’avoir la puce dans la console pour faire fonctionner des copies “maison” des disques.



Dans les deux cas la sécurité était assez pourrie…


Le 08/05/2013 à 09h 06







bultom a écrit :



C’est beau la crédulité , c’est juste de la peur de s’investir sur une plateforme jeune , c’est tout .







La peur ou juste pas envie? Les éditeurs n’ont pas vocation à assurer à leurs frais la survie de toutes les plateformes. S’ils ne voient pas de potentiel commercial dans la Wii U, ça peut être soit parcequ’ils ne sont pas capables de voir son énorme potentiel, soit qu’elle n’en a effectivement pas assez pour justifier l’investissement.



Suffit de regarder la Wii, hors Nintendo, les éditeurs se bousculaient pas dessus pour sortir de grands titres. Et Nintendo de son côté ne brossait pas non-plus les éditeurs tiers dans le sens du poil.


Le 08/05/2013 à 08h 10







bultom a écrit :



La Xbox 360 et la Wii U partage le même type d’architecture , et un portage de l’un a l’autre est très aisé . De plus , le cpu/gpu de la Wii U est légèrement plus véloce que la 360 (on a bien vu ce que ca donnait avec NFS) .







Faudrait en fait voir si Nintendo n’a pas rogné sur des détails importants, genre interconnexion, bandes passantes internes, placement des caches, latences,…







bultom a écrit :



Et puis l’argument “ ca n’est pas la clientèle de Nintendo” , bah euh j’ai bien envie de dire non , ca pourrait l’être , si les éditeurs tiers n’étaient pas tant frileux et se bougeaient un peu le fion -.-







Ben oui, mais les éditeurs et les studios, ils veulent gagner de l’argent, et s’ils ont l’impression qu’ils ne vont pas rentrer rapidement dans leurs frais, ils vont peut-être mettre l’investissement en basse priorité et voir si ça change.



La Wii U est un canard boîteux, surtout avec la PS4 et la nouvelle XBOX à l’horizon, passer du temps à porter le code sur la wii U n’est paut-être pas aussi prioritaire que de se préparer à la sortie des machines de Microsoft et Sony.



Et puis bon, c’est pas comme si l’histoire de Nintendo était pavée d’une saine collaboration avec les éditeurs tiers.


Le 08/05/2013 à 07h 42







metaphore54 a écrit :



Bof, ce n’est pas sa clientèle.





Yep, la wii première génération fait un véritable carton dans les maison de retraites et les centres de rééducation, si Nintendo peut renouer avec son attitude “ceux qui n’aiment pas le tout-casual n’ont qu’à aller se faire voir”, il a une chance de renouer avec le succes.



Ce n’est pas d’un Battlefield dont la Wii U a besoin, mais d’un Fruit Ninja, d’un Angry Birds, d’un FarmVille… Nintendo devrait ignorer E.A. et faire un partenariat avec un acteur comme Zynga.


Le 07/05/2013 à 21h 00







coolspot a écrit :



Donc c’est interdit de critiquer les juifs c’est ca ?







Ah, mais pour moi on peut critiquer les juifs, les arabes, les blancs, les blondes, les nains, les vieux, les bébés, les handicapés moteurs, les powerpoints avec des chats et le reste… du moment que ça ne devient pas prétexte à se défouler sur une minorité avec des relents douteux…









coolspot a écrit :



D’une c’est quoi la définition d’une pub “pas trop intrusive”. C’est du même genre qu’être semi-libre c’est ca ?

Quand à trouver une pub sur Internet non intrusive ca n’existe tout simplement pas vu que la définition même d’une pub est l’intrusion dans l’espace commun.







Disons que espace commun, selon ta définition, c’est un endroit où il n’y a que toi qui y met ce que tu veux et qui choisi le papier peint…



Si tu ne veux pas de pubs sur ton espace commun à toi-même, il suffit d’activer adblock en connaissance de cause.







Un adblock total par le FAI aurait l’intêret de démocratiser pouyr Mme Michu l’anti-pub.



La façon de procéder de Free n’a rien de démocratique, c’est de l’instrumentalisation de ses abonnés pour obtenir des gains non liés à leur bien-être.







Ce qui à terme non seulement soulagera l’utilisateur mais en plus tuera ce modèle économique vampiriste qui ne fait que servir les intérêts de Google de toute façon vu que la publicité sur internet ca ne passe que par Google à cause de la fainéantise de tous ses Webmaster qui veulent pas se casser le cul à utiliser une autre régie.





Google est un rouleau compresseur, certes, mais comme tous les rouleaux compresseurs, il fait du travaille de masse, il y a toujours de la place pour les acteurs qui maîtrisent leurs domaines et qui connaissent leur clientèle. Toutes les régies pub n’ont pas disparues avec Google, celles qui survivent ont généralement des modèles commerciaux plus efficaces.





Alors honnêtement que ce business modèle s’écroule et Google avec serait une excellente nouvelle. Après que PCInpact et consort ferme boutique parce qu’il n’auront pas su se renouveler : ben tant pis et tant mieux ca fera émerger d’autre site qui seront bien meilleurs.





Si le modèle commercial de Google s’effondre car inadapté au marché, je n’ai aps d’objections. Si le modèle commercial de Google s’effondre parceque les opérateurs ont décidé de pratiquer l’extorsion, là je vois un problème.







Ben c’est une question de choix. Vaut mieux être le pion politique de Free (en le sachant) et avoir pour compensation la fin de la pub. Plutôt qu’être l’idiot utile qui défend le CA de Google sans même le savoir via des arguments comme la neutralité du net.





La neutralité du net n’a pas été inventée par google, elle lui a servi à se hisser à sa position actuelle. Tant que cette neutralité est présente, d’autres peuvent également se hisser et éventuellement reprendre des parts de marché à Google. Si cette neutralité disparaît, ll sera difficile pour un nouvel acteur de venir se positionner: le consommateur ne sera plus l’internaute mais le FAI et ce dernier sera de-facto le bénéficiaire d’un marché concurrentiel en lieu et place de l’abonné.



Pas de neutralité = pas de libre concurrence. Maintenant, ce n’est pas parcequ’il y a neutralité qu’il ne peut y avoir une régulation de la concurrence et des interventions en cas d’abus de position dominante, mais ça, ce n’est pas le boulot d’un FAI douteux mais bien de la justice









Et au final je préfère défendre les intérêt d’une entreprise française qu’une entreprise Américaine : Préférence national oblige.





La préférence nationale, l’argument de la dernière chance de ceux qui ne savent pas entreprendre ni séduire le public avec leurs produits… Tant qu’à le faire, autant le faire jusqu’au bout et relancer en fanfare le minitel dont tu sembles tellement tenir aux qualités d’ouverture.