votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 30/05/2013 à 02h 31







altazon a écrit :



Facebook, indispensable puisque tout mon entourage ne communique que via Facebook.



Je ne connais personne qui utilise Twitter ou G+.







Change d’amis… <img data-src=" />


Le 30/05/2013 à 00h 01

Un réseau social, mais pourquoi faire ?



Quand on a un ordinateur, on a pas besoin d’amis <img data-src=" />


Le 30/05/2013 à 02h 23







Iridium a écrit :



Plutôt que de prendre une alim à la capacité deux fois suppérieure à tes besoins, il peut être plus intéressant d’en choisir une dont la dissipation termique est bien calibrée quelle que soit sa charge, non ?







Remarque très pertinente.



Dans la logique, la puissance indiquée sur les alimentations devrait effectivement corresponde à ce qu’elles peuvent délivrer dans de bonnes conditions, c’est à dire sans faire trop de bruit, sans perdre en rendement et sans trop tirer sur l’électronique. Bref, quand j’ai besoin de 500 watts, je choisit une alimentation de 500 watts. Ca tombe sous le sens…



Sauf que cette alimentation n’existe pas.



Et il y a une raison facile à comprendre : Elle serait trop chère par rapport à la concurrence et ne se vendrait pas. Parce que ça reviendrait à étiqueter 500 Watts une alimentation qui chez le concurrent serait marquée 800.



Il faut savoir que la presse n’est pas en mesure de faire des tests à long terme qui mettraient en valeur la différence, ce serait donc pour les constructeurs de l’argent fichu en l’air.



Je vous propose d’aller voir un site qui s’appelle Jonnyguru et qui fait de bons tests d’alimentation. Vous verrez qu’a la puissance Max, les alimentations chauffent beaucoup, perdent en rendement, perdent en qualité de filtrage (ripple).



Et encore, la on parle de bonnes alimentations. Dans le noname, certains n’hésitent pas à étiqueter une alimentation à une puissance largement supérieure à ce qu’elle peut délivrer, même pour un court instant.



Conclusion, si vous accordez de l’importance à la fiabilité à long terme et au silence de fonctionnement, ajoutez toujours de la marge à celle des constructeurs.


Le 29/05/2013 à 22h 12







kypd a écrit :



Pour la Conso si elle va en réduisant je pense en effet que les alims 400W et + ne seront nécessaire que pour les très grosses configs.



J’ai mesuré un Core i5 2500k (sandy) + 8 go + Radeon HD7870 OC + SSD à 230W max à la prise pendant un OCCT sur une Alim 350W 80+Gold… (et OCCT charge beaucoup trop le GPU, en jeu la conso à la prise varie entre 150 et 190W)



Si la config général moyen de gamme réduit d’une 10aine de W pour le processeur et que ça n’empire pas coté Carte Graphique, 250~300W de bonne qualité sera largement suffisant pour des machines en dessous des 1000E.







La 7870OC ne consomme pas tellement http://www.hardware.fr/articles/883-16/consommation.html).



Et furemark/OCCT ne sont pas la bonne façon de mesurer une consommation.



Et le fait de dire “je consomme 300 watts, donc une bonne alim de 300 watts c’est bon” n’est pas la bonne façon de raisonner.



Ce qu’il faut voir, c’est surtout la température de l’air de sortie de ton alim quand tu est sur un jeu bien gourmand.



Pourquoi ? Parce que ça donne une idée de la température des composants. Et le taux de panne des composants électroniques double pour chaque 10° supplémentaires.



Ne parlons pas des nuisances sonores, beaucoup d’alims ne sont plus silencieuses passé 50% de charge.



Le 29/05/2013 à 21h 57







flodousse a écrit :



Moi j’ai du mal a evaluer le poids des disque durs sur la consommation dans l’alimentation…

Est ce que une config disont avec un i7 + 660 ti mais avec 10 disque durs une 500 watts suffit toujours si tout les disques fonctionnent en meme temps ? combien de watt rajouter par disque durs ? car la plupart du temps, les conso sont donnés pour un disque dur…









Voici quelques données :http://www.hardware.fr/articles/888-14/consommations-temperatures.html



Par contre, il faut compter sur une consommation plus importante au démarrage quand les disques durs se lancent. Mais le CPU et le GPU étant peu chargés à ce moment la, ça devrait compenser.



Conclusion : Un peu trop serré quand même avec 500 watts.



Moi te conseillerais 650w au mini et 750 pour être au large.



Le 29/05/2013 à 16h 26







David_L a écrit :



Disons qu’avec une carte graphique pour du jeu, on arrive tout de même facilement à 400 watts mesurés à la prise. Après quand je vois des mecs opter pour du 700800 watts pour une machine avec une 660 Ti, ça me fait sourire, oui <img data-src=" />







D’un autre côté, une alim poussée à son maximum, ça chauffe, ça fait du bruit, ça perds en rendement et ça s’use beaucoup plus vite(source : les courbes des fabricants de composants).



Pour ma part, je n’hésite pas à sur dimensionner un peu les alims et le refroidissement et je vois la différence en terme de fiabilité <img data-src=" />.



Le 29/05/2013 à 21h 18







z00p a écrit :



Ouais, c’était pour la jouer “1%” à l’envers… Tu es le seul à avoir relevé :)



En fait, et en dehors de la perche trollesque tendue, celà voudrait dire qu’une grande proportion des “linuxiens” (je hais ce mot, un peu comme “windowsiens”) ne sont donc pas des protocommunistes barbus enfermés dans leurs caves devant un terminal, mais que si on leur propose quelque chose, certes non libre, et pourri de DRMs, avec du contenu, ils sont prêt à payer pour… Tiens, encore un vieux cliché qui se viande sur le mur de la réalité.



Au fait, t’as bien payé tes licences pour Photoshop, Windows 8, MS Office, Artlantis, AutoCAD, Cubase, Ableton Live, ShowRoom, Lightwave 3D et Cinema4D, Windows Server 2012, Exchange avec les CALs qui vont bien, non? <img data-src=" /> - Je dis ça comme ça, hein, parceque pour chacun, il y a une alternative libre et gratuite, et qui couvre quasiment tous les besoins d’un professionnel, donc, un pékin derrière son PC chez lui, en calebutt… - mmmh?







Maintenant, et pour revenir au sujet de l’article, sérieusement: Une bonne partie des commentaires se focalisent sur “la barre des tâches”, etc…Bref, des problèmes de “on m’a changé mon interface, ouin”, hors, qu’il s’agisse de windows ou d’ubuntu, il est toujours possible d’installer soit des “correctifs”, soit d’autres environnements de bureau/gestionnaires de fenêtres. Bien que je ne sois ni pro-windows ni pro-Ubuntu (ni anti, d’ailleurs), franchement, c’est pas comme si vous n’aviez pas les moyens de chercher un minimum et d’obtenir les procédures à suivre en, allez, 5 minutes, et encore, c’est que vous êtes fichtrement lents. Et ici, on est quand même pas chez les lusers, si?







Et ouais, mais il y a encore beaucoup de gens qui piratent et qui n’ont pas réalisés que les logiciels propriétaires, ce n’est pas gratuit.



Jusqu’au jour ou le BSA fera une visite chez eux(pour les pros, contrôles réguliers) ou qu’une perquisition (ça peut arriver même aux gens honnêtes, il suffit d’une dénonciation calomnieuse) tombera sur leurs pile de CD pirates.



Et ce jour la, ils verront la facture : le prix d’une belle maison ou d’une vie de travail pour une simple pile de CD.



Et oui, vu le prix de certains logiciels comme Autocad ou Photoshop qui sont hors de prix et le fait que ce jour la vous payerez le DOUBLE du prix du commerce, la facture peut grimper très vite.



Nous sommes dans un monde ou le capital et l’argent sont mieux protégés que les droits de l’homme.



Ne piratez pas, ne piratez plus : les logiciels libres sont la.



Le 29/05/2013 à 16h 52

Ce commentaire de Shuttleworth n’est pas étonnant dans la mesure ou Windows 8 et Ubuntu ont “innové” en utilisant exactement les mêmes paradigmes (repris de l’iPad).



Mais il est très amusant de le voir défendre sa position à l’heure même ou le verdict des ventes est tombé pour Windows 8 comme un désaveu.



Alors ils pourront toujours monter ensemble un club des génies incompris pour incriminer ces idiots d’utilisateurs qui ne comprennent décidément rien.



Quand à ceux qui aiment Unity et Windows 8 (sisi, il y en a <img data-src=" />), cela prouve que tous les goûts sont dans la nature.


Le 29/05/2013 à 16h 57



France Télécom nous dit adieu





Tout comme la France d’ailleurs…

Le 28/05/2013 à 17h 28







Abused a écrit :



Donc si je comprends bien l’arret de la court de cassation

desormais il faut :





  • un dossier et un sous dossier sur la racine de la boite mail avec en intitulé

    PERSONNEL COURRIERS PERSONNELS

    ou un truc du genre … comme le cas du des dossiers personnels sur l’ordinateur de l’employé qui doivent etre formates de telle maniere a ce qu’ils soient identifies comme etant pesonnels ainsi que leurs contenus



    a ce propos, il y a tout de meme un cas de litige :

    il suffit que le salarie soit en periode de preavis, periode pendant laquel il continue de travailler tout en ayant latitudes pour chercher un autre poste dans une autre boite …, pour que l’employeur l’attaque sur Faute graves en incriminants les echanges de mails avec d’autres boites du meme secteur que celle qu’il quitte …







    Tu veux mon avis ? C’est un coup à emmerdes.



    Imaginons simplement le cas ou l’employeur changerait le nom de ce dossier juste avant le passage de l’huissier.



    L’employé ne pourrait même pas prouver qu’il avait intitulé son dossier “Personnel”.



    Et paf, dans l’os…



    Conclusion, si vous voulez être tranquille, utilisez une messagerie séparée auquel l’employeur ne peut pas avoir accès.




Le 28/05/2013 à 16h 16

Hum, imaginons qu’un employeur mette une connexion internet à disposition d’un employé à des fins de télétravail, la messagerie disponible dans le cadre de cette connexion ne pourrait plus être considéré comme privée ?



Même si je ne suis pas complètement en désaccord avec cette jurisprudence, je pense qu’il vaudrait beaucoup mieux que les limites soient posées de manière un peu plus claires.



Un droit insuffisamment précis crée de l’insécurité juridique.

Le 28/05/2013 à 16h 33







Dr.Wily a écrit :



C’est vraiment n’importe quoi… comme d’hab c’est encore un type de mo5 qui est derrière ca. Décidément le prosélytisme ils connaissent quand il s’agit de faire de la propagande faussement subtile pour leur secte.







Lol



Je ne connaît pas personnellement les gars de MO5, mais je ne vois pas en quoi leur démarche serait critiquable.



La préservation de l’histoire informatique ne serait pas un but louable ?



Et pourquoi les objets informatiques n’auraient pas un intéret historique au même titre que le d’autres objets ?



Il y a au moins une raison qui montre tout l’intérêt économique de cette préservation : Le jour ou il faudra prouver que telle ou telle grosse multinationale a breveté des concepts qui existent depuis belle lurette pour se les approprier.



Et croyez moi, beaucoup de bonnes idées sont tombées dans l’oubli avec le temps. C’est une mine d’information sans pareil.


Le 28/05/2013 à 16h 25







AxelDG a écrit :



C’est juste un effet de mode… tu crois vraiment que cet engouement va dépasser une génération d’enrichies à gros budget.

Je veux bien qu’on soit nostalgique mais ça fait 10 ans que je pratique les émulateurs toutes plateforme confondues…. et si ça peut m’empêcher de me faire défoncer l’anus avec du gravier, je préfère autant.



Maintenant stocker un meuble moche qui contient des cartouches moches MAIS qui coûte la peau des couilles dans son salon, ça n’a certainement pas de prix. <img data-src=" />







Non, cela n’est pas un effet de mode.



Un émulateur ne peut pas restituer l’ergonomie d’une machine et bien d’autres choses qui sont bien plus importantes qu’il n’y parait.



Après, je suis d’accord qu’il faut savoir raison garder sur l’intérêt des choses. Je ne suis pas sûr qu’une cartouche “pré version” pour aussi rare qu’elle soit vaille vraiment les prix élevés demandés.



Pour moi, ce n’est pas forcément la rareté qui fait l’intérêt de quelque chose, mais plutôt son intéret informatif et historique.













Le 27/05/2013 à 21h 31







Jarodd a écrit :



Ils vendent certains Game & Watch que j’ai ! Entre 80 et 120 euros, je sens que je vais encore les garder quelques années <img data-src=" />







Ouais, ce n’est pas très cher quand on songe à ce que ça coûtait en neuf (par rapport au niveau de vie de l’époque).





Mais pour certains, c’est quand même cher… Une GB NB + 2 jeux bien répandus pour 150 euros, c’est un poil excessif, c’est vieux mais pas rare.





Sans doute que les gars qui ont côté ça n’ont pas une très bonne connaissance de ce marché.


Le 27/05/2013 à 18h 37







Bourriks a écrit :



Un peu abusé, les prix pour des articles certes rares et intéressants, mais que l’on trouve facilement dans n’importe quel vide-grenier, à condition d’être patient, pour bien moins cher.







Vous raisonnez toujours comme si le temps ne coûtait rien.



Le temps et l’argent, c’est exactement la même chose.



Si tu doit payer quelqu’un pour aller chiner pour toi, ça te même probablement plus cher.



Le 28/05/2013 à 01h 31







tmtisfree a écrit :



Nous n’avons pas fait ce système, il émerge naturellement des échanges que font entre eux la multitude d’individus qui y trouve un avantage (satisfaire leur besoins).

Par contre tous les autres systèmes dirigés que nous avons tenté de faire ont historiquement et systématiquement tous périclité dans le sang et les larmes. Les problèmes que tu y vois ne sont qu’une illusion de la réalité déformée par le prisme des médias aux ordres des beaux parleurs en recherche électoraliste.







Non, il n’a pas émergé “naturellement”. Ce sont les hommes qui ont décidé des règles et des lois.



Nous sommes loin d’un système régi par l’anarchie ou les lois naturelles.



C’est même tout le contraire.





Le question serait plutôt : Pourquoi en sortir ?





Simplement parce que l’humanité va dans le mur. C’est mathématique.



La compétition qui mène aux guerres, c’était très fâcheux à l’époque des canons.



Mais ce sera terrifiant avec les armes que l’humanité possède aujourd’hui. Et sans doute même fatal.



Il y a deux facteurs dont les historiens savent qu’ils mènent tout droit à la guerre(oui, cela s’apprend à l’école). La compétition économique et l’explosion démographique.





Bien que je pense que le système de brevet (et plus généralement tout ce qui touche à la propriété intellectuelle) soit moralement (et légalement) plus que discutable, la focalisation (entretenue : voir comment ce pseudo-problème refait surface régulièrement) sur les positions dominantes de quelques grandes entreprises est un faux problème : dans les pays à l’économie que l’on qualifie de “relativement libre”, plus de la moitié de l’appareil industriel n’est pas coté en bourse (CAC40, etc), et les grandes entreprises sont l’exception (reines médiatiquement apparente) plutôt que la règle (les fournis entrepreneuses que personne ne connait vraiment, mais qui sont tout autour de nous).





Le problème n’est pas une question de nombre mais le fait qu’une entreprise de trop grande taille finit toujours par poser de nombreux problèmes.



Même les pays les plus libéraux comme les USA avaient des lois pour l’éviter. Mais depuis que les pays font la guerre économique, ils hésitent à affaiblir leurs “champions nationaux”.





Le dirigisme économique piloté à la baguette par une brochette d’incompétents ne fonctionne pas.





Ce qui m’amuse dans ce genre de discussion, c’est qu’il est difficile de sortir des idées reçues. Les uns récitent leur catéchisme en disant que le marché, c’est mauvais, de l’autre les autres qui disent que le dirigisme c’est mauvais.



Le pire, c’est que les deux camps ont raison.



Mais ils citent toujours des exemples extrêmes pour justifier leurs propos et nous faire comprendre que le nirvana est forcément à l’extrême inverse.



C’est la ou les deux camps ont tort.



La réalité d’une vraie économie qui fonctionne n’est ni dans le dirigisme total ni dans le libéralisme total, mais dans un juste milieu bien choisi entre les deux.



Le problème n’est pas de savoir s’il vaut mieux trop de règles ou une absence de règles, mais d’en avoir la bonne quantité et d’avoir les bonnes.





Ce sont eux qui font la pluie et le beau temps dans l’économie et l’emploi. Malheureusement ce sont aussi eux que les ploucs qui pensent nous gouverner ont promis d’appauvrir pour se faire élire.





Ne parlons pas du marché qui leur à fourni la possibilité de s’endetter.



Mais tu as raison, il ne faut pas réguler. Laissons le monde continuer de faire n’importe quoi.





Il fait fuir les talents, les capitaux, et, statistiquement parlant, ce ne sont pas les grandes ou les petites entreprises qui créent le plus d’emplois, ce sont les moyennes, càd le centile de personnes le plus riche qui possède plus de la moitié de l’appareil industriel (cf ci-dessus).





La réalité est malheureusement beaucoup plus complexe que ces dogmes simplistes.



Mais il faudrait passer beaucoup de temps pour expliquer pourquoi l’entreprise compétitive et moderne ne créera plus assez d’emploi pour tout le monde, pourquoi la plus-value comptable n’est pas représentative du bonheur apporté à l’humanité et bien d’autres choses encore.





La nature reprend toujours ses droits. Le seul moyen naturel d’avoir le maximum d’acteurs économiques dans un secteur est de le laisser se développer sans intervention : choisir artificiellement le(s) gagnant(s) conduit nécessairement à éliminer tous les autres, càd le contraire du but recherché.





Tous les grands industriels qui nous chantent à longueur de journée les louanges du libéralisme dérégulé sont bien les premiers à demander que l’état protège leurs intérêts quand cela les arrange.



Et tous les jeunes qui sortent d’école de commerce que j’entends réciter ce beau catéchisme n’iront jamais visiter une banlieue pourrie pour voir ce que le mot “absence d’interventionnisme” peut vraiment signifier.



Alors le “faut laisser faire naturellement sans règle”, il faut toujours le comprendre de la manière suivante “il faut faire les règles qui m’arrangent à moi et seulement à moi”.



Et bien n’importe qui devrait comprendre que tout ça c’est de la foutaise. L’humanité doit faire les règles qui sont bonnes pour le genre humain et c’est tout.



Parce qu’un monde sans règle, ça n’existe pas.





Aujourd’hui, la plupart des politiques voient les entreprises comme des armes pour leur intérêt tout court. Moins ils pourront mettre la main dessus, moins ils auront ces armes entre leurs mains pour leur jeu de Kindergarten puéril, égoïste et destructeur.





Exact.



Les politiciens voient les entreprises comme des armes. Les pays voient les entreprises comme des armes.



Au travers des entreprises, l’humanité continue de faire la guerre et des victimes.



Tout cela durera tant que l’on ne mettra pas un terme à la compétition économique.



La compétition c’est la guerre.



Mais il est vain de croire qu’en soustrayant l’entreprise au pouvoir du politique on réglera le problème. C’est même tout le contraire.





Comme dit ailleurs, tant que la seule proposition politique acceptée sera de voler Paul pour le donner à Pierre, n’importe quel politique aura la moitié des votes acquis. Il ne lui restera plus alors qu’à s’assurer qu’il y aura toujours suffisamment de Pierre.





Parce qu’il ne s’agit pas de faire cela.



Faire des règles qui sont bonnes pour l’humanité, ce n’est pas faire de la démagogie de classe.





Le seul système de redistribution sociétal naturel, pertinent et ayant universellement fait ses preuves est l’échange volontaire, mutuellement consenti et enrichissant, ie l’économie de marché (libre). Le reste n’est que vaine tentative d’imposer un ‘ordre’ à un système qui crée nécessairement son ordre propre pour exister.





Je pense sincèrement que vous idéalisez trop l’idée d’un monde sans règles sans vous représenter vraiment les problèmes que cela produit en pratique. Voir même à les nier.



D’ailleurs, quand on fait remarquer que la dérégulation du monde se solde par une catastrophe, les ultra libéraux vous diront toujours que c’est parce qu’on ne fait pas assez de dérégulation.



Comme les Shadoks qui disaient que plus ça rate, plus il faut continuer de Rater pour espérer réussir.



L’ultra libéralisme est décidément une idée aussi dangereuse que le marxisme.


Le 27/05/2013 à 20h 11







Jed08 a écrit :



Le monde change.

Les mentalités non ! On est toujours pas dans le monde des bisounours, il y aura toujours des gens qui profiteront du travail d’autrui.







Un système mondial basé sur la domination économique aboutit précisément à ce qu’une minorité puisse profiter à loisir du travail des autres.



Oui, nous ne vivons pas dans un monde de bisounours et c’est pour cette raison qu’il faut les bonnes règles pour empêcher les vrais abus. Ceux dont les livres d’histoire nous disent qu’ils engendrent les guerres ou l’esclavage.





Non.

Pas quand les systèmes se basent sur l’intégrité des gens.





Il ne s’agit pas de se baser sur l’intégrité de quiconque mais simplement de signer l’armistice d’une guerre économique qui ne rends pas le monde meilleur.



Le système économique actuels tends à récompenser la domination par des bonus permettant d’accroître encore la domination.



N’importe quel mathématicien peut expliquer que c’est un système qui tends naturellement vers le déséquilibre et l’inéquité.



Au final (je carricature un peu, mais c’est l’idée) ce système aboutit après un certain nombre de cycles à un seul riche et tous les autres pauvres.





La bonne recette dépend uniquement de l’époque. Quand les époques change il faut trouver un nouveau système, mais pas recycler les anciens parce qu’on les a pas vu échouer dans le nouveau contexte.





Classer les solutions économiques de manière dogmatique comme s’il y en avait des bonnes ou des mauvaises, c’est précisément l’état d’esprit qui est en train de conduire l’Europe à la faillite économique.



Nous pouvons constater ou mène le “sérieux économique” prôné par des “spécialistes” qui savent ce qui fonctionne et ce qui ne fonctionne pas ;)







Le problème c’est qu’on ne peut pas non plus réussir avec des recettes déjà obsolètes à l’époque de ces économies,





Ouvrez un livre d’histoire, constatez ou mène inéluctablement la compétition économique. Ensuite, demandez à un scientifique de vous dire à quoi pourrait ressembler la 3eme guerre mondiale.



Vous aurez compris que limiter la compétition économique n’est pas une idée obsolète mais au contraire une question de survie pour l’humanité.



Le 27/05/2013 à 16h 40







WereWindle a écrit :



+1 ! passons d’un paradigme à son opposé (tous deux datant d’il y a deux siècles ! (c’est un sarcasme là…)







Le monde change. La situation n’est plus la même.



Ce qui n’était pas adapté il y a deux siècles peut se révéler parfaitement adéquat aujourd’hui.



Cessons de croire qu’en matière d’économie, il y aurait de bonnes ou de mauvaises recettes. Le manichéisme ne fonctionne pas mieux dans l’économie qu’ailleurs. La bonne recette à appliquer dépends de la situation. Ce qui peut tuer dans une situation peut sauver dans une autre.



La catastrophe, ce sont tout ces gens dogmatiques qui pensent que la seule voie raisonnable serait de ne rien changer… alors même que le monde change tous les jours.



Il est évident que nous ne pouvons pas réussir la mondialisation avec les recettes issues de l’époque des économie autarcique.



Le 27/05/2013 à 16h 16

De quoi se plaint t’on ?



Nous avons fait un système économique qui amène inéluctablement à des positions dominantes, que ce soit d’une entreprise ou d’un pays.



Avec tous les problèmes que cela suppose.



Comment en sortir ?



Dans un premier temps, il faudrait “casser” tous les systèmes économiques qui permettent de verrouiller des position dominantes. Par exemple, le système des brevets.



Il faudrait également rééchelonner la fiscalité afin d’alourdir les taxes sur les très grandes entreprises pour les alléger sur les petites. Cela afin de favoriser le développement de nouveaux entrants et des entreprises de plus petite taille.



Parce que le monde se portera mieux s’il y a plus d’acteurs sur le marché.



Aujourd’hui, la plupart des pays voient les entreprises comme des armes dans la guerre économique, oubliant les leçons de l’histoire : une guerre qui commence par l’économie se finit par les armes.



Le 21ième siècle sera celui d’un changement économique radicale pour un développement économique mieux partagé… ou celui de la 3ième guerre mondiale.

Le 26/05/2013 à 17h 01







raoudoudou a écrit :



Les documentations ont toujours été sommaires parce que les programmeurs n’étaient pas censés sortir des clous. Mais en fait, pour reprendre le cas du CPC que je connais bien, les docs existaient ailleurs, chez les fabricants tiers (puce audio, floppy, …) et se baser sur ces docs plutôt que du reverse, c’est ce qui fait qu’ACE est plus fidèle que les autres émulateurs, avec moins de resources. Dont actes ;)



Bref, faire du reverse, c’est bon à faire un émulateur usine à gaz, jusqu’au prochain bout de code tricky qui fera planter l’émulateur parce qu’on sortira une nouvelle fois des clous, au lieu d’émuler la puce correctement.







Non, faire du reverse, ça sers surtout à comprendre comment un circuit fonctionne et comment il se comporte dans les situations non documentées.



Et les fabricants de composants donnaient rarement les vrais schémas internes des circuits. Ils donnaient juste les informations pour en faire un usage normal. C’est ce qui est souvent insuffisant pour écrire un émulateur, précisément quand les programmeurs ont utilisé des fonctions “non documentées” et/ou “non officielles”.







Le 26/05/2013 à 16h 49







raoudoudou a écrit :



Je voulais rebondir aussi sur cette idée reçue qu’il faille plus de resources pour une émulation plus détaillée.



Beaucoup d’émulateurs ont été écrit par des informaticiens qui n’ont pas de notions en électronique. Résultat, le comportement de la machine est mimé, imparfait, et surtout fondé sur des bases mauvaises. Du coup, pour améliorer l’émulation, on patch, on ajoute des rustines (super bien optimisées hein, en assembleur et tout) mais ça reste lourd et lent.



Alors que d’autres émulateurs sont écrits en C pur, mais par des gens qui connaissent le fonctionnement interne et électronique des puces. Et au final, on se retrouve avec des programmes moins optimisés certes, mais aux algorithmes bien plus simples et justes. L’émulation est pourtant meilleure et utilise moins de resources. Mais cela demande une connaissance approfondie de la machine. On a de beaux exemples dans les émulateurs C64.







Tout à fait.



Pour avoir une émulation la plus exacte possible, il faut souvent descendre jusqu’à comprendre le fonctionnement interne de certains circuits. Cela demande effectivement d’avoir une compréhension de l’électronique sous-jacente et pas seulement de la façon dont elle se programme. Malheureusement, même les ordinateurs les mieux documentés ne l’ont jamais été à ce point la. Ils ont été documentés pour être programmés, pas pour être émulés.

Et il va sans dire que plus on cherche à coller au fonctionnement de l’électronique, plus on doit simuler des mécanismes et interactions parallèles, plus c’est gourmand en ressources.

Mais aujourd’hui, on peut profiter de la puissance de nos CPU modernes pour améliorer la précision des émulations.



Mais l’émulation parfaite, ce serait de simuler chaque transistor de la machine émulée (ce qui supposerait d’avoir le schéma interne des circuits, mais cela est possible et déjà fait pour certains). Et cela, même nos CPU modernes n’ont pas assez de puissance pour émuler les milliers de transistors, même à la vitesse des vieux 8 bits. C’est le problème dont je parlais plus haut.



Mais c’est par contre possible avec les circuits à logique programmable.



Le 26/05/2013 à 16h 24







raoudoudou a écrit :



Je n’ai jamais dit le contraire. Je dis que c’est simple à faire, pas que ça ne demande pas de travail, saisis-tu la différence?



Si, si, c’est simple, on est là encore, sur un manque de documentation. Et souvent, ces modifications sont proposées par d’anciens programmeurs qui connaissent tous les petits trucs (Les évolutions de Winape, par exemple, sont le fait de demomaker, même si c’est Wilson qui se paluche le code au final)







Bah, quand on est un ancien programmeur, on sait ou l’on prenait tous nos trucs et astuces à l’époque. Sauf qu’a l’époque on ne disposait pas d’internet.



Alors il ne faut pas venir me dire que c’est plus compliqué aujourd’hui avec internet alors que tout est quasiment disponible en ligne pour qui veut se donner la peine de chercher.



Bah oui, se documenter c’est compliqué, ça l’a toujours été et ce n’était pas plus simple hier qu’aujourd’hui.





Tu n’as toujours pas l’once d’un début d’explication à ton argumentation. Et pour cause, les faits sont contre toi. Les émulateurs tournent du feu de dieu…





Je n’ai jamais dit que les émulateurs tournaient mal, j’ai simplement expliqué pourquoi ils demandaient de la puissance pour émuler des machines bien plus modestes.



Mais visiblement, tu cherches à avoir raison pour avoir raison sans même te donner la peine de lire ou de comprendre ce que ton interlocuteur écrit.





Le problème du CPC+, c’est surtout que son Asic est buggué jusqu’à l’os…



Non, il y a plus de 4 chipsets graphiques sur le CPC qui ont chacun des comportements différents ET utilisés par les développeurs de jeux vidéos, en particulier sur la fin de vie de la machine.





Et tu penses que c’est un cas isolé ?



La plupart des machines connues ont eu plusieurs révisions différentes de chipsets. Et les bugs étaient courants.





Encore une fois, tu racontes n’importe quoi. Le problème du CPC, c’est sa complexité cachée et le manque de documentation.





Ca c’est une erreur. Toutes les machines ont leur complexité cachée.



Tu crois qu’un Amiga est documenté au point de pouvoir écrire un émulateur “cycle exact” sans faire du reverse enginering ?



La partie la plus complexe d’un émulateur, c’est toujours les derniers 5% qui ne sont JAMAIS documentés.



Les ordinateurs étaient documentés pour que les programmeurs puissent écrire des programmes. Aucun ne l’a jamais été au niveau nécessaire pour écrire des émulateurs. Cela suppose que toute personne devant écrire un émulateur devra faire pas mal de reverse engineering.





D’ailleurs, y a un super émulateur bien propre (ACE) qui tourne sur Amiga et qui a été programmé par une des plus grosses tronches sur CPC (Offset). Son développement a été très court.



Pourquoi? Parce qu’il connait la machine sur le bout des doigts.



Une preuve de plus que:




  • c’est simple

  • il faut être documenté



    Conclusion: t’as la doc, ça va vite, t’as pas de doc, c’est bugué et ça prend du temps.





    C’est pas une question de doc. Le gars connaissait très bien la machine, c’est tout.



    J’ajoute en tant que programmeur qu’il est impossible de savoir combien de temps un programmeur à bossé sur un projet ni depuis combien de temps il le mûrit réellement.





    Tu as raison, ce qui fait disparaitre par magie le coût des traitement, c’est la puissance du CPU. Et ça tombe bien, les CPU modernes sont beaucoup plus puissants que les oldies qu’on émule. Elle est pas belle la vie?





    Les CPU modernes ne font pas disparaître le coût du traitement, ils ont simplement la puissance nécessaire pour y pourvoir. C’est une nuance, mais elle est importante. Et c’est bien tout le sens de mon propos initial qui s’adressait aux gens qui peuvent imaginer intuitivement que l’émulation d’une ancienne machine signifierait que leur CPU tout neuf se croise les doigts.





    ps: Ah oui, devine quoi, c’est moi qui vait faire le portage d’ACE sur les autres plateformes <img data-src=" />





    Super. Mais cela dit, sans vouloir dévaloriser ton travail(qui sera foncièrement utile), il faut quand même bien dire que le fait que porter un émulateur, ce n’est pas du tout le même type de travail que d’en écrire un <img data-src=" />



    Quasiment, quand un émulateur est bien écrit et qu’il n’a pas besoin de faire des trucs “tricky” sur la plateforme hote pour gagner de la vitesse(Ce qui est le cas d’une émulation d’un vieux 8 bits), tu n’as pas grand chose à comprendre de son fonctionnement. Grosso modo, tu appelle une fonction du kernel d’émulation pour chaque frame en lui passant l’état des entrées et tu récupères le buffer image et celui du son en sortie.



    Évidement, j’ai un peu simplifié. Dans la pratique il y a évidement pleins de petits détails et je sais très bien que cela représente un certain travail de faire un bon portage. Mais ce que je veux dire, c’est que cela peut être fait sans grande connaissance de l’émulation.




Le 25/05/2013 à 20h 30







raoudoudou a écrit :



Ben en fait si, c’est simple, quand c’est bien documenté.







Le fait que cela soit documenté n’empêche en rien que cela demande un énorme travail parce qu’il y a énormément de petits détails à gérer. De nombreux circuits qui ont chacun leur fonctionnement interne, des dizaines de registres ou chaque bit peut déclencher un comportement particulier, des interdépendances complexes entre les circuits qu’il faut obligatoirement gérer. Et je ne parle même pas du fait qu’il faut souvent émuler les périphériques associés comme les lecteurs de disquettes qui sont eux même parfois de vrais ordinateurs.



Il y a des gars qui ont bossé pendant des années pour produire de bons émulateurs. Et ce n’est pas leur rendre justice que de dire “ah bah ouais, en fait c’est simple”.



Non, ce n’est pas simple. Un bon émulateur, c’est beaucoup de travail, ça ne s’écrit pas en quelques jours. Pour certains émulateurs, les gars y bossent depuis des années. Rien qu’a lire les changelogs de certains émulateurs, on est impressionné par la quantité de travail qu’ils font à chaque version.





Le plus difficile est souvent d’avoir accès à de l’information non documentée et d’émuler des bugs matériel. C’est d’ailleurs pour cette raison que l’amstrad CPC+ n’est toujours pas émulé correctement, alors que le C64 et ses copros, la megadrive ou même la super NES passe sans souci.

Tout comme l’Amiga 500 d’ailleurs! Il a peut-être plen de copro mais tout est documenté et il n’y a jamais eu sur cette machine de code tricky, pour une simple raison -&gt; Le hard était prévu pour.





Alors primo, je parlais de quelque chose de complètement différent : les ressources nécessaires pour l’émulation d’une machine ancienne et du fait que ce n’est pas parce que le proco mouline à seulement 8 mhz que c’est forcément hyper-léger à émuler pour un smartphone.



En ce qui concerne l’Amiga, même si cette machine était bien documenté et architecturé, c’était tout de même une machine très complexe dans son fonctionnement, ce qui rends son émulation coûteuse en ressources et en efforts (va voir les changelog de Winuae, ça te donnera un idée de l’énormité du boulot). Et de fait, les bonnes émulations de l’Amiga ne courent pas les rues.



Pour le problème du CPC, les quelques tricks utilisés demandent évidement du reverse engineering et plus de resources pour une émulation plus détaillée.

Mais rien de vraiment plus complexe que sur d’autres bécannes. Il suffit de voir la complexité du hardware d’un 800XL et des tricks utilisés par les programmeurs… et pourtant cette machine est parfaitement émulée.



De plus, le CPC partait de circuits parfaitement standards et relativement bien documentés. Et les tricks utilisés étaient connus des programmeurs.



Je pense que le vrai problème du CPC, c’est que ce n’est jamais devenu une machine culte comme l’Amiga. Et donc personne n’est prêt à y investir autant de temps que pour d’autres machines.





Par contre, pour l’Atari pour lequel l’overscan n’est pas prévu dans les docs a exploité des tas de trucs tordus qui sont plus coûteux à émuler, et il a fallu attendre un peu que des codeurs Atari (Léonard par exemple) se penchent sur la question.





Oui, ça consistait à changer une valeur dans un registre à un moment précis pour que le shifter continue de balayer au lieu de s’arrêter. Et comme il y a eu plusieurs révisions du shifter, ça ne se faisait pas de la même façon en fonction du modèle.

Mais ces tricks malpropres ont été surtout exploités par quelques démo-makers, pas tellement dans les programmeurs commerciaux. Déjà pour une bonne raison, c’est que ça ne fonctionnait pas sur tous les ST.





Bref, c’est faux, on émule très bien ce genre de machine avec des CPU à quelques centaines de MHz et on se cogne complètement qu’il y ait plusieurs puces qui tournent en simultané ou pas, vu que c’est é-mu-lé. On fait ce qu’on veut au cycle près.





En attendant, un Amiga c’est à peine correctement émulé sur un Smartphone à 1Ghz.



L’émulation n’est pas une baguette magique qui peut faire disparaitre par magie le coût de traitements parallèles. Si tu regarde un jour le code d’un émulateur, tu comprendra qu’il y a juste des bonnes optimisations qui permettent de ne pas tout simuler ou de ne simuler que ce qui est utilisé. Mais ce n’est pas toujours possible quand un circuit génére un état qui évolue de manière complexe au cours du temps et qu’il y a de nombreuses interdépendances entre les circuits.



En conclusion, je t’engage à relire ce que j’ai écrit, a comprendre ce que j’ai dit et ce que je n’ai pas dit. Faire cela avant de contredire fait gagner du temps à tout le monde.







Le 25/05/2013 à 18h 30



Une jouabilité qui n’est pas trop mauvaise, pour une fois





Oui, mais non.



Pas trop mauvais n’est pas suffisant.



Avoir une excellente commande est la condition siné qua non pour prendre du plaisir avec les jeux d’action d’il y a 20 ou 30 ans.



On ne le redira jamais assez. Parce que si on ne le dit pas, les jeunes passeront complètement à côté de ces jeux.




Le 25/05/2013 à 18h 13







brazomyna a écrit :



c’est vrai que c’est quand même une sacrée prouesse que de faire tourner un jeu de megadrive (un motorola 68k à 7MHz avec 70ko de RAM) sur un dual core de 1 GHz.



<img data-src=" />









raoudoudou a écrit :



Ce n’est pas une émulation, c’est une adaptation.



Et quand bien même. Émuler, ça ne bouffe pas un facteur 100, même en java.







Pas si simple.



Un ordinateur ou une console, ce n’est pas juste un processeur, c’est aussi bien d’autres circuits plus ou moins compliqués et coûteux à émuler en terme de resources.



Le problème de l’émulation, c’est qu’on émule du hardware qui traite des données de manière parallèle avec un processeur qui est fondamentalement une unité de traitement plutôt sérielle. (L’IPC reste faible).



Le résultat, c’est qu’un processeur à 1Ghz suffit tout juste à émuler certains matériels qui tournaient à seulement 8Mhz. Par exemple, l’Amiga est une machine complexe à émuler.



D’autres sont moins couteux à émuler. Mais ce n’est jamais “léger” en terme de ressources.



Après, pourquoi vouloir toujours que les choses s’inscrivent dans une “logique de l’exploit” ? D’ailleurs, les exploits, cela n’existe pas. Tout n’est qu’affaire de travail.









Le 25/05/2013 à 16h 07







Ballos a écrit :



Bof, c’est plutot un echec selon moi. En cause un prix excessif pour le service rendu.

Ils ne peuvent évidement pas baisser les prix car ils entreraient en concurrence avec les circuit de vente. Bref vivement la mort de ces industries de la musique.







Bah, 5€ par mois pour écouter tout ce qu’on veut, je ne trouve pas cela excessif.



Et s’il y a quelque chose à améliorer dans le système, ça serait de faire en sorte que ce soient les artistes qui touchent l’argent et non les majors.


Le 24/05/2013 à 23h 49







Nithril a écrit :



OpenGL ne gère que la 3D bas niveau. Un jeu ce n’est pas que ca.











arno53 a écrit :



DirectX gère la partie reseau audio etc … C’est une grosse boite a outils. là ou OpenGl ne peut etre comparé qu’a Direct3D … Enfin a confirmé <img data-src=" />







Ouais, enfin quand même. C’est pas la mort d’écrire le peu de code nécéssaire pour interfacer les commandes/son/réseau et quelques autres babioles en fonction du système. Sans compter que ça existe déjà tout fait.



Dans l’ensemble, un jeu vidéo est un programme qui se porte relativement facilement à partir du moment ou l’on utilise une API standard pour l’affichage.



Et si vous n’êtes pas convaincus, regardez le nombre de petits indépendants qui arrivent à proposer leurs créations sur plusieurs plateformes. Rien que les dans les jeux Humble Bundle, il y a de quoi voir.



Le 24/05/2013 à 23h 25







Pochi a écrit :



Principalement des TPS (LA Noire ou Tomb Raider par exemple), probablement des RPG multiplateforme mais je pense me prendre aussi un jeu de baston pour la forme







Pour les TPS, je suis plutôt adepte de la souris et du clavier, a mon gout le pad n’y est pas beaucoup plus adapté que pour les FPS. Pour le reste, il faut voir. Si un jeu requiert plutôt un contrôle tout ou rien, c’est plutôt la croix. Et ça dépends du type précis de jeu. Par exemple, les RPG ça dépends s’ils sont en 2D ou en 3D. Mais le plus souvent, ça marche aussi bien en clavier-souris.



Dans le doute, il est possible que tu ait intéret à acheter plusieurs types de commandes. Pour le stick analogique, c’est plutôt le pad de la 360, pour la croix, c’est plutôt un pad type Sony PS, mais je ne saurais pas lequel te conseiller.



Ca peut paraître compliqué, mais le confort dans un jeu dépends de la qualité des commandes. Pour ma part, je n’hésite pas à switcher entre différentes commandes dans le même jeu. Par exemple dans les GTA-Likes, c’est clavier-souris pour le contrôle du personnage et je prends le pad dès qu’il y a un véhicule à conduire. La plupart des bons jeux PC de ce type supportent de passer de l’un à l’autre.



Le 24/05/2013 à 16h 30







Pochi a écrit :



Oui c’est plus ou moins les avis que j’ai vu un peu partout mais le stick à la place du pad me fait un peu peur… c’est que niveau consoles je suis quand même resté sur la … SNES (bon un peu de PS2 et de DS aussi) je suis plus à l’aise avec la croix directionnelle que le stick.



J’aurais bien craqué pour une manette razer pour être raccord avec mes autres périphériques kikoo-pgm (clavier - souris - nostromo <img data-src=" />) mais elle a l’air cher (deux fois le prix de la x-manette…ouch !) et pas super fiable.







En pratique, c’est pas mal.



D’ailleurs, personnellement, j’ai acheté un PAD xBox pour mon PC et c’est vraiment bien. La position du stick est idéale, celle de la croix l’est un peu moins.



Donc je dirais que tout dépends de quoi tu compte te servir. Mais en pratique, le stick sers beaucoup plus que la croix, du moins sur l’usage que j’en fait sur PC ou cela ne sers que pour les jeux de voiture.



Le 24/05/2013 à 16h 27







Lafisk a écrit :



j’ai une manette PC et Xbox 360 et je confirme, elle passe partout.



la croix ne te servira pas à grand chose dans les jeux aujourd’hui, il vaut donc mieux que le pad soit à la place de la croix, cette dernière servant plus souvent à des fonctions annexes qu’à la direction maintenant. Puis tu ne pourras jamais être aussi précis avec la croix qu’avec le joystick.







Je confirme que les croix ne sont pas aussi précises que les vrais joysticks.



Quand aux mini joysticks analogiques sur les pads, ils peuvent être assez précis, mais uniquement en analogique.


Le 24/05/2013 à 16h 24



« leur architecture ont une génération d’avance sur le meilleur PC du marché ». Du point de vue des performances, on a du mal à imaginer comment une PlayStation 4 peut damer le pion à un PC équipé par exemple d’un Core i7-3930K, d’un SSD et de deux GeForce GTX Titan en SLi, mais il faut peut être voir sa déclaration sous un autre angle.





Et ils ont tout à fait raison.



En faisant sauter le goulet d’étranglement entre CPU et GPU d’une part, en donnant au CPU une bien meilleure bande passante d’autre part.



Et ce ne sera pas la première fois que des innovations et changements d’architecture sont introduite d’abord sur console. Rappelons nous la Playstation, la Nintendo 64 et bien d’autres exemples. Les consoles ont par exemple intégré du hardware pour traiter les graphismes texturés bien avant les ordinateurs.



La raison de ce retard sur PC, c’est que tout changement d’envergure sur PC demande d’adapter beaucoup de choses. Déjà au niveau logiciel, mais également de la façon dont les pièces d’un PC sont faites par différents fabricants.



Mais cela viendra. Et comme d’habitude, quand la techno débarquera sur PC, elle sera bien plus puissante que son implémentation console dont les couts sont très comprimés.

Le 24/05/2013 à 21h 29







jpriton a écrit :



Ils devraient plutôt s’occuper des vrais problèmes à la base plutôt que de resserrer l’étau des quelques libertés qu’ils nous restent pour rester Incognito sur la toile.



Par exemple nettoyer les cartiers chauds où même la police n’ose plus intervenir.

c’est ça les vrais zones de non droit.







Si c’était aussi simple…



Le 24/05/2013 à 21h 00







RaoulC a écrit :



Sauf que je vois pas le rapport avec ce que j’ai dit mais bon <img data-src=" />



Sinon, plutôt d’accord sur le fond de ton message, malgré quelques énormités <img data-src=" />







C’est d’ailleurs tout à fait logique.



Quand nous ouvrons un livre d’histoire, nous n’avons pas à nous demander si les choses qui y sont décrites vont se produire étant donné qu’elles se sont déjà produites.



Mais revenons à la période précédant les événements les plus funestes de l’histoire et demandons nous combien de gens y auraient cru si on leur avait donné un livre d’histoire du futur ?



Ce qui est frappant, c’est qu’avant les guerres, la plupart des gens ne croient pas à la possibilité de ce qui va pourtant se produire.



C’est amusant de constater ce phénomène à posteriori.







js2082 a écrit :



Même problème que le monsieur du dessus.



Y aurait-il des liens, des sources ou des écrits quelconques pour pencher la balance en ta faveur?



Les prémices de ce que tu annonces? Faudrait peut-être donner un peu plus d’indices que ce simple “lisez les journaux”. Et faudrait aussi apporter un certain raisonnement logique, de cause à effet, parce que là, c’est dur de faire plus vague.







Par exemple, tout ces hommes politiques qui appellent à créer une sorte de travail obligatoire sous payé (ou même pas payé) pour les exclus.

Dans d’autres pays comme la Grèce, on parle de faire des camps de travail forcé pour tout ceux qui devraient de l’argent au fisc.



Tout cela fait partie de l’actualité. Tu trouvera des liens facilement.



La encore, l’histoire nous enseigne que les idées funestes arrivent toujours en s’appliquant d’abord sur des minorités mal aimées. C’est dont un excellent indicateur des tendances possibles du futur.



Le 24/05/2013 à 16h 57







RaoulC a écrit :



De toute façon, si tu va dans un cyber, tu utilise un ordinateur PUBLIC.



A priori donc assez surveillé / verrouillé pour ne pas que tu puisse y faire genre je sais pas moi, télécharger des ISO Linux en torrent <img data-src=" />



Un proprio de cyber raisonnable dispose déjà d’outils suffisants à mon avis. Ne serais-ce que pour ne pas se faire pourrir son biz par le premier kikoo qui va faire une connerie à partir de son cyber <img data-src=" />



Au bout d’un moment, quand tu emploie un terminal qui est FORCEMENT “monitoré” (aie) tu te fais attraper après (je parle du kevin de base hein) et tu assume ta connerie.



Pour moi pas besoin de tellement de “renforts” de surveillance dans les cyber.



Le côté inquiétant de la proposition de ce sénilateur UMP (faute volontaire) c’est de vouloir étendre la surveillance massive directement chez les opérateurs…



Pour l’instant la surveillance, c’est dans des cas précis et uniquement avec l’aval d’un juge si je ne m’abuse.



Mais bon, ca fait bien dans son club , taper sur le grand-méchant-Pédo-Ternet







Personnellement, je pense que les marchés financiers nous mènent réellement vers la dictature. Il suffit de voir ce qui se passe en Grèce pour s’en convaincre : Fascisme et camps de travail nous rappellent les heures les plus sombres de l’histoire. Et ce n’est pas théorique, il suffit de lire les nouvelles venant de Grèce pour avoir les cheveux qui se dressent sur la tête.



Une fois qu’on a compris que les financiers ont tordu les lois pour que les créanciers soient mieux protégés que les droits de l’homme, on comprends vite quelle est la seule direction que l’on peut prendre.



Des pays que l’on aura rendu “endettés”, les gouvernements n’auront comme seule solution que d’ouvrir des camps de travail dans lesquels ils enverrons leurs citoyens de gré ou de force.



Une nouvelle forme d’esclavagisme en somme…



Ps: Lisez les journaux et écoutez ce que disent certains hommes politiques. Vous trouverez les prémices de ce que j’annonce.


Le 24/05/2013 à 15h 57

L’accumulation de technologies anti hacking fera qu’un beau jour, cela ne sera plus possible ou alors très difficile.


Le 24/05/2013 à 03h 08







lossendae a écrit :



MGS, et FIFA.

Et encore Fifa est juste une vaste blague <img data-src=" />



et ? Si ce sont les jeux qui me plaisent je m’en tape qu’ils soit grand public.

Comme si un jeu grand public est forcément mauvais. Commentaire de bobo ça…







Poussons la réflexion jusqu’au bout : si un jeu te plait aussi sur une autre console, tu achètera aussi une deuxième console ?



Quelque part , il y a toujours un moment ou il faut savoir renoncer à quelques envies si l’on ne veut pas se faire plumer par le système commercial.



Je pense que tu sera d’accord avec moi.





Jouer au clavier à autre chose qu’un FPS/MMO/RTS est une expérience détestable.

Fifa au clavier… <img data-src=" />





Tout à fait. C’est aussi le cas des jeux de conduite.



Mais sur PC, on peut aussi utiliser un pad et de nombreux jeux donnent le choix.





Si le seul jeu qui me plait est un jeu de foot, et que je juge qu’il est excellent, c’est pas sr17 qui va me faire changer d’avis (ni les millions de joueurs qui y joue avec moi).

T’as pas le monopole du bon goût hein.





Bien sûr. Mais globalement, ce que je voulais dire, c’est que la logithèque console est beaucoup plus fournie en jeux “casuals” que la logithèque PC. Globalement, ça veut dire qu’on ne rate rien. Mais il peut y avoir aussi des exceptions.





Pas si tu veux juste jouer à des jeux qui n’existent que sur consoles.





Et pourquoi certains jeux ne sont disponibles que sur consoles ? Et pourquoi certains sur certaines consoles et pas d’autres ?



Pas de secret, plus le consommateur acceptera cela, plus le système commercial engendrera ce type de segmentation.



C’est logique puique plus on segmente le marché, plus on peut obtenir d’argent du même consommateur <img data-src=" />.





J’ai dit pas de desktop.



Je n’ai plus qu’un laptop, insuffisant pour jouer dans de bonne condition, mais dont je suis pleinement satisfait.



Je vais quand pas acheter une tour juste pour jouer ? Et encore, je pourrais même pas jouer au jeux qui me plaisent, ce qui en ferais un achat inutile…





Le laptop est rarement une bonne machine en tant que telle : moins durables, pas évolutive, pas upgradables. Les tours ne sont même pas vraiment plus cher à l’achat.





Et si je remplace le laptop par la tour, je me retrouve avec une machine occupée pendant que je joue, et ma femme dans son coin.





Quand on est deux, il faut juste acheter deux PC. Comme cela, les deux peuvent faire des activités créatives, jouer, regarder des vidéo, surfer sur le web ou écrire du courrier en même temps.



Pour ma part, j’aime mieux jouer avec ma femme que de faire chacun des activités séparées chacun dans notre coin.



En réalité, ce n’est pas plus cher d’acheter un PC qu’une console. Comme dit plus haut, le prix des jeux compense l’écart. Et pour les petites bourses, il y a même des petits ordinateurs bien moins chers qu’une console.



Un ordinateur par personne, c’est quelque chose d’important.





Je peux aussi choisir de ne pas vouloir être créateur quand je joue à un jeu vidéo.





Bien sûr, je suis totalement d’accord. Mais la console est quand même un environnement ou il est interdit de créer. Tu imagine que des millions de parents qui achètent ça à leurs enfants ?



Et bien en achetant des consoles, on encourage un système ou l’on se rends soi même captif de “boites à consommer” ou les usages nous sont complètement dictés.





Minecraft est pour moi d’un ennui mortel.





Je pense que pour y prendre plaisir, il faut avoir été initié jeune à des jeux créatifs, par exemple les Lego/Mecanno ou autres.



Je ne dit pas que c’est bien ou mal, mais c’est la ou l’on voit que les jeux structurent l’esprit. Ce n’est pas neutre.





SimCity me botterait bien mais je n’ai pas la machine pour y jouer. Mais comme tu l’a dit on ne peut pas jouer à tout donc c’est ps bien grave.





Et oui, tu vois, de toute façon quoi que l’on choisisse il faudra toujours se priver de quelque chose.



Mais la différence, c’est surtout une différence de logique. Les deux appareils sont à base d’un ordinateur. Mais dans un cas, tu peux en faire ce que tu veux, dans l’autre tu ne peux faire qu’un usage restreint et déterminé.





ça ne regarde que toi…

S’ils ont le même “état d’esprit” que toi, ça va faire des étincelle à l’adolescence <img data-src=" />





Je ne pense pas que les jeux créatifs soient mauvais pour le développement intellectuel des enfants.





Mais je m’amuse beaucoup plus sur console.



J’y peux rien c’est comme ça ! <img data-src=" />





Je peux comprendre cela, mais c’est peut être aussi parce que ce qu’on nous propose finit aussi par orienter nos gouts.





Tout ça parce que les jeux soit disant grands public ne t’intéresse pas.

Belle mentalité.





Avec le temps, on s’en lasse. Mais surtout, c’est le fait de jouer à d’autres jeux plus complexes qui fait que l’on ne prends plus plaisir à ces jeux grand publics trop simplistes.



Le 23/05/2013 à 17h 26







lossendae a écrit :



Puppeteer

metal Gear Solid

The Last of Us

Beyond: Two Souls

Fifa (dont la prochaine version n’utilsiera ps le nouveau moteur de rendu sur PC)

Gears of Wars

Forza

Gran Turismo



Ni des FPS, ni des jeux casuals, certains de ses titre inexistant et sans equivalent sur PC.







Déja, pas mal de ces titres existent bien sur PC.



Ensuite, dans l’ensemble ça reste quand même du jeu “très grand public” tout ça.



Enfin, jouer a ça au pad, ça casse tout l’intérêt (a part pour les jeux de bagnole).





Donc oui on peut s’en passer, mais non, il n’y a pas assez de bons jeux sur PC.





Sans blague ? Tu connaît vraiment tant de gens qui ont seulement le budget pour acheter tout ce qui sors rien que sur PC ?



Sans parler du temps nécessaire pour y jouer. Pour ma part, je préfère passer plus de temps sur les excellents jeux plutôt que de dévorer au kilomètre du produit bien commercial très moyen.





Du calme Smeagol, aujourd’hui un vrai PC de jeux coûte plus cher qu’une console de jeux.





Mais on se rattrape très rapidement avec le prix des jeux <img data-src=" />



Et puis, il faut penser à étudier le business modèle des consoles avant de dire que le PC est plus cher <img data-src=" />



Ensuite, un PC sers à beaucoup plus de choses qu’une console. C’est donc un bien meilleur investissement.





Sans compter ceux qui ne veulent pas/plus de desktop.





Au siècle de l’informatique, les gens qui veulent pas d’ordinateur, ça existe encore ? Si oui, il faudra pas qu’ils se plaignent de pas trouver de boulot plus tard <img data-src=" />



Aujourd’hui, un PC est indispensable, ne fut ce que pour trouver un job ou écrire un courrier.



A partir de la, autant s’en servir aussi pour jouer.





Et jouer sur console, c’est aussi un état d’esprit, un certain conditionnement. Qui n’est pas le même que pour jouer sur PC.

La frontière est certes de plus en plus mince, mais elle existe encore.





Oui, ce n’est clairement pas le même état d’esprit. Avec une console, tu n’est qu’un simple consommateur de contenu. Avec un ordinateur, tu peux choisir d’être aussi un créateur.



Pour cette simple raison, je n’achèterais JAMAIS une console à mes enfants.





Je ne crois pas qu’il y est une plateforme supérieur à l’autre.





La différence est portant flagrante. Ne fut ce que parce qu’avec un ordinateur on peut faire quantité de choses qu’on ne peut pas faire avec une console.



Sachant que techniquement parlant, la console dispose de presque tout ce qu’il faut pour être un ordinateur, c’est tellement dommage de ne pas en faire un ordinateur.



La console, c’est juste une mauvaise logique.



Le 22/05/2013 à 22h 10







AngelSword a écrit :



J’achète surtout pour des jeux qui ne sortiront jamais sur PC, et également pour le confort d’utilisation.



Mais dans l’absolut, le PC reste la machine de jeu par excellence.



Après, je suis sous Linux depuis près de deux ans, donc une console de jeux est parfaite pour moi <img data-src=" />







En même temps, le système commercial sait bien jouer avec les exclusivités. Et il n’y a pas de solution sauf à acheter toutes les consoles.



Donc fatalement, quand on ne veut pas rentrer dans le jeu, on accepte forcément de se priver de certains jeux. Pour moi, c’est simple : Pas disponible sur PC = Tant pis pour eux.



Et franchement, ce n’est pas la mort de ne pas jouer à tout, il y a largement assez de bon jeux sur PC. D’autant que je ne me vois pas du tout jouer à des FPS avec un pad ni à des jeux “casuals”.



Je suis également passé à Linux depuis longtemps sur mon PC. Et le moyen le plus simple et le moins couteux de profiter d’un maximum de jeux, c’est d’avoir une licence Windows et de faire un dual boot. Rebooter quand on veut jouer ? Ca prends juste quelques secondes.



L’ordinateur se connecte aussi à la TV de salon et remplace aussi tous les éléments de la chaine Hifi sauf l’ampli et les enceintes.



L’ordinateur : Un seul appareil unique pour les remplacer tous.



Croyez moi, payez vous plutôt un bon PC que 36000 appareils dédiés…



Le 22/05/2013 à 18h 36

Il manque l’option “Nous les passionnés d’informatique, on s’en tape le cul des consoles, des smartphones et des tablettes.”



Quand on a mis tout notre argent dans un bon PC, croyez vous qu’on ait encore envie de claquer 600 euros dans un smartphones à l’utilité réel très contestable et dans des console qui n’apportent rien non plus à part de payer les jeux plus chers.



Moi je préfère me payer un bon ordinateur et 600€ de jeux vidéo et autres logiciels pour faire bosser des créateurs que d’acheter des tas d’appareils qui font double usage.

Le 23/05/2013 à 16h 48

41 mégapixels avec un capteur de petite taille et sans l’objectif adapté ? Quel intéret ?

Le 22/05/2013 à 16h 52

Le terme “VidéoProtection” est de toute évidence erroné et dangereux car il présume a tort de l’usage qui peut être fait. C’est donc un mensonge.



C’est comme si demain quelqu’un décidait de vendre des armes à feu “de protection” à des enfants. C’est présumer à tort que le seul usage possible soit l’usage décrit.



Une arme a feu ne protège que si l’on s’en sers dans ce sens. En elle même, elle ne fait rien d’autre que de tirer des projectiles mortels quand l’utilisateur le décide.



De la même façon, une caméra ne protège pas en elle même, elle se contente d’enregistrer des images, donc de surveiller. Le fait de savoir si on protège dépends de l’usage qui sera fait de cette surveillance.



Le fait de présumer qu’une caméra ne peut servir qu’à la protection, c’est comme présumer qu’une arme à feu ne peut servir qu’a protéger.



On voit aux USA ou mènent de tels raisonnements.

Le 21/05/2013 à 21h 24







roselan a écrit :



@david





Pas tant que ça, je suis pas trop hardware en fait. Et encore moins un fan d’amd (ou d’intel). J’y suis venu au hardware en m’intéressant au stratégies de caching (tout un chapitre ^^).



Ceci dit j’avais cru comprendre que la one serait à base de jaguar, mais ce n’est peut être pas le cas, en effet.



l’architecture générale est la même que la ps4. j’ai entendu que la ps4 supporterait le 32bit mais pas la 361 (que x64). Bref, voilà pour les rumeurs inutiles du jour (même si on s’en lasse jamais <img data-src=" />)



En tout cas, c’est un détail pour cette génération, la “politique” me semble plus importante, et différencie infiniment plus ces consoles.



Il semblerait qu’aux states la 360 est plus utilisée pour “regarder” que pour “jouer”. Un risque pour la One est qu’elle pourrait être trop orientée “US” (pas de netflix, etc ici). De plus, son cot? TV ne fait pas grand chose de plus qu’un stick usb à 50 euros.



Sony a clairement fait le pari “gamer”. Pari risqué ces jours, car les gens jouent moins (sur console en tout cas). Je pense que beaucoup de personnes attendent de nouvelles expériences, et pas seulement des explosions plus réalistes. Sony semble plus apte à répondre grâce à leur meilleur relation avec les “petits” éditeurs, et leur modèle plus ouvert. Du coup, si les joueurs en ont assez de fifa, madden et cod, Sony pourrait gagner son pari largement. Sinon, ben on verra ces prochains mois.



Beaucoup prédisent que ce sera la “dernière” génération. Les ouya, mobiles, steambox, ipads, googletv bouffent le marché. C’est intéressant de voir les réponses diamétralement opposée de MS et Sony. MS s’attaque au salon, Sony à la chambre d’ado.







Bah, le marché des console n’a jamais été un marché très stable.



Au final, il est toujours pris en tenaille par d’autres appareils plus polyvalents.



Aujourd’hui, c’est d’un côté les ordinateurs, de l’autre côté les smartphones.



Le 21/05/2013 à 20h 31

Je pense que ce qu’on voit sur la Photo montre ce qui sera le futur du PC.



Le CPU et le circuit graphique fusionnent et la RAM est montée directement autour de l’APU comme sur une carte graphique.



Cette configuration permet notamment de faire tomber les goulets d’étranglements entre CPU et GPU.



Il est possible qu’avec le temps, la RAM finisse par migrer elle aussi dans l’APU pour diminuer la latence.




Le 21/05/2013 à 17h 40

Mais ça existe déjà le contrôle vocal



youtube.com YouTube

Le 21/05/2013 à 17h 38



On a par contre appris que le contrôle vocal sera de la partie.





Mais ça existe déjà le contrôle vocal… <img data-src=" />



Preuve

Le 21/05/2013 à 17h 18







vampire7 a écrit :



C’est fou toutes les extensions qu’on trouve pour les cookies… Pour un peu, on pourrait penser qu’il s’agit d’un vrai problème. <img data-src=" />

Tu peux appeler ça de l’idéologie, il n’empêche que si les utilisateurs considèrent ça comme un problème, le succès de ton produit, qu’il s’agisse d’un site web ou d’un logiciel, est beaucoup moins garanti.



Désolé, si tu n’es pas content de la façon dont les utilisateurs visitent ton site, personne ne te force à les accepter.

Seulement, une fois que tu auras bloqué tous les utilisateurs, il servira à quoi, ton site ?



Pratiquement personne ne lit ce genre de chose. Visiter un site n’a rien à voir avec un contrat.



Oui les gens veulent tout avoir sans contrepartie. Et c’est pourquoi la seule façon de plaire, c’est de donner sans contrepartie. Si tu transformes ton site en sapin de noël clignotant pour pouvoir gagner quelques euros, ça ne plaira pas, donc soit les utilisateurs trouveront un moyen simple de passer outre, soit ils iront voir ailleurs. Mais au bout du compte, c’est eux qui auront le dernier mot.







Si les services en question décèdent faute de revenus, je doute fort que l’internaute puisse avoir le dernier mot.



Faut t’il rappeler aussi qu’une entreprise qui ne peut pas payer ses salaires et ses charges sociale est condamnée à très courte échéance ?



Donc non, il ne sera pas possible de tout obtenir sans contrepartie.



Le 20/05/2013 à 23h 32

Personnellement, je ne crois pas que cela aura un effet durable.



Parce qu’il y a toujours moyen de réinplementer le système du cookie tiers d’une autre façon.



Il est possible aussi que des sites en viennent a refuser simplement de délivrer leur contenu à ceux qui n’auront pas désactivé le blocage.



Si les sites vivent de la pub, ils vont logiquement défendre leur gagne pain.


Le 21/05/2013 à 17h 09

L’idée aurait pu être excellente si ce produit avait été proposé avec Ubuntu au lieu d’Android. (Vu les caractéristiques, il en aurait largement les capacités).



Malheureusement, Android limite grandement l’utilité de cet ordinateur miniaturisé : Android, c’est un OS simplifié pour téléphone. Ce n’est donc pas l’OS idéal pour un ordinateur.



C’est d’autant plus regrettable que le prix est quand même bien supérieur à celui d’un Raspberry Pi qui est proposé avec une vraie distribution Linux complète et donc avec une logithèque autrement plus performante.




Le 20/05/2013 à 23h 57













zogG a écrit :



Là on voit bien qu’à la base la requête est pour le film The Last Stand (ils donnent l’URL IMDB comme preuve) et le film TPB semble être la seule erreur du listing… et difficile de comprendre comment ça a pu tomber la dedans.







Très difficile, en effet…



Le 20/05/2013 à 23h 42







Glouk a écrit :



Faut se renseigner un peu : la suite, il l’a sortie depuis quelque temps déjà.

À voir sur karateka.com







Bah en tout humilité, je n’était pas au courant.