votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 25/01/2014 à 19h 00







Anna Lefeuk a écrit :



Clairement un interet pour ce produit: La compacité à un prix même si je trouve cela encore un choullia cher. Je le verrai bien comme deuxième PC gamer d’appoint pour ma moitié pour SIms 3 en full HD

Idem pour le NUC, plus pour une utilisation Bureautique

Ca va dans le bon sens







Moi, la question que je me pose, c’est l’utilité réelle de la compacité.



Il est compréhensible qu’un japonais qui habite un 2m2 puisse s’intéresser à la question.



Il est compréhensible également qu’on se pose la question pour une machine destinée à tenir dans une poche.



Mais quand on parle d’une machine fixe, est ce bien pertinent ?



Pour un européen ou un américain, je pense qu’il serait plus rentable d’apprendre à ranger son espace. Même dans un petit studio, il n’est pas si difficile de trouver à caser n’importe quel PC, même le plus volumineux des maxi tour.



Le problème de la compacité, c’est que les gens ne réalisent pas qu’il y a une contrepartie technique. Parce qu’il ne suffit pas de payer plus cher pour dépasser les lois de la physique.



Le 24/01/2014 à 19h 29







kantfredo a écrit :



C’est ridicule, les steam machines ont l’air tellement attrape pigeon, les gas qui les pondent sont bien des commerciaux ….



pourquoi coller un A8 Mobile ? une CG mobile ?



Les performances de la bêtes sont ridicules !

Rien n’empêche de mettre du vrai matos sans que ça chauffe trop , il faut simplement travailler un peut sur l’intégration !



Bref, cette machine est une aberration.







A partir du moment ou tu veux mettre du vrai matos, il faut de vrais dissipateurs bien volumineux et la ventilation qui va avec.



Parce qu’il n’y a pas de secret : puissance = transistors = consommation = chaleur.



Et faire de l’intégration plus poussée, ça peut faire gagner un peu, mais aussi faire exploser les coûts par rapport à du “standard”.





Le 24/01/2014 à 23h 57







Lafisk a écrit :



L’effort n’est pas du tout le meme avec w8 tu reapprend que quelques trucs contrairement a ce que certains veulent faire croire, il n y a pas grand chose, passe a Linux ou mac os, c’est tout qu’il faut reapprendre …







Justement, il n’y a pas grand chose à réapprendre.



A part la position du menu pour lancer les applications et quelques raccourcis, tout est quasiment comparable entre les OS. Et ce qui n’est pas comparable est relativement intuitif.



Autant dire que pour ceux qui avaient déjà l’habitude des logiciels libres sous Windows, ça ne change quasiment rien.



Pour avoir fait l’expérience avec des gens qui n’étaient pas des geeks et que j’avais préalablement habitué à OpenOffice et Firefox, je peux affirmer qu’ils ont tout de suite retrouvé leurs habitudes sous Linux.



Bien sûr, j’avais choisi l’environnement Mate qui est assez comparable dans ses paradigmes aux Windows d’avant la version 8.



Le 24/01/2014 à 22h 14







Patch a écrit :



quand elle le fait, c’est qu’il n’y a personne sur l’ordi (quand il y a mon père il l’éteint proprement, il est le seul à l’utiliser maintenant que j’habite relativement loin), donc pas utilisé et peu de chance que le disque dur gratte <img data-src=" />

une prise parafoudre met environ 100 à 200ms pour griller et tout couper, c’est 1000 fois trop lent pour éviter qu’un ordi grille <img data-src=" /> (j’ai déjà vu une carte mère griller, malgré la prise parafoudre qui a aussi grillé au passage…) sans compter qu’elle ne protège pas des micro-coupures et sautes de tension (qui peuvent faire de gros dégâts aussi), non gérés par un parafoudre.







A une époque, j’ai eu des APC E20 qui s’étaient révélés efficaces lors d’un coup de foudre. Et les ordinateurs n’avaient pas grillés.



Mais ils contenaient pas mal de composants. Et aussi de grosses selfs, sans doute destinées à ralentir le pic de tension pour permettre aux varistances d’entrer en action.



Il est possible que beaucoup de parasurtenseurs actuels ne soient composées que de quelques varistances.



Que voulez vous, nous sommes dans un monde de marketing…



Le 24/01/2014 à 19h 54







ExIcarus a écrit :



Je comprends ton point de vue , tu essaye de montrer que Linux est un équivalent de WIndows et l’effort est appréciable mais…



1- La souplesse dont tu fais mention (le fait que l’OS s’adapte a tes besoin) , c’est bien quand tu sais ce dont tu as besoin . Ca n’est pas le cas de tout le monde , et Windows de ce coté là offre un excellent point de départ . Tu arrives, tu clique sur ce qui t’interesse , c’est joli , c’est sexy . (pas besoin de apt-get , pas besoin de synaptics etc… )







Depuis quand il y a besoin d’utiliser apt-get pour faire tourner une distro Linux noob-friendly comme Ubuntu ?



Quand à Synaptic, ce n’est qu’un store ou il suffit de cliquer pour installer. D’ailleurs, ça fait longtemps qu’il n’est plus installé par défaut sur Ubuntu parce qu’il a été remplacé par le store d’Ubuntu.





2- Jusqu’à preuve du contraire , de Windows 95 à Windows 7 on a toujours eu une IHM assez cohérente qui ne nécessitait aucun réapprentissage. Utiliser Windows 8 comme exemple est un argument faible et facile puisqu’il s’agit ici de proposer une nouvelle IHM . Ca n’est pas abérant donc que les utilisateurs , se voit proposer à nouveau d’apprendre quelques mecanismes simples pour utiliser leur machine





Mais il n’est pas aberrant non plus de conclure que si les utilisateurs peuvent faire un effort pour passer à Windows 8, ils peuvent faire un effort équivalent pour passer à Linux.





Ca me fait toujours mouiller mon pantalon des personnes qui font de la publicité de Linux , en promettant ciel et merveilles avec une promesse de facilité et d’intuitivité alors que les distrib linux ont compris que depuis quelques années qu’une interface sexy est primordiale pour attirer des utilisateurs.



PS : Je précise que j’ai utilisé Linux pendant des années en dual-boot, mais l’IHM est ce qui m’a toujours le plus rebuté . Aujourd’hui je n’ai plus de ce problème





Je crois simplement que tous les projets ont besoin de maturer.



Et l’avantage de linux c’est de permettre le choix entre plusieurs interfaces.





Le 24/01/2014 à 18h 51







Tirr Mohma a écrit :



J’adhère à cette vision, qui est d’ailleurs la même chez Canonical pour Ubuntu. Avoir des bases communes au niveau du cœur du système, mais avoir une ergonomie différente pour chaque type d’appareil.







Il est évident que les entreprises ne vont pas s’amuser à développer et maintenir 15 noyaux différents et autant d’API. Donc la base commune est une idée tellement évidente que je suis surpris qu’on puisse voir cela comme une idée. C’est juste une évidence.



Après, l’erreur qui as été commise aussi bien chez Microsoft que chez Ubuntu, c’est de vouloir unifier les interfaces entre desktop et mobile, ce qui est clairement un non sens.



Le 24/01/2014 à 19h 47







DorianMonnier a écrit :



Oh mon dieu, des développeurs qui vendent leur logiciel et qui cherchent à gagner de l’argent ! Mais c’est honteux ! <img data-src=" />



Ça fait peur les commentaires parfois.







Oui, d’ailleurs il paraîtrait même que certains développeurs ne se contenteraient plus d’habiter dans un carton le long de l’autoroute.



Vouloir gagner de l’argent pour payer leur loyer, c’est dingue comment ces gens ont maintenant des goûts de luxe.



Certains pourraient rétorquer qu’on peut effectivement avoir des programmes équivalents dans n’importe quelle bonne distro Linux.



Mais ils oublient également que libre ne signifie pas gratuit. Utiliser un programme suppose moralement d’être prêt à contribuer d’une façon ou d’une autre.



Le 24/01/2014 à 19h 43

La France s’oriente clairement vers un système de censure à la chinoise qui se met graduellement en place.



Le pire, c’est que je crois sincèrement que les députés en question pensent réellement bien faire, ne réalisant pas la portée de leurs décisions ni l’ampleur des mauvais usages qui pourront en être faits par la suite.



C’est pour ces raisons qu’il faudrait d’urgence remplacer cette génération de politiciens par des gens qui sont au courant des problématiques et des enjeux de l’internet.




Le 22/01/2014 à 21h 31







le podoclaste a écrit :



Non, mais je sais. Ce n’est pas la première qu’on rêve d’une technologie longtemps avant d’en profiter. Par exemple, regarde les voitures volantes. Entre le moment où on les a imaginé et le moment où on en a profité, il s’est passé <img data-src=" />



Euh, non, rien.







La science fiction a fait erreur sur un point important : elle à postulé sur le fait qu’on découvrirait rapidement des sources d’énergie compactes, puissantes et sans inconvénients majeurs.



Cela n’a pas été le cas.


Le 22/01/2014 à 21h 19







le podoclaste a écrit :



Et dire qu’à une époque, on espérait la voir percer avant 1997.







C’était aussi le cas des écrans tactiles au début des années 80.



http://www.revistaproware.com/2013/08/14/hp150-la-primera-pc-con-pantalla-tactil…



A cette époque, personne n’imaginait qu’il faudrait 30 ans pour que la technologie tactile se démocratise.



Mais pour les technologie, il y a parfois un moment dans l’histoire ou l’utilité d’une technologie et sa faisabilité industrielle convergent. La technologie est mature pour sortir de la confidentialité.



Pour la réalité virtuelle, c’est certainement la disponibilité à cout raisonnable d’écrans à très haute résolution et de composants du type accéléromètre qui préfigure la maturité de cette technologie.



Ajoutons que le contexte est favorable, tous les acteurs du marché sont actuellement à la recherche de nouvelles idées pour redynamiser les ventes.







Le 21/01/2014 à 19h 09







vivienfr a écrit :



Gnome 2.22 ?



Celui qui est sorti en mars 2008 ?







T’en connaît un mieux ?



Ne jamais confondre Nouveau et Meilleur.


Le 21/01/2014 à 19h 07







mirandir a écrit :



Oui, enfin quand on trouve une machine dont le matériel est supporté par l’OS <img data-src=" />







Bah, quand on veut du logiciel libre, on choppe vite les bons réflexes : Se renseigner avant achat d’un matériel et choisir le bon.



Alors oui, ça ne rends pas les achats simples. Mais au moins, l’avantage avec le libre, c’est qu’en général, quand un périphérique est supporté, c’est pour longtemps.


Le 21/01/2014 à 19h 03

Moi je vois surtout le danger pour les libertés que vont représenter ces millions d’objets bourrés de capteurs et de puces de transmission qui risquent fort de devenir un jour un moyen de surveillance massif.

Non seulement leurs données permettront de reconstituer fidèlement tous nos trajets quotidiens, mais également de savoir qui nous avons rencontré, ce que nous avons dit, et le moindre de nos faits et gestes.

A terme, il suffira d’appuyer sur un bouton pour savoir tout de vous, jusqu’au plus infime détail de votre vie privée. Nul doute que votre patron trouvera aussi quelques objets “interessants” a mettre dans votre bureau.



Comme nous l’avons vu avec le scandale de la NSA, ce n’est pas un risque simplement théorique. Même les prévisions des plus parano étaient en deçà de la réalité.



Et tout cela pour quoi ? Quel bénéfice REEL apporteront ces objets connectés à l’humanité ?

Le 20/01/2014 à 19h 47







saf04 a écrit :



mirandir, ne t’embete pas avec patch, il est juste idiot.



pour les autres: venir parler de racisme anti-blancs sur un site informatique c’est déjà assez limite.

de plus le racisme a été théorisé et expliqué déjà depuis un moment, et le racisme anti-blanc si on creuse bien n’existe pas.

(la colere contre le blanc Français qui a rejeté des communautés depuis 50 ans existe. mais ce n’est pas du racisme anti-blanc)



vous croyez encore a l’histoire du pain au chocolat de copé ou quoi ?

essayez de trouver un appart a Neuilly avec un teint bronzé et un nom pas de chez nous, puis on reparlera de racisme..



vos delires merci mais non quoi….







Malheureusement, le racisme existe bel et bien quel que soit la couleur de peau. Et cela ne s’arrête pas la. La discrimination ne s’arrête pas à la couleur de peau. Elle peut survenir sur la base de la moindre différence par rapport à un groupe d’individu.



Par exemple, il n’est pas rare de rencontrer des surdoués qui ont eu une enfance difficile à cause de leurs camarades de classe. Simplement parce qu’ils sont différents.



On pourrait citer également le cas des femmes qui ont le plus souvent des salaires inférieurs aux hommes à compétences égales.


Le 20/01/2014 à 19h 06

La preuve qu’il manque réellement une vraie formation sérieuse des utilisateurs à l’informatique.



On aura fait un grand pas le jour ou le monde réalisera que la formation des utilisateurs sur le tas ne pose que des problèmes.



Ne rigolez pas, ça peut coûter très cher à une nation quand les grandes entreprises se retrouvent avec leurs appels d’offre piratés par les concurrents à cause d’utilisateurs qui sont des vrais trous de sécurité vivants.


Le 18/01/2014 à 04h 46







Malesendou a écrit :



Absolument, et c’est valable dans la musique, le cinéma, etc…







A ma connaissance, jamais ce terme n’a fait l’objet d’une telle exploitation dans ces domaines la. Contrairement au domaine du jeu vidéo ou le mot “indépendant” est mis aujourd’hui à toutes les sauces et donc ne signifie plus rien de précis ni de pertinent vis à vis du consommateur. C’est juste devenu un argument marketing.



A accepter ce genre de chose, vous verrez un jour une presse “indépendante” détourner ce terme avec les mêmes justifications que les arguments que vous m’opposez.


Le 18/01/2014 à 02h 38



C’est clair dans la tête de tout le monde que les devs de studios indés sont pas travailleurs indépendants. Je sais pas si c’est de la mauvaise foi ou non…





Le terme “studio indépendant” ne me dérange pas parce qu’il est précis. Mais il n’est quasiment jamais utilisé.


Le 18/01/2014 à 02h 11







TZDZ a écrit :



Là tu racontes vraiment n’importe quoi. Travailleur indépendant est en effet un terme juridique, qui n’a pas grand chose avec les jeux indé qui (citons wikipédia) sont généralement définis comme ne dépendant pas d’un éditeur.

Dans toutes les définitions que j’ai pu voir sur les jeux indépendants il n’est jamais question de travailleurs indépendants. <img data-src=" />



C’est clair dans la tête de tout le monde que les devs de studios indés sont pas travailleurs indépendants. Je sais pas si c’est de la mauvaise foi ou non…







Désolé, mais je ne partage pas ton avis. Et avant de dire que je raconte n’importe quoi, réalise qu’il n’y a aucun raisonnement qui permet de conclure qu’on pourrait préempter le terme “indépendant” dans le sens de “studio indépendant” plutôt que “travailleur indépendant”.



C’est clair dans la tête de tout le monde ? Bien sûr que non et c’est bien cela le problème. (et des exemples, tu peux en trouver quantité sur le web).



http://www.jeuxvideo.com/forums/1-36-18839043-3-0-1-0-le-cadeau-d-anniversaire-d…



D’abord, rien n’est précis puisque le terme “jeu indé” ne veut rien dire de précis. Il ne dit pas si c’est un jeu issu d’un travailleur indépendant ou d’un studio indépendant. C’est un terme flou, un terme marketing.



Pour la plupart des gens, c’est assez clair qu’un indépendant, c’est un gars dans un garage. Et d’un simple point de vue du langage, c’est plus logique comme cela. Sinon on peut coller ce terme sur tout et n’importe quoi. Même des gros studio se sont mis à l’utiliser. C’est la qu’on voit jusqu’ou le marketing peut aller jusqu’à faire perdre le sens des mots.



Ensuite il faut quand même réaliser que la raison pour laquelle ce terme est tellement à la mode en ce moment est purement marketing : c’est bien parce que pour beaucoup de gens, ça évoque le gars dans son garage et que ça génère de l’empathie, donc des ventes. Et donc c’est bien parce qu’il y a confusion qu’il est utilisé.



D’ailleurs, notch, l’auteur de Minecraft a déclaré qu’il ne se considérait plus comme un indépendant. Et il a raison.



Le 17/01/2014 à 19h 53







Malesendou a écrit :



Ben non, être indépendant c’est de ne pas dépendre d’un éditeurs. Tu peux parfaitement être Tartuffe Games, avoir 1000 personnes et être indépendant… Tu ne dépend de personne.



Et cette fameuse indépendance signale surtout de ne pas être dans le girond des grands éditeur.



Ca n’a strictement rien à voir avec la capacité ou la taille de l’infrastructure.







Sauf que ta définition, elle sors simplement de nulle part.



“Indépendant” dans le langage du monde du travail, ça désigne un travailleur indépendant et pas autre chose. Et c’est un terme juridiquement codifié dans la mesure ou il s’agit d’un statut légal dans beaucoup de pays.



fr.wikipedia.org WikipediaA la rigueur, par abus de langage, on peut sans doute faire l’amalgame des entreprises dont les conditions effectives s’en rapprochent, à savoir de très très petites entreprises.



Le reste n’est que marketing et communication d’entreprises qui veulent surfer sur l’empathie que le terme “indépendant” suscite chez le consommateur. En s’appropriant le mot “indépendant”, certaines entreprises ont réalisés un beau coup marketing. Volant du même coup aux très petite entreprises le vocable qui les désignait.



Parce que selon la définition que tu en donne, n’importe quel grand groupe peut se qualifier d’indépendant. Parce qu’une entreprise est toujours indépendante de quelque chose, ne fut ce que de son concurrent. Cela ne signifie donc rien et n’a aucun intéret.

Pire, comme l’actionnariat d’un SA est par définition anonyme, on peut très bien avoir une boite qui se qualifierait d’indépendant tout en étant majoritairement possédée et financée par un très grand groupe.



J’attire également ton attention sur le fait qu’utiliser ce terme pour qualifier un “studio indépendant” n’a strictement aucun intéret pour le consommateur. Les jeux issus de ces studio sont souvent très comparables à ceux des studio appartenant à des grandes entreprises.







Le 16/01/2014 à 22h 46







Winderly a écrit :



Probablement oui mais, si je compare le nombre important de jeux “greenlightés” au nombre de ces jeux effectivement disponibles dans le store je me demande si ils sont pressés.









On peut trouver des développeurs qui expliquent pourquoi.







Citan666 a écrit :



Si quelqu’un est VRAIMENT attiré par un jeu, genre “effet waouh”, et que son budget lui permet de craquer, il le fera, faut pas exagérer.







Et deux semaine après, quand il le verra en solde à -75% il aura les boules. La fois d’après, il attendra. Et personne n’a un budget illimité de nos jours. Craquer sur un jeu bien cher, ça veut dire se limiter sur d’autres achats pour la majorité des gens.

Et quoi que certains en disent sur ce forum, la majorité des joueurs ne sont pas idiots.





Nombre de jeux édités par des petits studios occupent des genres encore très usités par les grands éditeurs





Parce que sauf exception (il en existe quelques unes, mais c’est statistiquement une minorité), ce sont rarement des vrais jeux d’indépendants au vrai sens du terme.



Le jeu vidéo est le seul domaine de l’industrie ou j’entends coller le mot “indépendant” sur des entreprises de 30 ou 40 personnes qui n’ont parfois rien à envier aux équipes qui s’occupent de certains jeux “AAA” chez le gros éditeurs.



Donc précisons que quand je parle d’indépendant, je parle de jeux faits par des programmeurs seuls, à la rigueur une très petite équipe.



Après, des petites équipes qu’on pourrait qualifier d’indépendants qui ont fait des jeux superbes qui ont cartonné côté grand public, ça existe. Mais c’est plutôt l’exception rarissime, le conte de fée qu’on raconte à l’envie mais qui n’est toujours que l’exception qui confirme…la règle.



La réalité qui s’applique à la majorité des cas, c’est qu’une petite équipe ne peut pas lutter contre les gros. La motivation et le talent, ça ne remplace que rarement de gros moyens financiers, n’en déplaise aux rêveurs.

Parce que faire un produit grand public, c’est d’abord une quantité de travail importante qui demande des dizaines de personnes. Mais aussi et surtout, une énorme quantité de travail et de moyens pour en assurer la promotion.



A vouloir se frotter aux styles prisés par le “AAA”, l’indépendant qui dispose de beaucoup moins de capacité de travail aura 99% de chance de faire juste moins bien.



Le 16/01/2014 à 22h 07







TZDZ a écrit :



Moi je veux bien, mais où est la preuve ? Où sont les chiffres qui montrent que le marché des jeux vidéos s’écroule ? Où sont les preuves que les indépendants ont de plus en plus de mal à sortir depuis les soldes steam ?







Je pourrais te répondre de me fournir des preuves de l’inverse. Cela dépasserait évidement le cadre d’une simple discussion.





Pourquoi ai-je l’impression qu’il y a de plus en plus de titres indé qui réussissent malgré vos prédictions ? Comment savez vous que les gens qui attendent les soldes auraient acheté de toute façon ? J’en suis le contre exemple vivant, et au vu des commentaires je suis bien loin d’être le seul.



La conclusion c’est que les gens dépensent de facto de plus en plus. Et vous pouvez trouver 50 théories, mais vous ne changerez pas ça…



Alors c’est quoi la base de vos théories ? Comment vous conciliez le fait que selon vos théories tout devrait aller mal et qu’en fait bah ça semble aller plutôt bien ? Ou alors sur quoi vous appuyez vous si ce n’est sur vos convictions personnelles. Franchement si ça reste un débat économique de bistrot je ne vois pas l’intérêt.





Tu n’as pas bien compris le sens de mes propos.



Et dire que cela va bien pour les indépendants est tout aussi faux que l’inverse.



Après, si tu veux comprendre ce que j’écris, tu peux commencer par lire les commentaires des gros joueurs sur steam.


Le 16/01/2014 à 17h 34







Faith a écrit :



On est bien d’accord là dessus, mais ce n’est pas le point que je soulevais: qui va acheter un jeu à prix élevé ? Les fans, les gens qui ont bénéficié de bouche à oreille, de pression des potes, etc… Ces gens là n’attendront pas les soldes pour acheter le jeu.



Si les soldes arrivent après plusieurs mois de commercialisation, quand les ventes sont basses, ceux qui achèteront à ce moment là seront les gens qui trouvaient le jeu “pas mal”, mais trop cher pour ce “pas mal”.

Sans soldes, ces gens n’auraient jamais acheté le jeu…







Non, beaucoup de gens attendent que ça soit en solde pour acheter.



Pire, maintenant beaucoup de gens attendent :



(1) Qu’un jeu soit sur steam.



(2) Qu’il soit connu et qu’il y ait pas mal de tests.



(3) Qu’il soit en solde.



Donc au mieux des mois de retard pour le financement des indépendants.


Le 16/01/2014 à 17h 28



Selon un indépendant, les soldes Steam font plus de mal que de bien





Et il a raison.



Avec ce système, les gens attendent les soldes pour acheter. C’est dramatique parce que ça peut retarder les ventes d’un jeu. Pour les indépendants qui ont besoin de financement rapidement, c’est mortel.









Citan666 a écrit :



Le mec râle mais ça tient plus du whiner de base à ce niveau là… <img data-src=" />







Même si tu as parfaitement le droit de ne pas partager son avis, je pense qu’un peu de respect s’impose dans le langage.





Cela étant dit, quand un jeu est VRAIMENT bon, soldes ou pas il se vend.





Non. De mauvais jeux se sont parfois très bien vendus. Et certains jeux excellents ont eu des ventes très mitigées. Tout est aujourd’hui plus affaire de campagne de com que de qualités des produits.





Et plus le tarif est raisonnable d’entrée, plus il sera facile aux joueurs de sauter le pas, à fortiori s’il a en plus la pression sociale de ses potes (“Allez… Viens… On est bien… Regardes tout ce qu’on peut faire…”).





Un tarif raisonnable est une incitation à vendre. Mais hors période de solde, c’est carrément dissuasif. Pour certains jeux, on frôle un rapport de 1 à 5.



Donc le problème, c’est bien que les consommateurs vont attendre les soldes. Et si le jeu est encore peu connu, il est probable qu’un certain nombre de gens hésitent et ratent la promotion.

Bref, ce système peut avoir des qualités, mais il n’est pas bon pour tous les types de jeux.





Bref, le mec développe un jeu au public cible extrêmement réduit et s’étonne ensuite de faire des ventes rachitiques hors période de solde ?

Sans déconner, à quoi s’attendait-il ? <img data-src=" />





Par définition, sauf coup de génie ou cas isolé, un vrai indépendant ne peut pas cibler autre chose que des niches, à savoir les 20% de créneaux délaissés par les gros studios. Cela ne signifie aucunement que les jeux n’ont aucun intéret, bien au contraire.







Le 18/01/2014 à 01h 42







geekounet85 a écrit :



sachant que ça n’empêche pas la sortie du jeu… Minecraft n’a pas eu besoin de steam pour se lancer…<img data-src=" />







Hum, le problème de tout raisonnement basé sur Minecraft, c’est que c’est un cas très rare dans l’histoire du jeu vidéo.


Le 16/01/2014 à 23h 28







Ellierys a écrit :



On a surtout autre chose à foutre que de Greenlighter des trucs pour Valve <img data-src=" />







C’est certain.



Dans tous les domaines, les commerçants développent leur propre expertise pour savoir ce qu’il est pertinent de mettre dans leurs rayons. Donc des gens qui sont payés pour sélectionner.



Bien sûr, on peut toujours faire comme les “store” ou ebay : n’importe qui peut proposer, c’est le consommateur qui fait le choix. Comme le dit l’article, ce serait aussi au détriment de la mise en valeur des bons jeux. D’un autre côté, ça redonne de la création de valeur ajouté à la presse.



Bref, même si chacun des modèles à des qualités, on ne peut pas avoir le beurre et l’argent du beurre.



Le problème, c’est qu’avec Greenlight, Steam hésite un peu trop entre les deux modèles avec une limite qui n’est pas bien tracée, ce qui mécontente à la fois les joueurs et les développeurs.



Donc je comprends cette remise en question.



Après, trouveront t’ils un meilleur modèle, ça c’est un autre problème.


Le 16/01/2014 à 18h 45







Winderly a écrit :



Ça m’est pourtant arrivé plus souvent que je le souhaitais, de me retrouver avec un jeu pas top en me fiant aux critiques de professionnels (je parles de l’époque où je lisais ces critiques dans des journaux (papier) dédiés à cette activité).

Tout ça pour dire que les pros savent aussi se planter, ou que ce qui plait à un pro va pas forcément plaire à tous.

Le raisonnement fonctionne aussi dans l’autre sens, des jeux que j’aime pas sont pourtant excellents (et appréciés par d’autres).



Donc aujourd’hui se contenter d’un seul avis (ou un seul trailer) pour faire son choix est déjà pas très malin.

Pour les projets type kickstarter c’est différent, c’est à la base un pari.







Dans les jeux, il y a aussi le problème des types de jeu que l’on aime ou pas.



Et dans les professionnels, il y a des bons et des mauvais.



Le 16/01/2014 à 18h 37







praglik a écrit :



Ce qui serait cool, c’est un nouveau système de ce genre :



Les devs qui souhaitent accéder à Steam proposeraient 1000 copies gratuitement à tester aux joueurs. A la fin de leur session de jeu, les joueurs pourraient voter “oui” ou “non” au titre et ainsi faire office de panel représentatif pour que Valve sache si le jeu vaut la chandelle ou non.









Le problème de cette idée, c’est que ça revient toujours à un système de vote sur le nombre de gens qui aiment un jeu. Cela aboutira toujours à favoriser des jeux moyens mais “très grand public” plutôt que des jeux excellents et originaux, mais qui s’adressent à une niche.



Il faudrait quand même réaliser que les indépendants n’ont par définition pas la puissance de travail des gros studio et qu’ils ne peuvent pas se battre sur le terrain du jeu grand public. Le seul créneau pertinent qui leur reste, c’est les jeux de niche.



Je pourrais vous donner l’exemple du jeu Dwarf Fortress. Un jeu que certains jugent excellent mais qui ne conviendra par définition pas à tous.



Mieux vaut t’il un jeu jugé excellent par 10% du marché et détesté par les autres ? Ou un jeu jugé moyen par tous et que personne ne trouve excellent ?



Et bien en favorisant le vote par la majorité, on favorise les jeux très moyens. C’est exactement ce qui arrive à Greenlight.







Le 16/01/2014 à 17h 46

Le système de greenlight est effectivement mauvais à plus d’un titre.



D’abord parce qu’il est basé sur les votes du public. Or, le public se fait toujours abuser par des vidéos bien arrangées sur des jeux complètement creux. Au final, les gens sont déçus, ce qui dessert le jeu indépendant et la plateforme steam.



Par définition, un bon jeu indépendant est un jeu qui est intéressant, mais pas forcément “grand public”. Seul des professionnels savent juger l’intéret de ce type de jeu.



Ensuite parce que maintenant les gens attendent qu’un jeu soit sur steam pour l’acheter. Et les développeurs peuvent attendre des mois le bon vouloir de la plateforme sans savoir s’il sera (ou non) accepté.

Imaginez que pour un indépendant qui paye des charges sociales, les “peut être” pendant des mois ne sont pas le meilleur argument pour convaincre des investisseurs.



Donc pour toutes ces raisons, leur système doit être revu.


Le 16/01/2014 à 01h 16







loser a écrit :



Je l’ai fait, j’ai dû passer par l’activation téléphonique, ça m’a pris 3 minutes… Tu parles d’une contrainte… <img data-src=" />







En étant un peu plus réaliste sur le temps passé et en multipliant ça par tous les logiciels et plusieurs ordinateurs, ça fait une belle perte de temps et d’argent à la clé.



Et je ne parle même pas du fait que l’on crée une dépendance à un service extérieure, ce qui n’est jamais très bon. Il suffit que ce jour la le service soit en panne ou que la ligne ADSL soit en panne.







Le 15/01/2014 à 18h 07







brice.wernet a écrit :



C’est pas fait pour ça les stagiaires?<img data-src=" />



Blague à part, ce qui fera passer les utilisateurs à XP, c’est quand les machines lacheront. Le nouveaux matériel est pénible sous XP.





En ligne de commande, je veux bien le croire. Si tu veux une interface graphique, les vieux pilotes sont plein de bugs ou les applis multimédia te disent qu’ils ne supportent pas l’extension XYZ. Les performances graphiques sont H.I.é.

Sans compter les nouveaux bugs apportés par les distro récente sur les vieux ordis (de 2007), la gestion très aléatoire de l’ACPI, menant au mieux à une autonomie désastreuse ou à des plantages récurrents sur de matériel “simple” et ultra diffusé (Core 2 duo + ICH7), la surchauffe processeur permanente, le difficile choix de la carte WIFI, les bugs ouverts pendant 2 ans sur ce même sujet et jamais corrigés.

J’ai lâché Linux pour Windows 8, et j’en suis très content sur ma machine de 2007. Tout va mieux. Voire tout est parfait. Ca va très vite, et ça plante pas.



C’est un peu pour cela que XP perdure: windows a eu sa mauvaise passe avec des plantages à gogo, mais j’ai très rarement vu d’écran bleu sous XP, ou alors il y a avait du matériel défectueux. Les gens avaient l’habitude d’accuser Windows avant d’analyser le problème. Finalement, c’est le constat que XP, ça marchait bien (même si ça consommait trop de mémoire à sa sortie, que c’était pas beau ça faisait jouet et que ça ramait …)



Ce qui est dommage avec XP, c’est que sur des Core 2 Duo par exemple, on est limité au 32 bits, alors que pour quelques softs et la gestion d’un peu plus de mémoire, le 64 bits est bien mieux. Sans compter une meilleure gestion du multi processeur à priori sur les nouveaux systèmes qui sont plus fluides, plus réactifs à config égale. La phase de démarrage et la mise en veille ont beaucoup évolués aussi, mais au final cela n’a que peu d’importance pour la majorité des utilisateurs.







En même temps, c’est connu depuis toujours que les portables ont toujours des machins particuliers qui posent des soucis de configuration. Et pas qu’avec Linux.



Aucun souci majeur de mon côté pour reconfigurer du P4 de 2002 avec une ubuntu sous LXDE. Y compris tout ce qui est multimédia.



Moralité de l’histoire, il faut acheter de vrais PC.


Le 15/01/2014 à 17h 56



certaines choses ne changeront pas, et c’est le cas notamment de l’activation. Il est ainsi confirmé que même après le 8 avril, cette procédure sera toujours obligatoire





C’est le jour ou Microsoft a mis en place cette procédure que j’ai commencé à switcher sur Linux.



Parce que les activations des softs liées au hardware, ça rajoute mine de rien une jolie contrainte au moindre remplacement de carte mère.



Et le plus beau dans l’histoire, c’est que seuls les utilisateurs légaux sont emmerdés.


Le 15/01/2014 à 17h 02

Ces terminaux n’ont ni bios/uefi, ni hardware documenté.



Bref, un beau retour en arrière.



La situation est même bien pire qu’au début de l’informatique grand public dans les années 80.



Des appareils qui coûtent la moitié d’un smic et qui ne proposent même pas des mises à jour sur une période correcte.



Mois ce qui m’étonne, c’est ce consensus général à tout accepter. Personne ne critique vraiment, ni la presse, ni les utilisateurs.


Le 14/01/2014 à 18h 26

Je trouve que les développeurs usent et abusent de la vente de produits pas finis. C’est une mauvaise habitude qui tends à se généraliser.



Je veux bien me montrer tolérant sur la question, mais uniquement quand il s’agit d’aider de très petites entreprises à financer leur premier produit car je suis conscient que sans cela, il ne deviendra pas réalité.



De plus, cela doit être l’exception, pas la règle.



Je suis totalement opposé à l’idée de voir ce modèle se généraliser à tous les éditeurs et tous les produits. Particulièrement chez des éditeurs moyens ou gros qui ont déjà plusieurs produits commerciaux à leur actif.



Imaginez que ce modèle se généralise. A quand une voiture à moitié montée ?

Le 14/01/2014 à 18h 01

La meilleure solution serait plutôt d’avoir un stockage normal, mais qui se réplique sur un second situé dans un lieu différent.



Ca évite par exemple de devoir se demander si 30 minutes ou 840° sont des valeurs suffisantes face à un véritable incendie.

Le 13/01/2014 à 21h 06



dont « une qui permettra la communication électronique, c’est-à-dire qui permettra les convocations par voie électronique





Quelqu’un pour leur expliquer que les protocoles de l’email et du sms n’ont pas été prévus pour cela.



La réalité, c’est qu’il n’y a pas moyen de s’assurer qu’une personne a bien reçu son mail ou son sms. Et pour de nombreuses raisons techniques, ça n’est pas si rare que ça se perde en route.



Quelle monde terrifiant allons nous construire avec ces bases non fiables ?



http://www.lesechos.fr/15/10/2013/lesechos.fr/0203069603369_pole-emploi—les-de…



C’est dingue, nous sommes en train de faire absolument n’importe quoi avec l’informatique parce que les gens qui décident ne comprennent rien à la technique.



C’est encore une belle démonstration du tort de ceux qui prétendent que les gens qui ne sont pas des programmeurs n’ont pas besoin de savoir comment fonctionnent les ordinateurs.



Et après, on se retrouve avec des décideurs qui font absolument n’importe quoi.




Le 13/01/2014 à 20h 37







megabigbug a écrit :



Prends une personne âgée, isolée en campagne et prive-la de moyens de communication avec sa famille =&gt; elle se laissera dépérir.

Donc si, tu peux en mourir.







Le besoin de relation sociale est effectivement indispensable à la survie de l’homme. Et le problème est décrit dans tout les bons manuels de survie <img data-src=" />



Par exemple :http://techniquesdesurvie.fr/la-regle-des-3/



Certains se demanderont comment l’homme faisait quand le téléphone n’existait pas ou qu’il n’était de fait accessible qu’a une minorité.



C’est simple, à cette époque les membres d’une même famille habitaient souvent à deux pas les uns des autres, ce que le monde moderne à changé.



Souvent dans les campagnes, les jeunes sont partis à la ville et beaucoup de personnes âgées se retrouvent de fait très isolées.


Le 13/01/2014 à 20h 30







brazomyna a écrit :



Admettons.



En quoi un accès à 2Mbits/s à 20 euros/mois et par satellite n’est pas une solution acceptable pour ce besoin ?







Simplement parce que la vidéo fait déjà partie des moyens de formation indispensables.



Tape “cours de math” sur youtube et tu comprendra ce que je veux dire.



Au tarif que tu indiques, les offres satellite ont un plafond de consommation assez limité.



Cela correspond d’ailleurs à une réalité technique, le satellite n’est pas une réponse économiquement réaliste à grande échelle.



Partant de la, c’est facile de comprendre qu’on va très rapidement créer une énorme fracture sociale si l’on ne garantit pas l’accès au progrès à tous de manière réellement sérieuse.





Le 12/01/2014 à 17h 15







slave1802 a écrit :



Parce que l’hygiène (eau) et se chauffer et cuire ses aliments (electricité), ca c’est un vrai besoin primaire. Idem pour le ramassage des ordures (hygiène).

Pas un débit de tueur au fin fond d’un trou, ca non.







Si tu ne donne pas internet à un jeune, tu en fera un futur chômeur. A partir de la, c’est bien les besoins primaires qui seront touchés puisqu’il ne pourra pas gagner sa croûte.



Si une région n’est pas bien desservie par l’internet, ça deviendra un désert économique : Une entreprise peut de moins en moins se passer du web. La encore, c’est les besoins primaires des habitants d’une région qui seront directement touchés.



Enfin, il faut considérer que “au fond d’un trou”, c’est aussi la France et que les gens qui y vivent doivent avoir les mêmes droits et les mêmes chances que les autres.


Le 12/01/2014 à 16h 59



Bien entendu, ne nous leurrons pas, Internet est bien un besoin secondaire, tout comme l’est le téléphone mobile. Cependant, sa place est telle dans le quotidien de la population que son absence ou sa mauvaise qualité entraine désormais une frustration réelle, tangible, à prendre tout à fait au sérieux. Les opérateurs comme les élus politiques ont tout intérêt à y penser.





L’activité économique d’aujourd’hui peut t’elle encore se passer d’internet ?



Si ce n’est pas le cas, alors c’est bien devenu un besoin primaire. Parce que pour manger, il faut d’abord travailler.



Envisageons également le cas des enfants qui auront grandi sans internet. N’y a t’il pas une fracture sociale majeure à la clé et une rupture grave de l’égalité des chances ?



Pour ces raisons, je pense qu’il faut désormais considérer l’internet comme un besoin primaire au même titre que l’eau et l’électricité.

Le 13/01/2014 à 19h 34



En clair, il ne faut pas s’attendre à la moindre annonce d’un éditeur majeur tant que le produit ne sera pas commercialisé à grande échelle.





Je pense que vous devriez consulter des investisseurs professionnels, ils vous expliqueront comment ça se passe.



Pour l’instant, la société en est encore à la phase startup et encore loin de la disponibilité en volume du produit final. Ce n’est logiquement pas au stade actuel que ce genre d’annonce se fera.



Ce n’est pas à ce stade non plus qu’une petite entreprise peut viser le très grand public qui intéresse avant tout ces grands éditeurs. Pourquoi ? Tout simplement parce qu’ils n’ont pas encore les moyens de faire de la com à grande échelle.



Dans le développement d’une entreprise, il y a des étapes. C’est comme un enfant qui grandit.



Il est probable que dans un premier temps, leur produit connaîtra le succès auprès d’un public de geek.



Pour la suite, il peut y avoir plusieurs scénarios. Cela peut être une nouvelle levée de fonds auprès d’investisseurs plus importants.



Mais le scénario le plus crédible dans ce genre de business, c’est le rachat par un grand groupe, ce qui leur donnera les moyens de passer à la phase suivante, c’est à dire le très grand public.



Au passage, les créateurs et investisseurs du premier tour de table toucheront leurs bénéfices et leur rôle s’arrêtera la pour certains.




Le 13/01/2014 à 17h 11







picatrix a écrit :



Les consoles sont fabriquées dans quel pays ? <img data-src=" />







Justement, le vrai but de ces restrictions est économique : c’est de faire en sorte que leur population fabrique mais sans rien consommer (ou le minimum).



Et tout prétexte est bon pour restreindre les produits occidentaux.















Le 08/01/2014 à 21h 28







Shwaiz a écrit :



Très sympa.

Par contre il n’y a pas de 120 mm à l’arrière, uniquement 2 x 80mm. Sinon il y a la place pour 2 x 120 mm sur le coté, pour un kit water par exemple.

Il me tente bien pour un HTPC orienté jeu.







Plus un boîtier est petit, plus cela impose des compromis.



Ca peut paraître un euphémisme, mais je pense qu’il est parfois bon de le rappeler.



Le consommateur d’aujourd’hui s’est habitué à croire qu’il suffit de dire “je veux” et de penser que le fait de payer pourrait repousser miraculeusement les lois de la physique.



La vérité, c’est qu’on ne peut pas avoir le beurre et l’argent du beurre. Plus on empile les exigences, plus il y aura de limitations.



ps: Ce que je dit est d’ordre général. Je sais qu’il existe des boitiers mini itx avec des 120. Mais en étudiant la question, vous constaterez que c’est parce qu’ils ont certainement choisi d’autres compromis.


Le 08/01/2014 à 21h 21



Parmi eux, on ne dénombre aucun titre véritablement connu





En même temps, les titres connus ne passent pas tellement par Greenlight.



Sauf cas exceptionnel, un titre qui est connu avant sa sortie ne peut provenir que d’un gros éditeur qui as les moyens de se payer une campagne promotionnelle.






Le 08/01/2014 à 18h 04







HarmattanBlow a écrit :



* La valeur de ces micro-optimisations est souvent surévaluée, de moins en moins significative, surtout par à la parallélisation, et les humains font aujourd’hui rarement mieux que les compilateurs (la vectorisation automatique devient aujourd’hui monnaie courante).







C’est globalement vrai sur l’ensemble d’un programme pour lequel le gain de l’optimisation manuel par rapport au temps passé n’en vaut vraiment pas la chandelle.



A l’inverse, au jeu de l’optimisation d’une toute petite partie de code, l’humain peut faire encore beaucoup mieux que le meilleur des compilateur dans certains cas de figure. Et pour certains logiciels dont les performances sont basées sur une petite boucle et des opérations spécifiques, cela peut parfois s’avérer très rentable.



C’est la raison pour laquelle certains programmes contiennent encore du code en assembleur sur lequel des humains ont bossé dur.



D’autant que tout n’est pas si rose du côté des compilateurs. C’est que les processeurs modernes sont très complexes et les compilateurs ont parfois du mal à tirer partie efficacement de certains instructions très spécifiques ou de certaines finesse de tel ou tel microprocesseur.



D’autres exemples, notamment en programmation parallèle montrent tout le bénéfice qu’on peut attendre d’une gestion fine de la mécanique du processeur pour (par exemple) se passer de mécanismes verrouillage “lourd” qui sont coûteux en temps.





Ca ne me semble pas significatif : on accède rarement à un élément de façon isolé. En général c’est toujours suivi par l’accès à davantage d’éléments (que ce soit aléatoire ou séquentiel), donc le cache miss ne sera que sur le premier élément.



Quant aux scénarios où ce n’est pas le cas, quels sont-ils ? Ceux où le tableau n’a qu’un élément, mais dans ce cas la ligne de cache contient à la fois l’élément et la taille. Et ceux où l’accès à l’élément est suivi de traitements lourds, si bien que cet accès est rare et donc peu significatif.





C’est pourtant bien le cas dans certains algorithmes.



En plus, ça n’est pas très compliqué : il suffit de combiner des structures nombreuses et disséminées et un accès aléatoire. Et pas besoin d’avoir des structures très volumineuses pour que le “prefetch” n’assure pas en même temps le chargement de la borne et de la donnée.



Et même dans le cas contraire, pour aussi rares qu’ils puissent paraître, les “cache miss” sont tellement coûteux qu’une bonne partie des techniques d’optimisation sur processeur modernes consistent à tout faire pour les minimiser.



Le “cache miss” est véritablement le cauchemar des architectes de processeur modernes. Le grain de sable qui conduit des millions de transistors à se tourner les pouces pendant des dizaines de cycles en attendant l’arrivée des données.



Le vrai problème, c’est que malgré tout ce que peuvent dire les uns et les autres, il est très difficile de quantifier par avance l’impact réel dans les programmes réels (par exemple, un gros SGBD).



Etant donné qu’il faudra des années pour que les éditeurs tierce partie portent leurs logiciels sur cette architecture et encore plus pour avoir les remontées, il faudra donc attendre un certain nombre d’années pour cerner véritablement les avantages et inconvénients pratiques de l’idée.









Le 08/01/2014 à 02h 06







Zimt a écrit :



C’est histoire de proposer un langage rapide avec un développement qui requiert moins de temps.



Donc une histoire de pognon et de manque d’expertise aussi.



Je bosse dans une boite une le chargé de recrutement m’avait lâché le morceau : “Aujourd’hui il est devenu très difficile voir miraculeux de trouver des experts en Assembleur +15.”.



Évidement le salaire s’en ressent <img data-src=" />



Le fait d’imaginer des idées de briscard pour diviser un temps de calcul par 10, n’est apparemment pas chose commune.



Cependant M# semble atteindre un bon compromis. Reste a voir ses domaines d’applications ;)







Comme dans tout domaine, l’élite est rare et se fait payer cher.



Ce qui n’empêche pas des millions de personnes d’utiliser leurs programmes parce qu’ils sont performants.









Le 07/01/2014 à 20h 00

Quelques objections qu’on ne peut pas malheureusement pas balayer d’un revers de main parce qu’un tel système restreindra de fait l’usage de certains optimisations :



-Les performances de certains logiciels reposent sur des morceaux de code assez courts, mais écrits directement en assembleur (Video, traitement d’image, chiffrement, etc). Même si ces optimisations concernent une portion marginale du code d’une minorité de programmes, l’impact final sur l’ensemble peut ne pas être négligeable.



-Une des optimisation très utilisée avec le C++ consiste à écrire des gestionnaires de mémoire spécialisés pour chaque tâche critique. Malheureusement, aucun “garbage collector” généraliste, aussi bon soit t’il ne peut rivaliser avec de telles stratégies spécifiques.



-Le système aura l’avantage d’éliminer les “context switch”, donc de permettre un gain de performance sur du code “managé”. Mais il y a un revers de la médaille : un simple accès à un élément d’un tableau peut se traduire par deux “cache miss” au lieu d’un à cause du bornage. Or, les accès mémoires sont l’un des facteurs limitant des processeurs modernes, bien plus que le coût des “context switch”. C’est particulièrement valable dans un environnement multicore.



Ma conclusion sur la question, c’est qu’on en saura plus sur l’opportunité de cette nouvelle architecture d’OS quand les éditeurs tiers porteront leurs logiciels dessus et que se dessineront les avantages et les défauts pratiques de l’idée.

Le 08/01/2014 à 16h 44



Certains jeux vidéo peuvent, par leur impact d’identification à des situations d’ultra-violence, souvent particulièrement sanglantes, orienter des personnalités vers des actions violentes ou vers la délinquance.





Le vrai problème, ce sont ces gens qui veulent tout interdire sans même savoir de quoi ils parlent.



Il est très facile de comprendre qu’ils n’ont jamais joué a ces jeux et même probablement jamais joué à un jeu vidéo de leur vie.



S’ils y avaient joué, ils comprendraient que la plupart des jeux, même les plus critiqués sont plutôt orientés pour amener le joueur à se poser de vraies questions sur la violence et la transgression.



C’est tout le contraire d’une apologie de la violence.






Le 06/01/2014 à 16h 38



RaspberryPi : la machine à tout faire (ou presque)





Le raspberry pi ou la puissance de l’ouverture.



Et oui, c’est dingue tout ce qu’on peut faire avec ce petit bidule.



Pourtant ce n’est a la base qu’une carte basée sur un vieux SOC complètement dépassé pour les smartphone/tablette.



Ca vous donne une idée de tout ce qu’on rate avec les smartphones/tablettes à cause du bridage(et non documentation du matériel) de ces appareils.


Le 04/01/2014 à 21h 07







raoudoudou a écrit :



Aucun rapport, fils unique. Si y a ni ventilo, ni isolation, ni passe-câble, le boitier est bien cher pour ce qu’il est…







La plupart des boîtiers un peu spéciaux sont produits en petite série.



Dès lors, il est assez logique que leur prix s’en ressente. Sans compter le coût des matériaux utilisés qui sont plus coûteux que sur du “mainstream” de base.



Sinon, vu la thématique du boîtier, les choix peuvent se comprendre. Après, c’est sûr que ça ne conviendra peut être pas à tout le monde.







Le 04/01/2014 à 06h 39







refuznik a écrit :



Oui enfin 200 euros pour un boitier livré sans ventilateur, sans mousse pour isoler, quelques passes cable, ils se foutent de la gueule du monde.







En même temps, la plupart des passionnés préfèrent choisir leurs ventilos.