votre avatar

Oryzon

est avec nous depuis le 21 septembre 2012 ❤️

794 commentaires

Le 05/02/2014 à 15h 31







raoudoudou a écrit :



Y a eu des précurseurs à 3DFX, avec très peu de jeux supportés d’ailleurs. Donc oui, les dev ont attendu ce qu’ils pensaient être bien, avant de dev vraiment l’accélération dans les jeux.





Mais les jeux étaient déjà en 3D (Doom & co) et tout le monde s’y mettait. La 3DFX était la réponse à une limitation matérielle existante.


Le 05/02/2014 à 15h 28







ragoutoutou a écrit :



Tu est conscient que tu viens de dire un truc et son contraire?





Non et tu ne me l’as pas montré. Soit plus explicite please, j’ai pas encore pris mon café <img data-src=" />







ragoutoutou a écrit :



La VR est une approche particulière à la stéréoscopie… qui rajoute la gestion des mouvements de la tête du joueur. Il y a à ce jour eu déjà pas mal de jeux développés pour exploiter la stéréoscopie, ce n’est pas un gros investissement que de pousser un peu le bouchon plus loin surtout que la majorité des moteurs modernes incluent déjà à peu près tout ce qu’il faut pour que ça marche aussi bien sur un écran 3D classique que sur Oculus VR.



Pour une boîte comme iD software qui licencie son moteur 3d à des tiers, ne pas supporter les technologies comme l’Oculus VR out of the box peut avoir un impact négatif à moyen terme.





Je te renvois à la réponse que j’ai faite à Brazo ci-dessus. C’est plus compliqué que ça et Oculus lui-même a fait une présentation pour dire en gros “il faut penser à l’Oculus dès le départ pour faire un bon jeu dessus”.


Le 05/02/2014 à 15h 23







brazomyna a écrit :



Je ne pense pas:




  • d’une part parce que rien ne te dit que l’ensemble du surcoût serait intégralement pour la pomme de l’éditeur (dans le monde réel, les gens parlent et négocient entre eux)





    Alors là si tu me dis qu’Oculus a suffisamment de cash pour faire ce genre de négos tu m’en vois tout baba.





    brazomyna a écrit :



  • d’autre part, avoir un jeu dispo sur un périphérique à succès permet de lier les deux, et donc d’avoir de la pub sur le jeu par ricochet, une meilleure visibilité, des ventes plus hautes, etc…





    Sur un périphérique à succès éventuellement, donc encore faut-il que s’en soit un. Du point de vue de Zenimax cela reste à prouver. Ensuite pas forcément : si ton jeu est une tuerie avec l’Oculus l’effet collatéral que cela risque d’entrainer est que ceux qui ne l’ont pas n’achèteront pas le jeu pour ne pas avoir en permanence en jouant une petite musique qui leur dit “oui mais tu n’en profites pas à fond, imagines ce que ça serait si tu avais des thunes pour y jouer avec l’Oculus espèce de pauvre !”. C’est pour ça que les périphériques sont si délicats pour un éditeur.







    brazomyna a écrit :



    Faut pas déconner: la VR, c’est grosso modo de la 3d qu’ils font déjà de toute façon avec quelques adaptations à la marge. Limite c’est réutiliser les quelques inputs de contrôle que fournit le driver oculus pour les relier aux actions dans le jeu, un peu comme un nouveau type de driver de souris à prendre en compte pour faire bouger la tête (j’exagère un peu, mais pour un portage ‘basique’ c’est de cet ordre là)



    Je suis à peu près convaincu qu’un portage pour rendre un jeu PC ‘oculus rift ready’ est infiniment moins coûteux que le moindre portage d’une console plateforme à une autre.





    Si tu fais un portage à l’arrache oui, et ça marche peut-être pour des petites démos, mais je ne pense vraiment pas que ce soit si simple que ça. Il faut sérieusement revoir en profondeur ton gameplay, la gestion des caméras, l’affichage… Aux dire même d’Oculus il faut faire des jeux spécifiquement pour le Rift et pas des portages.

    Pour une console tu t’ouvres un marché de plusieurs millions d’acheteurs, alors que là tu n’ouvres rien du tout.



    Bref des moyens, des risques et des emmerdes pour au final un bénéfice quasi nul.

    Que l’OR réussisse son lancement et là tu verras pleins d’éditeurs faire des annonces. Déjà qu’ils présentent un modèle viable prêt à être commercialisé.


Le 05/02/2014 à 14h 41







ragoutoutou a écrit :



Le rift n’est pas une console mais un périphérique. Disons simplement que Zenimax ne veut pas se poser en précurseur sur le domaine des jeux en réalité augmentée et préfère attendre de pouvoir faire comme les autres.



Si tout le monde avait fait pareil avec la 3DFX, je me demande où nous en serions…





Du point de vue de Zenimax ça revient au même.

On leur demande d’investir en tant que tiers sur une plateforme où la vente de matos profite à un autre. Sauf que pour une console, il y a un acteur puissant qui va produire ses propres jeux, faire des deals avec toute l’industrie, balancer des campagnes de com massives, faire des deals avec la grande distribution etc.



La 3DFX n’a pas marché parce que tout le monde s’est “ho c’est cool la 3DFX aller je dev spécialement pour eux” mais parce que tout le monde se mettait à faire de la 3D, y compris sur console avec la PS1, et qu’il s’est avéré que la 3DFX était la meilleure (seule au début) carte pour cela. Là il s’agit carrément de l’inverse, personne ne fait des jeux en VR, et tout d’un coup il faudrait en faire pour l’Oculus. Et puis les sommes en jeux n’étaient pas les mêmes non plus. Aujourd’hui il fait pas bon se planter dans ses investissements si t’es un éditeur de JV…

Et comme tu le dit ce n’est qu’un périphérique, ce qui signifie que tu as le côté discriminant de la chose qui a toujours confiné les périphériques à des parts de marché très faible sur leur plateforme (sauf Kinect mais c’est vraiment très spécial).


Le 05/02/2014 à 14h 06

Oui bon donc en gros Zenimax ne veut pas jouer le rôle d’un constructeur de console qui investit pour faire des jeux pour vendre une plateforme sachant que ce n’est pas eux qui vendent ladite plateforme et que le supplément de revenus que cela engendrera sera infime, voire égal à zéro.



Quelle surprise !



Je suis curieux de le voir le Rift, j’espère vraiment que ce sera une réussite technique et commerciale, mais j’ai quand même de gros doutes et pour la technique et pour sa diffusion.

Le 05/02/2014 à 14h 21

Tu as une tablette Win8 sur laquelle tu stream ? ça peut être cool de jouer sur son portable ou sur une surface.

Et par rapport à une solution full Widi ? Je n’ai jamais su évaluer cette techno.

Si ça fonctionne bien en wifi, la steambox peut finalement avoir une utilité mais pas avec les configs annoncée actuellement qui ont le cul entre deux chaises.

Le 05/02/2014 à 13h 25







AirChtit a écrit :



Pour ceux qui veulent windows sur une machine ultra faible conso et fanless:

http://www.asus.com/Eee_Box_PCs/EB1037/



Vu que XBMC et Steam streaming tournent parfaitement sur mon atom Z2740, je vais m’acheter quelques uns de ces bébés pour mes tvs.



Un petit SSD de 64 Go suffit si on a un nas planqué dans un coin.



Merci Asus.



[edit: fix lien]





ça marche bien Steam streaming ? Pas de lag ?

Tu es en filaire j’imagine non ?


Le 05/02/2014 à 13h 11







fred42 a écrit :



Je n’ai pas trouvé d’information sur la résolution vidéo, tu as vu où que ce n’était pas FullHD ?





Tu as pas assez bien cherché.

Dans la rubrique “presse” il y a des liens, tiens celui là au hasard :

http://www.engadget.com/2014/01/09/keecker-hands-on/


Le 05/02/2014 à 10h 36







fred42 a écrit :



C’est sûr que cela n’a rien à voir avec Keecker, produit français qui doit sortir à la fin de l’année, mais ce n’est pas tout-à-fait le même prix.







Bah c’est juste 10x plus cher et c’est toujours pas en FullHD.


Le 04/02/2014 à 10h 08







chris_lo a écrit :



beaucoup des jeux “offerts” par Sony gratuitement ou en promo via le PS+ sont des jeux qui ont à peine 1 an sur PS3 et Vita, par exemple Far Cry 3 et GRID 2 dernièrement, et là y’a Metro Last, Light, Devil May Cry ou Bioshock Infinite depuis fin Janvier, alors qu’ils pourraient effectivement n’offrir que des “vieux” machins du début de la console (qui a 7 ans tout de même !)… et ça ce n’est que pour la PS3 car y’a aussi la Vita et bientôt l’offre PS4 va augmenter également avec l’arrivée des jeux courant d’année (on risque de retrouver un Killzone SF offert après l’été par exemple)



si Microsoft veut se mettre au niveau, il va tout de même falloir qu’ils proposent autre chose que ce qui est annoncé (des vieux Fable et cie), en plus ils ont un catalogue XBox Live Arcade assez riche pour compléter l’offre !







Je vois pas où tu me contredis.

Un jeu vieux de un an (ou même moins) sur console où le catalogue est gigantesque ne s’y vend quasiment plus sauf rares exceptions. Sur une console qui viens à peine de sortir, que ce soit la XO ou la PS4, le catalogue est peu étoffé et les jeux peuvent espérer de continuer de s”y vendre pendant encore longtemps.



Dans un cas l’éditeur ne gagne plus grand chose et peut donc accepter un deal avec Sony ou MS pour un tarif raisonnable, sans compter qu’il peut aussi éventuellement espérer que les DLC qu’il continue de sortir ont intérêt d’avoir une plus grande base installée.

Alors que dans l’autre cas ça doit coûter aujourd’hui très cher à Sony ou MS pour inclure des titres XO ou PS4 car les éditeurs pensent encore vendre des jeux.


Le 03/02/2014 à 17h 00







jpaul a écrit :



En même temps si ils lançaient ça maintenant, on aurait tous les jeux de la One pour 3 mois de Gold ? <img data-src=" />







Ho c’est pas beau !



Bon d’un autre côté Sony ne propose pas non plus des titres de folie sur PS4 non plus, les deux consoles sont trop récentes pour que ce genre d’offre y soit vraiment alléchante. Tout le monde a en tête ce que Sony propose pour la PS3, mais quand ils ont lancé leur offre la console avait quoi ? 5 ans ? Alors des bons jeux dont les ventes étaient devenus anecdotiques il y en avait à la pelle.


Le 31/01/2014 à 16h 14







illidanPowa a écrit :



avoir un appareil léger et fin est pour moi primordiale pour un appareil mobile, ce qu’il demande là c’est de faire des choses pensées comme un appareil fixe, et pourquoi pas la possibilité de mettre un disque dur de 1To aussi? La mobilité demande des compromis.





Tu m’explique en quoi un port micros USB et un port SD rendent ton appareil lourd et gros ?

Ce que je demande est de ne pas être inutilement limité. C’était déjà franchement gênant quand Apple était quasi seul sur le marché, maintenant c’est devenu rédhibitoire pour moi. Enfin bon, Apple peut continuer à ne pas écouter ses clients, à les croire le Mini ne servait à rien non plus, en à peine un an c’est devenu la locomotive des ventes et grâce à lui qu’Apple limite la baisse de pdm.

Les ports USB et SD, c’est des standards et tout le monde en a l’utilité à un moment ou un autre. Quant à ton délire d’acheter un HDD wifi, sans commentaires.



Le Stylet wacom non, c’est matériellement impossible si ce n’est pas prévu dès le départ.



Tiens regardes, mon dieux 540g stylet compris pour une tablette 10 pouces, quelle horreur !

http://www.samsung.com/fr/consumer/mobile-phones/tablets/galaxy-note/SM-P6000ZWA…


Le 31/01/2014 à 14h 21







illidanPowa a écrit :



limitation 1 : ? quelle est le besoin?




  • limitation 2 : vider son appareil photo? le mec qui fait du stockage sur sa tablette à pas tout compris, ensuite les appareils photos modernes ont le wifi qui balance instantanément les photos prises dans la tablette.

  • manque : un stylet wacom : il me semble avoir vu des stylets en accessoires.

  • la phablette…. c’est pas impossible non plus.





    brice.wernet t’a déjà répondu, je vais compléter.



    Limitation 1 : le besoin c’est de se passer d’un PC et de pouvoir brancher dessus directement des accesoires comme par exemple un HDD externe. L’Ipad est censé être un appareil nomade, il l’est en fait uniquement pour les transports en commun. Dès que tu l’éloignes de ton PC plus de qques jours tu ressens très vite le confinement dans lequel il t’enferme. Donc même pour de la consommation de médias pure, si tu pars plus de trois jours, un portable est plus adéquat.

    Limitation 2 : l’Ipad est centré sur la consommation de médias et en plus il faut se contenter de ce que l’on veut bien te filer comme mémoire à prix d’or ? Sérieux ? J’en ai un d’iPad et rien que pour ça je l’ai jailbreaké. Enfin sauf si ça t’amuse de passer ton temps à synchroniser.

    Manque : un stylet wacom n’a rien à voir avec ce que tu décris. Pour ceux là il faut un écran spécial. Ils détectent plus de 1000 niveaux de pression, tu peux réellement être précis, dessiner, etc. Avec un tel accessoires et une poignée d’applis pensées pour, cela ouvrirait l’éventail des possibilités de l’iPad. Mais un jour S.Jobs a dit non, alors tant qu’Apple ne sera pas en train de se faire laminer par Samsung, il faudra respecter les paroles de dieux le père.



    J’ai un Ipad 3, donc tu vois je parle de mon expérience. Si aujourd’hui je devais me racheter une machine, même si le Air semble être une belle pièce ingénierie, le match se situerai je pense entre une Surface Pro et une Samsung Note (pro ou pad j’ai pas trop regardé les différences). Tu vois sur ces deux gammes de produits tu a des ports USB et Micro SD et des vrais stylets. Et puis aussi sur la Surface tu as un vrai clavier pensé pour.



    Maintenant toi tu peux m’expliquer à quoi servent concrètement les limitations et manques de l’Ipad ? Je veux dire à part te facturer une fortune l’augmentation de la mémoire ?


Le 31/01/2014 à 10h 23

Les Ipad ont deux limitations + un manque :




  • limitation 1 : pas de port USB ou mini USB

  • limitation 2 : pas de port SD ou micro SD

  • manque : un stylet wacom

  • manque bonus : possibilité d’en faire une phablette au moins pour le mini. Bon c’est un peu tordu, mais vu la tendance actuelle c’est jamais que prendre de l’avance.

Le 31/01/2014 à 09h 05







Fenhryl a écrit :



Sans oublier les mouse gestures, les recherches personnalisées, le speed dial, le client RSS et les centaine de petites fonctionnalités qu’on trouvait partout <img data-src=" />

Opera n’est que l’ombre de lui-même. Moi qui ne jurait que par lui avant, je me retrouve bien coincé maintenant.





On peut quand même penser qu’une fois qu’ils auront maîtrisé Blink ils vont réintroduire les fonctionnalités non ?



Pour ceux qui demande l’intérêt du nouveau moteur, c’est tout simplement que Presto était ignoré par tout le web il me semble.


Le 30/01/2014 à 13h 18







chaps a écrit :



Quel rapport avec Mantle ?









gogo77 a écrit :



Je vois pas le rapport avec Mantle. C’est juste la techno Dual Graphics d’AMD qui permet de faire fonctionner certaines radeon avec la partie graphique de certains de leurs APU. Une sorte de crossfire en gros.



Ça reste quelque chose de possible avec du matos AMD uniquement.







Bah c’est que ce niveau de perf sera valable lorsque les dev passeront par Mantle.

Pour la source vous reprenez, l’article PCI et en bas vous vous tapez les tests en anglais, c’est quelque part là dedans, peut-être celui d’Anandtech.


Le 29/01/2014 à 17h 16







gogo77 a écrit :



Ah ? Je ne me suis pas intéressé de près à Mantle, mais je n’ai jamais lu ça. Tu aurais une source ?



Pour moi Mantle est juste une API qui permet de mieux exploiter les GPU compatibles que DirectX ou OpenGL.







Ici fin de l’article le slide qui compare une R7 seule et une R7 + APU :

pcinpact.com PC INpact



Le 29/01/2014 à 15h 40







gogo77 a écrit :



Tu te poses vraiment la question ? Tu voudrais que deux processeurs graphiques de deux constructeurs différents avec des drivers différents fonctionnent ensembles ?



…. <img data-src=" />





C’est que promet AMD avec Mantle.

En théorie (en théorie je dis bien) la partie GPU de leur APU pourra fonctionner de concert avec un GPU dédié.

A voir mais cela peut être intéressant.


Le 29/01/2014 à 10h 14

15 % de pdm, et ça continue de baisser pour Apple.



Encore une fois pour ceux qui affirment que ce n’est pas important pour Apple les pdm, vous oubliez un gros détail : les parts de marché d’Apple sont les pdm de iOS. A force de chuter les dev vont progressivement quitter la plateforme, déjà ils n’en sont plus à la privilégier. Si iOS n’est plus attractifs à cause de parts de marché trop faibles, vous verrez que tout d’un coup les pdm seront TRES importantes pour Apple.



Les autres constructeurs sont sur le système dominant, ils n’ont pas ce problème.

chez Apple il y a un effet cercle vertueux/cercle vicieux que l’on retrouve d’ailleurs chez MS/Nokia qui a un besoin vital de continuer à gagner des pdm pour WP8.

Le 29/01/2014 à 09h 48







Kenny62000 a écrit :



J’ai pas mal cherché sur le net, mais j’ai pas vraiment d’infos concrètes la dessus : quelles sont les différences entre la version one et la 360 ?





Bah justement on ne sait pas. Pour l’instant la version 360 est un mystère complet. Je suis curieux de voir ce qu’un studio ayant plutôt une bonne réputation arrivera à faire, car Titanfall a été développé pour les consoles nouvelles génération. Donc rien que sur la Ram (XO 8GB, 360 512MB) c’est le grand écart.


Le 29/01/2014 à 09h 33







le podoclaste a écrit :



Apple a un historique de cavalier seul sur le modèle OS maison + matériel maison. Cela l’a mené à être un acteur très mineur en terme de PdM sur les ordinateurs personnels, mais sans l’empêcher d’être une machine rentable. La seule fois qu’elle a tenté de licencier son OS, elle s’est fait cannibalisée par ses partenaires et s’est trouvé dans une situation très délicate.



Un déroulement alternatif à ton scénario serait une PdM iOS un peu plus forte, mais une PdM iPhone un plus faible, soit pas forcément un bon coup pour Apple, ni pour Samsung.



Au final, iTunes est quand-même une cash-machine hallucinante.





Excuses moi mais ce modèle les as conduit à la banqueroute avec les Mac.

ça va bien que MS à l’époque ne pouvait pas se permettre qu’on lui mette sur le dos la faillite d’Apple sinon bye bye Apple.



Ils ont effectivement tenté d’avoir des partenaires mais c’était bien trop tard.



Bref peu importe : Apple a fait ses choix comme d’habitude en étant complètement fermé et cela ne change pas que le destin des pdm Apple n’est pas gravé dans le marbre. Sur les Mac ils sont en dessous de 10 %, sur les ipod ils sont toujours restés le leader incontesté.

Mais peut-être que c’est parce que sur les iPod Apple ne s’est pas enfermé dans une posture suicidaire du genre “non il n’y a besoin que d’un seul ipod pour couvrir tous les besoins” et qu’ils ont proposé une gamme complète, et ce en conservant des marges confortables, une image (et des prix) premium. Comme quoi c’est possible.



Apple a été frileux avec l’iphone, et s’il continue cela finira par lui être préjudiciable.

Enfin c’est mon point de vue.



Le 28/01/2014 à 17h 13







brazomyna a écrit :



T’inquiète: Mister B non plus.



C’était celui qui prophétisait sous toutes ses formes possibles l’hégémonie d’Apple et de l’iPhone dans la téléphonie mobile dans les années 2007-2010, avec comme corrolaire qu’il allait faire pareil en terme de PDM qu’avec l’iPod.



Amnésie tout ça.





Tu me rassures.


Le 28/01/2014 à 17h 09







misterB a écrit :



Un constructeur face a une floppée d’autres ayant de fait une gamme bcp plus large avec des produit d’appels que n’a pas Apple, si tu arrives avec des PDM de fou avec ça, chapeau……





Un constructeur en avance aussi bien sur le hardware que le software, qui a la meilleure image auprès du public, un cash hallucinant, qui dispose du store le plus connu, qui a tous les dev en priorité…

Moi je ne lis pas le marc de café et Apple aurait pu faire évoluer ses produits différemment.

Apple aurait très bien pu par exemple élargir sa gamme avec 3 tels, un 4pouces, un 5 pouces et un 6pouces. Cela n’aurait pas remis en cause son image hdg mais lui aurait permis d’absorber la demande énorme sur les tel à grande taille et les phablet.

De même pour l’ipad Mini, on entendait depuis longtemps que non ça ne servait à rien, et maintenant on voit qu’il se vend mieux que l’original !

Pour le stylet, c’est une critique des ipads qui existe depuis toujours, réclamée par bcp pour la prise de note, les annotations, le dessin…



Sur tous ces aspects Apple a choisi d’être conservateur et Samsung a pu s’engouffrer dans la brèche.



Tu veux que je te donne une autre possibilité ?

Apple propose en 2009 à Samsung de vendre des téléphones sous iOS via un partenariat privilégié. Aujourd’hui iOS écraserait le marché et iTunes serait une cash machine hallucinante.



Tout cela c’est des choix d’Apple. Je ne suis pas dans leur petits papiers et je ne pouvais donc connaitre à l’avance leur choix de la même façon que perso je suis incapable de te dire à coup sûr quels sont les produits qu’ils vont sortir dans le 3 prochaines années avec quelle stratégie et encore moins quel résultat. Si toi tu le sais je suis preneur.


Le 28/01/2014 à 16h 09







misterB a écrit :



Depuis le départ on sait que les PDM iOS vont représenter dans les 15% une fois le marché arrivé à maturité <img data-src=" />







Ah bon ?

Tu es fort, moi je ne le savais pas. Et d’ailleurs je ne sais toujours pas quelle sera la part de marché d’Apple dans 3 ans sur les appareils mobiles.



Je ne sais pas si Apple va élargir sa gamme et comment, ni si MS va continuer à percer et à qui il prendra(ait ?) des PDM (iOS ou Android)…


Le 28/01/2014 à 15h 40







misterB a écrit :



Sur 3 mois pas sur le parc installé, et justement Apple fait du blé sur CE parc via les boutiques que sont l’appStore et l’ITS <img data-src=" />





On est d’accord mais comme je le disais ta PDM dans les ventes actuelle est à terme ta PDM dans le parc. On ne voit pas encore tous les effets de la chute de PDM dans les ventes.


Le 28/01/2014 à 14h 42







brazomyna a écrit :



Ben en fait on est d’accord sur ce pourquoi tu n’es pas d’accord, au détail près de la PDM qui pour moi peut parfaitement rester autour de 20% sans que l’effet “repoussoir” ne soit si pregnant que ça et amorce un cercle vicieux (cf. les macbook). A mon avis il faut descendre encore plus bas pour que ce cercle vicieux s’enclenche ( Boot Camp =&gt; devient windows ‘aware’).



Pour le reste, je plussoie parfaitement la logique, et c’est ce qui m’amène à dire qu’il est condamné au coup d’éclat.





Oui mais sur les smartphone la PDM d’Apple ne cesse de chuter, de mémoire on en est aujourd’hui à 15%.

Pour l’instant grâce à tous les iphone vendus sur les 5 dernières années le parc installé reste attractif mais ce n’est qu’un effet d’inertie qui va s’estomper progressivement.

Il faut réellement qu’Apple élargisse sa gamme avec une vraie proposition en moyenne gamme, et un phablette puisque le public est demandeur. Je ne sais pas s’ils vont y venir mais même si c’est le cas ils auront mis un temps fou !


Le 28/01/2014 à 10h 05







brazomyna a écrit :



Oui et non, les PDM ne sont pas un but en soi pour cette compagnie qui a un business model relativement atypique, avec un ratio typique énorme entre profits et nombre d’unités vendues: L’ADN d’Apple c’est une boite qui vend peu mais marge beaucoup. Et on ne change pas comme ça son ADN ; l’iPhone 5c l’a prouvé de façon éclatante.



Sous cet angle, le problème majeur ici c’est surtout qu’ils margent de moins en moins.





On est d’accord sur tout sauf sur ce point. <img data-src=" />



Ici il faut reprendre la problématique du Mac dans les années 8090.

Avec la maturité du marché du smartphone vont se développer plusieurs phénomènes :




  • à force de voir ses PDM se réduirent, on finit par voir les dev déserter la plateforme, ce qui entraine une baisse d’attractivité pour les utilisateurs finaux, ce qui entraine une baisse des ventes et ainsi de suite

  • avec la baisse des ventes, face à des concurrents qui vendent toujours plus, la capacité à être compétitif sur les coûts de production s’amenuise, et progressivement on ne vend pas plus cher pour marger plus, mais pour marger autant

  • qui dit maturité du marché, dit aussi innovation moindre, lorsque les fonctionnalités n’évolueront plus et ne justifieront plus de payer des tarifs élevés, il faudra être capable de baisser les prix tout en conservant de belles marges, et seule des économies d’échelle le permettront

  • Apple fonctionne en modèle cloisonné (Itunes/iOS), quand cela fonctionne c’est un modèle vertueux (les ventes de machines sous iOS amènent des client iTunes, qui pour conserver leurs achats restent sous iOS..) mais lorsque cela ne fonctionne plus cela agit comme un repoussoir, les qualités (simplicité, cohérence) devenant des défauts rédhibitoire (enfermement, logithèque limitée, prix).



    Pour toutes ces raisons, si je devais donner un seul conseil à Apple c’est de tout faire pour rester au-dessus de 20 % de PDM coûte que coûte, et aussi d’espérer que MS réussisse à bouffer une bonne part à Android afin d’avoir un marché plus équilibré et pas de se retrouver encore une fois “seul contre tous”, à lutter à la fois contre google sur le terrain de google, et contre Samsung & co sur leur terrain.



    Je pense qu’Apple est conscient de cette situation et que c’est pour cette raison qu’ils se sont résolu à lance l’Ipad Mini, moins rentable que son grand frère, mais qui a permis d’enrayer au moins en partie la chute des parts de marché.


Le 28/01/2014 à 09h 35







brazomyna a écrit :



Nombre d’inepties à la fois dans l’article et dans les commentaires.



Pour résumer:





  • non la valorisation boursière n’est pas de l’argent sonnant et trébuchant. C’est un indicateur, purement théorique, qui donne une indication sur la valeur globale qu’aurait une entreprise si demain on voulait racheter l’ensemble de ses actions au prix actuel du marché. Perdre x% à la bourse ne fait pas perdre le moindre centime à Apple.



  • la finance ce ne sont pas des madames IRMA, ce sont une somme d’individus (physiques ou institutions) qui, de par leurs ordres vont déterminer une valeur instantanée d’une portion d’une entreprise. Ces individus basent leur estimation sur un ensemble de paramètres qui leurs sont propres. La somme de l’ensemble des opinions des individus fonde le cours de l’action.



    Vous pensez que le cours est écarté de la réalité ? Que les annonces de telle ou telle agence est biaisée ou inappropriée ? Mais allez-y, prenez un compte titre chez la première banque venue et venez parier sur l’avenir de la société. Si vous avez raison sur le long terme, vous êtes riche. Il n’y a pas plus simple.



  • le cours d’une action ne reflète pas essentiellement les résultats de l’entreprise au moment présent, mais les perspectives sur le court/moyen/long terme. Un adage bien connu dit qu’on “achète la rumeur et qu’on vend la nouvelle” ; c’est typiquement ça: le marché a un but primaire d’investissement, qui consiste à quantifier et valoriser l’avenir, pas le présent.



    En l’occurrence, l’accueil relativement tiède du marché vis à vis de l’action d’Apple s’explique essentiellement:



  • par le fait que l’augmentation du nombre d’untiés vendues peut masquer un recul de parts de marché dans un marché où justement le nombre de vente explose littéralement de trimestre en trimestre. Si telle entreprise fait +10% quand tous les autres font +20%, c’est tout sauf une bonne nouvelle. Et c’est ce qui se passe dans la mobilité: Apple n’a pas cessé d’augmenter ses ventes et est pourtant passé de 80% de PDM à 20% sur les smartphones.



  • par le fait que l’iPone & l’iPad sont pas si loin d’une forme d’apogée, et qu’en l’absence de relais de croissance pour l’avenir avec la sortie de produits innovants, la profitabilité de l’entreprise n’a vocation qu’à baisser, comme on peut déjà commencer à l’apercevoir puisque les revenus augmentent désormais moins vite que le nombre d’unités écoulées.





    +1

    Dès que l’on parle économie/finance c’est effarant le nombre d’erreurs/approximations/inepties que l’on peut lire.



    Le futur d’Apple est très incertain, le 5c n’a pas rempli son rôle qui était de permettre d’élargir la gamme et reconquérir des parts de marché.



    Apple est confronté à deux problèmes :

  • trouver une façon de reprendre des parts de marché sur les smartphones et les tablettes, tout en maintenant la cohérence de la gamme et les marges

  • trouver de nouveaux relais de croissance, et pour l’instant on ne voit rien venir. Montres ? TV ? Lunettes ? Peu importe, mais il faudra bien trouver qqch, car actuellement Apple est dépendant de l’iphone et de l’ipad, mais ceux ci pourraient bien connaitre un jour le même sort que l’ipod.




Le 28/01/2014 à 09h 41







damaki a écrit :



Oh génial, si le producteur exécutif est là, tout ira mieux !

Rappel (extrait de la wikipedia FR) :



Donc comme vous pouvez le voir, c’est le gars qui gère le budget et qui touche pas à la prod, que ce soit au ciné ou dans les jeux vidéo. Merci à Microsoft pour cette annonce ridicule, nous sommes heureux de savoir qui tient le portefeuilles du projet du prochain Gears.





Wouah !

C’est fort tu arrives à comprendre exactement l’inverse de ce que ta propre citation dit.

La preuve encore une fois de la capacité de déformation de l’esprit sur la réalité…


Le 27/01/2014 à 15h 18







athlon64 a écrit :



Ah mais je suis pas pour une minituriasation à tout prix, bien au contraire, je suis bien content de garder mon PC de bureau. Quand je parlais de de boitier plus adapté c’est par exemple celui de la SteamBox par valve, qui est juste un peu plus gros qu’une console et qui pourtant permet d’accueillir une config plutot musclée. C’est ce genre de boitier qui manque. Après jai pas vu de test sur la chauffe <img data-src=" />



Après pour faire un PC qui serait sous la TV, a part pour du stream depuis un PC puissant, utilisé XMBC, y a pas besoin de composants de folie, donc chauffe réduite. De plus, les NUC sont certes un peu haut, mais vu la taille, il ya bien une place dans un meuble TV pour ça. (Et puis 3-4cm je trouve ça pas excessif comme hauteur).



Je reve d’un boitier home made qui serait sous la TV avec ecran qui affiche T°, musique en cours sur MPD et l’avancement + l’heure lors de la lecture d’un film sur XMBC<img data-src=" />





Le boitier de Valve semble très bien, à ceci près qu’il n’est pas commercialisé.



En tous les cas tu comprends donc ce que je veux dire : faire une machine pour le salon ce n’est pas qu’une question de configuration, c’est aussi un form factor et des fonctionalités.

Ce que tu demandes est typiquement ce à quoi je pensais.

Mais on peut encore imaginer autre chose :

quand tu mets un DVD/BR/CD, la machine le détectes immédiatement et se mets toutes seule en mode lecteur adéquat.

De même il pourrait y avoir une télécommande en option qui fonctionne dans ces mode là.

C’est tous ces petits détails pensés pour une utilisation dans le canap, qui font qu’une machine est fonctionnelle ou ne l’est pas.


Le 27/01/2014 à 14h 54







athlon64 a écrit :



Oui mais un NUC au vue de la taille réduite, t’as pas beaucoup de choix.



Une SteamBox tu en fais une avec n’importe quel PC fait pour le jeu (le form factor faut attendre un peu que les constructeurs sortent des boitiers comme celui présenté par Valve).



Dans les machines présentées, il y avait une qui était vraiment petite, mais le prix était vraiment gros… On peut s’attendre a ce qu’il y ait des NUC certifiés si cette fonctionnalité prend et que Intel veut en vendre plus.





Tu sais concernant la taille je crois qu’il y a une vraie incompréhension entre ce que les constructeurs cherchent à faire et ce qui est réellement utile.

Faire le plus petit possible n’est vraiment pas une bonne idée pour une machine de salon.

Ce qui est important c’est de respecter un form factor spécifique au matos que tu mets dans le salon.

Exemple : aujourd’hui il est possible de faire un lecteur DVD ou BR qui serait vraiment riquiqui. Pourtant tu n’en trouves pas sauf en mode portatif pour ceux que ça intéresse.

Pourquoi ? Parce que ce serait plus emmerdant qu’autre chose !

Ton matos salon/TV c’est tout le temps à peu près la même largeur autour de 40 cm, une profondeur d’environ 35cm, et pour la hauteur cela dépend mais rarement plus de 20 cm.

Le NUC ou le Brix tu vois leur tronche tout de suite ça va pas : ils sont trop hauts par rapport à leur largeur. Dans un meuble TV tu seras emmerdés.

Deuxième chose : il vaut mieux faire plus volumineux mais silencieux et fiable.

Donc si tu peux faire plus petit, tant mieux, profites de la place restante pour aérer tes composants, augmenter la taille des ventilos, voire les supprimer.

Ajoutes des slot-in pour HDD de 2.5pouces, il y a ça dans LaBox de numéricable, ça tout de suite c’est user friendly.

Ajoutes un écran LCD en façade pour piloter ton bouzin et qu’il te file des informations.

Le moindre lecteur DVD bas de gamme en a un mais pas une machine à plusieurs centaines d’euros pour le salon <img data-src=" />



Franchement, c’est à se demander si les mecs ont un salon chez eux…


Le 27/01/2014 à 14h 32







athlon64 a écrit :



N’importe quel NUC doit pouvoir decoder le flux streamé, suffit d’y collé SteamOS et c’est bon (si erreur merci de corriger) <img data-src=" />





Peut-être je ne sais pas. Mais si tu vas par là les machines présentées sont toutes des PC, donc tu les achètes et suffit d’y coller SteamOS et tu as une steam machine.

Il y a combien ? 14 bécanes prévues ? Et toutes sont surdimensionnées pour cette fonctionalité. ça serait bien qu’il y en ait au moins UNE qui soit conçue spécifiquement pour ça, testée et approuvée. Pour ceux qui veulent acheter sans rien avoir à faire c’est indispensable, et pour les autres ça donne des indications sur ce qui marche dans ce mode là à coup sûr.


Le 27/01/2014 à 14h 21

Je pense que c’est pour le moment la chose la plus intéressante de SteamOS.

Il faudra juste voir si techniquement c’est viable pour tous les jeux et avec quelle techno (filaire ou wifi).

Par contre ce qui est dommageable c’est qu’il n’y a aucune machine annoncée et basée strictement là dessus.

Du coup pour l’instant les machines donnent l’impression de raquer cher pour faire du streaming.

Le 24/01/2014 à 15h 00

Pour ceux qui se posent la question, il leur reste aussi et surtout les services et l’activité consulting où IBM est devenu un géant.



Grosso merdo leur stratégie a été d’abandonner le hardware pour se recentrer sur les services au sens larges (conseil, dev, stratégie etc) et de maintenir la partie hardware stratégique qui leur permet de vendre ces services (serveurs, processeurs conçus et fabriqués maison …) + la recherche.

Si on regarde leur métamorphose et les résultats, pour l’instant ils ont eu raison.



La vente des serveurs x86 n’est que le résultat de cela : ce n’est pas stratégique dans le sens où ils ne font rien de plus que ce que fait un HP ou un Dell, ils ne sont plus compétitifs =&gt; on vend.

Avantages :




  • IBM pense qu’à terme la valeur ajoutée va se réduire comme peau de chagrin du fait de la concurrence asiatique et qu’il faut être un vrai spécialiste du secteur pour continuer à y exister

  • Ils vendent cher car ils valorisent le côté “entrée sur le marché”

  • les ressources peuvent être réallouées sur les activités en forte croissance

  • cela permet à la partie conseil d’être consultée sur le choix de tes serveurs comme un expert indépendant puisque tu n’as plus rien à vendre

  • cela permet en interne d’acheter des équipements qui ne sont plus obligatoirement internes et donc négocier des contrats d’achats plus avantageux en terme de tarif.

Le 24/01/2014 à 14h 38







fraoch a écrit :



mouais c’est vrai

mais dire que les jeux étaient aussi bugués que maintenant est aussi etre dans le deni.

Peut etre que certains bugs passaient par la presse en mode “c’est une astuce pour faire si ou ca dans un jeux…” et que les bugs de plantages etaient passés sous silence.

Mais comme dit RaoulC, peut etre qu’en Euope on avait droit aux versions corrigées. Dans tous les cas, je n’ai jamais eu a me plaindre, sur mes consoles de l’epoques de :




  • mises a jour intempestives

  • MAJ qui me bloquent la console tant que c’est pas fini

  • Plantage de consoles

    j’ajouterais aussi, meme si c’est legerement HS :

  • jamais eu de pannes

  • pas de temps de chargement

  • 0 configuration a faire

  • vraiment plug and play



    et les jeux etaient plus aboutis justement parceque les studios ne pouvaient pas proposer de MAJ. Il fallait donc etre minutieux sur le code.



    Mais bon, on ne reviendra jamais dans ce mode de process, certaines evolutions ont un prix, et celle des consoles connectées modernes est celui ci. On l’accepte ou on passe notre chemin.

    Pour l’instant, je passe mon chemin, et je verrai comment ca se passe dans un an ou deux avec les PS4 et X1.







    Je répète : compares des jeux comparables !

    Soit des jeux 2D tout offline. Tu verras que les jeux récents de ce type ne sont pas buggés même lorsqu’ils sont fait par 2 péquins (Ex : Braid).



    Jamais eu de pannes, même chose les bécanes et le matos sont pas les mêmes. A l’époque on ne faisait pas de CPU/GPU qui consommait 100w et allait te poser de gros problèmes de fiabilité en terme de chaleur.



    Par contre perso :

  • super nes : 1 réparation qui a coûté la moitié du prix de la console (un pb de carte mère je crois)

  • N64 : pas de problème

  • PS1 : lentille flinguée au bout de 3 jours, échange standard, lentille flinguée au bout de 6 mois, échange standard, lentille flinguée hors garantie, console à la poubelle (en vrai elle continuait à marché sur certains jeux en la retournant)

  • Dreamcast : pas de problème

  • PS2 : juste flinguée, quelle daube cette console, elle avait le soutien de tout le monde mais c’était vraiment une grosse merdasse avec une sortie vidéo pourrave qui se faisait démontée par la Dreamcast, un aliasing de folie, un lecteur DVD qui a fait une partie de son succès mais où si tu voulais vraiment regarder des DVD fallait en racheter un…

  • xbox : pas de problème

  • PS3 : pour l’instant pas de problème, je croise les doigts (vu mon expérience avec la PS1 et la PS2, jamais j’aurai pris la 3 si la 360 avait pas eu son histoire de RROD).



    Donc bon c’est mitigé.

    Mais si tu veux des consoles à l’ancienne, avec des jeux à l’ancienne, ya la 3DS, la Vita voire la WiiU.


Le 24/01/2014 à 13h 59







fraoch a écrit :



les magasines existaient et etaient tres lus.

La difference est que les informations n’etaient pas en temps réelles comme maintenant, mais décalées d’un mois. c’est tout







D’une part je me souviens que rare étaient les tests qui ne mentionnaient pas de bugs et d’autre part les magazines faisaient leur test et puis passaient à autre chose. Peu de monde prenait la peine d’écrire pour faire remonter que tel ou tel jeu avait tel ou tel bug, et même lorsque cela arrivait les magazines n’y accordait pas d’importance et n’avaient surtout pas intérêt à le faire vis à vis des éditeurs.

Pour le meilleur et pour le pire internet a tout changé, dire autre chose c’est être dans le déni.


Le 24/01/2014 à 09h 25







dam1605 a écrit :



Certes mais les moyens ne sont pas les même non plus.

Maintenant y’a des sdk de malades, le dev se fait à beaucoup plus haut niveau (prince of persia c’était en assembleur…).

Un jeux n’est plus fait from scratch, tout un tas de lib sont réutilisés (un moteur graphique par exemple).



Quand on voit la taille des patchs des jeux d’aujourd’hui y’a quand même quelques questions à se poser…





Tu rigoles ou quoi ?

Quand tu vois la taille des jeux aujourd’hui, la partie debug et tests qualités doit juste être monstrueuse comparée à ce qui se faisait dans le passé.

Compares ce qui est comparable : prends les jeux 2D récents avec un minimum de budget et regarde le niveau de finition par rapport à ce qu’il se faisait dans les années 8090. Même un jeu comme Braid développé par un type (+ l’assistance d’un graphiste) est mieux fini que 80 % de la prod de l’époque. Les jeux Nintendo 2D sont toujours de la même qualité. Alors oui quand tu compares un monde ouvert gigantesque à la GTA ou Skyrim avec un plateformer tout simple où tout est prévisible et testable il y a des chances pour que tu trouves pleins de bugs d’un côté et quasi aucun d’un autre.


Le 23/01/2014 à 16h 45







ActionFighter a écrit :



On a pas joué aux même jeux quand on était plus jeunes alors <img data-src=" />



Par exemple Sonic 2 sur Master System, tu pouvais rester coincé dans un nuage en prenant un parapente, et il n’y avait plus qu’à appuyer sur reset et espérer que ça passe la fois d’après <img data-src=" />



Maintenant, on a la chance d’avoir des mises à jour possible. Je rajouterai aussi que la charge de développement n’était pas la même entre un GTA V et un mario ou un sonic de l’époque…



Après, il est vrai que certains jeux sont beaucoup trop buggés à leur sortie, et qu’il vaut mieux attendre un mois avant d’y jouer pour avoir une expérience de qualité.





+1

Des jeux buggés, mal finis, mal fichu, il y en avait pleins, c’est juste qu’il y avait pas le net pour que tout le monde puisse s’en plaindre.

Ensuite techniquement résoudre les bugs de ce qui serait aujourd’hui un bon petit jeu 2D et d’énormes productions de jeu comme GTA V, c’est pas vraiment le même taf.

On ne peut pas dire que R* a pas pris le temps pour le faire GTA V.



Enfin bref, moi je ne regrette pas les années 80, si ce temps là vous manque, achetez une 3DS, PSVita et même une WiiU, vous y retrouvez le meilleur de l’époque en mieux, plus beau, mieux fini … et moins buggés ! lol



Le 23/01/2014 à 15h 30







FREDOM1989 a écrit :



Les joueurs sont très conservateurs, ils ont gardé l’habitude des machine des années 8090 et de la gen 128 bit ou les consoles et les jeux sortaient fini.





Les jeux ne sortaient pas “finis”, ils étaient buggés ou mal équilibrés et le restaient définitivement.

Du coup seul une poignée de boites avaient la réputation d’avoir une finition exemplaire dans leurs jeux.



Donc je dirais, qu’en tout et pour tout une proportion significative de la population est conservatrice, et par dessus le marché veut conserver ou revenir à un passé idéalisé et fantasmé. “C’était mieux avannnnnnt”.


Le 23/01/2014 à 14h 23







XMalek a écrit :



CHronologie à 18 mois ? arf arf arf

Non mais aux usas c’est en général 270 jours



La chronologie des médias doit encore se réduire drastiquement pour faire revenir les gens au légal. ET un netflix en france a 10€ et tu vas avoir du ouin ouin de partout….





Si tu passes de 36 mois à 18, c’est quand même un grand pas dans la bonne direction. Tu peux pas tout avoir d’un coup, et il faut aussi préserver la filière ciné.



C’est le problème des offres actuelles, ainsi que le fait qu’elles soient trop morcelées. Aux USA, en gros tu as Netflix d’un côté et HBO de l’autre.

En france qui est un marché bcp plus petit, tu as des offres dont je ne connaissais même pas l’existence (JOOK) chacune avec sa série phare que tu n’auras pas chez les autres, cela ne peut pas marcher.

Soit ils se mettent d’accord, soit il y en a un qui à la longue bouffe les autres, soit tout le monde continuera à télécharger.


Le 23/01/2014 à 14h 11

Bon, note préalable, je n’ai rien contre toi personnellement Citan, mais il faut quand même faire une petite mise au point : avant de passer à l’insulte et de me traiter de débile, essaies de lire mes posts jusqu’au bout, tu verras ça aide à comprendre.









Citan666 a écrit :



Je vais être brutal mais ce que tu dis là est débile. Faut-il rappeler que l’objectif de Valve est justement DE NE PLUS DÉPENDRE de Microsoft, donc Windows ?





Réponse :





Oryzon a écrit :



Oui mais voilà, ça ne répond pas au cahier des charges de Valve qui est :




  • trouver une solution pour devenir indépendant de Win

  • réduire complètement la concurrence à néant en n’installant que Steam (pas de store alternatif, en tous les cas out of the box)

  • possibilité un jour de fermer complètement l’OS

  • pas de prise de risque financière





    Donc tu vois je suis parfaitement conscient de ce que Valve cherche à faire à terme, je souligne juste que du coup ce qu’ils proposent MAINTENANT n’a strictement aucun intérêt quel que soit le bout par lequel on le prenne.







    Citan666 a écrit :



    Et si l’on va au fond de ton hypothèse, qui étais je suppose que Valve veuille développer un Windows suffisamment customisé pour être “autonome”, penses-tu vraiment que Microsoft accorderait une licence d’utilisation et de développement à un tiers se posant en concurrent direct de sa console de salon d’abord, son écosystème ensuite (et je ne parle pas du coût de licence pour Valve, ou des problématiques de support, d’acquisition d’expertise en développement système, etc) ???





    Réponse concernant Valve :





    Oryzon a écrit :



    Euh il y a des constructeurs qui poussent la bidouille très loin quand même, pas plus loin que ce que j’imagine en tous les cas : une variante de Steam BP qui se lance d’office, intégration de XBMC et/ou VLC…





    Réponse concernant MS :





    Oryzon a écrit :



    Je ne suis pas sûr que MS ait réellement le choix de choisir à qui il vend des licences et à qui il n’en vend pas surtout si c’est pour des raisons concurrentielles.

    Quant à un windows bidouillable c’est déjà le cas, quasi tous les construteurs te livrent leur machine avec une foultitude de crapware installé d’office.











    Citan666 a écrit :



    Linux représentait la seule porte de sortie pertinente : base installée faible mais extrêmement motivée, communauté de développeurs compétents, pas de coûts de licence, liberté de customisation.





    Le coût de la license MS en OEM existe mais bon c’est pas non plus la mort.

    Pour faire un OS qu’ils maitrisent à 100%, Linux est assurément la meilleure voie. Pour vendre des Steam Machine intéressantes en 2014 (et non peut-être en 2018) avec plein de jeux et être une alternative crédible aux consoles, bah non.







    Citan666 a écrit :



    C’est pour ça que des rumeurs qui font long feu courent sur le portage de Civ 5 sous Linux, ou le support natif de Linux pour SC2 lors de la prochaine sortie d’extension…

    C’est pour ça que AMD et nVidia communiquent à fond sur leurs efforts sous Linux, pour montrer qu’une des barrières historiques au support de jeu est en train de tomber…





    Alors “faire long feu”, cela signifie que tu as cru que ça allait venir, mais qu’en fait non. Suivant les situations et l’emploi, on peut dire pétard mouillé, échec, arlésienne… Mais je pense que tu as voulu dire “des rumeurs persistantes”.

    Primo : les rumeurs c’est une chose la réalité c’en est une autre.

    Deuxio : Linux c’est une chose, Steam OS c’en est une autre.

    Si Blizzard, ou EA se lancent sur Linux je suis à peu prêt certain qu’ils vendront leurs jeux via leur propre store et certainement pas celui de Valve.







    Citan666 a écrit :



    C’est pour ça que 70% des nouveaux jeux indépendants sur Steam (et faut-il le rappeler, le marché du jeu indépendant explose pendant que les éditeurs AAA se ridiculisent, hein EA) sont direct compatibles Linux…

    Les grands éditeurs sont des couilles molles. Ils ne vont certes pas affirmer un support indéfectible immédiatement, ils laissent les autres se prendre les pains. Mais t’inquiètes que d’ici 2-3 ans ils planifieront eux aussi un support Linux out-of-the-box pour les nouveaux jeux…





    Les indépendants c’est bien, ils apportent un renouveau en terme de créativité, de prise de risque & co mais les grands éditeurs restent incontournables pour vendre une machine destinée à faire tourner des jeux.

    L’avenir, moi je lis pas le marc de café, et même si tu as raison et que dans trois ans les Steam Machine font tourner 95% des jeux du marché, autant acheter dans 3 ans, plutôt que d’acheter une bécane surdimensionnée pour faire tourner les jeux qui tournent dessus maintenant, et et qui sera dépassée pour faire tourner les gros jeux qui arriveront dessus quand ils arriveront (et s’ils arrivent).







    Citan666 a écrit :



    Sur ce point nous sommes complètement d’accord. L’incohérence apparente que tu relèves vient du fait que ce ne sont pas les mêmes qui s’expriment…

  • Ceux qui sont contents (dont je fais partie) sont ceux pour qui le jeu est une passion, mais non les graphismes, et qui n’aiment pas claquer des centaines d’euros tous les 2-3 ans pour une upgrade.

  • Ceux qui râlent sont les passionnés de qualité graphique, ou du moins ceux ayant un budget suffisant pour s’acheter une machine ultra haut de gamme ou mettre à jour très régulièrement.



    Je te rejoins également (comme d’autres) sur le fait que laisser whatmille constructeurs faire des configs différentes est contre-productif (comment augmenter la fragmentation au lieu de saisir une chance de la réduire).

    <img data-src=" />





    Et bah tu vois qu’on est d’accord.


Le 22/01/2014 à 15h 44







kail a écrit :



Mais personne ne souffre d’un manque de puissance aussi sur PC quitte à mettre moins de débauche graphique dans un jeux avec un PC de faible puissance, c’est ça que tu ne comprends pas. Cette même problématique trouve aussi sa solution dans le monde PC en réglant les options graphiques, c’est la même chose.





Pas forcément. A un moment donné tu dégrades ton expérience de jeu quand même.

Et puis à partir du moment où tu montres explicitement que ça pourrait être mieux tu génères de la frustration.

Enfin tu confonds ajuster les options, et optimiser. Avec une configuration, le dev optimise son code pour que le rendu soit le meilleur possible spécifiquement sur cette config. Avec plein de configs diverses et variées, tu as un code générique qui n’optimise aucune config en particulier (sauf si Nvidia ou AMD passent par là avec un chèque) et tu laisses les joueurs se démerder avec les options et le fait que s’ils veulent mieux il faudra repasser à la caisse niveau matos.

Sur consoles les suites sont souvent de plus en plus impressionnantes au niveau visuel car les dev apprennent à optimiser, alors que sur PC si un jeu a un rendu x le suivant aura le même, il n’y aura pas eu d’optimisation pour ta config.


Le 22/01/2014 à 15h 35







barok a écrit :



Et perso, quand je joue (sur mon écran), ma femme regarde le TV. Je ne me vois pas racheter une TV et ou un autre écran juste pour une steamBox, sachant que mon PC fait tout ce que fera la steamBox.



Je ne crache pas sur le concept, je suis juste scéptique sur sa réussite. Qui sait, si ca se trouve d’ici 5 ans, j’aurai une steam machine.





Moi aussi si ça se trouve, par contre je ne ferai surement pas partie des acheteurs de la première heure. Pour l’instant en attendant que cela change, jeu sur PC = windows.



Et franchement contrairement à certains je ne pense pas que les grands éditeurs iront sur SteamOS. Ils cherchent déjà comment se dépatouiller de la toute puissance de Steam sur PC c’est pas pour en devenir encore plus dépendant.

Par ailleurs les éditeurs ont d’autres fer au feu, les nouvelles consoles, les smartphones, les tablettes, le free to play. Investir sur Linux ne doit pas faire exactement partie de leur priorité.


Le 22/01/2014 à 15h 08







kail a écrit :



Quels défauts?

-les composants PC sont tellement en avance que même une config d’il y a 10ans est capable de faire tourner un jeu récent (en faisant des concessions naturellement)

-Bon alors tout d’abord, Sony et Crosoft nous ont habitué à une seule baisse de prix par génération et ensuite, bien évidement que les anciennes versions des steambox baisseront de prix pour laisser la place aux nouvelles. Le consommateur ne sera donc pas lésé.





Nonnnn 10 ans, 15 ans ! 20 ans ! Allez fais-toi plaisir ! Excuses moi mais un PC de 2004 il tient pas la route fasse à une x360 de 2005. Donc bon, les composants tellement en avance faut pas exagérer non plus. A tarif équivalent ya zéro avance.



Ensuite les gamers PC sont schizo :




  • ils sont tout contents que depuis 56 ans un PC soit capable de tenir la distance

  • mais ils pestent contre les consoles, dont les portages empêchent d’utiliser tout le potentiel des PC plus récents



    C’est précisément parce que les consoles figent le matos que les PC ont gagné en longévité <img data-src=" />



    Ensuite si tu as des nouvelles versions toujours plus puissantes que les anciennes qui sont proposées moins chères ce n’est pas la même chose qu’avoir psychologiquement qu’avoir une seule machine qui baisse de prix. Une nouvelle machine flambant neuve dévalorise toujours les anciennes. Bcp de gens sont passé du PC aux consoles pour ne plus être dans la frustration de devoir choisir entre upgrader sans cesse à coup d’€ et ne pas faire partie des happy few qui jouent en ultra.


Le 22/01/2014 à 14h 39







d4rkf4b a écrit :



<img data-src=" />







D’accord donc le public visé, c’est les joueurs en mode believe sur Linux et qui sont prêts à mettre +500 € dans une machine pour jouer à don’t starve sur leur écran de TV en croisant les doigts pour qu’un jour la foi s’étant répandue il y ait pleins de jeux.


Le 22/01/2014 à 16h 42







atomusk a écrit :



Une LED simple comme ça a largement plus de durée de vie que les écrans OLED <img data-src=" /> sur les ampoules à LED on parle de 100 000h, … mais je sais pas pour toi, mais les led d’une machine à laver qui a 10 ans elles marchent encore <img data-src=" />





Encore une fois peut-être, j’espère. Je ne manipule pas non plus ma machine à laver, et si des LED cessent de fonctionner cela ne la rend pas inopérante. Mais enfin je veux bien te croire.







atomusk a écrit :



Je ne doute pas que Sony, Microsoft & co, dans leurs labo, dépensent sans doute bien plus que Occulus Rift. Ici on en parle plus parce que le financement est communautaire, Sony ils veulent avoir un produit final qu’ils présentent “d’un coup”.





Bah justement quand tu vois le prix des casques VR de Sony… Quelque part et c’est vache pour Oculus mais si un acteur comme Sony, MS, Samsung ou un fabriquant de casque annonçait qqch je me dirait que là on y est bientôt.







atomusk a écrit :



Je dois avouer ne pas trop connaitre le domaine, mais je n’ai jamais entendu parler d’un proto qui coutait moins cher qu’une production de série <img data-src=" />





Parce que les protos en question ne sont justement pas réalisable/vendable à grande échelle.

Si tu ne vends pas assez tous les coûts que je mentionne dépassent les gains réalisés sur la production.

Et si tu as pensé ton proto sans te mettre dans l’optique des contraintes d’une production de masse tu restes dans de “l’artisanal”, et tu constateras souvent dans ce cas que cela coûte moins cher d’acheter directement à l’artisan main à main qu’au distributeur proche de chez toi. Par exemple les fabricants d’enceintes HiFi sont un peu dans cette situation : il n’y a pas de vraie grosse production et tu payes cher la distribution.



Enfin bon je pense pas que ça sorte cette année, au mieux on aura une annonce à l’E3 pour une sortie fin d’année ou pour 2015. Si pas d’annonce, on est reparti pour un tour.


Le 22/01/2014 à 16h 07







atomusk a écrit :



mettre des LED allumé continuellement sur une coque, c’est ce que j’appelle une opération triviale <img data-src=" />





Peut-être je suis pas spécialiste. On verra. Faut encore que les LED aient une putxxx de durée de vie, de fiabilité, et soient solides.







atomusk a écrit :



Pour le coup, c’est un proto, on verra si ils utilisent ça au final, ou si ils repassent au LCD.





On est d’accord, en proto tu peut te faire plaisir. Apparemment Valve en a fait un qui déchire, mais c’est juste un proto.







atomusk a écrit :



Rien … et c’est ça qui est génial … je m’en fout de l’occulus Rift, ce qui est important c’est qu’on va avoir plein de casques utilisant différentes techno, différentes solutions, certaines vont pousser la qualité, certaines vont casser les prix … et on aura créé un marché complet <img data-src=" />





Je l’attendais celle-là ! <img data-src=" />

Bon déjà c’est pas cool pour Oculus qui claque son pognon depuis 2 ans là-dedans.



Ensuite je suis d’accord en tant que consommateur on s’en fout que ce soit Bidule ou Trucmuche qui produise le bouzin.

Par contre, d’une part cela signifie qu’on a beau s’emballer sur l’Oculus, en réalité la capacité à produire à grande échelle se trouve ailleurs.

Quand même je suis inquiet pour les coûts parce qu’aujourd’hui Oculus vend à prix coûtant son dev kit. Une fois que tu devras rajouter sa marge, celle du fabriquant, celle du distributeur, celles des divers intermédiaires (logistique, transport), les coûts inhérents à un produit de masse (SAV, vols, invendus, retours, frais marketing, packaging)… l’addition risque de vite grimper.



Et si le marché est disparate, cela peut être à double tranchant : un standard est tout de même souvent une condition sine qua non du succès.



Enfin bon là je vois les obstacles, et j’espère que ça marchera, mais il faut avoir en tête que c’est pas gagné, et qu’il y a des raisons au fait qu’ils annoncent pas de date de disponibilité.


Le 22/01/2014 à 15h 23







atomusk a écrit :



Les marqueurs semblent être de bêtes LED, c’est pas super cher ça,





C’est pas juste le coût des LED, c’est aussi de devoir introduire des opérations de montage supplémentaires et pas si triviales dans le process de fabrication.





atomusk a écrit :



et pour la camera, j’ai pas vu grand monde critiquer le kinect au dessus des TV et/ou la sensor bar de la Wii.

C’est une contrainte, mais c’est pas dramatique.





T’as pas du bien suivre les coms sur la XB1 alors. Ensuite je dit pas que c’est rédhibitoire, juste que mettre un casque est déjà une contrainte en soit, et que plus tu rajoutes de contraintes plus cela agit comme un repoussoir pour de nombreuses personnes.







atomusk a écrit :



Pour le meilleur écran il faudra voir le prix annoncé une fois qu’ils rentreront dans la “grande serie”, mais grace aux smartphones & tablettes, les écrans haute résolution sont produits en très grande serie.



Pour le passage à la 4K & co, à voir si ça sera indispensable, et ça pourrait venir en 20162017 … mais les améliorations annoncés rendent déjà le produit plus que séduisant en gommant pas mal d’effets qui généraient des nausées (lag/ghosting & co).





Je suis d’accord c’est pour ça que je dis que c’est peut-être un peu tôt.

Mais en l’occurence ce n’est pas juste la réso qui augmente, on passe aussi du LCD à l’OLED pour des raisons techniques. Pour info la PSVita est passe de l’OLED au LCD pour des raisons de coût.



Le passage en grande série offre également des avantages en terme de coût mais aussi des inconvénients, ce qui est réalisable à petite échelle ne l’est plus forcément à grande. Oculus n’est pas un industriel, et je ne pense pas qu’ils investissent dans une unité de production, il leur faudra donc un partenaire. Je pense que ce sera le moment de vérité pour eux : si par exemple Sony est capable de répondre à leur cahier des charges et de leur produire leur casque, qu’est ce qui empêche Sony de le faire directement ?


Le 22/01/2014 à 14h 53







atomusk a écrit :



Epouvantail réthorique <img data-src=" />



Déjà chapeau sur l’analogie sur l’automobile, fallait la chercher celle là <img data-src=" />

Maintenant tu as un proto, fonctionnel qui a été produit sur un petit volume, donne des résultats probants, a un prix accessible, et il y a dans les cartons une évolution du proto qui selon tous les retours gomme presque complètement tous les défauts précédents.

Le prix est correct, la techno est bientôt au point, et tu me parle d’une idée obscure de SF des années 70 qui voulait qu’on pourrait mixer voiture et avion … faut pas avoir honte <img data-src=" />







On a tous envie d’y croire.

Mais le proto c’est déjà plus la même histoire en terme de coûts : on passe d’un écran LCD 720p à un écran OLED 1080p, le casque est recouvert de marqueurs, et il y a une caméra pour repérer les mouvements via les marqueurs.

Et puis niveau praticité installé une cam… cof cof.



Et c’est probablement pas fini. Il faudra surement passer au 4k pour gommer tous les défauts visuels.



Donc ça en fait des coûts en plus. ça fait aussi une cible qui se rétrécie, parce que des bécanes en circulation capable de faire tourner en 4k avec un framerate élevé (très élevé j’imagine, sinon il faudra que le cas intègre un sac à vomi automatique au niveau buccal) des jeux immersifs (donc probablement gourmands) ça court pas les rues.



Bref autant c’est super intéressant de voir qu’il va être possible de produire un casque de VR de qualité, autant je me demande si c’est pas un peu tôt au niveau techno.



Le 22/01/2014 à 16h 24







canti a écrit :



connaissant bien comment les fournisseurs a qui tu donnes des engagements de vente en millions, et dont la concurrence est rude ( je présume que Nvidia a fait aussi une offre, meme si ils font comme si ca ne les intéressaient pas), tu as du mal a expliquer que “ c’est 50% de marge, et si ca vous emmerde, vous demandez a PowerVR si ca les interesse”



Autant ils sont en position de force, parcequ’ils apportent un produit de qualité donc Sony et MS ont besoin, autant MS et Sony sont bien placé pour faire baisser les prix, vu les volumes





Sauf que je suis pas sûr que la concurrence ait été si forte que cela : Nvidia ne produit pas de CPU et Intel est trop faiblard en GPU. Donc ils étaient les seuls qui pouvaient réellement produire un SoC x86 complet avec une puce graphique qui tienne la route.

De même en terme de coût Intel et Nvidia ne sont pas réputés pour être hyper agressifs, donc je suis pas sûr qu’ils aient fait souffrir tant que ça AMD.

Enfin depuis la mésaventure de MS avec la première Xbox (un tarif fixe sur plusieurs années qui a empêché MS de faire baisser le coût de prod de la console, Nvidia les envoyant chxxx à chaque tentative de négo , une des raison qui les a pousser à vite l’abandonner) je pense que les consoliers préfère négocier une marge. Comme cela au fur et à mesure que le coût de fabrication baisse, le coût baisse pour le fabricant tout en continuant à faire gagner de l’argent au fournisseur. Du win/win plutôt que d’avoir une situation où après 2 ou 3 ans il y aura un grand gagnant et un grand perdant, sans trop être sûr au début du contrat qui sera le dindon de la farce à l’arrivée.