Google choisit AMD pour sa plateforme de cloud gaming Stadia, une manette annoncée

Google choisit AMD pour sa plateforme de cloud gaming Stadia, une manette annoncée

Surtout de la hype pour le moment

Avatar de l'auteur
David Legrand

Publié dans

Hardware

19/03/2019 7 minutes
34

Google choisit AMD pour sa plateforme de cloud gaming Stadia, une manette annoncée

Google a profité de l'édition 2019 de la Game Developers Conference (GDC) pour évoquer sa future offre de cloud gaming : Stadia. Si l'on a découvert une manette et qu'AMD était partenaire de l'initiative, de nombreux détails manquent à l'appel.

C'est fait ! Google a enfin dévoilé son initiative dans le Cloud Gaming : Stadia. Comme l'on pouvait s'y attendre, il s'agit d'une plateforme unifiée profitant de l'infrastructure de Google, de son lien avec YouTube et de la force de frappe du géant américain pour ce qui est de trouver des partenaires.

Google découvre la vie et évite les sujets qui fâchent

Mais en listant les avantages de son service, du lancement instantané à la possibilité de jouer à des jeux complexes en haute définition sur un smartphone, un vieux PC ou une TV (le tout via Chrome), il donnait surtout l'impression de découvrir les possibilités du Cloud Gaming, une solution qui existe pourtant ailleurs depuis des années. 

En France, on pense bien entendu à Shadow, qui mise sur une machine sous Windows accessible partout, plutôt que de se limiter au simple jeu vidéo. Mais aussi à ses multiples concurrents, dont PlayStation Now chez Sony ou GeForce Now de NVIDIA. Qu'apporte ici Google excepté son nom et sa présence mondiale ? Pas grand-chose.

La société et ses partenaires ont même passé une bonne partie de la conférence à éviter les questions sensibles comme la bande passante nécessaire pour assurer un débit 4K HDR à 60 fps (plus tard du 8K !) avec une bonne qualité d'image ou encore le tarif d'un tel service qui consiste à louer sa plateforme de jeu plutôt que de la posséder. 

Car c'est bien de cela dont il est question : Google veut vous lier à elle pour ce qui est un marché mondial, de masse, intéressant non seulement les joueurs chevronnés, mais également ceux qui s'amusent de manière plus occasionnelle. À quel prix ? Aucune idée. Stadia sera lancé en 2019, les tarifs sans doute évoqués d'ici l'été... au mieux.

Un studio dirigé par Jade Raymond permettra l'émergence de titres exclusifs, tout en aidant les développeurs tiers à adapter leurs titres pour la plateforme.

Google StadiaGoogle Stadia

AMD remporte une nouvelle victoire

Une manette a également été dévoilée : Stadia Controller. Elle comporte des boutons dédiés, notamment pour le partage sur YouTube ou l'accès à Google Assistant.

Comme à son habitude, la société pense sa plateforme uniquement autour de ses services, comme si les alternatives n'existaient pas, notamment les Alexa et Twitch d'Amazon. La mise en avant intégrée aux différents produits de la firme sera également à surveiller, à moins qu'elle ne veuille ouvrir un nouveau front de plaintes sur le terrain de la concurrence. Heureusement, il sera tout de même possible d'utiliser les manettes d'autres consoles.

Côté technique, c'est AMD qui est à nouveau le grand gagnant de cette annonce, étant à l'origine de la puce personnalisée au cœur de Stadia. Microsoft avait déjà fait ce choix pour xCloud, le Texan étant déjà dans les PS4 et Xbox One. Une situation assez ironique au regard de la position du constructeur dans le monde PC, tant en termes de volume de vente que d'avancée de ses architectures. Comme quoi, dans les gros contrats, l'efficacité d'une puce ne fait pas tout.

Le GPU évoqué ressemble trait pour trait à une Vega 56 et sa HBM2, légèrement amélioré puisqu'il est question de 10,7 TFLOPS contre 10,5 TFLOPS pour cette carte. La technologie de virtualisation SR-IOV étant évoquée, il y a fort à parier que ce soit plutôt une base de Radeon Pro V340 avec MxGPU.

Google StadiaGoogle Stadia

Pour rappel, celle-ci intègre deux GPU de Vega 56 et 32 Go de HBM2, bénéficiant de fonctionnalités matérielles permettant sa virtualisation et donc son partage entre plusieurs utilisateurs. AMD en profite pour communiquer que le travail effectué sur son pilote Vulkan pour Linux et ses outils dédiés aux développeurs comme Radeon GPU Profiler (RGP).

Stadia fonctionne en effet sur une base Debian, sans plus de détails sur les outils de virtualisation utilisés. Google propose sa propre suite d'outils et SDK/API pour la gestion des jeux, avec diverses fonctionnalités mises en avant comme Style Transfer ML qui exploite ses services d'IA. Des moteurs comme Unity et Unreal Engine sont déjà annoncés comme partenaires.

Ne cherchez pas de détails sur la finesse de gravure, la constitution interne des unités ou même le nombre de cœurs et l'origine du CPU qui pourrait bien être une puce Intel. Google est plutôt avare en détails intéressants pour le moment. La société voulait surtout afficher qu'elle est plus puissante qu'une console de salon, ce qui n'a rien de bien compliqué.

Tout juste apprendra-t-on que 16 Go de mémoire avec 484 Go/s de bande passante (soit celle de la Radeon Pro V340) accompagnent l'ensemble, ainsi que 9,5 Mo de cache L2/L3. Le CPU gère l'HyperThreading et AVX2. Le ray tracing, pourtant largement présent à l'occasion de la GDC 2019, n'a pas été évoqué.

Google veut taper fort, avant les autres géants

On a bien entendu eu droit à la longue suite de partenaires heureux de l'initiative de Google et de ce que Stadia va leur permettre. Ce dernier a affuté ses arguments pour intéresser les développeurs, rappelant que le jeu en streaming limite les possibilités de piratage, et le potentiel financier d'une plateforme instantanée et mondiale.

id Software est venu évoquer Doom Eternal, qui fonctionnera sur Stadia en 4K à 60 fps. Là aussi, l'objectif était sans doute de railler les performances des consoles. Ainsi, ce seront les prochaines annonces de Microsoft et Sony qui seront à surveiller, les deux étant déjà actifs sur la question, tout comme Electonic Arts avec Atlas

Avec Stadia, c'est ce club fermé des géants du jeu vidéo que Google veut pénétrer, ne se limitant plus aux titres pour casual gamers sur smartphones, surtout si un abonnement ou une part des ventes est à la clé.

Le monde des jeux vidéo bientôt bouleversé

Car les changements qui se préparent dans le secteur sont profonds, et vont bien au-delà de la simple question du cloud gaming. C'est notamment celui du modèle économique des éditeurs, alors que les DLC et autres lootbox se multiplient, pendant que des offres comme EA Access Premier commencent à voir le jour. 

Des joueurs abonnés plutôt que devant choisir régulièrement leur titre préféré en fonction de leur budget. N'achetant plus de console, celles-ci pouvant être n'importe quel appareil connecté à internet. N'étant plus limités en nombre de jeux ou par le choix des composants de leur PC, mais plutôt par les possibilités de leur abonnement ?

C'est peut-être vers cela que va évoluer le marché sur le long terme. Ou pas. Il est encore trop tôt pour le dire, les obstacles potentiels étant nombreux. Mais chacun place ses billes, de petits acteurs comme Shadow aux géants qui ont tout loisir de faire des tests de grande envergure à perte.

Les prochaines années vont donc être celles des tâtonnements, puis viendra une phase de nettoyage, afin de déterminer qui sont les grands gagnants de ces mutations qui ne font que commencer. Une chose est sûre : Google veut tenter sa chance. Reste à découvrir comment il compte réellement parvenir à ses fins.

Les développeurs intéressés peuvent s'inscrire par ici.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Google découvre la vie et évite les sujets qui fâchent

AMD remporte une nouvelle victoire

Google veut taper fort, avant les autres géants

Le monde des jeux vidéo bientôt bouleversé

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (34)


Après avoir lu la news plus bas sur les nouvelles Radeon VII à 900 €…… je me dis que le futur est peut-être à la location de puissance. Je reste sur ma CG moyen de gamme de 2014 car les prix ont depuis explosés.



La grande question une Radeon VII = combien d’années d’abonnement



DikVin a dit:





Attention, on est à deux doigts d’inventer le concept d’hébergeur là :D


La fréquence du CPU risque d’être un peu limite, pour certains jeux, non ? Bien sûr, ils ne parlent de 120Hz que pour la 8K, donc clairement pas tout de suite.
Sur Shadow les E5-2667 v3 c’est 3.2Ghz en fréquence de base (3.6 en turbo).



Sinon les 16Go de mémoire “totale” sont étranges : est-ce que le CPU partagerait la HBM2 du GPU ? Ça voudrait dire qu’il s’agit plutôt d’une sorte d’APU spécifique (comme les consoles donc, mais bien plus récent).


Cool pour AMD mais la conf de Google était d’un chiant intersidéral…



hwti a dit:


Sur Shadow les E5-2667 v3 c’est 3.2Ghz en fréquence de base (3.6 en turbo)…




J’ai un E5-2678v3 sur mon shadow et la fréquence de base c’est plutôt 2.5Ghz.
Et je pense sincèrement que le CPU est la faiblesse des offres cloud gaming actuellement.


Quel cata, le streaming pour les jeux…j’espère que ça ne prendra jamais vraiment (mais l’espoir est mince :-/)



En tout cas comme prévu, l’input lag est problématique sur Doom Eternal apparemment :
https://www.gamespot.com/articles/google-stadia-hands-on-impressions-from-gdc-20191100-6465694/


À l’avenir, une forte consolidation arrivera. Shadow mourra ou sera racheté par un gros poisson. D’ailleurs, pour le PS Now c’est en s’appuyant sur un rachat que Sony a mis en place son service.


Que signifie ‘lancement instantané’, et le partenariat avec les éditeurs de JV.

Faut-il comprendre qu’on est sur un modèle SaaS où on achète un temps de tel jeu, alors que Shadow est plus sur un modèle IaaS, où on loue sa machine pour y installer ses appli et faire ce qu’on veut (modulo les petits caractères :D)



Zerdligham a dit:





On a aucune info sur le modèle économique, comme indiqué dans l’article.


J’ai peur pour l’avenir du jeu vidéo. Avant on achetait les jeux et on pouvait y jouer comme on voulait, depuis les DRM ce n’est plus la même chose (j’ai un jeu que j’adorais, pas vendu en version dématérialisé, qui ne fonctionne pas au delà de Vista à cause du DRM… J’ai fait une croix dessus).



J’ai résisté à Steam à son arrivée, mais après on n’a plus eu le choix. Ils ont fait du bien au secteur avec l’accès au indés et en tant que consommateur on ne peut qu’apprécier les tarifs (moins bon pour les développeurs) et leur ouverture à Linux. Néanmoins on ne fait qu’acheter un accès aux jeux par leur biais. S’ils ferment, changent de politique ou autre c’est cuit, ne parlons pas de transmettre sa bibliothèque de jeux à ses enfants…



GOG ne couvre pas l’intégralité du catalogue et sa santé inquiète.



Voilà la prochaine révolution, j’espère qu’elle ne prendra pas même si j’en suis inquiet vu la facilité qu’il y a eu à faire payer les joueurs console pour du multijoueur. La plupart des jeux AAA vont finir par devenir exclusifs à ce système et ceux qui n’auront pas un accès internet haut débit ou qui voudront réellement posséder les jeux se retrouveront bien emmerdés.



Je salue Shadow qui a le mérite de ne pas enfermer le consommateur, on peut revenir à une machine classique comme on veut. Bon courage pour tenir face aux mastodontes.


J’ai assez horreur du tout abonnement. A voir, mais je ne pense pas être la cible, étant un acheteur patient sur Steam. Attendant parfois un an ou deux pour acquérir le jeu qui me plait.
A moins que le prix soit ras des pâquerettes ce qui m’étonnerait franchement


Je suis trop attaché au hardware pour être la cible, et de ce point de vue et pour d’autres raisons matérialistes je redoute ce futur. Mais il y a un point que je vois rarement évoqué :



Le streaming vidéo a déjà un impact énergétique énorme, mais alors le “cloud gaming” ou plus poétiquement en français “jeux-vidéo dans les nuages”, qu’est-ce que ça va être si ça devient un standard ? Au delà de la consommation pour faire tourner les serveurs qui revient possiblement à la même chose que d’avoir une console à la maison (voire mieux en partageant les ressources), il y a toute l’infrastructure de streaming avec la compression à la volée de la vidéo et sa diffusion qui va s’ajouter… C’est évidemment le cœur même du business de google, mais est-ce vraiment raisonnable ? Doit-on ajouter de nouvelles formes de consommations massives de flux quels qu’ils soient ? Je n’ai pas la réponse mais j’aimerais bien savoir si des études existent sur l’impact écologique que ça peut avoir ?



manfried a dit:





Un serveur peut être utilisé par plusieurs personnes, simultanément ou non, la mutualisation des ressources va dans le sens d’une meilleure gestion de l’énergie et de la puissance de calcul.



Surtout comparé à des consoles mises à jour tous les 3 ans mais en veille une majorité du temps et qui ne peuvent servir à d’autres usages par la suite (ou presque). La coût de la compression vidéo reste minime là dedans de toutes façons.



De mémoire Shadow avait fait une étude là dessus (mais je n’ai pas de lien sous la main).



David_L a dit:


Un serveur peut être utilisé par plusieurs personnes, simultanément ou non, la mutualisation des ressources va dans le sens d’une meilleure gestion de l’énergie et de la puissance de calcul.Surtout comparé à des consoles mises à jour tous les 3 ans mais en veille une majorité du temps et qui ne peuvent servir à d’autres usages par la suite (ou presque). La coût de la compression vidéo reste minime là dedans de toutes façons.De mémoire Shadow avait fait une étude là dessus (mais je n’ai pas de lien sous la main).




Il y a bien certaines économies énergétiques à mutualiser mais pour savoir si on est gagnant écologiquement ca dépend du taux d’utilisation des serveurs et des habitudes des utilisateurs (certains coupent leurs équipements à la prise - donc pas de consommation de veille - et les appareils consomment aussi de moins en moins en veille) : c’est fonction des scénarios considérés pour les deux usages.



David_L a dit:


Un serveur peut être utilisé par plusieurs personnes, simultanément ou non, la mutualisation des ressources va dans le sens d’une meilleure gestion de l’énergie et de la puissance de calcul.Surtout comparé à des consoles mises à jour tous les 3 ans mais en veille une majorité du temps et qui ne peuvent servir à d’autres usages par la suite (ou presque). La coût de la compression vidéo reste minime là dedans de toutes façons.De mémoire Shadow avait fait une étude là dessus (mais je n’ai pas de lien sous la main).




Sur la théorie, en mutualisant je suis ok pour une économie de production matérielle, sur la consommation énergétique finale ça dépend aussi de comment google va le gérer car il y a des coûts associés aux fonctionnalités du cloud: comment est géré le fait de reprendre sa partie ? Où l’information était stockée, comment le fait de relancer la partie en quelques secondes a été géré ? (avantage que beaucoup attendront du cloud gaming j’imagine).



Une console en veille consomme très peu, les serveurs non utilisés seront-ils dans un état de veille équivalent ? Car quand des joueurs arrivent, pas sûr qu’ils soient ravis d’attendre qu’un serveur démarre et charge le jeu demandé.



Et oui une console ça se change régulièrement, plus souvent que tous les 3 ans tout de même car la génération actuelle a été une exception avec la Pro et la X (qui sont dispensables de toute façon). Mais google mettra également à jour son matériel, devra changer les composants défectueux…



Enfin, compresser une vidéo 4K 60fps en temps réel ça représente de la puissance de calcul tout de même non ? En plus il faut la diffuser, ça a un coût pour les infrastructures internet non ? Si tout le monde fait ça, les routeurs, backbones etc… vont devoir monter leurs capacités.



Je vais essayer de trouver cette étude de shadow du coup. Et même si du point de vue théorique et a usage strictement équivalent la mutualisation peut être positive, je suis sceptique sur le fait que le modèle économique retenu arrivera à quelque chose de positif.


Je suis très intéressé par ces solutions et j’attends juste une offre crédible, même avant l’inévitable phase de consolidation dont vous parlez.



En effet, cela fait quelques années que je n’ai plus ni console ni PC suffisamment puissant pour jouer. Ce type d’offre me permettrait de picorer tranquillement certains jeux.


Perso j’aime avoir mes jeux en local pour y jouer en déplacement, et parfois je n’ai pas accès à Internet ou alors le débit et/ou la latence ne sont pas suffisants pour le cloud gaming.



CryoGen a dit:





Et là c’est pas la mise hors-ligne qui va sauver l’affaire :D


Une seule chose m’importe :




(quote)
AMD en profite pour communiquer que le travail effectué sur son pilote Vulkan pour Linux et ses outils dédiés aux développeurs comme Radeon GPU Profiler (RGP). Stadia fonctionne en effet sur une base Debian.




Si ça permet de voir plus de jeux nativement compatible Linux et des améliorations sur les pilotes AMD, c’est nickel :D



David_L a dit:


Et là c’est pas la mise hors-ligne qui va sauver l’affaire :D




Lapin compris :keskidit:


Pour l’histoire de la mutualisation et de la consommation, n’oublions pas que Google, hormis l’infrastructure de ses services, possède une infra cloud dédiée à ses clients (GCP). L’entreprise peut sans doute intégrer proprement ces nouvelles ressources dans cette infra, qui sera donc utilisable aussi par des clients “pro” avec une grosse mutualisation à la clé.



googfrgo a dit:


Pour l’histoire de la mutualisation et de la consommation, n’oublions pas que Google, hormis l’infrastructure de ses services, possède une infra cloud dédiée à ses clients (GCP). L’entreprise peut sans doute intégrer proprement ces nouvelles ressources dans cette infra, qui sera donc utilisable aussi par des clients “pro” avec une grosse mutualisation à la clé.




D’un point de vue économique c’est du 100% gagnant.
Énergétique par contre c’est certains que non. Entre une ferme de serveur tournant h24 (même en veille) dont on fait transiter les données à travers toute la planète vers un appareil à domicile (qui lui aussi consommera) et un PC personnel, il n’y a pas photo.



C’est un non sens écologique, en revanche commercialement l’abonnement c’est incroyable (des revenus constant, des clients dépendant etc…).



Je rejoins David, je pense que ce modèle est un peu le futur des consoles de salon (qui sont déjà des univers très fermés).


En vrai j’ai cru comprendre que les serveurs tournaient sur du linux + vulkain.
Je pense que c’est une bonne nouvelle car si les devs se penchent sur cette plateforme, peut être qu’ils sortiront plus de jeux sur linux directement.



(en vrai, assassin’s creed qu’il y avait dans leur béta, il est jamais sorti sur linux )


[quote]…plus tard du 8K…[/quote]



Pour la réalité virtuelle sans devoir acheter un PC à 2000euros, ça pourrait le faire… mais bon passer sa vie avec le cerveau branché directement sur les serveurs de Google, ça me ferait mal :transpi:



Norde a dit:


D’un point de vue économique c’est du 100% gagnant. Énergétique par contre c’est certains que non. Entre une ferme de serveur tournant h24 (même en veille) dont on fait transiter les données à travers toute la planète vers un appareil à domicile (qui lui aussi consommera) et un PC personnel, il n’y a pas photo.C’est un non sens écologique, en revanche commercialement l’abonnement c’est incroyable (des revenus constant, des clients dépendant etc…).Je rejoins David, je pense que ce modèle est un peu le futur des consoles de salon (qui sont déjà des univers très fermés).




En fait, ça concerne facilement les joueurs plus occasionnels, les gros gamers resteront (tout du moins pour l’instant) sur leur propres machines je pense. D’autant plus que si il y a une trop grosse utilisation des machines, ça peut casser la rentabilité du service. (je parle un peu dans le vide puisqu’il n’y a pas encore les prix, mais on peut imaginer qu’ils vont se rapprocher des concurrents, avec soit un petit plus, soit un peu moins cher).



CryoGen a dit:


Lapin compris :keskidit:




Mise hors-ligne façon Netflix pour regarder un film dans le train … Il risque de manquer quelques fonctionnalités pour un jeu cloud “hors-ligne”.



googfrgo a dit:


En fait, ça concerne facilement les joueurs plus occasionnels, les gros gamers resteront (tout du moins pour l’instant) sur leur propres machines je pense. D’autant plus que si il y a une trop grosse utilisation des machines, ça peut casser la rentabilité du service. (je parle un peu dans le vide puisqu’il n’y a pas encore les prix, mais on peut imaginer qu’ils vont se rapprocher des concurrents, avec soit un petit plus, soit un peu moins cher).




Ah je pensai plus à l’inverse dans le monde du PC. Les gros gamers auront un avantage à prendre ce genre d’abonnement (performances toujours au top, bibliothèque de jeu associée etc…).
Enfin tout ça dépendra surtout de la qualité des offres :P


En fait, ces “gros” gamers dont on parle veulent la fluidité maximale, et ne souffrir d’aucune latence perceptible, qui pourrait s’avérer gênante sur les jeux en lignes exigeants (type FPS). C’est d’ailleurs pour cette raison, pour essayer de séduire cette catégorie, que Blade tente de convaincre ceux-ci à grands renforts de joueurs connus adulant la qualité de la plateforme et son évolutivité.



Mais les abonnements chez eux étant facturés mensuellement, c’est quand même plus rentable les joueurs de Rayman (aucune attaque, c’est un chouette jeu) donc difficile de jouer sur tous les tableaux :)



Norde a dit:


D’un point de vue économique c’est du 100% gagnant. Énergétique par contre c’est certains que non. Entre une ferme de serveur tournant h24 (même en veille) dont on fait transiter les données à travers toute la planète vers un appareil à domicile (qui lui aussi consommera) et un PC personnel, il n’y a pas photo.C’est un non sens écologique, en revanche commercialement l’abonnement c’est incroyable (des revenus constant, des clients dépendant etc…).Je rejoins David, je pense que ce modèle est un peu le futur des consoles de salon (qui sont déjà des univers très fermés).




Je ne m’y connais pas en conso énergétique des serveurs, mais est-ce qu’on aura vraiment un plus gros impact écologique sur de gros data centers centralisés plutôt qu’avec les métaux, plastiques et papiers qui composent un jeu physique, son transport en bateaux/camions vers tous les revendeurs de la planète, son transport dans une boite carton individuelle jusque dans ma boite aux lettres lors de l’achat à la Fnac, etc ?



Norde a dit:


D’un point de vue économique c’est du 100% gagnant. Énergétique par contre c’est certains que non.




Sur l’aspect énergétique, je serais pas aussi catégorique que toi.



À l’usage, c’est effectivement évident que ça va consommer plus qu’une machine locale équivalente : le rendement sera probablement pas beaucoup meilleur et on a par contre toute la partie compression et réseau en plus. Et bien sûr, la consommation de la machine cliente (pas énorme quand c’est juste un smartphone ou une tablette, mais ça peut grimper à une bonne centaine de W, voire plus si c’est un gros PC…).



Mais cette surconsommation à l’usage, elle peut être compensé par des gains de consommation sur d’autres points. Par exemple :




  • à la fabrication, puisqu’on a moins de matériel à produire pour un même volume d’heures de jeu assuré,

  • au transport, puisque le matériel ne doit être acheminé que vers quelques dizaines d’emplacements, au lieu de centaines de milliers,

  • à l’utilisation des postes clients hors jeu : si on remplace un PC de gamer par un PC “bureautique” côté client, la consommation dans toutes les tâches hors jeu (vidéo, web, etc…) diminue.



Du coup, c’est pas simple d’évaluer le bilan global…



Intuitivement, j’aurais tendance à penser que la quantité d’énergie liée à la fabrication et au transport est largement supérieure à la consommation liée à l’utilisation, et que donc le bilan serait plutôt favorable. Mais peut-être que je me plante complètement… En tout cas ce qui est sûr c’est qu’on ne peut pas se contenter de dire que le bilan est mauvais parce que ça consomme plus à l’usage, sans étudier la partie fabrication/transport…



Après, il y a un défaut qui risque d’annihiler complètement ces bénéfices fabrication/transports/usages hors jeux : la liste des titres disponibles. Il suffit qu’il y ait quelques très gros titres non disponibles sur cette plateforme pour que les joueurs aient quand même besoin d’un gros PC chez eux pour ces quelques jeux ^^ Et bien sûr, faudrait aussi que les performances conviennent aux gros joueurs… Et là non plus, c’est pas



SartMatt a dit:


En tout cas ce qui est sûr c’est qu’on ne peut pas se contenter de dire que le bilan est mauvais parce que ça consomme plus à l’usage, sans étudier la partie fabrication/transport…




Faut pas oublier non plus la partie routeurs internet et tout le tintouin qui se trouve entre les clients et les serveurs si on veut évaluer la consommation. Et c’est pas rien.


“Faut pas oublier non plus la partie routeurs internet et tout le tintouin qui se trouve entre les clients et les serveurs si on veut évaluer la consommation. Et c’est pas rien.”



T’as déjà un routeur et un modem pour ton Netflix, ton facebook et compagnie nan ?



asi a dit:


“Faut pas oublier non plus la partie routeurs internet et tout le tintouin qui se trouve entre les clients et les serveurs si on veut évaluer la consommation. Et c’est pas rien.“T’as déjà un routeur et un modem pour ton Netflix, ton facebook et compagnie nan ?




Il parle plutôt de toute la chaine de routage d’un paquet depuis Google jusqu’à chez toi, qui va consommer autrement plus pour du streaming que pour ton gmail.



coco74 a dit:


En vrai j’ai cru comprendre que les serveurs tournaient sur du linux + vulkain. Je pense que c’est une bonne nouvelle car si les devs se penchent sur cette plateforme, peut être qu’ils sortiront plus de jeux sur linux directement.(en vrai, assassin’s creed qu’il y avait dans leur béta, il est jamais sorti sur linux )




Ça prouve surtout que les gros éditeurs peuvent aussi faire du Linux quand ils le veulent. :D