Qualcomm : Snapdragon 8 Gen 3 pour le mobile haut de gamme, Snapdragon X Elite pour prendre d'assaut les PC

Qualcomm : Snapdragon 8 Gen 3 pour le mobile haut de gamme, Snapdragon X Elite pour prendre d’assaut les PC

« Microsoft aime ça »

Avatar de l'auteur
Vincent Hermann

Publié dans

Sciences et espace

26/10/2023 11 minutes
16

Qualcomm : Snapdragon 8 Gen 3 pour le mobile haut de gamme, Snapdragon X Elite pour prendre d'assaut les PC

Qualcomm a fait sa rentrée avant-hier, avec à la clé d’importantes annonces. En plus du Snapdragon 8 Gen 3 destiné aux smartphones haut de gamme, l’entreprise a présenté le Snapdragon X Elite, issu des travaux de Nuvia, rachetée il y a quelques années. Avec un objectif très clair, concurrencer Apple sur le terrain du ratio performances/watt.

Qualcomm est très bien implantée dans le monde mobile. De nombreuses références de smartphones et tablettes Android utilisent ses puces Snapdragon. De larges gammes avec des références pour presque tous les usages.

L’entreprise est également présente dans de nombreux domaines et a d’ailleurs fait des annonces récentes sur tout ce qui touche au transport, notamment les questions de calculs locaux liés à l’intelligence artificielle.

C’est une tradition maintenant qu’au moins une nouvelle puce destinée aux appareils mobiles haut de gamme soit dévoilée à l’automne, dans le cadre du Snapdragon Summit. On n’y coupe donc pas cette année avec le Snapdragon 8 Gen 3, par lequel nous débutons.

Snapdragon 8 Gen 3 : du changement dans la configuration

On pourrait penser que chaque nouvelle génération de puce ne fait que renforcer légèrement l'existant. C’est souvent vrai, mais il y a des exceptions, et cette Gen 3 en est une.

La configuration interne de la puce change en effet pour une configuration 1:5:2, au lieu de 1:3:4. On a donc un gros cœur Cortex X4 cadencé à 3,3 GHz, rapide mais gourmand en énergie, cinq cœurs moyens aux performances et à la consommation intermédiaire (trois fonctionnent à 3,2 GHz, deux à 3 GHz), ainsi que deux cœurs pour l’efficacité, moins performants mais plus économes.

Le détail de ces autres cœurs n’est pas donné. On sait simplement que la puce est gravée en 4 nm, que ses performances sont annoncées comme 30 % plus élevées que sur la Gen 2 et que son efficacité est en hausse de 20 %. Comme d’habitude, attention avec celle-ci : la consommation est considérée comme 20 % plus faible à performances égales.

Qualcomm Snapdragon 8 Gen 3

Peu de détails également sur la partie GPU. Il s’agit toujours d’un modèle Adreno, mais on ne connait pas la référence. Qualcomm décrit ce composant comme 25 % plus rapide et 25 % plus efficace que la génération précédente, des chiffres à prendre encore une fois avec un peu de contexte. Les capacités d’éclairage dans les jeux ont été renforcées, le ray tracing étant décrit comme plus performant, avec une prise en charge de Lumen (Unreal Engine 5).

Même traitement pour la partie neuronale dédiée aux calculs locaux d’intelligence artificielle. Le DSP/NPU Hexagon se veut « jusqu’à 98 % plus rapide et 40 % plus efficace » que sur la génération précédente. Les tâches tirant parti de ce type de composant se retrouvent dans l’utilisation d’effets en temps réel dans des applications comme TikTok, Snapchat et Instagram, ou dans certaines opérations menées dans des applications photos, comme la suppression d’un fond.

On n’en sait guère plus sur ce nouveau fleuron, ni sa date de sortie ni les modèles de smartphones concernés. On retrouve cependant les partenaires habituels, notamment Xiaomi, dont le modèle 14 embarquera la puce.

Qualcomm X Elite : la vraie nouveauté tournée vers les PC

S’il y a une puce qui était attendue, c’était bien celle-là. Et pour cause : en dépit des tentatives de puces ARM dans les PC, notamment chez Microsoft, le résultat était loin d’être époustouflant. La faute d’une part à un manque flagrant de performances, et d’autre part à un manque d’optimisation chez Microsoft, particulièrement dans l’émulation du code x86. Deux problèmes dont s’est affranchi d’emblée Apple avec ses générations M1 et M2 : une efficacité performances/watt très élevée et une nouvelle version réussie de Rosetta pour l’émulation.

L’ombre d’Apple n’est d’ailleurs pas loin, car la nouvelle puce de Qualcomm est basée sur les travaux de Nuvia, que l’entreprise a rachetée il y a quelques années et qui avait été fondée en 2019 par des anciens de Cupertino, principalement Gerard Williams III. À tel point qu’Apple avait déposé plainte pour violation de brevets. En mai dernier, Apple a retiré sa plainte, sans que l’on sache pourquoi.

La puce Snapdragon X Elite est donc le premier résultat concret des travaux de Nuvia, qui doit faire oublier les ratés de Qualcomm dans le monde PC ces dernières années. Cette puce, gravée en 4 nm et contenant 12 cœurs, doit concurrencer à la fois Intel, AMD et Apple.

Snapdragon X Elite

L’ensemble de la puce est organisé selon une architecture nommée Oryon, nom que les cœurs reprennent. Pas de gros, moyens ou petits cœurs ici d’ailleurs, tous sont identiques. Quand ils sont tous utilisés, la fréquence du X Elite peut grimper jusqu’à 3,8 GHz. Cette fréquence peut atteindre 4,3 GHz quand un ou deux cœurs seulement sont actifs. La puce accueille 42 Mo de cache et est accompagnée par de la mémoire LPDDR5x (136 Go/s de bande passante).

Mais il ne s’agit que de sa partie CPU. S’agissant d’un SoC, on trouve aussi une partie GPU appartenant là encore à la famille Adreno. Presque aucun détail sur son architecture, mais Qualcomm a annoncé une puissance de calcul de 4,6 TFLOPS. En plus d’une compatibilité avec DirectX 12 (rien sur Vulkan pour l’instant), cette partie graphique peut accueillir soit trois écrans externes 4K, soit deux écrans 5K, soit un écran 4K à 120 Hz.

Qualcomm a promis des mises à jour fréquentes du pilote associé, une situation qu’il conviendra de suivre avec attention. Jusqu’à présent, les puces de l’entreprise n’ont disposé que de trois ans de support pour les appareils mobiles. Dans le monde PC, il faudra faire nettement mieux.

Vidéo, NPU, entrées/sorties et modem

Les codecs H.264, H.265/HEVC et AV1 sont pris en charge matériellement, que ce soit pour le codage ou le décodage. On note également la présence du décodage matériel pour le VP9.

Comme il fallait s’y attendre, un NPU Hexagon est présent pour assurer les calculs liés à l’intelligence artificielle. Qualcomm annonce une puissance de calcul équivalente à trois fois celle du Snapdragon 8 Gen 3. Dans l’environnement Windows, peu de tâches utilisent pour l’instant les NPU. C’est le cas avec certains traitements appliqués pendant une diffusion par webcam. Des algorithmes comme Stable Diffusion, quand ils sont exécutés en local, peuvent aussi les utiliser.

Sur la gestion des entrées/sorties, la puce était attendue au tournant. Il peut s’agir d’un point faible sur ce type de SoC, comme on a pu le voir d’ailleurs avec le M1 chez Apple. Le Snapdragon X Elite peut gérer jusqu’à 64 Go de mémoire, prend en charge les SSD NVMe PCIe 4.0 (ainsi que les normes de stockage UFS 4.0 et SD 3.0), jusqu’à trois ports USB 4.0 accompagnés de deux ports USB 3.2 gen 2, et supporte les webcams jusqu’à 64 mégapixels et la capture vidéo 4K HDR.

Enfin, le X Elite contient un modem, en l’occurrence un Snapdragon X65 5G, connu puisque sorti en 2021. Sur le sans-fil, la puce de Qualcomm se veut tournée vers l’avenir puisqu’elle prend en charge le Wi-Fi 7 et le Bluetooth 5.4.

Des comparaisons comme s’il en pleuvait

Une bonne part de la présentation de Qualcomm a été consacrée aux comparaisons, comme souvent dans les présentations de CPU et GPU. On aurait pu s’attendre à ce que l’entreprise tourne ses missiles vers Apple, mais c’est surtout Intel qui a servi à l’étalonnage.

Snapdragon X Elite

La méthode adoptée par Qualcomm est largement inspirée de celle d’Apple lors de l’officialisation de la puce M1. Sur la partie CPU, deux processeurs ont essentiellement été utilisés : le Core i7-1355U (10 cœurs) et le Core i7-1360P (12 cœurs). Ce qui permet à Qualcomm d’annoncer qu’à consommation équivalente, les performances de sa puce sont jusqu’à deux fois supérieures à la compétition. Autre comparaison : à performances égales, la consommation d’énergie est 68 % moindre (18 W au lieu de 50). Face à un i7-13800H (14 cœurs), les chiffres avancés sont respectivement de 60 et 65 %.

La partie GPU Adreno a reçu le même traitement. Elle serait ainsi deux fois plus performante que l’Iris Xe d’Intel et 80 % plus rapide que la Radeon 780M, deux IGP que l’on retrouve souvent dans les ordinateurs portables. Autre annonce « fracassante » : le X Elite peut se contenter de faire jeu égal en termes de performances, tout en ne consommant qu’un cinquième de l’énergie de ses concurrents.

Apple a quand même eu droit à une comparaison : dans des tests sur Geekbench 6.2, le X Elite aurait fait 50 % de mieux en CPU multithread que la puce M2 Pro. Si le résultat devait se confirmer en pratique, il s'agirait donc d'une excellente entrée en matière pour Qualcomm, avec une ligne de puces spécifiquement taillée pour les ordinateurs.

Snapdragon X Elite

Et maintenant ?

Il ne s’agissait que de la présentation de cette nouvelle génération de puces. Le X Elite n’est pas encore là et aucune date précise de commercialisation n’a d’ailleurs été annoncée autre que « 2024 ». On ne sait pas non plus si plusieurs variantes seront proposées, par exemple avec moins de cœurs pour atteindre des machines bon marché.

Et les machines, justement ? Au vu de ses caractéristiques, on est dans le même cas de figure qu’Apple. Il y a fort à parier que les premiers ordinateurs qui seront commercialisés avec du Snapdragon X Elite seront des portables ou des modèles fixes légers, peut-être avec un refroidissement passif.

Si l’on table sur une commercialisation l’année prochaine, Microsoft pourrait s’en servir pour alimenter une toute nouvelle génération de Surface. Les rumeurs s’intensifiant autour d’un Windows 12, il n’est pas impossible que l’ensemble soit plus ou moins synchronisé pour s’assurer une petite explosion médiatique.

La question sera alors de savoir si la partie logicielle suivra. C’est un réel problème pour Microsoft, en dépit des efforts visibles pour augmenter l’attrait du développement sur architecture ARM (via notamment le projet Volterra). Outre la disponibilité des applications compilées nativement pour ARM, assez peu nombreuses (même si le chiffre augmente petit à petit), il faudra que Microsoft résolve d’autres problèmes pratiques, comme une meilleure fiabilité dans la récupération de ces applications dans le Store et surtout une meilleure émulation du code x86, qui manque cruellement d’efficacité aujourd’hui.

Qualcomm ayant annoncé que « tous les principaux OEM » proposeront des configurations basées sur le Snapdragon X Elite dans le courant de l’année prochaine, le problème sera d’autant plus visible s’il n’est pas amélioré d’ici là. Là encore, la question d’un Windows 12 se pose, les constructeurs étant friands des nouvelles versions du système d’exploitation, pour capitaliser sur l’effet de nouveauté. Un Windows 12 dont les rumeurs veulent qu’il soit particulièrement « enrichi » en IA.

Quoi qu'il en soit, et comme on peut le voir sur certains appareils comme la Surface X, il sera plus simple pour les constructeurs de promouvoir ces futures machines comme tournées vers l'ultra mobilité et le travail.

Tout reste à prendre avec des pincettes, mais l’année 2024 s’annonce comme une année particulièrement intéressante. Reuters s’est fait très récemment l’écho de sources affirmant que NVIDIA et AMD travaillent aussi sur des puces ARM performantes pour le monde PC.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Snapdragon 8 Gen 3 : du changement dans la configuration

Qualcomm X Elite : la vraie nouveauté tournée vers les PC

Vidéo, NPU, entrées/sorties et modem

Des comparaisons comme s’il en pleuvait

Et maintenant ?

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (16)


Mwais… a priori beaucoup de vent pour le moment… depuis le temps qu’on dit que l’architecture ARM va tout remplacer… et toujours la même attitude avec du matériel ultra-propriétaire pour faire des systèmes à l’obsolescence rapide…



Mais bon, si je veut mettre des cartes mères à la poubelle après 3 ans, je penserai à eux…


ou alors, le retour du machintosh pas cher et performant :8


si c’est pour faire du hackintosh, ça m’étonnerait que ça le fasse… déjà pour un support correcte de la partie graphique sur la durée, ça va être dur connaissant Qualcomm, mais alors pour le support de Metal, il va falloir allumer quelques cierges à Sainte Rita…


J’ai pas bien compris l’histoire du GPU:




  • dans l’article: La partie GPU Adreno a reçu le même traitement. Elle serait ainsi deux fois plus performante -> je n’ai pas trouvé l’info dans la vidéo

  • Par contre, des captures et de la vidéo, tout est comparé “à consommation identique”. Je ne sais pas si c’est une projection ou un test réel.



-> D’après les graphes ils comparent la performance relative à la conso. C’est bien, mais ça ne veut pas dire grand-chose en performances brute: si l’iGPU AMD tourne à 10W et le Adreno à 2,5W, même si le Adreno fait 2x mieux à conso équivalente, ça risque de rester la moitié de la perf de AMD.



Ceci dit, ça n’enlève pas que ça semble être des puces tout à fait INtéressantes pour du desktop.



La question serait: peut-on trouver des chiffres concernant la conso de matières 1ères nécessaires à la construction d’un ordi basé sur ces ARM vs un ordi “classique” (version comparable quand même) histoire de voir si cette évolution est dans l’air du temps?


Dans toutes ces comparaisons marketeuses, il manque un élément, si ce n’est le 2e élément le plus important après l’architecture : la finesse de gravure.
A l’époque, c’était extrêmement facile pour Apple de faire les kéké sur le terrain du performance / watt alors qu’ils fagocitaient les process les plus fins.
Je ne doute pas que l’architecture ARM est plus efficace de ce point de vue là, mais les chiffres (marketing) sont intrasèquement biaisés.


Tant qu’il y aura de l’émulation de x86 à faire, les perfs seront toujours plus pourries que sur du natif, donc bon, c’est pas encore qu’on va voir du desktop sur du ARM côté Windows :|



ragoutoutou a dit:


Mwais… a priori beaucoup de vent pour le moment… depuis le temps qu’on dit que l’architecture ARM va tout remplacer…




1987 :)



Mais je pense qu’il y a ici un rapprochement entre 2 visions de l’informatique:




  • La vision occidentale très ancrée dans le modèle IBM-PC de l’époque (modifiable, paramétrable, …. vieille et percluse de vieilles légendes, conservatrice)

  • La vision des pays dont-on-ne-sait-plus-le nom (ex tiers monde/pays émergents?) dont la vision est à plus bas coût (le PC modifiable, c’est cher et potentiellement fragile - le tout soudé c’est fiable), détachée de Microsoft, de Apple (et de tout notre vieil héritage: ASCII)



D’un côté plus écolo aussi (green-washing ou réel, aucune idée): je pense qu’un mini PC ARM, basé sur un carte mère de téléphone, avec 3 puces et 200 pistes, coûte moins cher à la planète que la carte mère d’un PC, avec des puces réparties, 2000 pistes, 8 couches, plein de connecteurs qui ne serviront jamais…



Perso depuis une démo dans les années 90 d’un ordi basé sur un ARM et bardé de bus USB, je pense que la solution est intéressante en bureautique, et encore plus avec le bus USB de maintenant.



Reste que le côté intégré fait peur chez nous, car c’est réputé non réparable.



Wosgien a dit:



La vision des pays dont-on-ne-sait-plus-le nom (ex tiers monde/pays émergents?) dont la vision est à plus bas coût (le PC modifiable, c’est cher et potentiellement fragile - le tout soudé c’est fiable), détachée de Microsoft, de Apple (et de tout notre vieil héritage: ASCII)




Le tout soudé c’est bien si c’est bien conçu, mais ce n’est pas exempt de fragilités, les soudures, ça travaille et ça casse parfois… Un SOC soudé en BGA qui chauffe aura moins de marge mécanique qu’un processeur dans un ZIF ou un socket, et quand une soudure casse sous un BGA, on ne s’amuse pas…




D’un côté plus écolo aussi (green-washing ou réel, aucune idée): je pense qu’un mini PC ARM, basé sur un carte mère de téléphone, avec 3 puces et 200 pistes, coûte moins cher à la planète que la carte mère d’un PC, avec des puces réparties, 2000 pistes, 8 couches, plein de connecteurs qui ne serviront jamais…




Objectivement, un ordi basé sur un soc contient moins de matière, par contre, tout dépend de la fréquence et de la méthode de renouvellement… Un composant qu’on réutilise grâce à la modularité pollue toujours moins qu’un composant qu’on doit faire recycler, et dans les pays émergents, les filières de recyclage sont généralement moins développées que chez nous.




Reste que le côté intégré fait peur chez nous, car c’est réputé non réparable.




L’intégré peut être réparable, c’est une question de priorités dans les principes de design. En pratique, les fabricants de smartphones nous ont bien montré que la réparabilité était une chose qu’ils préféraient éviter. Donc je ne ferais pas confiance à cette industrie pour remplacer les pc’s.



Enfin, l’intégré sauce Qualcomm , c’est de l’obsolescence forcée à court terme, avec des composants dont les pilotes sont propriétaires et supportés seulement pour une courte période.



Pour mettre ça en perspective avec les 3 R




  • Réduire: oui, ça réduit la quantité de ressources utilisées à la production, c’est indéniable, par contre si on considère l’usage, les multiples remplacement liés à l’obsolescence forcée peuvent contrebalancer ce gain.



  • Réutiliser: de fait, la réutilisation est découragée par l’obsolescence forcée, et l’absence de modularité empêche une réutilisation partielle. La présence de matériel sans pilote libre représente aussi un élément bloquant la réutilisation du matériel, assurant un verrouillage fort entre l’obsolescence matérielle et logicielle.



  • Recycler: cela devrait être le dernier recours car c’est moins efficace que la réutilisation, requiert toute une chaîne d’intervenants pour fonctionner et est généralement indisponible dans de nombreux pays… ce qui fait que ces objets finissent trop souvent à la poubelle plutôt qu’en recyclage.




ragoutoutou a dit:


Le tout soudé c’est bien si c’est bien conçu, mais ce n’est pas exempt de fragilités, les soudures, ça travaille et ça casse parfois…




C’est valable pour tous les équipements, et il y a très peu de pannes maintenant (sauf quand un abruti remplace l’underfill par de la colle :) )




Objectivement, un ordi basé sur un soc contient moins de matière, par contre, tout dépend de la fréquence et de la méthode de renouvellement… Un composant qu’on réutilise grâce à la modularité pollue toujours moins qu’un composant qu’on doit faire recycler, et dans les pays émergents, les filières de recyclage sont généralement moins développées que chez nous.




Je suis tout à fait d’accord. Mais je n’ai pas d’exemple concret de réutilisation réelle de composants “modulaires”. En général, pour la grosse masse des ordis d’entreprise, actuellement on change l’ordi complet même si mettre un SSD aurait suffi.




L’intégré peut être réparable, c’est une question de priorités dans les principes de design. En pratique, les fabricants de smartphones nous ont bien montré que la réparabilité était une chose qu’ils préféraient éviter.




La bonne époque des Allwinner A20: ces SOCs étaient lents, car castrés, au bénéfice de la possibilité de (presque) tout un chacun de les utiliser/réutiliser/ressouder sans équipement (très) particulier.
Mais cela nécessite de limiter le nombre de broches, donc de pourrir les bus.



Et malgré cela, c’est comme pour les Z80: j’en ai récupéré plein partout (même dans des cafetières…) j’ai joué avec un, mais au final … j’ai acheté une nouvelle puce pour mes projets…



Mon avis: Apple n’a pas tout à fait tort: faire une machine “bourrine” qui dure 10ans dans l’état, chère, c’est plus écolo (au vu de la société actuelle) qu’une machine pleine de promesses d’ouverture vers une évolution, moins chère mais qui dans les faits sera très rarement upgradée et plutôt remplacée à 5ans.




Pour mettre ça en perspective avec les 3 R
:top:



“sauf quand un abruti remplace l’underfill par de la colle :)”



Ah si tu as un lien, envoie stp, ça me fera ma dose de rire pour au moins une demi journée :)



eglyn a dit:


Tant qu’il y aura de l’émulation de x86 à faire, les perfs seront toujours plus pourries que sur du natif, donc bon, c’est pas encore qu’on va voir du desktop sur du ARM côté Windows :|




Pas forcément. À la grande époque, les DEC Alpha faisaient tourner du code x86 en émulation plus vite que le Pentium ne le faisait tourner en natif.



Wosgien a dit:


Je suis tout à fait d’accord. Mais je n’ai pas d’exemple concret de réutilisation réelle de composants “modulaires”. En général, pour la grosse masse des ordis d’entreprise, actuellement on change l’ordi complet même si mettre un SSD aurait suffi.




ça dépend d’une entreprise à l’autre, et de l’existence ou non d’un service s’occupant du matériel dans cette entreprise. Dans les boîtes un peu sérieuses sur le matériel, on te change la pièce défectueuse, souvent dans la demi-heure (étant dans la consultance, je me retrouve souvent avec des laptops recyclés de mes clients, ce qui me permet parfois de découvrir comment ils réagissent en cas de panne) … mais c’est sûr que si c’est du matos apple, on ne change pas le SSD, c’est emballé et renvoyé chez Apple et rdv dans deux semaines.




Wosgien a dit:


Mon avis: Apple n’a pas tout à fait tort: faire une machine “bourrine” qui dure 10ans dans l’état, chère, c’est plus écolo (au vu de la société actuelle) qu’une machine pleine de promesses d’ouverture vers une évolution, moins chère mais qui dans les faits sera très rarement upgradée et plutôt remplacée à 5ans.




Apple a sa propre filière de recyclage / reconditionnement adaptée, on ne peut pas dire cela de tous les fabricants de smartphones à claviers. Par contre, leur matériel ne me frappe pas comme particulièrement construit pour durer.



Bref, si Apple c’est les meilleurs du genre, je n’ai pas envie de découvrir ce que ça peut donner avec les acteurs de deuxième division.


Dans les plus connu, tu as Dell.



Faut dire qu’ils ont l’habitude après l’abandon du PowerPC pour passer sur Intel.


refuznik

Dans les plus connu, tu as Dell.



Faut dire qu’ils ont l’habitude après l’abandon du PowerPC pour passer sur Intel.


Mwais, les laptops pros dell, je ne suis pas fan… j’utilise régulièrement un Latitude 5520 … quel désastre ergonomique. Si je peux choisir, je choisis un Lenovo T ou L , qui au moins ont des claviers un peu décent et ne foutent pas tous les ports usb du côté où je pose ma souris.



darkjack a dit:


Ah si tu as un lien, envoie stp, ça me fera ma dose de rire pour au moins une demi journée :)




Non, c’est du vécu, en 2001 et 2006. Du bon gros made in France. La même boîte les 2 fois.
La 1ère fois, c’était un fabricant de téléphone mobile. Certains ont explosé dans les mains des utilisateurs.



eglyn a dit:


Tant qu’il y aura de l’émulation de x86 à faire, les perfs seront toujours plus pourries que sur du natif, donc bon, c’est pas encore qu’on va voir du desktop sur du ARM côté Windows :|




L’émulation, c’est un outil facilitateur de transition, qui permet de ne pas avoir à sacrifier certaines applications, pas une réponse à long terme. Il faut effectivement embarquer les développeurs pour en sortir le plus vite possible, ne serait-ce que pour que les utilisateurs constatent le gain de performances.



C’est ce qu’Apple a réussi avec brio avec Rosetta et M1, mais leur objectif était de sortir entièrement de leur architecture x86 en 1 ou 2 ans, alors que Windows va demander les deux.
Les développeurs macOS se sont vite adaptés puisque c’était ça “ou la mort”, mais ça va être forcément plus difficile pour Microsoft de demander un support des deux environnements, puisque le pouvoir est inversé.



En tout cas, le marché est en pleine métamorphose, ça va être intéressant à suivre, mais en ce moment c’est pas trop la période pour s’acheter un PC.