Copilot+ PC

Copilot+ PC : Qualcomm maitre à bord pour le moment, AMD et Intel sur le banc de touche

Y’a-t-il un Copilot dans l’avion ?

14

Copilot+ PC

Les PC Copilot+ vont arriver dès le 18 juin avec un SoC Qualcomm. Des machines avec des processeurs AMD Strix et Intel Lunar Lake sont également au programme. Microsoft garde toutefois le silence sur la période de lancement. AMD espère fin 2024, Intel ne se prononce pas.

Il y a trois semaines, Microsoft officialisait une nouvelle gamme de produits : les PC Copilot+. Il s’agit de machines orientées intelligence artificielle (comme c’est original) et des fonctions intégrées dans Windows 11.

L’une d’entre elles – Recall – fait couler beaucoup d’encre, et on découvre de nouveaux dangers régulièrement. Microsoft vient d’ailleurs de faire machine arrière.

Mais que faut-il pour appartenir à la gamme Copilot+ et quand pourrons-nous en profiter ? Le sujet n’est pas simple puisque Microsoft n’y répond pas directement.

Microsoft ❤ Qualcomm et vice-versa

L’entreprise s’est entichée de Qualcomm pour ce lancement : « Microsoft associe la série Snapdragon X à la puissance de Copilot+ ». Il en est de même pour les trois variantes de la puce X Elite de chez Qualcomm toujours.

Alex Katouzian, (responsable mobile, compute & XR chez Qualcomm) nous promet au passage monts et merveilles : « capacités d'IA révolutionnaires qui redéfinissent l'expérience informatique personnelle, le tout avec des performances de pointe et une autonomie de plusieurs jours ». À confirmer lors de tests, d’autant que Qualcomm a déjà fait part le passé des promesses dans le monde du portable, sans grand succès jusqu’à présent.

NVIDIA veut sa part du gâteau

Dès l’annonce de Copilot+, on se demandait si des machines avec un autre CPU pourraient être « certifiées » et profiter des nouvelles fonctionnalités. La réponse est arrivée par NVIDIA lors de sa keynote du Computex. On pourrait la résumer par « oui, mais… ».

En parlant des nouveaux ordinateurs portables RTX AI, le fabricant de carte graphique l’affirme sans détours : « Ces PC Windows 11 AI recevront une mise à jour gratuite des expériences Copilot+ PC lorsqu’elle sera disponible ».

Microsoft veut du NPU, mais est-il obligatoire ?

Dans son communiqué, Microsoft explique que les « nouveaux Copilot+ PC reposent sur une architecture repensée qui tire pleinement parti de la puissance conjuguée du CPU, du GPU et désormais du NPU (Neural Processing Unit ou unité de traitement neuronal) ». Cela tombe bien, les machines dont parle NVIDIA seront équipées d’un processeur AMD Strix, avec NPU.

Rappelons que les cartes graphiques font largement mieux que les NPU, et depuis longtemps. Microsoft semble néanmoins bien plus attachée à la présence d’un NPU pour le traitement des données liées à l’intelligence artificielle, qu’à celle d’une carte graphique.

Des PC Copilot+ avec AMD « d’ici fin 2024 » ?

AMD emboite le pas à NVIDIA avec l’annonce de ses Ryzen AI 300 avec NPU intégré. Le Texan affirme que ces nouveaux processeurs « sont prêts pour Copilot+ », et même qu’ils « dépassent les exigences de Copilot+ AI PC ». À The Verge, AMD apporte une précision temporelle, du bout des lèvres : « Nous prévoyons d'avoir des expériences Copilot+ d'ici fin 2024 ».

Au détour d’un graphique, on apprend que, selon AMD, le minimum requis pour les « expériences Copilot+ » est de 40 TOPS. En mai, lors de son annonce, Microsoft expliquait que les machines Copilot+ seraient « capables d’effectuer plus de 40 TOPS », sans préciser que c’était un minimum requis.

Copilot+ PC avec Lunar Lake d’Intel : oui, mais quand ?

Toujours au Computex, c’était ensuite au tour d’Intel de présenter ses processeurs Lunar Lake, avec eux aussi un NPU pour l’IA : « Lunar Lake bénéficiera des expériences Copilot+, comme Recall, via une mise à jour lorsqu'elle sera disponible ». Aucune date n’a été précisée.

Bref, AMD, Intel et NVIDIA se positionnent sur la « marque » Copilot+, mais sans donner aucune indication précise, si ce n’est qu’il faut patienter et que « cela va arriver… ». Il ne faut pas attendre d’éclaircissement de la part de Microsoft, qui n’a pas souhaité répondre à nos questions, pas plus qu’à celles de plusieurs de nos confrères américains.

Microsoft l’affirme : des mises à jour gratuites arrivent

« Les ordinateurs Intel Lunar Lake et AMD Strix sont des PC Windows 11 AI qui répondent à nos exigences matérielles Copilot+ PC. Nous travaillons en étroite collaboration avec Intel et AMD pour offrir des expériences PC Copilot+ via des mises à jour gratuites, lorsqu'elles sont disponibles », se contente d’expliquer James Howell, directeur marketing de Microsoft.

Pourquoi un tel décalage temporel entre les Copilot+ PC avec un SoC Qualcomm et ceux avec un CPU AMD ou Intel ? À défaut d’information fiable, on peut seulement faire des suppositions : contrat d’exclusivité avec Qualcomm, adaptations nécessaires pour l’architecture x86, etc.

Il pourrait s'agir simplement de la mise à jour 24H2 pour Windows 11, prévue pour l'automne. Elle est présente sur les PC Copilot+, mais demande plus de préparation pour le parc x86. Elle était d'ailleurs disponible dans le canal de test Release Preview (le plus stable), mais en a été retirée. Microsoft n'a pas expliqué pourquoi, précisant uniquement qu'elle serait de retour dans quelques semaines.

Quoi qu’il en soit, les premiers Copilot+ PC sont attendus pour le 18 juin, avec un SoC Qualcomm. Il y aura évidemment les nouvelles Surface de Microsoft, mais aussi des machines chez Acer, Asus, Dell, HP, Lenovo et Samsung. D’autres suivront très certainement durant l’été, puis à la rentrée, etc.

Commentaires (14)


L'avantage du NPU est pouvoir faire toutes les opérations en consommant quasiment rien.
Il y a trois semaines, Microsoft officialisait une nouvelle gamme de produits : les PC Copilot+. Il s’agit de machines orientées intelligence artificielle (comme c’est original) et des fonctions intégrées dans Windows 11.


Attention vous devenez sarcastique :transpi:
"capacités d'IA révolutionnaires qui redéfinissent l'expérience informatique personnelle, le tout avec des performances de pointe et une autonomie de plusieurs jours"
Redéfinir l'expérience informatique personnelle, hébé... Ils ont pas peur des mots.
Je suis toujours tellement fan de ces discours marketing... :D
Il y en a un florilège par ici. :D

Sébastien Gavois

Il y en a un florilège par ici. :D
Oui, j'avais bien aimé :D
Est-ce que les pc copilot+ abandonnent la rétrocompatibilité ? un soft prévu pour win xp 32bits peut tourner dessus ? et quid des drivers ?
https://www.dosbox.com/
ou ça, cela peut toujours servir ;-) : https://www.pcjs.org/
Rappelons que les cartes graphiques font largement mieux que les NPU, et depuis longtemps.


Serait-il possible d'avoir plus de précisions pour un profane comme moi ?
Ça fait mieux : selon quelles métriques ?
Depuis longtemps : depuis quand les GPU sont-ils adaptés à l'utilisation d'une IA ?
En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Après, de l'IA, tu en fais déjà. Dans Teams ou Zoom par exemple, en floutant l'arrière plan. Besoin d'un NPU ou d'un GPU ? Absolument pas. C'est pourtant ce que mettent en avant des marqueteux de l'IA. Bref, un NPU ou GPU apportera davantage de puissance, mais pour le gros du grand public, c'est et ça restera facultatif pendant encore pas mal de temps. Maiiis ça va doper les ventes de PC, et les fabricants de matos se différencient déjà dessus en se comparant la nouill.. heu les perfs de leur NPU, faute de mieux.
Modifié le 10/06/2024 à 14h31

Historique des modifications :

Posté le 10/06/2024 à 14h20


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve nécessaire aux algorithmes utilisés par les IA. Un GPU fait aussi bien, mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie, mais ça ne fera pas de miracle non plus.

Posté le 10/06/2024 à 14h21


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve nécessaire aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie, mais ça ne fera pas de miracle non plus.

Posté le 10/06/2024 à 14h22


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve nécessaire aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Posté le 10/06/2024 à 14h24


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Posté le 10/06/2024 à 14h28


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Après, de l'IA, tu en fais déjà. Dans Teams ou Zoom par exemple, en floutant l'arrière plan. Besoin d'un NPU ou d'un GPU ? Absolument pas. C'est pourtant ce que mettent en avant des marqueteux de l'IA. Bref, un NPU ou GPU apportera davantage de puissance, mais pour le gros du grand public, c'est est ça restera facultatif pendant encore pas mal de temps. Maiiis ça va doper les ventes de PC.

Posté le 10/06/2024 à 14h29


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Après, de l'IA, tu en fais déjà. Dans Teams ou Zoom par exemple, en floutant l'arrière plan. Besoin d'un NPU ou d'un GPU ? Absolument pas. C'est pourtant ce que mettent en avant des marqueteux de l'IA. Bref, un NPU ou GPU apportera davantage de puissance, mais pour le gros du grand public, c'est est ça restera facultatif pendant encore pas mal de temps. Maiiis ça va doper les ventes de PC, et les fabricants de matos se différencient déjà dessus, faute de mieux.

Posté le 10/06/2024 à 14h29


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Après, de l'IA, tu en fais déjà. Dans Teams ou Zoom par exemple, en floutant l'arrière plan. Besoin d'un NPU ou d'un GPU ? Absolument pas. C'est pourtant ce que mettent en avant des marqueteux de l'IA. Bref, un NPU ou GPU apportera davantage de puissance, mais pour le gros du grand public, c'est est ça restera facultatif pendant encore pas mal de temps. Maiiis ça va doper les ventes de PC, et les fabricants de matos se différencient déjà dessus en comparant les perfs de leur NPU, faute de mieux.

Posté le 10/06/2024 à 14h30


En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Après, de l'IA, tu en fais déjà. Dans Teams ou Zoom par exemple, en floutant l'arrière plan. Besoin d'un NPU ou d'un GPU ? Absolument pas. C'est pourtant ce que mettent en avant des marqueteux de l'IA. Bref, un NPU ou GPU apportera davantage de puissance, mais pour le gros du grand public, c'est est ça restera facultatif pendant encore pas mal de temps. Maiiis ça va doper les ventes de PC, et les fabricants de matos se différencient déjà dessus en se comparant la nouill.. heu les perfs de leur NPU, faute de mieux.

grsbdl

En fait les NPU datent d'avant que IA devienne un buzzword. Un NPU permet de faire bcp de calculs mathématiques en parallèle, ce qui se trouve utile (mais pas obligatoire non plus) aux algorithmes utilisés par les IA. Un GPU fait aussi bien (le calcul massivement parallèle c'est même tout son principe), mais il est aussi doué dans d'autres domaines. Bref, si tu as déjà un bon GPU, un NPU sera facultatif. Un NPU peut se justifier sur un ordinateur portable afin de minimiser la consommation d'énergie (si tu n'as pas de GPU, ou pour ne pas réveiller ce dernier), mais ça ne fera pas de miracle non plus.

Après, de l'IA, tu en fais déjà. Dans Teams ou Zoom par exemple, en floutant l'arrière plan. Besoin d'un NPU ou d'un GPU ? Absolument pas. C'est pourtant ce que mettent en avant des marqueteux de l'IA. Bref, un NPU ou GPU apportera davantage de puissance, mais pour le gros du grand public, c'est et ça restera facultatif pendant encore pas mal de temps. Maiiis ça va doper les ventes de PC, et les fabricants de matos se différencient déjà dessus en se comparant la nouill.. heu les perfs de leur NPU, faute de mieux.
OK, mais à consommation équivalente, les NPU ne sont-ils pas plus efficaces que les GPU ?
Peut-être est-ce vrai uniquement pour certain modèles ?
J'imagine que générer une image par IA serait plus efficace sur GPU et que les NPU seraient plus adaptés à la génération de texte, mais c'est peut-être un raccourci de "bon sens" biaisé. Si je peux être détrompé, j'en serais ravi ! 😊
Pour bien comprendre, les réseaux de neurones, la technologie utilisée pour ce faire, ce que l'on nomme "IA", nécessite d'appliquer le même calcul sur des tableaux (plus exactement des tenseurs, mais dis-toi que ce sont des tableaux avec un certain nombre de dimensions).
De l'autre côté, les GPU ont une architecture qui est faite pour appliquer des calculs sur des tableaux (grosso modo : ça aplatit la scène dans un tableau correspondant à la résolution de ton écran, avec plein de couches d'informations pour chaque pixel, ensuite, à chaque pixel, il va appliquer la même série de calculs avec ces informations et les informations des pixels voisins pour déterminer la couleur du pixel à afficher).
Vers le milieu des années 2000, NVidia s'est dit que ça pourrait être cool de pouvoir utiliser les GPU pour faire autre chose que du jeu vidéo (c'est con de se priver d'un marché potentiellement énorme), et ils ont donc commencé à développer des API pour permettre de faire des calculs sur les GPU.
À la même époque, des équipes de chercheurs ont commencé à relancer l'idée des réseaux de neurones. Avec NVidia, ça a fait des étincelles, ça a été le début d'un amour fou : des bons clients d'un côté, des ressources de calculs par chères de l'autre. Et aujourd'hui, on bouffe de l'IA à toutes les sauces et NVidia et devenu la seconde plus grosse capitalisation boursière.

Les GPUs, ce sont en réalité des monstres de puissances et explosent les performances des CPUs... pour les calculs sur des tableaux (ce qui ne représente pas la majorité des calculs que l'on fait sur un ordinateur). A ceci s'ajoute le fait que les constructeurs de GPU ont rajouté des unité de calculs spécifiques pour un type de calculs dans les réseaux de neurones (les fameux "Tensor Cores" de NVidia depuis les RTX).

Le défault d'un GPU par rapport un à NPU intégré au CPU/SoC, c'est que ça consomme un max d'énergie et qu'étant totalement externe, avec sa propre mémoire, il faut faire des allers-retours entre le CPU et le GPU pour échanger des données. Dans un ordinateur portable, ça veut dire que tu vas bouffer ta batterie à vitesse grand V. Mais de l'autre coté, tu peux faire tournée soit de très gros modèles, soit faire tourner de petits modèles sur une grosse quantité de données (c'est ce que veux faire NVidia avec les portables RTX AI : un surplus de puissance avec la carte graphique).

tazvld

Pour bien comprendre, les réseaux de neurones, la technologie utilisée pour ce faire, ce que l'on nomme "IA", nécessite d'appliquer le même calcul sur des tableaux (plus exactement des tenseurs, mais dis-toi que ce sont des tableaux avec un certain nombre de dimensions).
De l'autre côté, les GPU ont une architecture qui est faite pour appliquer des calculs sur des tableaux (grosso modo : ça aplatit la scène dans un tableau correspondant à la résolution de ton écran, avec plein de couches d'informations pour chaque pixel, ensuite, à chaque pixel, il va appliquer la même série de calculs avec ces informations et les informations des pixels voisins pour déterminer la couleur du pixel à afficher).
Vers le milieu des années 2000, NVidia s'est dit que ça pourrait être cool de pouvoir utiliser les GPU pour faire autre chose que du jeu vidéo (c'est con de se priver d'un marché potentiellement énorme), et ils ont donc commencé à développer des API pour permettre de faire des calculs sur les GPU.
À la même époque, des équipes de chercheurs ont commencé à relancer l'idée des réseaux de neurones. Avec NVidia, ça a fait des étincelles, ça a été le début d'un amour fou : des bons clients d'un côté, des ressources de calculs par chères de l'autre. Et aujourd'hui, on bouffe de l'IA à toutes les sauces et NVidia et devenu la seconde plus grosse capitalisation boursière.

Les GPUs, ce sont en réalité des monstres de puissances et explosent les performances des CPUs... pour les calculs sur des tableaux (ce qui ne représente pas la majorité des calculs que l'on fait sur un ordinateur). A ceci s'ajoute le fait que les constructeurs de GPU ont rajouté des unité de calculs spécifiques pour un type de calculs dans les réseaux de neurones (les fameux "Tensor Cores" de NVidia depuis les RTX).

Le défault d'un GPU par rapport un à NPU intégré au CPU/SoC, c'est que ça consomme un max d'énergie et qu'étant totalement externe, avec sa propre mémoire, il faut faire des allers-retours entre le CPU et le GPU pour échanger des données. Dans un ordinateur portable, ça veut dire que tu vas bouffer ta batterie à vitesse grand V. Mais de l'autre coté, tu peux faire tournée soit de très gros modèles, soit faire tourner de petits modèles sur une grosse quantité de données (c'est ce que veux faire NVidia avec les portables RTX AI : un surplus de puissance avec la carte graphique).
Merci beaucoup ! Réponse parfaite !
:inpactitude:
Ça va peut-être plaire aux 2% de gens qui utilisent l'IA au quotidien :windu:
:windu: AMD titille la curiosité de The Verge du bout des lèvres
Fermer