Windows 11 : Copilot+ PC débarquera sur AMD et Intel (x86) en novembre

Depuis l’annonce des Copilot+ PC, Qualcomm profite d’une exclusivité qui n’a jamais vraiment été justifiée par Microsoft. L’éditeur avait confirmé que ce n’était dans tous les cas que temporaire et que les machines avec des CPU AMD et Intel pourraient en profiter d’ici à la fin de l’année.

Dans un billet de blog, Microsoft donne des précisions : il faudra attendre novembre pour les portables avec un CPU AMD Ryzen AI 300 ou un Intel Core Ultra 200V (qui viennent tout juste d’être annoncés), quand bien même les machines sont disponibles avant.

Lors de la conférence Intel d’hier, Pavan Davuluri (vice-president Microsoft, en charge de Windows et des appareils), avait annoncé « tous les modèles avec un processeur Intel Core Ultra 200V et la dernière version de Windows pourront recevoir les fonctionnalités Copilot+ PC via une mise à jour gratuite, à partir de novembre ».

Pour rappel, une machine doit avoir au moins un NPU de 40 TOPS pour les calculs liés à l’intelligence artificielle, 16 Go de mémoire vive et 250 Go de SSD pour prétendre à la certification Copilot+ PC. Ce sont des limitations imposées par Microsoft.

Commentaires (12)


When will this bubble fera pshiiiiiiiiit ?
C'est exactement à ce quoi à quoi je pense. Entre la dérive des IA dites"de création" (si je ne me trompe pas) et l'énorme quantité d'énergie nécessaire pour l'utilisation de l'IA en général, ça n'augure rien de bon pour la suite...

sylvaing

C'est exactement à ce quoi à quoi je pense. Entre la dérive des IA dites"de création" (si je ne me trompe pas) et l'énorme quantité d'énergie nécessaire pour l'utilisation de l'IA en général, ça n'augure rien de bon pour la suite...
une fois de plus il va falloir une loi pour les mettre au pas et leur faire cesser leurs délires.
On peut dire ce qu'on veut seule les punitions supérieures aux bénéfices attendu sont capable de leur inculquer un peu d'éthique, ces sociétés ne connaissent que la trique.

max6

une fois de plus il va falloir une loi pour les mettre au pas et leur faire cesser leurs délires.
On peut dire ce qu'on veut seule les punitions supérieures aux bénéfices attendu sont capable de leur inculquer un peu d'éthique, ces sociétés ne connaissent que la trique.
Tu mets quoi dans la loi ? Et pour quelles raisons ?

fred42

Tu mets quoi dans la loi ? Et pour quelles raisons ?
des choses horribles qui vont certainement réduire grandement notre belle liberté, par exemple:
les sociétés n'ont pas le droit de pomper nos données sans l'avoir explicitement demandé ou qu'elle doivent les effacer si nous le demandons (je sais c'est déjà le cas mais en fait avec eux non puisqu'il s'autorisent à pomper le web à la source sans se soucier de la provenance ).
Et tiens une chose encore plus horrible pour nos libertés, le fait que nous ayons le droit de désinstaller cette application parce qu'on n'en veut pas.
Modifié le 05/09/2024 à 10h26

Historique des modifications :

Posté le 05/09/2024 à 10h24


des choses horribles qui vont certainement réduire grandement notre belle liberté, par exemple:
les sociétés n'ont pas le droit de pomper nos données sans l'avoir explicitement demandé ou qu'elle doivent les effacer si nous le demandons.
Et tiens une chose encore plus horrible pour nos libertés, le fait que nous ayons le droit de désinstaller cette application parce qu'on n'en veut pas.

max6

des choses horribles qui vont certainement réduire grandement notre belle liberté, par exemple:
les sociétés n'ont pas le droit de pomper nos données sans l'avoir explicitement demandé ou qu'elle doivent les effacer si nous le demandons (je sais c'est déjà le cas mais en fait avec eux non puisqu'il s'autorisent à pomper le web à la source sans se soucier de la provenance ).
Et tiens une chose encore plus horrible pour nos libertés, le fait que nous ayons le droit de désinstaller cette application parce qu'on n'en veut pas.
OK, que des choses qui sont dans le RGPD (pour les données personnelles) et le DMA. :bravo:

fred42

OK, que des choses qui sont dans le RGPD (pour les données personnelles) et le DMA. :bravo:
Et alors visiblement ce qui existe n'est pas suffisant pour qu'ils respectent la loi.
Donc la renforcer la rendre plus proactive et augmenter les sanctions jusqu'à ce qu'ils cessent de se foutre de nous.
Les toucher au seul endroit sensible de ces gens leur portefeuille parce que faire appel à leur sens de l'éthique ou à leur morale est totalement inutile ils ne connaissent visiblement pas le sens de ces mots et n'en ont même jamais entendu parler.
J'ai de gros doutes sur le fait que ce soit une bulle. J'ai plutôt l'impression que l'IA du quotidien sera très éloignée des démonstrations "WOAH" qu'on fait aujourd'hui, mais qu'on va énormément l’utiliser.

Je vois déjà au bureau qu'on joue plus avec chatGPT, on s'en sert. Et c'est réellement un gain de temps incroyable sur certains trucs.

J'ai un prestataire aussi qui fait ses comptes rendus de réunions/ateliers via une IA qui s'invite dans la réunion Teams. C'est pas toujours sans retravail, mais ça fait gagner vachement de temps pour le rédiger et ça sait plutôt bien trier ce qui est utile ou non (bon sauf quand j'ai demandé comment s'étaient passées ses vacances...).

Même pour un développement un peu basique, il peut te faire le code tout seul à partir d'une explication de la problématique, puis tu prends le code, tu testes et tu lui fais rectifier ce qui te conviens pas (les bugs, le fonctionnel, etc.). Pour l'avoir essayé sur un sujet au delà de mes compétences, ça m'a livré exactement ce qu'il me fallait, et je me sers du truc plusieurs fois par semaine pour remplacer une tâche rébarbative. J'imagine que quand ça sera intégré aux IDE pour analyser/diagnostiquer/optimiser, le gain de temps sera incroyable...

Bref, je ne crois absolument pas à une bulle. Le médical, l'ingénierie, le tertiaire, le lambda qui veut éditer sa photo... Il y a trop de secteurs d'activité, trop de typologies d'utilisateurs concernés pour que ça se casse la gueule. L'appropriation est extrêmement rapide bien au delà de la seule curiosité de la nouveauté.

Après on va revenir sur la suprématie, la véracité & co, mais ça n'empêchera pas que nos usages de l'IA devraient rester assez conséquents.
Modifié le 04/09/2024 à 10h10

Historique des modifications :

Posté le 04/09/2024 à 10h09


J'ai de gros doutes sur le fait que ce soit une bulle. J'ai plutôt l'impression que l'IA du quotidien sera très éloignée des démonstrations "WOAH" qu'on fait aujourd'hui, mais qu'on va énormément l’utiliser.

Je vois déjà au bureau qu'on joue plus avec chatGPT, on s'en sert. Et c'est réellement un gain de temps incroyable sur certains trucs.

J'ai un prestataire aussi qui fait ses comptes rendus de réunions/ateliers via une IA qui s'invite dans la réunion Teams. C'est pas toujours sans retravail, mais ça fait gagner vachement de temps pour le rédiger et ça sait plutôt bien trier ce qui est utile ou non (bon sauf quand j'ai demandé comment s'étaient passées ses vacances...).

Même pour un développement un peu basique, il peut te faire le code tout seul à partir d'une explication de la problématique, puis tu prends le code, tu testes et tu lui fais rectifier ce qui te conviens pas (les bugs, le fonctionnel, etc.). Pour l'avoir essayé sur un sujet au delà de mes compétences, ça m'a livré exactement ce qu'il me fallait, et je me sers du truc plusieurs fois par semaine pour remplacer une tâche rébarbative. J'imagine que quand ça sera intégré aux IDE pour analyser/diagnostiquer/optimiser, le gain de temps sera incroyable...

Bref, je ne crois absolument pas à une bulle. Le médical, l'ingénierie, le tertiaire, le lambda qui veut éditer sa photo... Il y a trop de secteurs d'activité, trop de typologies d'utilisateurs concernés pour que ça se casse la gueule. L'appropriation est extrêmement rapide bien au delà de la seule curiosité de la nouveauté.

Après on va revenir sur la suprématie, la véracité & co, mais ça n'empêchera pas que nos usages de l'IA devraient rester assez conséquents.

MisterDams

J'ai de gros doutes sur le fait que ce soit une bulle. J'ai plutôt l'impression que l'IA du quotidien sera très éloignée des démonstrations "WOAH" qu'on fait aujourd'hui, mais qu'on va énormément l’utiliser.

Je vois déjà au bureau qu'on joue plus avec chatGPT, on s'en sert. Et c'est réellement un gain de temps incroyable sur certains trucs.

J'ai un prestataire aussi qui fait ses comptes rendus de réunions/ateliers via une IA qui s'invite dans la réunion Teams. C'est pas toujours sans retravail, mais ça fait gagner vachement de temps pour le rédiger et ça sait plutôt bien trier ce qui est utile ou non (bon sauf quand j'ai demandé comment s'étaient passées ses vacances...).

Même pour un développement un peu basique, il peut te faire le code tout seul à partir d'une explication de la problématique, puis tu prends le code, tu testes et tu lui fais rectifier ce qui te conviens pas (les bugs, le fonctionnel, etc.). Pour l'avoir essayé sur un sujet au delà de mes compétences, ça m'a livré exactement ce qu'il me fallait, et je me sers du truc plusieurs fois par semaine pour remplacer une tâche rébarbative. J'imagine que quand ça sera intégré aux IDE pour analyser/diagnostiquer/optimiser, le gain de temps sera incroyable...

Bref, je ne crois absolument pas à une bulle. Le médical, l'ingénierie, le tertiaire, le lambda qui veut éditer sa photo... Il y a trop de secteurs d'activité, trop de typologies d'utilisateurs concernés pour que ça se casse la gueule. L'appropriation est extrêmement rapide bien au delà de la seule curiosité de la nouveauté.

Après on va revenir sur la suprématie, la véracité & co, mais ça n'empêchera pas que nos usages de l'IA devraient rester assez conséquents.
Pour moi des usages pourront rester et j’ai tendance à parfois poser des questions pour faire de l’aide à coder.
Par contre c’est clairement du buzz en ce moment et je pense que ce sera passager.
Les investissements des gafam sont très supérieurs aux retombées économiques qu’il pourrait y avoir avec ce type d’outils.
Le plus gros défaut sont les erreurs, si on part du postulat qu’on peut faire quelque chose avec un algo classique ou de « l’ia »alors il faudra mieux le faire avec un algo classique, même si c’est pas flatteur d’un point de vue marketing.
Rendez-moi mon boulier, ça ne consomme rien, pas d’énergie, ni de temps à mater des chatons qui tombent.
Du grand n'importe, après avoir forcé à acheter des processeurs avec TPM voilà qu'on force à acheter des processeurs avec NPU alors qu'un NPU n'est absolument pas nécessaire pour faire de l'IA, une Geforce 4090 fait certainement mieux de l'IA qu'un NPU à 40 TOPS.
Je me suis fait exactement la même réflexion l'autre jour quand j'ai vu tous ces abrutis aller acheter leur pain en vélo, alors que mon semi-remorque fait parfaitement l'affaire.
Fermer