NVIDIA dépasse Microsoft et devient la plus grande capitalisation boursière au monde

Tout est allé très vite. Il y a à peine deux semaines, la capitalisation boursière de NVIDIA dépassait les 3 000 milliards de dollars. La firme au caméléon passait ainsi devant Apple et venait talonner Microsoft et ses 3 150 milliards de dollars. Cette fois, NVIDIA arrive au sommet.

Le père des GeForce est officiellement la plus grande capitalisation boursière au monde. En clôture de la Bourse à New-York hier soir, son action a grimpé de 3,5 %, à 135, 58 dollars au Nasdaq. Une hausse qui a porté sa valorisation à 3 335 milliards de dollars, contre 3 317 milliards pour Microsoft.

Le 6 juin, nous avions qualifié NVIDIA « d’empereur des puces dédiées à l’IA ». Un titre désormais assorti de la couronne boursière, ses GPU s’arrachant chez toutes les entreprises ayant des velléités dans le domaine de l’intelligence artificielle. Microsoft en tête, même si la firme développe ses propres puces dédiées, comme Amazon et Google le font depuis quelques années.

La progression de l’entreprise depuis le début de l’année est fulgurante. Le titre NVIDIA a ainsi grimpé de 176 % depuis janvier, et même 77 % sur les seuls deux derniers mois. Une ascension au sommet, portée par une industrie de la tech focalisée sur l’IA.

Commentaires (17)


Tout était prévu : il y a IA dans NVIDIA :fumer:
Il y a VID aussi.

fred42

Il y a VID aussi.
Il ne reste plus que le N qui se sent seul...
Qui bientôt s'appelerio SKYNET ... :stress:
Ce ne sont plus les mineurs qui font le bénéfice ? Les temps changent. :D
Non, ça a toujours été les vendeurs de pioches.

fred42

Non, ça a toujours été les vendeurs de pioches.
Il fallait comprendre "le bénéfice de NVIDIA" ;)

fred42

Non, ça a toujours été les vendeurs de pioches.
Les mineurs avaient ceci en commun avec les joueurs de poker, fallait une bonne pioche
La chute sera d'autant plus difficile, quand des puces dédiées et beaucoup plus intéressantes tant pour le prix que la conso' énergétique, prendront le relais.
De quoi tu parles ? NVIDIA fait déjà des puces dédiées pour l'IA et oui, elles consomment. Pour la phase d'apprentissage, elles me semblent incontournables, elles ou celles de concurrents ou de leurs anciens clients (Google, Microsoft,...).

Donc, la concurrence risque de faire changer en partie la donne, mais NVIDIA va probablement rester leader.
Tu penses à quelle puce plus efficace que les GPU pour l'IA ?

alex.d.

Tu penses à quelle puce plus efficace que les GPU pour l'IA ?
Les NPU. A ma connaissance NVIDIA ne fait pas de NPU (du moins pour l'instant), ils spécialisent des GPU.

ort

Les NPU. A ma connaissance NVIDIA ne fait pas de NPU (du moins pour l'instant), ils spécialisent des GPU.
Un NPU, c'est un GPU avec une archi un peu spécialisée IA.
Un GPU nvidia avec Tensor Cores, c'est un GPU avec une archi un peu spécialisée IA.

Du coup, il est clair que les NPU vont balayer nvidia qui n'a rien vu venir.

alex.d.

Un NPU, c'est un GPU avec une archi un peu spécialisée IA.
Un GPU nvidia avec Tensor Cores, c'est un GPU avec une archi un peu spécialisée IA.

Du coup, il est clair que les NPU vont balayer nvidia qui n'a rien vu venir.
J'ai fait un peu de recherche sur le sujet, mais pour l'instant, si tu veux faire du machine learning, investir dans une solution Nvidia reste un bon choix. Les NPU, ça semble plutôt très bien pour "exécuter" (faire de l'inférence) des réseaux de neurone de taille raisonnable et qui ont été adaptés en tout en local.

De manière générale, NVidia propose des solutions plus puissantes et plus généralistes.

Les NPU paraissent pour l'instant regroupés plein de choses aux capacités différentes. Par exemple, en regardant la communication d'Apple, leur NPU ne semble pas être capable de faire de l'entrainement, et laisse cette tâche au GPU (Metal Performance Shaders backend).

Les NPU sont hyper spécialisés, il faut voir du coup à quel point ils sont à l'épreuve du temps et des évolutions sur les réseaux de neurone où ça bouge encore pas mal. Il y a quelques années, l'attention et les transformers ont révolutionné le domaine, aujourd'hui, je vois que S4/Mamba et leurs dérivés peuvent renouveler encore l'univers des réseaux de neurones (ça va, en inférence, c'est surtout un RNN).

De toute façon, Nvidia a pas mal de bille dans plus d'autre domaine, les GPU ne sert pas qu'à faire du réseau de neurones, on peut faire d'autre algo de machine learning, tout plein de simulation, des calculs généralistes et même de la 3D (ce dernier point, c'est je crois le truc le plus fou que l'on puisse faire sur un GPU). Ils ont aps mal investi dans plein d'autre truc qu'uniquement le GPU (je crois qu'ils ont racheté une boite qui faisait des switch réseau).

tazvld

J'ai fait un peu de recherche sur le sujet, mais pour l'instant, si tu veux faire du machine learning, investir dans une solution Nvidia reste un bon choix. Les NPU, ça semble plutôt très bien pour "exécuter" (faire de l'inférence) des réseaux de neurone de taille raisonnable et qui ont été adaptés en tout en local.

De manière générale, NVidia propose des solutions plus puissantes et plus généralistes.

Les NPU paraissent pour l'instant regroupés plein de choses aux capacités différentes. Par exemple, en regardant la communication d'Apple, leur NPU ne semble pas être capable de faire de l'entrainement, et laisse cette tâche au GPU (Metal Performance Shaders backend).

Les NPU sont hyper spécialisés, il faut voir du coup à quel point ils sont à l'épreuve du temps et des évolutions sur les réseaux de neurone où ça bouge encore pas mal. Il y a quelques années, l'attention et les transformers ont révolutionné le domaine, aujourd'hui, je vois que S4/Mamba et leurs dérivés peuvent renouveler encore l'univers des réseaux de neurones (ça va, en inférence, c'est surtout un RNN).

De toute façon, Nvidia a pas mal de bille dans plus d'autre domaine, les GPU ne sert pas qu'à faire du réseau de neurones, on peut faire d'autre algo de machine learning, tout plein de simulation, des calculs généralistes et même de la 3D (ce dernier point, c'est je crois le truc le plus fou que l'on puisse faire sur un GPU). Ils ont aps mal investi dans plein d'autre truc qu'uniquement le GPU (je crois qu'ils ont racheté une boite qui faisait des switch réseau).
La boîte est Mellanox et ça concerne toute l'infrastructure réseau (switch, cables, adaptateurs...). Couplé avec ces compétences, Nvidia en fait des DPU sorte de CPU dédiés aux réseaux pour les data-centers et supercalculateurs.

alex.d.

Tu penses à quelle puce plus efficace que les GPU pour l'IA ?
Je pense qu'il fait référence à ces puces développées par la startup Groq, qui sont spécifiquement faites pour des LLM.

https://www.zdnet.fr/actualites/pourquoi-groq-s-apprete-a-bouleverser-le-marche-avec-sa-puce-d-ia-39964432.htm
Tkt il acheter-on la boite qui fait ça.
Fermer