Avec Blackwell, Nvidia améliore un facteur critique pour le futur de l’IA

Quand vous parlerez à ChatGPT ou génèrerez une vidéo avec Sora dans les prochains mois, ce seront peut-être les puces Blackwell B200 de Nvidia qui opèreront en coulisses.

Le 18 mars, à l’occasion de sa grande conférence GTC, Nvidia a levé la voile sur une nouvelle génération de GPU que les créateurs d’intelligence artificielle générative s’empresseront sans doute de commander par milliers. Déjà en position de force sur ce secteur (ses cartes graphiques font tourner la plupart des services du marché, ce qui a fait tripler sa valeur financière en un an), Nvidia creuse l’écart avec la concurrence avec de nouveaux composants pensés pour l’IA. Le Blackwell B200 n’est pas seulement plus puissant, il est aussi annoncé comme bien moins énergivore.

Utiliser beaucoup moins d’énergie : l’exploit de Blackwell

Aujourd’hui, Nvidia doit une partie de son succès aux puces H100, que s’arrachent les entreprises comme OpenAI, Midjourney, Google ou Adobe. Ces cartes graphiques sont très bien adaptées à l’IA, ce qui a permis à Nvidia de voir ses ventes exploser en seulement quelques mois.

Avec un GPU H100 sous l’architecture Hopper (celle qui précède Blackwell), un grand modèle de langage (LLM, pour large language model) avec 1 800 milliards de paramètres a besoin de 8 000 puces pour s’entraîner, avec 15 mégawatts d’alimentation. Avec sa nouvelle architecture Blackwell, Nvidia promet une division par quatre du nombre de puces nécessaires (2 000 suffiraient donc).

[Lire la suite]

Crédits photos de l'image de une : La puce Nvidia B200. // Source : Nvidia