Nvidia pousse son avantage en intelligence artificielle. L’Américain vient de présenter officiellement la plateforme HGX H200, basée sur l’architecture Hopper et combinant les cœurs GPU Tensor H200 et, pour la première fois, une mémoire HBM3e. Grâce à ces 141Go de mémoire à très large bande passante, le H200 délivre 4,8To/s, deux fois plus que son prédécesseur, l’A100. Le H200 sera disponible sur des cartes HGX pour serveurs à quatre et huit voies, et, associé à une mémoire HBM3e sur le module Grace Hopper GH200. Une carte HGX H200 à huit voies délivre une puissance de calcul de 32Pflops au format FP8 et une bande passante de 1,1To. Les premiers systèmes en bénéficiant devraient être commercialisés au deuxième trimestre 2024.
Dans la même rubrique
Le 22/11/2024 à 8:56 par Frédéric Rémond
240 W délivrés par un seul port USB !
C'est, si l'on en croit Pulsiv, un record dans l'industrie : l'Anglais a participé à un montage de charge USB…
Le 22/11/2024 à 8:26 par Frédéric Rémond
Déjà une seconde génération de capteurs 6 axes automobiles chez TDK
TDK en est déjà à sa deuxième génération de capteurs de mouvements sur six axes dévolus aux applications automobiles. Le…
Le 22/11/2024 à 7:39 par Frédéric Rémond
Les FPGA remplacés par un convertisseur temps-numérique dans les lidars ?
« De nombreux lidars industriels continuent de se reposer sur un FPGA pour fournir l'interface avec la détection et l'émission…
Le 21/11/2024 à 10:02 par Frédéric Rémond
Les accélérateurs IA n’ont besoin que d’un milliwatt !
L'accélérateur d'intelligence artificielle le plus frugal du monde ? C'est ainsi que BrainChip définit son dernier bébé, baptisé Akida Pico,…