Nvidia pousse son avantage en intelligence artificielle. L’Américain vient de présenter officiellement la plateforme HGX H200, basée sur l’architecture Hopper et combinant les cœurs GPU Tensor H200 et, pour la première fois, une mémoire HBM3e. Grâce à ces 141Go de mémoire à très large bande passante, le H200 délivre 4,8To/s, deux fois plus que son prédécesseur, l’A100. Le H200 sera disponible sur des cartes HGX pour serveurs à quatre et huit voies, et, associé à une mémoire HBM3e sur le module Grace Hopper GH200. Une carte HGX H200 à huit voies délivre une puissance de calcul de 32Pflops au format FP8 et une bande passante de 1,1To. Les premiers systèmes en bénéficiant devraient être commercialisés au deuxième trimestre 2024.
Dans la même rubrique
Le 20/12/2024 à 9:05 par Frédéric Rémond
Les résistances MELF de Vishay grimpent en valeur tout en gardant leur précision
Vishay a étendu sa gamme de résistances MELF à films minces qualifiées AEC-Q200 et serties dans des boîtiers 0102, 0204…
Le 20/12/2024 à 7:10 par Frédéric Rémond
Les wearables et le positionnement satellite font bon ménage
Les wearables sont dans le collimateur de l'UBX-M1050-CC, le dernier circuit de positionnement par satellite d'u-blox. Ultra-compacte (2,39x2,39x0,55mm), la puce…
Le 19/12/2024 à 9:54 par Frédéric Rémond
Infineon exhibera un nouveau radar automobile au CES
Au prochain CES de Las Vegas, Infineon Technologies fera la démonstration de son tout dernier radar automobile, le CTRX8191F. Fabriqué…
Le 19/12/2024 à 8:39 par Frédéric Rémond
Power Integrations adapte ses commutateurs aux batteries 800 V
Afin de répondre aux exigences du standard IEC60664-1 relatif aux véhicules électriques à batterie 800V, Power Integrations a agrandi à…