LMi-MAG14 juillet - Flipbook - Page 55
augmente, la concurrence entre fournisseurs de GPU
pour serveurs s’intensifie, et ils ne sont que trois dans
cette course : Nvidia, AMD et (bientôt) Intel. Intel, qui a
déjà essayé sans succès et à deux reprises de proposer
une alternative aux GPU de Nvidia et d’AMD, refait une
nouvelle tentative.
L’importance des GPU dans les datacenters
Pour ces trois fournisseurs, la demande croissante de
GPU dans les datacenters représente une vraie opportunité. En effet, les GPU sont plus à même que les CPU
à traiter un grand nombre des calculs requis par l’IA et
l’apprentissage machine dans les datacenters d’entreprise et les réseaux hyperscalers. Non pas que les CPU
ne soient pas capables d’effectuer ces tâches, mais ils
ont besoin de plus de temps. Cependant, parce que les
GPU sont faits pour résoudre des problèmes mathématiques complexes en parallèle en les divisant en tâches
distinctes sur lesquelles ils travaillent simultanément,
ils les résolvent plus rapidement. Pour cela, les GPU disposent de plusieurs unités de calcul, et en bien plus grand
nombre que ne peut en contenir un CPU généraliste. Par
exemple, les CPU pour serveurs Xeon d’Intel peuvent
comporter jusqu’à 28 noyaux, et les CPU pour serveurs
Epyc d’AMD peuvent en accueillir jusqu’à 64. En revanche,
la génération actuelle de GPU de Nvidia, Ampere, compte
6 912 noyaux fonctionnant tous en parallèle pour effectuer
une tâche unique de traitement mathématique, en particulier les calculs à virgule flottante. Les performances des
GPU sont mesurées en fonction du nombre d’opérations
mathématiques à virgule flottante qu’ils peuvent effectuer par seconde ou FLOPS. Ce nombre précise parfois le
format standardisé à virgule flottante utilisé au moment
de la mesure, par exemple FP64. Alors, à quoi peut-on
s’attendre cette année dans le domaine des GPU pour serveurs ? A pas mal de choses, en fait. Nvidia, AMD et Intel
ont joué cartes sur table quant à leurs projets immédiats,
et il semble que la concurrence sera rude. Voici un aperçu
de ce que nous réservent les trois rivaux.
Nvidia annonce GPU Hopper et NVLink 4
Nvidia a arrêté sa feuille de route GPU pour l’année au
mois de mars, avec l’annonce de son architecture GPU
Hopper, affirmant que, en fonction de son utilisation,
elle pouvait fournir des performances trois à six fois supérieures à celles de son architecture précédente, Ampere, qui pèse 9,7 TFLOPS de FP64. Nvidia affirme que
le GPU Hopper H100 atteindra 60 TFLOPS de performance FP64. Comme les GPU précédents, le GPU Hopper
H100 peut fonctionner comme le ferait un processeur
autonome sur une carte PCI Express intégrée dans un
serveur. Mais Nvidia l’associera également à un CPU sur
un processeur Arm personnalisé appelé Grace, qu’elle a
développé, et qui devrait être disponible en 2023. Pour
Hopper, Nvidia ne s’est pas contenté d’améliorer le
processeur GPU. Elle a également modifié la mémoire
LPDDR (Low-Power Double Data Rate) 5, normalement
utilisée dans les smartphones, pour créer la LPDDR5X.
Cette mémoire prend en charge le code de correction
d’erreurs (Error-Correction Code, ECC) et offre une
bande passante deux fois supérieure à celle de la mémoire DDR5 traditionnelle, avec un débit de 1 To/s.
En même temps que le GPU Hopper, Nvidia a annoncé
NVLink 4, la dernière version de son interconnexion inter-GPU. NVLink 4C2C permet aux GPU Hopper de communiquer directement entre eux sur une bande passante
totale maximale de 900 Go, soit sept fois plus rapidement
que s’ils étaient connectés via un bus PCIe Gen5. « Les
produits pour datacenters comportent trois composants,
et ils doivent tous avancer au même rythme. Il s’agit de
la mémoire, du processeur et des communications », explique Jon Peddie, président de Jon Peddie Research. « Et
c’est ce que fait Nvidia avec Hopper. Ces trois technologies n’évoluent pas de manière synchronisée, mais Nvidia
a réussi à le faire », ajoute-t-il. Nvidia prévoit de livrer
le GPU Hopper à partir du troisième trimestre de 2022.
Parmi les partenaires OEM du projet, on trouve Atos, BOXX
Technologies, Cisco, Dell Technologies, Fujitsu, Gigabyte,
H3C, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix
et Supermicro. A cause des pressions permanentes en
approvisionnement auquel est soumis son fabricant de
puces TSMC, Nvidia a évoqué une éventuelle collaboration
avec la fonderie d’Intel, tout en précisant qu’un tel accord
ne serait pas conclu avant plusieurs années.
Nouveaux GPU de jeu chez AMD prévus en 2022
AMD a le vent en poupe. Ses ventes augmentent d’un
trimestre à l’autre, sa part de marché des CPU x86 progresse et en février, l’entreprise a finalisé l’acquisition
de Xilinx et de ses réseaux logiques programmables
(FPGA), de ses systèmes sur puce adaptatifs (SoC), de
ses moteurs d’IA et de son expertise logicielle. AMD devrait lancer son processeur Zen 4 d’ici à la fin de l’année
2022. Les nouveaux GPU de jeu d’AMD, basés sur son
architecture RDNA 3, devraient également sortir cette
année. AMD est resté très discret sur les spécifications
du RDNA 3, mais des blogueurs amateurs de jeux ont fait
circuler des rumeurs non confirmées faisant état d’un
gain de performance de 50 à 60 % par rapport au RDNA 2.
Entre temps, AMD a commencé à livrer la gamme d’accélérateurs GPU Instinct MI250 pour l’IT d’entreprise,
nettement plus rapide que la série précédente
55