High-Tech

Nvidia GV100 : De l’architecture Pascal à l’architecture Volta

La Nvidia GV100 est l’une des plus grosses puces surpuissantes jamais conçues. Elle est spécialement dédiée aux serveurs et à certains calculateurs. C’est d’ailleurs elle qui inaugure le passage de l’architecture Pascal à l’architecture Volta, que Nvidia prévoyait depuis bien trop longtemps. Elle a été présentée lors de la dernière conférence annuelle GTC. Et même si tous les détails n’ont pas encore été fournis concernant l’architecture Volta, la fiche technique de la Nvidia GV100 est un aperçu très net de ce dont elle est capable.

 

Spécifications techniques de la puce Nvidia GV100

La puce Nvidia GV100 s’étend sur une surface assez conséquente de 815 mm². Ce qui lui vaut d’abriter 37% de transistors en plus, comparé au GP100 et au GP102 de la GeForce GTX 1080 Ti. Concrètement, il s’agit de 21,1 milliards de transistors en plus. Un nombre qui laisse deviner la puissance de la puce, lorsqu’on se rend compte que le GP100 n’en possède que 15,3 milliards. Ceci confère au minimum 5376 unités de calcul au GPU. Ce dernier pouvant être accompagné d’une mémoire HBM2 de 16 Go. Il est aussi important de noter qu’avec la Nvidia GV100, on passe directement à une gravure 12 nm FFN produite par TSMC. Du fait qu’elle soit cadencée à 875 MHz, sa bande passante est de 896 Go/s. Pour la consommation électrique, elle est de 300 Watts comme chez la précédente génération.

La puce Nvidia GV100
La puce Nvidia GV100

 

Jusqu’où va la puce Nvidia GV100 ?

La Nvidia GV100 offrirait une puissance de calcul d’environ 100 processeurs haut de gamme pour ordinateurs classiques. Elle embarque pour cela des Tensor Core (640) qui sont des unités de calcul dédiées aux réseaux neuronaux. En effet, ce sont des unités de calcul favorisant l’entraînement de l’intelligence artificielle. D’autre part, la carte Nvidia GV100 est conçue pour faire tourner la technologie Deep Learning. C’est notamment le cas des plateformes à TensorFlow, à Caffe2, ainsi qu’à MXnet. Les Tensor Core intégrés permettent un traitement plus rapide des layers algorithmiques liés à l’apprentissage profond. Ainsi, les étapes d’apprentissage de l’intelligence artificielle sont traitées plus rapidement. Ce gain de vitesse peut donc s’imposer dans des domaines comme la médecine, l’ingénierie de pointe, la recherche, mais aussi les transports autonomes. De plus, la puissance cumulée des Tensor Core atteindrait 120 TFLOPS pour les calculs liés au Deep Learning.

 

En bref

La Nvidia GV100 est une solution de calcul superpuissante. Elle intéresse d’ailleurs de grandes entreprises telles que Facebook, Amazon, Baidu, Google, ou encore Microsoft. Avec cette puce, la firme fait un grand bond en avant dans le domaine du Deep Learning. Des représentants d’Amazon et de Microsoft ont même eu à monter sur scène lors de la Keynote Nvidia, pour faire l’éloge de cette fameuse puce. Toutefois la puce Nvidia GV100 ne sera disponible dans des serveurs qu’au troisième trimestre de cette année.

Nvidia GV100 : De l’architecture Pascal à l’architecture Volta
Note
Voir plus

Du même auteur

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *