Téléchargement du pilote :La connexion hyperlientérée est visible. Boîte à outils CUDA :La connexion hyperlientérée est visible. cuDNN :La connexion hyperlientérée est visible.
Qu’est-ce que la carte graphique ?
Le concept de GPU a été proposé par Nvidia en 1999. Un GPU est une puce sur une carte graphique, tout comme un processeur est une puce sur une carte mère. Donc il n’y avait pas de cartes graphiques sur les cartes graphiques avant 1999 ? Bien sûr, il y en avait un, mais personne ne l’a nommé à l’époque, et il n’a pas attiré assez d’attention de la part des gens, et son développement a été relativement lent.
Depuis que Nvidia a proposé le concept de GPU, les GPU sont entrés dans une période de développement rapide. En résumé, il a traversé les étapes de développement suivantes :
1. Uniquement pour le rendu graphique, cette fonction est l’intention initiale des GPU, ce qui se retrouve dans son nom : Unité de traitement graphique ;
2. Plus tard, il a été découvert qu’il était trop gaspilleur pour un appareil aussi puissant qu’un GPU uniquement pour le traitement graphique, et qu’il devait servir à effectuer plus de travail, comme des opérations en virgule flottante. Comment faire ? Fournir des opérations en virgule flottante directement au GPU n’est pas possible car il ne peut être utilisé que pour le traitement graphique (à ce moment-là). La chose la plus simple à imaginer est de traiter des opérations en virgule flottante, de les emballer dans des tâches de rendu graphique, puis de les remettre au GPU. C’est le concept de GPGPU (GPU à usage général). Cependant, il y a un inconvénient à cela, à savoir que vous devez avoir quelques connaissances en graphismes, sinon vous ne saurez pas comment faire votre bagage.
3. Ainsi, afin de permettre aux personnes qui ne comprennent pas les graphismes de découvrir la puissance du calcul GPU, Nvidia a proposé le concept de CUDA.
Qu’est-ce que la CUDA ?
CUDA (ComputeUnified Device Architecture) est une plateforme informatique lancée par le fabricant de cartes graphiques NVIDIA. CUDA est une architecture de calcul parallèle polyvalente lancée par NVIDIA. Il contient l’architecture du jeu d’instructions CUDA et un moteur de calcul parallèle à l’intérieur du GPU. Vous pouvez développer des programmes CUDA en utilisant un langage CUDA C similaire au langage C, ce qui facilite l’utilisation de la puissance de calcul puissante du GPU, au lieu d’intégrer la tâche de calcul dans une tâche de rendu graphique puis de la confier au GPU pour qu’elle la traite.
En d’autres termes, CUDA est un cadre de calcul parallèle lancé par NVIDIA pour ses propres GPU, ce qui signifie que CUDA ne peut fonctionner que sur les GPU NVIDIA, et ne peut jouer le rôle de CUDA que lorsque le problème de calcul à résoudre est qu’il peut être calculé dans un grand nombre de calculs parallèles.
Notez que tous les GPU ne supportent pas CUDA.
Qu’est-ce que la CUDNN ?
NVIDIA cuDNN est une bibliothèque accélérée par GPU pour les réseaux neuronaux profonds. Il met l’accent sur les performances, la facilité d’utilisation et la faible surcharge mémoire. NVIDIA cuDNN peut être intégré à des frameworks d’apprentissage automatique de plus haut niveau tels que Tensorflow de Google, le logiciel caffe populaire de l’UC Berkeley. La conception simple des plug-ins permet aux développeurs de se concentrer sur la conception et la mise en œuvre de modèles de réseaux neuronaux plutôt que simplement sur l’optimisation des performances, tout en permettant un calcul parallèle moderne haute performance sur les GPU.
Si vous souhaitez entraîner un modèle avec un GPU, le cuDNN n’est pas obligatoire, mais il est généralement utilisé comme bibliothèque d’accélération.
Quelle est la relation entre CUDA et CUDNN ?
Le CUDA est considéré comme un établi avec de nombreux outils tels que des marteaux, des tournevis, etc. cuDNN est une bibliothèque accélérée par GPU basée sur CUDA, permettant de réaliser des calculs en apprentissage profond sur des GPU. C’est l’équivalent d’un outil de travail, par exemple, c’est une clé à molette. Mais lorsque l’établi CUDA a été acheté, il n’a pas fourni de clé à molette. Pour faire fonctionner un réseau neuronal profond sur CUDA, il faut installer cuDNN, tout comme on veut visser un écrou et acheter une clé à molette. Cela permet au GPU de fonctionner sur des réseaux de neurones profonds, ce qui est bien plus rapide que celui des CPU.
|