|
|
Opublikowano 14.11.2024 13:19:15
|
|
|
|

Pobranie sterownika:Logowanie do linku jest widoczne. Zestaw narzędzi CUDA:Logowanie do linku jest widoczne. cuDNN:Logowanie do linku jest widoczne.
Czym jest GPU?
Koncepcja GPU została zaproponowana przez Nvidia w 1999 roku. GPU to układ scalony na karcie graficznej, tak jak CPU jest układem na płycie głównej. Czyli przed 1999 rokiem na kartach graficznych nie było kart graficznych? Oczywiście, że był, ale nikt wtedy nie nazwał go, nie przyciągał wystarczającej uwagi ludzi, a jego rozwój przebiegał stosunkowo powoli.
Od czasu zaproponowania przez Nvidia koncepcji GPU, GPU weszły w okres szybkiego rozwoju. Krótko mówiąc, przeszła przez następujące etapy rozwoju:
1. Funkcja ta jest pierwotnym zamysłem GPU tylko dla renderowania grafiki, co widać już po nazwie: Graphic Processing Unit;
2. Później odkryto, że zbyt marnotrawstwem jest używanie tak potężnego urządzenia jak GPU wyłącznie do przetwarzania grafiki, i powinno być wykorzystywane do większej pracy, np. operacji zmiennoprzecinkowych. Jak to zrobić? Przekazanie operacji zmiennoprzecinkowych bezpośrednio GPU nie jest możliwe, ponieważ można je używać tylko do przetwarzania grafiki (w tamtym czasie). Najprostsze do wymyślenia to przetworzenie operacji zmiennoprzecinkowych, zapakowanie ich do zadań renderowania grafiki, a następnie przekazanie GPU. To jest koncepcja GPGPU (General Purpose GPU). Jednak jest to wada, mianowicie że musisz znać grafikę, inaczej nie będziesz wiedzieć, jak się pakować.
3. Dlatego, aby umożliwić osobom nieznającym grafiki korzystanie z mocy obliczeń GPU, Nvidia zaproponowała koncepcję CUDA.
Czym jest CUDA?
CUDA (ComputeUnified Device Architecture) to platforma komputerowa wprowadzona na rynek przez producenta kart graficznych NVIDIA. CUDA to ogólnego przeznaczenia architektura obliczeń równoległych wprowadzona na rynek przez firmę NVIDIA. Zawiera architekturę zestawu instrukcji CUDA oraz silnik obliczeniowy równoległy wewnątrz GPU. Możesz tworzyć programy CUDA, używając języka CUDA C podobnego do języka C, co ułatwia wykorzystanie potężnej mocy obliczeniowej GPU, zamiast pakować zadanie obliczeniowe do renderowania grafiki i przekazywać je GPU do przetworzenia.
Innymi słowy, CUDA to równoległy framework obliczeniowy wprowadzony przez NVIDIA dla jej własnych GPU, co oznacza, że CUDA może działać tylko na GPU NVIDIA i pełnić rolę CUDA, gdy problem obliczeniowy do rozwiązania polega na tym, że można go obliczyć w dużej liczbie równoległych obliczeń.
Należy zauważyć, że nie wszystkie karty graficzne obsługują CUDA.
Czym jest CUDNN?
NVIDIA cuDNN to biblioteka przyspieszana przez GPU dla głębokich sieci neuronowych. Kładzie nacisk na wydajność, łatwość obsługi i niskie obciążenie pamięci. NVIDIA cuDNN może być integrowana z zaawansowanymi frameworkami uczenia maszynowego, takimi jak Tensorflow Google, popularne oprogramowanie caffe UC Berkeley. Prosty projekt wtyczek pozwala deweloperom skupić się na projektowaniu i implementacji modeli sieci neuronowych, a nie tylko na dostosowaniu, jednocześnie umożliwiając nowoczesne obliczenia równoległe o wysokiej wydajności na GPU.
Jeśli chcesz trenować model z GPU, cuDNN nie jest wymagane, ale zazwyczaj służy jako biblioteka akceleracji.
Jaki jest związek między CUDA a CUDNN?
CUDA postrzegana jest jako stół warsztatowy z wieloma narzędziami, takimi jak młotki, śrubokręty itp. cuDNN to biblioteka akcelerowana przez GPU oparta na CUDA, dzięki której można wykonywać obliczenia uczenia głębokiego na GPU. Jest odpowiednikiem narzędzia do pracy, na przykład kluczem kluczem. Ale gdy kupiono stół roboczy CUDA, nie dostarczył klucza klucza. Aby uruchomić głęboką sieć neuronową na CUDA, musisz zainstalować cuDNN, tak jak chcesz dokręcić nakrętkę i kupić klucz z powrotem. Pozwala to GPU pracować na głębokich sieciach neuronowych, co jest znacznie szybsze niż w przypadku CPU.
|
Poprzedni:Linijka "freeze_support()" może zostać pominięta, jeśli program nie jest...Następny:UPS zasilacze liniowe, interaktywne i interaktywne online
|