|
|
Veröffentlicht am 14.11.2024 13:19:15
|
|
|
|

Treiber-Download:Der Hyperlink-Login ist sichtbar. CUDA-Toolkit:Der Hyperlink-Login ist sichtbar. cuDNN:Der Hyperlink-Login ist sichtbar.
Was ist eine GPU?
Das Konzept der GPU wurde 1999 von Nvidia vorgeschlagen. Eine GPU ist ein Chip auf einer Grafikkarte, genauso wie eine CPU ein Chip auf einem Mainboard ist. Gab es also vor 1999 keine GPUs auf Grafikkarten? Natürlich gab es sie, aber niemand gab sie damals einen Namen, und sie zog nicht genug Aufmerksamkeit auf sich, und ihre Entwicklung verlief relativ langsam.
Seit Nvidia das Konzept der GPU vorgeschlagen hat, befinden sich GPUs in einer Phase der schnellen Entwicklung. Kurz gesagt, sie hat die folgenden Entwicklungsphasen durchlaufen:
1. Nur für das Grafikrendering ist diese Funktion die ursprüngliche Absicht von GPUs, was sich an ihrem Namen ergibt: Graphic Processing Unit;
2. Später stellte sich heraus, dass es für ein so leistungsfähiges Gerät wie eine GPU zu verschwenderisch war, nur für Grafikverarbeitung zu verwenden, und dass es für mehr Arbeit wie Gleitkommaoperationen eingesetzt werden sollte. Wie macht man das? Gleitkommaoperationen direkt an die GPU zu geben, ist nicht möglich, da sie zu diesem Zeitpunkt nur zur Grafikverarbeitung genutzt werden kann. Am einfachsten ist es, Gleitkommaoperationen zu verarbeiten, sie in Grafik-Rendering-Aufgaben zu packen und sie dann an die GPU zu übergeben. Dies ist das Konzept der GPGPU (General Purpose GPU). Allerdings gibt es auch einen Nachteil, nämlich dass man Grafikkenntnisse haben muss, sonst weiß man nicht, wie man packt.
3. Daher schlug Nvidia, um Menschen, die keine Grafikkenntnisse verstehen, die Leistungsfähigkeit des GPU-Computings zu erleben, das Konzept der CUDA vor.
Was ist CUDA?
CUDA (ComputeUnified Device Architecture) ist eine Rechenplattform, die vom Grafikkartenhersteller NVIDIA auf den Markt gebracht wurde. CUDA ist eine universelle parallele Computing-Architektur, die von NVIDIA eingeführt wurde. Sie enthält die CUDA-Befehlssatzarchitektur und eine parallele Rechen-Engine innerhalb der GPU. Man kann CUDA-Programme entwickeln, indem man eine CUDA-C-Sprache ähnlich wie die C-Sprache verwendet, was es erleichtert, die leistungsstarke Rechenleistung der GPU zu nutzen, anstatt die Rechenaufgabe in eine Grafik-Rendering-Aufgabe zu packen und sie dann der GPU zur Verarbeitung zu übergeben.
Mit anderen Worten: CUDA ist ein paralleles Computing-Framework, das von NVIDIA für seine eigenen GPUs eingeführt wurde, was bedeutet, dass CUDA nur auf NVIDIAs GPUs laufen kann und nur dann die Rolle von CUDA spielt, wenn das zu lösende Rechenproblem darin besteht, dass es in einer großen Anzahl paralleler Berechnungen berechnet werden kann.
Beachte, dass nicht alle GPUs CUDA unterstützen.
Was ist CUDNN?
NVIDIA cuDNN ist eine GPU-beschleunigte Bibliothek für tiefe neuronale Netzwerke. Es legt Wert auf Leistung, Benutzerfreundlichkeit und geringen Speicheraufwand. NVIDIA cuDNN kann in höherwertige maschinelle Lern-Frameworks wie Googles Tensorflow, die beliebte Caffe-Software der UC Berkeley, integriert werden. Einfaches Plug-in-Design ermöglicht es Entwicklern, sich auf die Entwicklung und Implementierung neuronaler Netzwerkmodelle zu konzentrieren, anstatt nur die Leistung zu optimieren, und ermöglicht gleichzeitig moderne Hochleistungs-Parallelrechnen auf GPUs.
Wenn man ein Modell mit einer GPU trainieren möchte, ist cuDNN nicht erforderlich, aber es wird in der Regel als Beschleunigungsbibliothek verwendet.
Wie ist die Beziehung zwischen CUDA und CUDNN?
CUDA gilt als Werkbank mit vielen Werkzeugen wie Hämmern, Schraubendrehern usw. cuDNN ist eine CUDA-basierte Deep-Learning-GPU-beschleunigte Bibliothek, mit der Deep-Learning-Berechnungen auf GPUs durchgeführt werden können. Es ist zum Beispiel ein Werkzeug für die Arbeit äquivalent, es ist ein Schraubenschlüssel. Doch als die CUDA-Werkbank gekauft wurde, brachte sie keinen Schraubenschlüssel. Um ein tiefes neuronales Netzwerk auf CUDA zu betreiben, musst du cuDNN installieren, genauso wie du eine Mutter verdrehen und einen Schraubenschlüssel zurückkaufen willst. Dadurch kann die GPU auf tiefen neuronalen Netzwerken arbeiten, was viel schneller ist als CPUs.
|
Vorhergehend:Die Zeile "freeze_support()" kann weggelassen werden, wenn das Programm nicht...Nächster:USV-Inline-, interaktive und online interaktive, unterbrechungsfreie Stromversorgungen
|