|
|
Opslået på 14/11/2024 13.19.15
|
|
|
|

Driver-download:Hyperlink-login er synlig. CUDA-værktøjskassen:Hyperlink-login er synlig. cuDNN:Hyperlink-login er synlig.
Hvad er GPU?
Konceptet med GPU blev foreslået af Nvidia i 1999. Et GPU er en chip på et grafikkort, ligesom en CPU er en chip på et bundkort. Så der var ingen GPU'er på grafikkort før 1999? Selvfølgelig var der det, men ingen navngav det på det tidspunkt, og det tiltrak ikke nok opmærksomhed fra folk, og dets udvikling gik relativt langsomt.
Siden Nvidia foreslog konceptet med GPU, er GPU'er gået ind i en periode med hurtig udvikling. Kort sagt har den gennemgået følgende udviklingsfaser:
1. Kun til grafikrendering er denne funktion GPU'ernes oprindelige hensigt, hvilket kan ses af navnet: Graphic Processing Unit;
2. Senere blev det opdaget, at det var for spildende, at en så kraftfuld enhed som en GPU kun kunne bruges til grafikbehandling, og at den burde bruges til mere arbejde, såsom flydende kommatal-operationer. Hvordan gør man det? At give flydende komma-operationer direkte til GPU'en er ikke muligt, fordi det kun kan bruges til grafikbehandling (på det tidspunkt). Det nemmeste at tænke på er at lave noget bearbejdning af flydende kommatal-operationer, pakke dem i grafiske renderingsopgaver og derefter overdrage dem til GPU'en. Dette er konceptet for GPGPU (General Purpose GPU). Der er dog en ulempe ved dette, nemlig at du skal have en vis viden om grafik, ellers vil du ikke kunne pakke.
3. Derfor foreslog Nvidia konceptet CUDA for at give folk uden forstand på grafik mulighed for at opleve kraften i GPU-computing.
Hvad er CUDA?
CUDA (ComputeUnified Device Architecture) er en computerplatform lanceret af grafikkortproducenten NVIDIA. CUDA er en generel parallel computing-arkitektur lanceret af NVIDIA. Den indeholder CUDA-instruktionssætarkitekturen og en parallel beregningsmotor inde i GPU'en. Du kan udvikle CUDA-programmer ved at bruge et CUDA C-sprog, der ligner C-sproget, hvilket gør det lettere at udnytte GPU'ens kraftige regnekraft i stedet for at pakke computeropgaven ind i en grafikrenderingsopgave og derefter overlade den til GPU'en til behandling.
Med andre ord er CUDA et parallelt beregningsrammeværk lanceret af NVIDIA til sine egne GPU'er, hvilket betyder, at CUDA kun kan køre på NVIDIAs GPU'er og kun kan spille rollen som CUDA, når det computerproblem, der skal løses, er, at det kan beregnes i et stort antal parallelle beregninger.
Bemærk, at ikke alle GPU'er understøtter CUDA.
Hvad er CUDNN?
NVIDIA cuDNN er et GPU-accelereret bibliotek til dybe neurale netværk. Den lægger vægt på ydeevne, brugervenlighed og lav hukommelsesoverhead. NVIDIA cuDNN kan integreres i avancerede maskinlæringsframeworks som Googles Tensorflow, UC Berkeleys populære caffe-software. Simpelt plug-in-design gør det muligt for udviklere at fokusere på at designe og implementere neurale netværksmodeller frem for blot at tune ydeevnen, samtidig med at det muliggør moderne højtydende parallel computing på GPU'er.
Hvis du vil træne en model med en GPU, er cuDNN ikke påkrævet, men det bruges generelt som et accelerationsbibliotek.
Hvad er forholdet mellem CUDA og CUDNN?
CUDA betragtes som et arbejdsbord med mange værktøjer såsom hamre, skruetrækkere osv. cuDNN er et CUDA-baseret deep learning GPU-accelereret bibliotek, hvormed deep learning-beregninger kan udføres på GPU'er. Det svarer til et arbejdsværktøj, for eksempel er det en skruenøgle. Men da CUDA-arbejdsbænken blev købt, gav den ikke en skruenøgle. For at køre et dybt neuralt netværk på CUDA skal du installere cuDNN, ligesom du vil skrue en møtrik og købe en skruenøgle tilbage. Dette gør det muligt for GPU'en at arbejde på dybe neurale netværk, hvilket er meget hurtigere end CPU'er.
|
Tidligere:Linjen "freeze_support()" kan udelades, hvis programmet ikke er...Næste:UPS inline, interaktive og online interaktive uafbrudte strømforsyninger
|