|
|
Publisert på 14.11.2024 13:19:15
|
|
|
|

Drivernedlasting:Innloggingen med hyperkoblingen er synlig. CUDA-verktøykassen:Innloggingen med hyperkoblingen er synlig. cuDNN:Innloggingen med hyperkoblingen er synlig.
Hva er GPU?
Konseptet med GPU ble foreslått av Nvidia i 1999. En GPU er en brikke på et grafikkort, akkurat som en CPU er en brikke på et hovedkort. Så det fantes ingen GPU-er på grafikkort før 1999? Selvfølgelig var det det, men ingen ga det navn på den tiden, og det tiltrakk seg ikke nok oppmerksomhet fra folk, og utviklingen var relativt langsom.
Siden Nvidia foreslo konseptet GPU, har GPU-er gått inn i en periode med rask utvikling. Kort sagt har den gått gjennom følgende utviklingsstadier:
1. Kun for grafikkrendering er denne funksjonen GPU-enes opprinnelige hensikt, noe som kan sees ut fra navnet: Graphic Processing Unit;
2. Senere ble det oppdaget at det var for sløsing for en så kraftig enhet som en GPU å kun brukes til grafikkprosessering, og at den burde brukes til mer arbeid, som flyttallsoperasjoner. Hvordan gjøre det? Å gi flyttallsoperasjoner direkte til GPU-en er ikke mulig fordi det kun kan brukes til grafikkbehandling (på det tidspunktet). Det enkleste å tenke på er å gjøre noe bearbeiding av flyttallsoperasjoner, pakke dem inn i grafikkrenderingsoppgaver, og deretter overlevere dem til GPU-en. Dette er konseptet med GPGPU (General Purpose GPU). Det er imidlertid en ulempe med dette, nemlig at du må ha noe kunnskap om grafikk, ellers vil du ikke kunne pakke.
3. Derfor, for å la folk som ikke forstår grafikk oppleve kraften i GPU-beregning, foreslo Nvidia konseptet CUDA.
Hva er CUDA?
CUDA (ComputeUnified Device Architecture) er en dataplattform lansert av grafikkortprodusenten NVIDIA. CUDA er en generell parallell databehandlingsarkitektur lansert av NVIDIA. Den inneholder CUDA-instruksjonssettarkitekturen og en parallell beregningsmotor inne i GPU-en. Du kan utvikle CUDA-programmer ved å bruke et CUDA C-språk som ligner på C-språket, noe som gjør det enklere å bruke GPU-ens kraftige regnekraft, i stedet for å pakke dataoppgaven inn i en grafikkrenderingsoppgave og deretter overlevere den til GPU-en for behandling.
Med andre ord er CUDA et parallelt databehandlingsrammeverk lansert av NVIDIA for sine egne GPU-er, noe som betyr at CUDA kun kan kjøre på NVIDIA sine GPU-er, og kun kan spille rollen som CUDA når beregningsproblemet som skal løses er at det kan beregnes i et stort antall parallelle beregninger.
Merk at ikke alle GPU-er støtter CUDA.
Hva er CUDNN?
NVIDIA cuDNN er et GPU-akselerert bibliotek for dype nevrale nettverk. Den legger vekt på ytelse, brukervennlighet og lav minneoverhead. NVIDIA cuDNN kan integreres i avanserte maskinlæringsrammeverk som Googles Tensorflow, UC Berkeleys populære caffe-programvare. Enkel plug-in-design gjør det mulig for utviklere å fokusere på å designe og implementere nevrale nettverksmodeller i stedet for bare å justere ytelsen, samtidig som det muliggjør moderne høyytelses parallell databehandling på GPU-er.
Hvis du vil trene en modell med GPU, er ikke cuDNN nødvendig, men det brukes vanligvis som et akselerasjonsbibliotek.
Hva er forholdet mellom CUDA og CUDNN?
CUDA blir sett på som en arbeidsbenk med mange verktøy som hammere, skrutrekkere osv. cuDNN er et CUDA-basert deep learning GPU-akselerert bibliotek, hvor dyp læringsberegninger kan utføres på GPU-er. Det tilsvarer et verktøy for arbeid, for eksempel er det en skiftenøkkel. Men da CUDA-arbeidsbenken ble kjøpt, var det ikke noe hinder. For å kjøre et dypt nevralt nettverk på CUDA, må du installere cuDNN, akkurat som du vil skru en mutter og kjøpe en skiftenøkkel tilbake. Dette gjør at GPU-en kan jobbe på dype nevrale nettverk, noe som er mye raskere enn CPU-er.
|
Foregående:Linjen "freeze_support()" kan utelates hvis programmet ikke er...Neste:UPS inline, interaktive og online interaktive, avbruddsfrie strømforsyninger
|