|
|
Julkaistu 14.11.2024 13.19.15
|
|
|
|

Kuljettajan lataus:Hyperlinkin kirjautuminen on näkyvissä. CUDA-työkalupakki:Hyperlinkin kirjautuminen on näkyvissä. cuDNN:Hyperlinkin kirjautuminen on näkyvissä.
Mikä on GPU?
GPU-konseptin esitti Nvidia vuonna 1999. GPU on piiri näytönohjaimessa, aivan kuten prosessori on piiri emolevyllä. Eli näytönohjaimissa ei ollut näytönohjaimia ennen vuotta 1999? Tietenkin oli, mutta kukaan ei nimennyt sitä tuolloin, eikä se herättänyt tarpeeksi huomiota ihmisiltä, ja sen kehitys oli suhteellisen hidasta.
Siitä lähtien kun Nvidia ehdotti GPU-konseptia, GPU:t ovat siirtyneet nopean kehityksen vaiheeseen. Lyhyesti sanottuna se on käynyt läpi seuraavat kehitysvaiheet:
1. Tämä toiminto on GPU:iden alkuperäinen tarkoitus vain grafiikkarenderöintiin, mikä näkyy nimestä: Graphic Processing Unit;
2. Myöhemmin havaittiin, että se oli liian tuhlaavaa niin tehokkaalle laitteelle kuin GPU pelkästään grafiikkaprosessointiin, ja sitä tulisi käyttää enemmän työhön, kuten liukulukutoimintoihin. Miten se tehdään? Liukulukutoimintojen antaminen suoraan GPU:lle ei ole mahdollista, koska sitä voidaan käyttää vain grafiikkaprosessointiin (tuolloin). Helpoin asia on käsitellä liukulukuoperaatioita, paketoida ne grafiikkarenderöintitehtäviin ja luovuttaa ne GPU:lle. Tämä on GPGPU:n (General Purpose GPU) käsite. Tässä on kuitenkin haittapuoli: sinun täytyy hallita jonkin verran grafiikan osaamista, muuten et osaa pakata.
3. Siksi, jotta grafiikkaa ymmärtämättömät voisivat kokea GPU-laskennan tehon, Nvidia ehdotti CUDA-konseptia.
Mikä on CUDA?
CUDA (ComputeUnified Device Architecture) on näytönohjainvalmistajan NVIDIA:n lanseeraama laskentaalusta. CUDA on NVIDIA:n lanseeraama yleiskäyttöinen rinnakkaislaskentaarkkitehtuuri. Se sisältää CUDA-käskykantaarkkitehtuurin ja rinnakkaislaskentamoottorin GPU:n sisällä. Voit kehittää CUDA-ohjelmia käyttämällä CUDA C -kieltä, joka on samankaltainen kuin C-kieli, mikä helpottaa GPU:n tehokkaan laskentatehon hyödyntämistä sen sijaan, että laskentatehtävä pakattaisiin grafiikkarenderöintitehtävään ja luovutettaisiin GPU:lle käsiteltäväksi.
Toisin sanoen CUDA on NVIDIA:n omille GPU:ille lanseeraama rinnakkaislaskentakehys, mikä tarkoittaa, että CUDA voi toimia vain NVIDIA:n GPU:illa ja toimia CUDA:n roolissa vain, kun ratkaistava laskentaongelma on se, että se voidaan laskea suuressa määrässä rinnakkaisia laskelmia.
Huomaa, että kaikki GPU:t eivät tue CUDA:ta.
Mikä on CUDNN?
NVIDIA cuDNN on GPU-kiihdytetty kirjasto syville neuroverkoille. Se korostaa suorituskykyä, helppokäyttöisyyttä ja vähäistä muistikuormaa. NVIDIA cuDNN voidaan integroida korkeamman tason koneoppimiskehyksiin, kuten Googlen Tensorflow'hun, UC Berkeleyn suosittuun caffe-ohjelmistoon. Yksinkertainen plug-in-suunnittelu mahdollistaa kehittäjien keskittymisen neuroverkkomallien suunnitteluun ja toteuttamiseen pelkän suorituskyvyn säätämisen sijaan, samalla kun mahdollistavat korkean suorituskyvyn modernin rinnakkaislaskennan GPU:illa.
Jos haluat kouluttaa mallia GPU:lla, cuDNN ei ole pakollinen, mutta sitä käytetään yleensä kiihdytyskirjastona.
Mikä on CUDA:n ja CUDNN:n välinen suhde?
CUDA:ta pidetään työpöytänä, jossa on monia työkaluja, kuten vasaroita, ruuvimeisseleitä jne. cuDNN on CUDA-pohjainen syväoppimisen GPU-kiihdytetty kirjasto, jonka avulla syväoppimisen laskelmia voidaan suorittaa GPU:lla. Se vastaa työvälinettä, esimerkiksi jakoavainta. Mutta kun CUDA-työpöytä ostettiin, se ei tarjonnut mutkia. Jos haluat ajaa syvää neuroverkkoa CUDA:lla, sinun täytyy asentaa cuDNN, aivan kuten haluat ruuvata mutterin ja ostaa jakoavaimen takaisin. Tämä mahdollistaa GPU:n toiminnan syvissä neuroverkoissa, mikä on paljon nopeampaa kuin CPU:t.
|
Edellinen:"freeze_support()"-rivi voidaan jättää pois, jos ohjelma ei ole...Seuraava:UPS:n inline-, interaktiiviset ja online-interaktiiviset keskeytymättömät virtalähteet
|