Quina és la millor targeta gràfica per a l'aprenentatge profund?

What Is Best Graphics Card



Si una CPU és el cervell d’un PC, la GPU és l’ànima. Tot i que la majoria dels ordinadors poden funcionar sense una bona GPU, l’aprenentatge profund no és possible sense un. Això es deu al fet que l’aprenentatge profund requereix operacions complexes com la manipulació de matrius, requisits previs excepcionals de computació i una potència informàtica considerable.

L’experiència és vital per desenvolupar les habilitats necessàries per aplicar l’aprenentatge profund a nous problemes. Una GPU ràpida significa un ràpid guany d’experiència pràctica mitjançant retroalimentació immediata. Les GPU contenen múltiples nuclis per fer front a càlculs paral·lels. També incorporen un ampli ample de banda de memòria per gestionar fàcilment aquesta informació.







La millor opció recomanada per a la millor targeta gràfica per a l’aprenentatge profund és la Nvidia Geforce RTX 2080 Founders Edition. Compreu-lo ara per 1.940 USD a Amazon

Amb això en ment, volem respondre a la pregunta: Quina és la millor targeta gràfica per a IA, aprenentatge automàtic i aprenentatge profund? en revisar diverses targetes gràfiques disponibles actualment el 2021. Targetes revisades:





  1. AMD RX Vega 64
  2. NVIDIA Tesla V100
  3. Nvidia Quadro RTX 8000
  4. GeForce RTX 2080 Ti
  5. NVIDIA Titan RTX

A continuació es mostren els resultats:






AMD RX Vega 64

Radeon RX Vega 64

Característiques

  • Data de llançament: 14 d’agost de 2017
  • Arquitectura Vega
  • Interfície PCI Express
  • Velocitat de rellotge: 1247 MHz
  • Processadors de flux: 4096
  • VRAM: 8 GB
  • Amplada de banda de memòria: 484 GB / s

Revisió

Si no us agraden les GPU NVIDIA o el vostre pressupost no us permet gastar més de 500 dòlars en una targeta gràfica, llavors AMD té una alternativa intel·ligent. Amb una bona quantitat de memòria RAM, un ample de banda de memòria ràpid i processadors de flux més que suficients, el RS Vega 64 d’AMD és molt difícil d’ignorar.



L’arquitectura Vega és una actualització de les anteriors targetes RX. En termes de rendiment, aquest model és proper al GeForce RTX 1080 Ti, ja que tots dos models tenen un VRAM similar. A més, Vega admet mitja precisió nativa (FP16). El ROCm i el TensorFlow funcionen, però el programari no és tan madur com en les targetes gràfiques NVIDIA.

Amb tot, el Vega 64 és una GPU decent per a l’aprenentatge profund i la intel·ligència artificial. Aquest model costa molt per sota dels 500 dòlars americans i fa la feina per a principiants. Tot i això, per a aplicacions professionals, es recomana optar per una targeta NVIDIA.

AMD RX Vega 64 Detalls: Amazon


NVIDIA Tesla V100

Tesla V100

Característiques:

  • Data de llançament: 7 de desembre de 2017
  • Arquitectura NVIDIA Volta
  • Interfície PCI-E
  • Rendiment del tensor de 112 TFLOPS
  • 640 colors tensors
  • 5120 NVIDIA CUDA® Cores
  • VRAM: 16 GB
  • Amplada de banda de memòria: 900 GB / s
  • API de càlcul: CUDA, DirectCompute, OpenCL ™, OpenACC®

Revisió:

La NVIDIA Tesla V100 és un gegant i una de les millors targetes gràfiques per a IA, aprenentatge automàtic i aprenentatge profund. Aquesta targeta està totalment optimitzada i inclou tots els avantatges que necessiteu per a aquest propòsit.

El Tesla V100 té configuracions de memòria de 16 i 32 GB. Amb un munt de VRAM, acceleració d’IA, amplada de banda de memòria elevada i nuclis de tensors especialitzats per a un aprenentatge profund, podeu estar segur que tots els vostres models d’entrenament funcionaran sense problemes i en menys temps. En concret, el Tesla V100 pot oferir 125TFLOPS d’aprenentatge profund tant per a la formació com per a la inferència [3], fet possible per l’arquitectura Volta de NVIDIA.

NVIDIA Tesla V100 Detalls: Amazon , ( 1 )


Nvidia Quadro RTX 8000

Nvidia Quadro Rtx 8000

Característiques:

  • Data de llançament: agost de 2018
  • Arquitectura de Turing
  • 576 colors tensors
  • Colors CUDA: 4.608
  • VRAM: 48 GB
  • Amplada de banda de memòria: 672 GB / s
  • 16.3 TFLOPS
  • Interfície del sistema: PCI-Express

Revisió:

Construït específicament per a l’aritmètica i els càlculs de matrius d’aprenentatge profund, la Quadro RTX 8000 és una targeta gràfica de primera línia. Com que aquesta targeta té una gran capacitat de VRAM (48 GB), aquest model es recomana per investigar models computacionals de grans dimensions. Quan s’utilitza en parell amb NVLink, la capacitat es pot augmentar fins a 96 GB de VRAM. Que és molt!

Una combinació de 72 RT i 576 nuclis tensors per millorar els fluxos de treball dóna com a resultat més de 130 TFLOPS de rendiment. En comparació amb la targeta gràfica més cara de la nostra llista, la Tesla V100, aquest model ofereix potencialment un 50% més de memòria i, tot i així, costa menys. Fins i tot amb memòria instal·lada, aquest model té un rendiment excepcional mentre treballa amb mides de lots més grans en una sola GPU.

Una vegada més, com Tesla V100, aquest model només està limitat pel preu del sostre. Dit això, si voleu invertir en el futur i en informàtica d’alta qualitat, obteniu un RTX 8000. Qui ho sap, és possible que dirigiu la investigació sobre IA. Tesla V100 es basa en l’arquitectura de Turing, on el V100 es basa en l’arquitectura Volta, de manera que Nvidia Quadro RTX 8000 es pot considerar una mica més modern i una mica més potent que el V100.

Nvidia Quadro RTX 8000 Detalls: Amazon


GeForce RTX 2080 Ti

Geforce RTX 2080 Founders Edition

Característiques:

  • Data de llançament: 20 de setembre de 2018
  • Arquitectura GPU de Turing i plataforma RTX
  • Velocitat de rellotge: 1350 MHz
  • Colors CUDA: 4352
  • 11 GB de memòria GDDR6 ultraràpida de nova generació
  • Amplada de banda de memòria: 616 GB / s
  • Potència: 260W

Revisió:

El GeForce RTX 2080 Ti és una opció econòmica ideal per a càrregues de treball de modelatge a petita escala, en lloc de desenvolupaments de formació a gran escala. Això es deu al fet que té una memòria GPU més petita per targeta (només 11 GB). Les limitacions d’aquest model es fan més evidents en entrenar alguns models moderns de PNL. Tot i això, això no vol dir que aquesta carta no pugui competir. El disseny del ventilador del RTX 2080 permet configuracions del sistema molt més denses, fins a quatre GPU en una sola estació de treball. A més, aquest model entrena xarxes neuronals a un 80% de la velocitat del Tesla V100. Segons els paràmetres de rendiment de l’aprenentatge profund de LambdaLabs, en comparació amb Tesla V100, el RTX 2080 suposa un 73% la velocitat de FP2 i un 55% la velocitat de FP16.

Mentrestant, aquest model costa gairebé set vegades menys que un Tesla V100. Tant des del punt de vista del preu com del rendiment, el GeForce RTX 2080 Ti és una gran GPU per a l’aprenentatge profund i el desenvolupament d’intel·ligència artificial.

Detalls del GeForce RTX 2080 Ti: Amazon


NVIDIA Titan RTX

Gràfics NVIDIA Titan RTX

Característiques:

  • Data de llançament: 18 de desembre de 2018
  • Desenvolupat per l'arquitectura NVIDIA Turing ™ dissenyada per a IA
  • 576 nuclis tensors per a l’acceleració de la IA
  • 130 teraFLOPS (TFLOPS) per a formació en aprenentatge profund
  • Colors CUDA: 4608
  • VRAM: 24 GB
  • Amplada de banda de memòria: 672 GB / s
  • Font d'alimentació recomanada de 650 watts

Revisió:

La NVIDIA Titan RTX és una altra GPU de gamma mitjana que s’utilitza per a operacions d’aprenentatge profund complexes. Els 24 GB de VRAM d’aquest model són suficients per treballar amb la majoria de mides de lots. Tanmateix, si voleu formar models més grans, vinculeu aquesta targeta amb el pont NVLink per tenir efectivament 48 GB de VRAM. Aquesta quantitat seria suficient fins i tot per als models de gran PNL de transformadors. A més, Titan RTX permet entrenar la velocitat completa de precisió mixta per als models (és a dir, FP 16 juntament amb l'acumulació de FP32). Com a resultat, aquest model funciona aproximadament entre un 15 i un 20 per cent més ràpid en operacions en què s’utilitzen nuclis tensors.

Una de les limitacions del NVIDIA Titan RTX és el disseny de dos ventiladors. Això dificulta configuracions del sistema més complexes perquè no es pot empaquetar en una estació de treball sense modificacions substancials al mecanisme de refrigeració, cosa que no es recomana.

En general, Titan és una GPU excel·lent per a qualsevol propòsit per a qualsevol tasca d'aprenentatge profund. En comparació amb altres targetes gràfiques d’ús general, és certament car. És per això que aquest model no es recomana als jugadors. No obstant això, probablement els investigadors que utilitzin models d’aprenentatge profund complex apreciïn la VRAM i l’augment del rendiment. El preu del Titan RTX és significativament inferior al V100 presentat anteriorment i seria una bona opció si el vostre pressupost no permet que els preus del V100 facin un aprenentatge profund o la vostra càrrega de treball no necessiti més que el Titan RTX ( veure punts de referència interessants )

Detalls de NVIDIA Titan RTX: Amazon


Triar la millor targeta gràfica per a IA, aprenentatge automàtic i aprenentatge profund

Les tasques d’IA, aprenentatge automàtic i aprenentatge profund processen munts de dades. Aquestes tasques poden ser molt exigents per al vostre maquinari. A continuació es mostren les funcions que cal tenir en compte abans de comprar una GPU.

Colors

Com a regla general, com més gran sigui el nombre de nuclis, major serà el rendiment del vostre sistema. També s’ha de tenir en compte el nombre de nuclis, sobretot si es tracta d’una gran quantitat de dades. NVIDIA ha anomenat els seus nuclis CUDA, mentre que AMD crida als processadors de flux de nuclis. Busqueu el màxim nombre de nuclis de processament que us permetrà el vostre pressupost.

Potència de processament

La potència de processament d'una GPU depèn del nombre de nuclis que hi ha al sistema multiplicat per les velocitats de rellotge a les quals executeu els nuclis. Com més gran sigui la velocitat i més gran sigui el nombre de nuclis, major serà la potència de processament a la qual la vostra GPU pot calcular dades. Això també determina la rapidesa amb què el vostre sistema realitzarà una tasca.

VRAM

La memòria RAM de vídeo o VRAM és una mesura de la quantitat de dades que el vostre sistema pot gestionar alhora. Un VRAM superior és vital si esteu treballant amb diversos models de visió per ordinador o realitzant qualsevol competició de CV Kaggle. El VRAM no és tan important per a la PNL ni per treballar amb altres dades categòriques.

Amplada de banda de memòria

L’amplada de banda de la memòria és la velocitat amb què es llegeixen o s’emmagatzemen les dades a la memòria. En termes senzills, és la velocitat del VRAM. Mesurat en GB / s, més amplada de banda de memòria significa que la targeta pot treure més dades en menys temps, cosa que es tradueix en un funcionament més ràpid.

Refredament

La temperatura de la GPU pot suposar un important coll d’ampolla pel que fa al rendiment. Les GPU modernes augmenten la seva velocitat al màxim mentre s’executa un algorisme. Però tan bon punt s’arriba a un determinat llindar de temperatura, la GPU disminueix la velocitat de processament per protegir-se contra el sobreescalfament.

El disseny del ventilador de ventilador per a refrigeradors d’aire empeny l’aire fora del sistema mentre els ventiladors que no són ventiladors aspiren aire. En l’arquitectura on es col·loquen diverses GPU l’una al costat de l’altra, els ventiladors que no ventilen s’escalfaran més. Si utilitzeu refrigeració per aire en una configuració amb 3 a 4 GPU, eviteu els ventiladors que no siguin ventiladors.

La refrigeració per aigua és una altra opció. Tot i que és car, aquest mètode és molt més silenciós i garanteix que fins i tot les configuracions de GPU més resistents es mantinguin fresques durant tot el funcionament.

Conclusió

Per a la majoria d’usuaris que incursionen en l’aprenentatge profund, el RTX 2080 Ti o el Titan RTX proporcionaran la millor experiència. L’únic inconvenient de l’RTX 2080 Ti és la mida VRAM limitada d’11 GB. L’entrenament amb mides de lots més grans permet als models entrenar-se amb més rapidesa i precisió, estalviant molt del temps de l’usuari. Això només és possible si teniu GPU Quadro o un TITAN RTX. L’ús de mitja precisió (FP16) permet que els models s’adaptin a les GPU amb una mida VRAM insuficient [2]. Per als usuaris més avançats, però, Tesla V100 és on heu d’invertir. Aquesta és la nostra millor opció per obtenir la millor targeta gràfica per a IA, aprenentatge automàtic i aprenentatge profund. Això és tot per a aquest article. Esperem que us hagi agradat. Fins la pròxima vegada!

Referències

  1. Millors GPU per a IA, aprenentatge automàtic i aprenentatge profund el 2020
  2. Millor GPU per a l’aprenentatge profund el 2020
  3. PLATAFORMA NVIDIA AI INFERENCE: salts gegants de rendiment i eficiència per als serveis AI, des del centre de dades fins a la xarxa Edge
  4. GPU NVIDIA V100 TENSOR CORE
  5. Titan RTX Deep Learning Benchmarks