Využitie grafických kariet NVIDIA na AI a Deep Learning
K rozmachu Deep Learningu, alebo po našom hlbokého učenia došlo pred niekoľkými rokmi v súvislosti so všeobecnou dostupnosťou potrebného výpočtového výkonu. Napriek tomu, že hovoríme o výpočtovom výkone, máme na mysli možnosti moderných grafických kariet. Na úlohy strojového učenia sa v drvivej väčšine využívajú grafické karty NVIDIA, či už profesionálnej, alebo komerčnej kategórie, pretože tieto karty podporujú najpoužívanejšie knižnice ako sú PyTorch, či TensorFlow.
CPU verzus GPU
Strojové učenie využíva neurónové siete na rozdelenie zložitých úloh do vrstiev, kde sa paralelne spracovávajú. Klasické procesory CPU (Central Processing Unit) vzhľadom na určenia a architektúru však nie sú najlepším nástrojom na tieto úlohy. CPU pracuje sekvenčne a paralelizmus realizuje tak, že dokáže rýchlo prepínať medzi viacerými úlohami. Klasický procesor vykonáva programový kód, čiže načíta inštrukcie a postupne jednu po druhej ich vykonáva. Zakaždým pristupuje do pamäte, čo má za následok nízku ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH