S_1124_TABS10 Advertisement S_1124_TABS10 Advertisement S_1124_TABS10 Advertisement

Využitie grafických kariet NVIDIA na AI a Deep Learning

0
K rozmachu Deep Learningu, alebo po našom hlbokého učenia došlo pred niekoľkými rokmi v súvislosti so všeobecnou dostupnosťou potrebného výpočtového výkonu. Napriek tomu, že hovoríme o výpočtovom výkone, máme na mysli možnosti moderných grafických kariet. Na úlohy strojového učenia sa v drvivej väčšine využívajú grafické karty NVIDIA, či už profesionálnej, alebo komerčnej kategórie, pretože tieto karty podporujú najpoužívanejšie knižnice ako sú PyTorch, či TensorFlow.   CPU verzus GPU Strojové učenie využíva neurónové siete na rozdelenie zložitých úloh do vrstiev, kde sa paralelne spracovávajú. Klasické procesory CPU (Central Processing Unit) vzhľadom na určenia a architektúru však nie sú najlepším nástrojom na tieto úlohy. CPU pracuje sekvenčne a paralelizmus realizuje tak, že dokáže rýchlo prepínať medzi viacerými úlohami. Klasický procesor vykonáva programový kód, čiže načíta inštrukcie a postupne jednu po druhej ich vykonáva. Zakaždým pristupuje do pamäte, čo má za následok nízku ... Zobrazit Galériu

Luboslav Lacko

Všetky autorove články
NVIDIA deep learning machine learning strojove ucenie

Mohlo by vás zaujímať

Mohlo by vás zaujímať