ASUS_042025 ASUS_042025 ASUS_042025

Využitie grafických kariet NVIDIA na AI a Deep Learning

Ako na to
0
K rozmachu Deep Learningu, alebo po našom hlbokého učenia došlo pred niekoľkými rokmi v súvislosti so všeobecnou dostupnosťou potrebného výpočtového výkonu. Napriek tomu, že hovoríme o výpočtovom výkone, máme na mysli možnosti moderných grafických kariet. Na úlohy strojového učenia sa v drvivej väčšine využívajú grafické karty NVIDIA, či už profesionálnej, alebo komerčnej kategórie, pretože tieto karty podporujú najpoužívanejšie knižnice ako sú PyTorch, či TensorFlow.   CPU verzus GPU Strojové učenie využíva neurónové siete na rozdelenie zložitých úloh do vrstiev, kde sa paralelne spracovávajú. Klasické procesory CPU (Central Processing Unit) vzhľadom na určenia a architektúru však nie sú najlepším nástrojom na tieto úlohy. CPU pracuje sekvenčne a paralelizmus realizuje tak, že dokáže rýchlo prepínať medzi viacerými úlohami. Klasický procesor vykonáva programový kód, čiže načíta inštrukcie a postupne jednu po druhej ich vykonáva. Zakaždým pristupuje do pamäte, čo má za následok nízku ... Zobrazit Galériu

Luboslav Lacko

Všetky autorove články
NVIDIA deep learning machine learning strojove ucenie

Mohlo by vás zaujímať

Mohlo by vás zaujímať