ML v Pythone 16 - trénovanie neurónových sietí na viacerých grafických kartách
Pri konfigurácii s jednou grafickou kartou máte model v jednom GPU, na ktorom pobeží tréningový proces. Model dostane vstupnú dávku údajov prekonvertovaných na tenzory z takzvaného dávkovača údajov. Najskôr vykoná dopredný prechod na výpočet stratovej funkcie. Pri spätnom prechode sa počítajú gradienty a optimalizátor aktualizuje parametre. Tento proces v závislosti od objemu údajov, na ktorých sa neurónová sieť trénuje trvá pomerne dlho. Ak máte k dispozícii viac GPU, môžete časovo najnáročnejšiu úlohu, čiže tréning neurónovej siete medzi ne rozdeliť.
Video s príkladmi
Proces učenia neurónových sietí v závislosti od objemu údajov, na ktorých sa neurónová sieť trénuje trvá pomerne dlho. Ak máte k dispozícii viac grafických kariet,, môžete časovo najnáročnejšiu úlohu, čiže ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH