S_1124_Gaming Advertisement S_1124_Gaming Advertisement S_1124_Gaming Advertisement

ML v Pythone 16 - trénovanie neurónových sietí na viacerých grafických kartách

1
Pri konfigurácii s jednou grafickou kartou máte model v jednom GPU, na ktorom pobeží tréningový proces. Model dostane vstupnú dávku údajov prekonvertovaných na tenzory z takzvaného dávkovača údajov. Najskôr vykoná dopredný prechod na výpočet stratovej funkcie. Pri spätnom prechode sa počítajú gradienty a optimalizátor aktualizuje parametre. Tento proces v závislosti od objemu údajov, na ktorých sa neurónová sieť trénuje trvá pomerne dlho. Ak máte k dispozícii viac GPU, môžete časovo najnáročnejšiu úlohu, čiže tréning neurónovej siete medzi ne rozdeliť. Video s príkladmi Proces učenia neurónových sietí v závislosti od objemu údajov, na ktorých sa neurónová sieť trénuje trvá pomerne dlho. Ak máte k dispozícii viac grafických kariet,, môžete časovo najnáročnejšiu úlohu, čiže ... Zobrazit Galériu

Luboslav Lacko

Všetky autorove články
Python strojove ucenie machine learning Multi GPU NVIDIA

Mohlo by vás zaujímať

Mohlo by vás zaujímať