S_1124_TABS10 Advertisement S_1124_TABS10 Advertisement S_1124_TABS10 Advertisement

Vedci našli nástroj na analýzu toho, ako rozmýšľa neurónová sieť, aby urobili umelú inteligenciu bezpečnejšou

0
Systémy deep learning často robia rozhodnutia v tzv. čiernej skrinke – pre ľudí nie je ľahké pochopiť, prečo si neurónová sieť vybrala jedno riešenie namiesto iného, a tak je ťažké jej dôverovať. Je to preto, že stroje môžu v krátkom čase vykonať milióny testov, dospieť k riešeniu a potom vykonať milióny ďalších testov, aby našli ešte lepšie riešenie. Výskumníci vytvorili softvér DeepXplore, ktorý umožňuje automaticky skontrolovať tisíce až milióny neurónov v hlbokej neurónovej sieti. Chyby v neurónovej sieti odhaľuje tým, že ju trikmi privedie do omylu, aby sa odhalili zriedkavé prípady nesprávneho uvažovania. Pri riešení otázky čiernej skrinky bádatelia z Kolumbijskej univerzity a univerzity Lehigh podhodili systému sériu problémov, s ktorými sa nemohol celkom vyrovnať. Napríklad postupné zvýšenie či zníženie osvetlenia môže spôsobiť, že umelá inteligencia riadiaca vozidlo nebude schopná rozhodnúť o smere jazdy. Stmavená fotografia spôsobila, že jedno zoskupenie neurónov rozhodl ... Zobrazit Galériu

Redakcia

Všetky autorove články
neuronova siet cierna skrinka

Mohlo by vás zaujímať

Mohlo by vás zaujímať