Vedci našli nástroj na analýzu toho, ako rozmýšľa neurónová sieť, aby urobili umelú inteligenciu bezpečnejšou
Systémy deep learning často robia rozhodnutia v tzv. čiernej skrinke – pre ľudí nie je ľahké pochopiť, prečo si neurónová sieť vybrala jedno riešenie namiesto iného, a tak je ťažké jej dôverovať. Je to preto, že stroje môžu v krátkom čase vykonať milióny testov, dospieť k riešeniu a potom vykonať milióny ďalších testov, aby našli ešte lepšie riešenie.
Výskumníci vytvorili softvér DeepXplore, ktorý umožňuje automaticky skontrolovať tisíce až milióny neurónov v hlbokej neurónovej sieti. Chyby v neurónovej sieti odhaľuje tým, že ju trikmi privedie do omylu, aby sa odhalili zriedkavé prípady nesprávneho uvažovania.
Pri riešení otázky čiernej skrinky bádatelia z Kolumbijskej univerzity a univerzity Lehigh podhodili systému sériu problémov, s ktorými sa nemohol celkom vyrovnať. Napríklad postupné zvýšenie či zníženie osvetlenia môže spôsobiť, že umelá inteligencia riadiaca vozidlo nebude schopná rozhodnúť o smere jazdy.
Stmavená fotografia spôsobila, že jedno zoskupenie neurónov rozhodl ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH