Závažné rozhodnutia AI by mali byť preverované. Buducnosť patrí auditovateľnej AI
Systémy s umelou inteligenciou dnes rozhodujú o pôžičkách, lekárskych diagnózach či prepustení na kauciu. No sú to nepriehľadné systémy, navyše náchylné na zaujatosť. Z technických aj obchodných dôvodov nemožno automaticky generovať vysvetlenia väčšiny rozhodnutí umelej inteligencie. Preto by sme sa mali usilovať o externý audit systémov AI zodpovedných za rozhodovacie procesy v závažných veciach. Automatizovaný audit môže permanentne testovať systémy AI a odhaľovať predsudky alebo iné nežiaduce správanie.
Analýza jedného z najpoužívanejších algoritmov na rozhodovanie o prepustení z väzby ProPublica odhalila potenciálne významné skreslenie a nepresnosť. Tvorca však nebol ochotný zverejniť špecifiká svojho proprietárneho algoritmu. Zaujatosť AI bola objavená aj v mnohých ďalších kontextoch, napríklad v systémoch rozpoznávania tváre, ktoré sú menej presné pri identifikácii ľudí tmavej pleti, či v náborových nástrojoch s AI, ktoré diskriminujú ženy.
Regulačné úrady sa preto snažia o tra ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH