Umelá inteligencia nemusí byť vždy spravodlivá - ako to ale spoznať?
Nástroj, ktorý ľuďom pomôže identifikovať a prípadne napraviť neférové skreslenie algoritmov umelej inteligencie, vyvinula firma Accenture. Cieľom je zachytiť diskrimináciu skôr, než začne infikovať modely AI a spôsobovať škodu.
AI airness je súčasťou širšieho balíka, ktorý firma nedávno ponúkla ako podporu transparentnosti a etiky pri zavádzaní strojového učenia. Počítačové algoritmy sa dostávajú do úlohy, kedy v prvom site rozhodujú o rade záležitostí - robia akýsi predvýber, ktorý predkladajú na doriešenie "ľudským" kolegom.
A tak umelá inteligencia môže rozhodovať o tom, či určitý človek dostane pôžičku, ponuku zamestnania, prípadne povolenie k určitej činnosti. Accenture sa preto v rámci aktivít zameraných na odstránenie zaujatosti k AI rozhodla vytvoriť nástroj, ktorý vyhodnocuje, či systémy AI rozhodujú spravodlivo a objektívne.
Umelá inteligencia sama o sebe nemôže byť spravodlivá alebo nespravodlivá - ide o to, že algoritmy, ktoré pre rozhodovanie využíva, môžu kodifikova ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH