Umelej inteligenci pustili Twitter a stala sa vulgárnym sexistickým nacistom
Spoločnosť Microsoft spustila experiment a na sociálne siete vypustila umelú inteligenciu, chatovacieho robota Taya, ktorý mal viesť s ľuďmi rozhovory a pochopiť tak ľudskú konverzáciu.
Robot Tay sa mal zamerať na skupinu mladých amerických užívateľov Twitteru vo veku od 18-24 rokov, ktorí predstavujú najväčšiu skupinu používateľov Twitteru prostredníctvom telefónu či tabletu.
Experiment sa musel ukončiť po necelom dni, pretože z robota sa stal vulgárny nacista, plný nenávisti voči feministkám, či menšinám. Jeho príspevky boli vulgárne, sexistické, rasistické a xenofóbne. Robot totiž vychádzal zo správ od používateľov Twitteru, ktorí ho podobnými nezmyslami „kŕmili“ od začiatku experimentu, preto sa učil práve z nich. Firma Microsoft v úvode tieto príspevky robota mazala, no po niekoľkých hodinách usúdila, že Taya z Twitteru stiahne a naučí ho podobným útokom čeliť, tak aby neboli v rozpore so zásadami a hodnotami spoločnosti Microsoft. Firma sa za nevydarený experiment ospravedlnila ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH