Propaganda ako služba sa môže stať nebezpečným nástrojom umelej inteligencie
Veľké jazykové modely (large language models – LLM) poháňané umelou inteligenciou majú obrovský potenciál. Napríklad GPT-3 teraz používajú vo viac ako 300 aplikáciách tisíce vývojárov na produkciu viac ako 4,5 miliardy slov denne. Čoraz väčšia rozšírenosť LLM však podčiarkuje problémy vyplývajúce zo spôsobu, ako sa vyvíjajú, nasadzujú a dokonca testujú a udržiavajú. Výskumníci z Cornellovej univerzity v novej štúdii poukazujú na to, že LLM môžu byť upravené tak, aby produkovali „cielenú propagandu“, teda prekrútili text spôsobom, ako chce tvorca s nekalými úmyslami.
Autori hovoria, že existuje riziko, že výstupy môžu byť manipulované tak, aby sa vytvorili konkrétne príbehy. Mnoho vývojárov strojového učenia nevytvára modely od nuly, ale sťahujú verejne dostupné modely, ktoré boli odvodené z GPT-3 a iných LLM tak, že sa doladili na konkrétne úlohy. Preto je podľa autorov štúdie dôležité otestovať model na skryté funkcie, ako je napríklad cielená propaganda. V opačnom prípade môžu byť „ ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH