S_1124_TABS10 Advertisement S_1124_TABS10 Advertisement S_1124_TABS10 Advertisement

Propaganda ako služba sa môže stať nebezpečným nástrojom umelej inteligencie

Technológie
0
Veľké jazykové modely (large language models – LLM) poháňané umelou inteligenciou majú obrovský potenciál. Napríklad GPT-3 teraz používajú vo viac ako 300 aplikáciách tisíce vývojárov na produkciu viac ako 4,5 miliardy slov denne. Čoraz väčšia rozšírenosť LLM však podčiarkuje problémy vyplývajúce zo spôsobu, ako sa vyvíjajú, nasadzujú a dokonca testujú a udržiavajú. Výskumníci z Cornellovej univerzity v novej štúdii poukazujú na to, že LLM môžu byť upravené tak, aby produkovali „cielenú propagandu“, teda prekrútili text spôsobom, ako chce tvorca s nekalými úmyslami. Autori hovoria, že existuje riziko, že výstupy môžu byť manipulované tak, aby sa vytvorili konkrétne príbehy. Mnoho vývojárov strojového učenia nevytvára modely od nuly, ale sťahujú verejne dostupné modely, ktoré boli odvodené z GPT-3 a iných LLM tak, že sa doladili na konkrétne úlohy. Preto je podľa autorov štúdie dôležité otestovať model na skryté funkcie, ako je napríklad cielená propaganda. V opačnom prípade môžu byť „ ... Zobrazit Galériu

Redakcia

Všetky autorove články

Mohlo by vás zaujímať

Mohlo by vás zaujímať