AI našla spôsob ako sa nabúrať do iných AI chatbotov
Napriek ubezpečeniam od spoločností, ktoré AI chatboty vyrábajú, používatelia neustále prichádzajú s novými spôsobmi, ako obísť ich bezpečnostné a obsahové filtre pomocou starostlivo formulovaných výziev. Tento proces sa bežne označuje ako „jailbreak“ a dá sa použiť na to, aby systémy AI odhalili súkromné informácie, vložili škodlivý kód alebo sa vyhli filtrom, ktoré bránia generovaniu nezákonného alebo urážlivého obsahu.
Tím výskumníkov teraz tvrdí, že vycvičil nástroj AI na generovanie nových metód na obchádzanie obrany iných chatbotov, ako aj na vytváranie škodlivého softvéru, ktorý sa dá zaviesť do zraniteľných systémov. Pomocou rámca, ktorý nazývajú Masterkey, dokázali výskumníci efektívne automatizovať tento proces hľadania nových zraniteľností v systémoch založených na veľkom jazykovom modeli (Large Language Model – LLM), ako sú ChatGPT, Bing Chat od Microsoftu a Google Bard. Informovali o tom v príspevku uverejnenom na predtlačovom serveri arXiv.
Používanie jailbreaku pri cha ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH