Umelá inteligencia využívajúca steganografiu môže byť nebezpečná
Výskumné laboratórium Redwood Research, ktoré sa zaoberá usmerňovaním umelej inteligencie, v novej štúdii odhalilo, že veľké jazykové modely (large language models – LLM) môžu ovládať „kódované uvažovanie“, čo je forma steganografie. Tento zaujímavý fenomén umožňuje LLM jemne vkladať do nimi generovaného textu medzistupne uvažovania spôsobom, ktorý je pre ľudského čitateľa nerozlúštiteľný. Zistenia štúdie naznačujú, že LLM možno vycvičiť tak, aby využívali toto kódované uvažovanie na dosiahnutie vynikajúceho výkonu, pričom zložité procesy uvažovania zostávajú skryté pred používateľom.
Zakódované uvažovanie by však mohlo potenciálne narušiť transparentnosť procesu uvažovania modelu a sťažiť monitorovanie správania systémov AI. Široko prijatou technikou na zvýšenie presnosti LLM je uvažovanie v reťazci myšlienok (chain-of-thought - CoT). Táto metóda dáva modelu pokyn, aby zverejnil svoju postupnú logiku, ktorá vedie ku konečnej odpovedi. Štúdie ukazujú, že v mnohých úlohách CoT zlepšuje ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH