ACER_112024 ACER_112024 ACER_112024

Umelá inteligencia využívajúca steganografiu môže byť nebezpečná

Spoločenské dopady
0
Výskumné laboratórium Redwood Research, ktoré sa zaoberá usmerňovaním umelej inteligencie, v novej štúdii odhalilo, že veľké jazykové modely (large language models – LLM) môžu ovládať „kódované uvažovanie“, čo je forma steganografie. Tento zaujímavý fenomén umožňuje LLM jemne vkladať do nimi generovaného textu medzistupne uvažovania spôsobom, ktorý je pre ľudského čitateľa nerozlúštiteľný. Zistenia štúdie naznačujú, že LLM možno vycvičiť tak, aby využívali toto kódované uvažovanie na dosiahnutie vynikajúceho výkonu, pričom zložité procesy uvažovania zostávajú skryté pred používateľom. Zakódované uvažovanie by však mohlo potenciálne narušiť transparentnosť procesu uvažovania modelu a sťažiť monitorovanie správania systémov AI. Široko prijatou technikou na zvýšenie presnosti LLM je uvažovanie v reťazci myšlienok (chain-of-thought - CoT). Táto metóda dáva modelu pokyn, aby zverejnil svoju postupnú logiku, ktorá vedie ku konečnej odpovedi. Štúdie ukazujú, že v mnohých úlohách CoT zlepšuje ... Zobrazit Galériu

Redakcia

Všetky autorove články

Mohlo by vás zaujímať

Mohlo by vás zaujímať