Zverejnenie nového modelu AI generátora textov by mohlo byť nebezpečné
Tvorcovia systému AI, ktorý môže písať spravodajské články a beletriu, nazývaného aj textový deepfake (slovo deepfake vzniklo spojením výrazov deep learning a fake a označuje technológiu na vytváranie falošných obrázkov pomocou umelej inteligencie), urobili nezvyčajný krok, keď odmietli zverejniť výsledky svojho výskumu, pretože sa obávajú možného zneužitia.
OpenAI, nezisková organizácia, ktorú podporuje okrem iných aj Elon Musk, tvrdí, že jej nový model AI, nazvaný GPT2, je taký dobrý a riziko jeho záškodného použitia je také vysoké, že poruší bežnú prax a nesprístupní celý výskum verejnosti v snahe poskytnúť viac času na diskusiu o dôsledkoch tejto technológie.
Jadrom GPT2 je generátor textov. Systému AI sa dodávajú texty v rozsahu od niekoľkých slov po celú stránku a potom ho požiadajú, aby napísal niekoľko ďalších viet na základe jeho predpovede, čo by malo nasledovať. Systém vraj presahuje hranice toho, čo sa považovalo za možné, a to z hľadiska kvality výstupu, ako aj širokej š ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH