Umelá inteligencia v simulácii vojny spustila jadrový útok
Výskumníci uskutočnili simulácie medzinárodných konfliktov s piatimi rôznymi umelými inteligenciami a zistili, že tieto programy mali tendenciu stupňovať vojnu, niekedy aj z ničoho nič. V niekoľkých prípadoch modely umelej inteligencie nasadili jadrové zbrane bez varovania. Dokument s názvom Escalation Risks from Language Models in Military and Diplomatic Decision-Making je spoločným dielom výskumníkov z Georgia Institute of Technology, Stanford University, Northeastern University a Hoover Wargaming and Crisis Initiative a v súčasnosti čaká na recenzovanie.
Napriek tomu ide o zaujímavý experiment, ktorý spochybňuje unáhlenú snahu Pentagónu a dodávateľov obranných služieb o nasadzovanie veľkých jazykových modelov (LLM) do rozhodovacieho procesu. Môže sa zdať zvláštne, že by vojenskí velitelia uvažovali o používaní LLM, ako je ChatGPT, na rozhodovanie o živote a smrti, ale deje sa to. Minulý rok spoločnosť Palantir predviedla softvérový balík, ktorý ukázal, ako by to mohlo vyzerať.
Na ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH