Umelá inteligencia už dokáže z naskenovaných “myšlienok” vytvoriť video
Výskumníci z Národnej univerzity v Singapure a Čínskej univerzity v Hongkongu použili generatívnu umelú inteligenciu na rekonštrukciu „vysokokvalitného“ videa zo záznamov mozgovej aktivity. Využili údaje z fMRI a textovo-obrazový AI model Stable Diffusion na vytvorenie modelu s názvom MinD-Video, ktorý generuje video zo snímania aktivít mozgu. Dokument opisujúci túto prácu bol zverejnený na pretlačovom serveri arXiv. Ich demonštrácia na webovej stránke ukazuje paralelu medzi videami, ktoré sledovali subjekty, a videami generovanými umelou inteligenciou, vytvorenými na základe ich mozgovej aktivity.
Rozdiely medzi týmito dvoma videami sú nepatrné a väčšinou obsahujú podobné predmety a farebné palety. Výskumníci definujú MinD-Video ako „dvojmodulový kanál navrhnutý na preklenutie medzery medzi dekódovaním obrazu a videa mozgom“. Na trénovanie systému použili verejne dostupný súbor údajov obsahujúci videá a údaje z fMRI mozgu testovaných subjektov, ktoré ich sledovali.
„Dvojmodulový k ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH