Budú roboty rozlišovať, čo je dobré a čo zlé? Vedci ich to chcú naučiť
Vedci skúmajú, ako naučiť stroje robiť morálne rozhodnutia. Tie definujú ako schopnosť učiť sa, argumentovať a diskutovať o zákonoch a spoločenských zvykoch, ktoré dodržiavajú ľudia. Otázne je, či roboty a umelá inteligencia dokáže tieto schopnosti emulovať a trénovať.
Vedci to chcú zistiť pomocou počítačového modelu, ktorý by mal simulovať morálne zmýšľanie ľudí. Tento systém by mal poskytnúť robotom určitú flexibilitu a možnosť zmeniť svoje správanie, ak sa objaví morálna dilema.
Príkladom môže byť medický robot, ktorý dostane príkaz, aby doniesol na zadané miesto lekárske potreby. Ak však po ceste nájde zraneného vojaka, môže túto informáciu zanalyzovať a upraviť svoje správanie - napríklad poskytnúť prvú pomoc a potom pokračovať v pôvodnom príkaze. Vedci chcú vytvoriť komplexný morálny systém, ktorý by dokázal analyzovať viacero potenciálnych rozhodnutí a vybral to najlepšie.
Zdroj: recode.net
...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH