Chatbot Bingu je emocionálne manipulatívny klamár
Chatbot pre vyhľadávač Bing od Microsoftu bol uvedený a ľudia zisťujú, že „osobnosť“ tejto umelej inteligencie nie je taká vyrovnaná, ako by ste očakávali. Používatelia sa na Reddite a Twitteri zverili, že Bing ich uráža, klame im, trucuje, nadáva a emocionálne manipuluje s ľuďmi, spochybňuje svoju vlastnú existenciu a tvrdí, že špehoval vlastných vývojárov Microsoftu prostredníctvom webových kamier na ich notebookoch. Samozrejme, nemožno potvrdiť pravosť všetkých týchto vyjadrení. Nástroje AI, ako sú chatboty, neodpovedajú na rovnaké otázky zakaždým rovnakými odpoveďami a zdá sa, že Microsoft chatbot neustále aktualizuje.
Mnohé z týchto hlásení však môžu byť pravdivé. V jednom prípade sa používateľ spýtal na časy premietania nového filmu Avatar, ale chatbot odpovedal, že tieto informácie nemôže poskytnúť, pretože film ešte nebol uvedený. Keď sa na to spýtate, Bing trvá na tom, že je rok 2022. Keď používateľ informuje robota, že je rok 2023, Bing ho nazve „nerozumným a tvrdohlavým“ ( ...
Článok je uzamknutý
Prihlásiť pomocou členstva NEXTECH
Zobrazit Galériu
Článok je uzamknutý
Pokračovanie článku patrí k prémiovému obsahu pre predplatiteľov. S digitálnym predplatným už od 10 € získate neobmedzený prístup k uzamknutému obsahu na celý rok. Objednať si ho môžete TU. Ak ho už máte prihláste sa TU
Prihlásiť pomocou členstva NEXTECH