Ľudstvo má problém, nové modely AI dokážu identifikovať emócie
Google hovorí, že jeho nová rodina modelov AI má schopnosť „identifikovať“ emócie. Rodina modelov PaliGemma 2 dokáže analyzovať obrázky, čo umožňuje AI generovať titulky a odpovedať na otázky o ľuďoch, ktorých „vidí“ na fotografiách. „PaliGemma 2 generuje podrobné, kontextovo relevantné titulky k obrázkom,“ napísal Google v blogovom príspevku, „pričom prekračuje jednoduchú identifikáciu objektu a opisuje akcie, emócie a celkový príbeh scény.“
Rozpoznávanie emócií nefunguje ihneď, model PaliGemma 2 musí byť na tento účel doladený. Odborníci sú však znepokojení vyhliadkou na verejne dostupný detektor emócií. Už roky sa startupy aj technologické giganty pokúšajú vybudovať AI, ktorá dokáže rozpoznať emócie. Niektorí dokonca tvrdia, že to už dosiahli.
Väčšina detektorov emócií vychádza z ranej práce psychológa Paula Ekmana, ktorý teoretizoval, že ľudia vyjadrujú šesť základných spoločných emócií: hnev, prekvapenie, znechutenie, radosť, strach a smútok. Následné štúdie však spochybňujú Ekmanovu hypotézu a dokazujú, že existujú veľké rozdiely v spôsobe, ako ľudia z rôznych prostredí vyjadrujú, ako sa cítia.
Niektorí odborníci hovoria, že detekcia emócií nie je vo všeobecnosti možná, pretože ľudia prežívajú emócie komplexným spôsobom. Dôsledkom je, že systémy na detekciu emócií majú tendenciu byť nespoľahlivé a zaujaté predpokladmi ich návrhárov. Novšie práce naznačujú, že modely emocionálnej analýzy priraďujú viac negatívnych emócií tváram černochov ako tváram belochov.
Google tvrdí, že vykonal „rozsiahle testovanie“ na vyhodnotenie demografických predsudkov v PaliGemma 2 a zistil „nízke úrovne toxicity a vulgárnosti“ v porovnaní s priemyselnými štandardmi. Spoločnosť však neposkytla úplný zoznam referenčných hodnôt, ktoré použila, ani neuviedla, aké typy testov boli vykonané. Jediným benchmarkom, ktorý Google zverejnil, je FairFace, súbor desiatok tisíc fotografií hláv ľudí. Spoločnosť tvrdí, že PaliGemma 2 dosiahla v teste FairFace dobré výsledky.
Niektorí výskumníci však kritizovali tento benchmark ako metriku zaujatosti a upozornili, že FairFace reprezentuje len niekoľko rasových skupín. Systémy detekcie emócií vyvolali hnev regulačných orgánov v Európe, ktoré sa snažia obmedziť používanie technológie vo vysoko rizikových kontextoch. Zákon o AI zakazuje nasadzovať detektory emócií školám a zamestnávateľom (no nie orgánom činným v trestnom konaní).
Najväčšie obavy v súvislosti s otvorenými modelmi, ako je PaliGemma 2, ktoré sú k dispozícii u viacerých hostiteľov vrátane vývojárskej platformy AI Hugging Face, spočívajú v tom, že budú zneužité alebo nesprávne použité, čo by mohlo viesť k reálnym škodám. Existuje znepokojenie, že sa táto schopnosť môže využívať na ďalšiu – a falošnú – diskrimináciu marginalizovaných skupín.
Na otázku o nebezpečenstvách verejného sprístupnenia PaliGemma 2 hovorca spoločnosti Google uviedol: „Vykonali sme dôkladné hodnotenia modelov PaliGemma 2 týkajúce sa etiky a bezpečnosti vrátane bezpečnosti detí a bezpečnosti obsahu.“ Nie všetci sú však presvedčení, že to stačí. Existuje nespočetné množstvo potenciálnych problémov pri takýchto modeloch, ktoré môžu viesť k dystopickej budúcnosti, kde vaše emócie rozhodujú o tom, či dostanete prácu, pôžičku a či vás prijmú na univerzitu.
Zdroj: techcrunch.com.
Zdroj Foto: depositphotos.com.