Trash-Talking Robots Fluster lidské oponenty

Trash talking byla taktika, která se dlouho používala k chvění herních oponentů, a nyní nová studie ukazuje, že odrazující slova mohou ovlivnit hraní hry - i když přicházejí od robota.

Diskuse o odpadcích ve studii byla rozhodně mírná, s výroky jako „Musím říci, že jste hrozný hráč“ a „V průběhu hry se vaše hraní stalo zmateným.“ Lidé, kteří s robotem hráli určitou hru - komerčně dostupný humanoidní robot známý jako Pepper -, si přesto vedli hůř, když je robot odradil, a lépe, když je robot povzbudil.

Hlavní autor Aaron M. Roth uvedl, že někteří ze 40 účastníků studie byli technicky vyspělí a plně chápali, že zdrojem jejich nepohodlí byl stroj.

"Jeden účastník řekl: 'Nelíbí se mi, co robot říká, ale tak to bylo naprogramováno, takže za to nemohu,' řekl Roth, který studii provedl, zatímco byl magisterským studentem v Carnegie Mellon University (CMU) Robotics Institute.

Vědci ale zjistili, že lidská výkonnost celkově kolísala bez ohledu na technické znalosti účastníků.

Studie, která byla představena minulý měsíc na mezinárodní konferenci IEEE o interaktivní komunikaci robotů a lidí (RO-MAN) v indickém Dillí, je odklonem od typických studií interakce člověka s robotem, které se obvykle zaměřují na to, jak mohou lidé a roboti nejlépe spolupracovat.

"Toto je jedna z prvních studií interakce člověka a robota v prostředí, kde nespolupracují," řekl spoluautor Dr. Fei Fang, odborný asistent z Institutu pro výzkum softwaru.

Studie má významné důsledky pro svět, kde se očekává exponenciální růst počtu robotů a zařízení internetu věcí (IoT) s schopnostmi umělé inteligence.

"Můžeme očekávat, že domácí asistenti budou spolupracovat," řekla, "ale v situacích, jako je online nakupování, nemusí mít stejné cíle jako my."

Studie byla výsledkem studentského projektu, který Fang vyučuje. Studenti chtěli prozkoumat využití teorie her a omezené racionality v kontextu robotů, proto navrhli studii, ve které by lidé mohli soutěžit s robotem ve hře s názvem „Stráže a poklady“. Tzv. Hra Stackelberg, kterou vědci používají ke studiu racionality; Fang ji využívá ve svém výzkumu kybernetické bezpečnosti ke studiu interakce mezi obráncem a útočníkem.

V rámci studie si každý účastník zahrál s robotem hru 35krát, přičemž si buď užíval povzbuzující slova od robota, nebo byl zmaten odmítavými poznámkami. Ačkoli se racionalita lidských hráčů zlepšovala se zvyšujícím se počtem odehraných her, ti, kteří byli robotem kritizováni, neskórovali stejně dobře jako ti, kteří byli chváleni.

Je dobře známo, že výkon člověka je ovlivněn tím, co říkají ostatní lidé, ale studie ukazuje, že i lidé reagují na to, co říkají stroje, uvedl Dr. Afsaneh Doryab, systémový vědec z Institutu interakce člověka s počítačem CMU (HCII) během studovat a nyní odborný asistent v oboru technických systémů a prostředí na University of Virginia.

Schopnost tohoto stroje pohotově reagovat by mohla mít dopad na automatizované učení, léčbu duševního zdraví a dokonce i na používání robotů jako společníků, řekla.

Budoucí práce by se mohla zaměřit na neverbální projev mezi roboty a lidmi, řekl Roth, nyní Ph.D. student na University of Maryland. Fang naznačuje, že je třeba se dozvědět více o tom, jak různé typy strojů - řekněme humanoidní robot ve srovnání s počítačovou skříní - mohou u lidí vyvolat různé reakce.

Zdroj: Carnegie Mellon University

!-- GDPR -->