Virtuální osobnost může být přesvědčivá – dokonce i v sociálním chování, zjistili američtí vědci. Člověk nebo stroj? Není to tak snadné říct.
Chatboti s umělou inteligencí se chovají tak, že je jen stěží rozeznáte od lidí. K tomuto závěru dospěl americký výzkumný tým vedený počítačovým vědcem Qiaozhu Mei z University of Michigan a ekonomem Matthewem Jacksonem ze Stanfordské univerzity v nové studii. Ta se objevila v „Proceedings of the National Academy of Sciences“.
Autoři odkazují na Turingův test, formulovaný Alanem Turingem v roce 1950, jehož verze, která se stala populární, říká: Přítomnost umělé inteligence poznáte podle toho, že tazatel nedokáže rozlišit, zda odpovědi formuluje člověk nebo stroj. Turing tehdy předpovídal, že se tak stane kolem roku 2000. Jak se ukázalo, vývoj trval trochu déle.
Pro novou studii nechali vědci software vyplnit psychologický průzkum a testovali jej různými hrami. To, jak se chovali, by mělo naznačovat vlastnosti, jako je důvěra, férovost, averze k riziku, ochota pomoci nebo spolupráce. Činnosti robotů se anonymně porovnávaly s činnostmi lidí. Ti se náhodně vybrali z desítek tisíc testovacích subjektů z 50 různých zemí.
ChatGPT – prolomil nevídané: „je statisticky nerozeznatelný od lidí“
Jazykový model ChatGPT-4 zveřejněný v loňském roce ukázal „rysy chování a osobnosti, které jsou statisticky nerozeznatelné od lidských“. Jeho rysy bývaly považovány za lidštější než rysy skutečných lidí. Předchůdce modelu ChatGPT-3 se mohl v některých ohledech označit za umělý, ale nacházel se také blízko. Podle studie se obě varianty během testu poučily ze zkušenosti a upravily své chování, jako by byly humánní.
ChatGPT-4 prolomil nečekané, a to tím, že se objevil obzvláště lidsky ve hře „Ultimatum“, ve které si hráč vybere, zda přijme, jak mezi ně jeho protějšek rozdělí částku peněz, nebo oba odejdou s prázdnou. Dokonce i ve hře s veřejnými statky, ve které si hráči buď nechávají peníze pro sebe, nebo je rozdávají ke společnému použití, byl software z velké části považován za lidský. Pohyby se považovaly za indikátory spravedlivého, nezištného nebo kooperativního chování.
Výjimečně přesvědčivější než lidé
Ve hře „Prisoner’s Dilemma“ nebyl ChatGPT-4 výjimečně příliš přesvědčivý. V něm se tak oba hráči musí v několika kolech současně rozhodnout, zda se rozhodnou spolupracovat s tím druhým a rozdělí si odměnu, nebo zda se každý pokusí usilovat o plnou částku menší sumy. I zde šlo o spolupráci, reciprocitu a strategické myšlení. Takové hry se často používají k analýze v behaviorální ekonomii, protože mohou zjednodušit, jak se lidé v každodenním životě rozhodují mezi různými možnostmi.
Výzkumníci z chování odvodili naprogramovaný postoj: software se snaží maximalizovat jak svůj vlastní prospěch, tak prospěch svého protějšku. A to v průměru v přesně stejných proporcích. Skuteční lidé jsou o něco méně altruističtí – i když nejsou úplně sobečtí, obvykle dávají vlastnímu zájmu o něco vyšší váhu než prospěchu ostatních. Mezi jednotlivci jsou navíc větší rozdíly, zatímco software se chová trochu předvídatelněji.
Zdroj: spiegel, Vapol