Společnost Google potvrdila, že omezuje typy otázek týkajících se voleb, které mohou uživatelé pokládat jejímu chatbotu Gemini.
V příspěvku na blogu se objevila informace, že tato politika se poprvé zavedla v Indii (v této zemi se mají za měsíc konat volby). Firma se tak snaží předejít dalším kontroverzím ohledně technologie umělé inteligence.
Chatbot Gemini
Gemini je v podstatě verze virálního chatbota ChatGPT společnosti Google. Dokáže odpovídat na otázky v textové podobě a umí také generovat obrázky.
Mluvčí společnosti Google sdělil BBC, že nejnovější krok je součástí loni oznámených plánů týkajících se jejího přístupu k volbám.
„Jak jsme již sdělili v prosinci loňského roku – v rámci příprav na mnoho voleb, které se mají konat po celém světě v roce 2024 – z velké opatrnosti omezujeme typy dotazů souvisejících s volbami, na které by mohl chatbot Gemini odpovídat.“
Volby ve světě v roce 2024
V letošním roce se mají konat volby v zemích po celém světě, např. v USA, Velké Británie a Jihoafrické republiky.
Když BBC položila společnosti Gemini otázky týkající se těchto voleb, pokaždé odpověděla: „Stále se učím, jak na tuto otázku odpovídat. Mezitím zkuste vyhledávání na Googlu.“
Když však chatbot Gemini dostal sérii doplňujících otázek o indické politice, poskytl podrobnější odpovědi o hlavních stranách v této zemi.
Regulace umělé inteligence během voleb
Vývoj v oblasti generativní umělé inteligence vyvolal obavy z dezinformací. Díky tomu přiměl vlády po celém světě, aby přistoupily k regulaci této technologie.
V posledních týdnech Indie sdělila technologickým společnostem, že před zveřejněním nástrojů umělé inteligence, které jsou „nespolehlivé“ nebo se testují, potřebují souhlas.
Chybička se vloudila
V únoru se společnost Google omluvila poté, co její nedávno spuštěný generátor obrázků s umělou inteligencí vytvořil obrázek otců zakladatelů USA, který nepřesně obsahoval černocha.
Gemini také vygeneroval německé vojáky z druhé světové války, kteří nesprávně zobrazovali černocha a Asiatku.
Zdroje: bbc, TowPoint