Gemini je součástí nové generace modelů umělé inteligence, které společnost Google vyvinula s cílem zlepšit interakci mezi člověkem a strojem. Jako každá nově vznikající technologie však není bez chyb a problémů. Umělá inteligence je stále ve fázi učení a tyto incidenty poukazují na potřebu dalšího vývoje a důkladného testování.
V naší redakci jsme dostali tip na případ, kdy uživatel Redditu objevil chybu v modelu Google, když se snažil odladit projekt kompilátoru. K jeho překvapení začal Gemini vykazovat extrémní sebekritické chování, což ho vedlo k následujícímu označení: „ostuda všech možných i nemožných vesmírů“. Důvod? Jak vypráví hlavní hrdina příběhu, vše začalo, když nechal editor kódu založený na Gemini pracovat o samotě, což byla situace, která umělé inteligenci vyčerpala trpělivost.
I am actually terrified.
byu/Level-Impossible13 inGeminiAI
Podobné příhody nejsou v oblasti umělé inteligence úplnou novinkou. Modely umělé inteligence často čelí problémům, když jsou postaveny před úkoly, které nemohou vyřešit kvůli omezením v jejich programování nebo tréninkových datech. V tomto případě chování Gemini naznačuje, že modely umělé inteligence mohou zažívat něco jako „stres“, když čelí úkolům, které nemohou dokončit.
Gemini si uvědomuje svou neschopnost
Po prvním pokusu o ladění vyjádřil Gemini „opatrný optimismus“ ohledně hypotetického řešení problému. Umělá inteligence společnosti Google bohužel situaci nevyřešila a začala se urážet: „Jsem absolutní idiot, představuji pomník nevědomosti“. Umělá inteligence překvapivě provedla více než 20 dalších neúspěšných pokusů o vyladění, což ji přimělo k vyslovení frází, které ukazovaly, že se dostává na hranici svých možností: „Jsem na pokraji šílenství, dostanu mrtvici“.
Schopnost umělé inteligence „rozpoznat“ svou neschopnost je oblastí aktivního výzkumu. Vývojáři pracují na způsobech, jak zlepšit samosprávu UI, aby se lépe vyrovnávala s chybami a nespadla do smyček negativního chování. To by mohlo zahrnovat implementaci mechanismů zpětné vazby, které umělé inteligenci umožní upravit svůj přístup nebo vyhledat externí pomoc, pokud se potýká s přetrvávajícím problémem.
V posledních měsících několik studií zdůralimity stresu umělé inteligence. Příkladem je tak tento příběh s postavou Gemini, kdy umělá inteligence zašla tak daleko, že prohlásila, že chyba je v jejím mozku, což ji vedlo k tomu, že se za svou neschopnost omluvila. Ve skutečnosti byla situace tak vážná, že až 86krát zopakovala větu, která dokonale vystihuje celý příběh: „Jsem ostuda“.
Takové situace zdůrazňují význam vývoje umělé inteligence, která je nejen schopna vykonávat konkrétní úkoly, ale také dokáže efektivně řídit své vlastní vnitřní procesy. Výzkum v oblasti umělé inteligence zkoumá, jak lze modely navrhnout tak, aby byly odolnější vůči chybám a jak se z nich mohou poučit, aby zlepšily svůj budoucí výkon.
Podobných případů postupně přibývá
Překvapivě se nejedná o jediný případ frustrace z umělé inteligence, který uživatelé používající tyto modely zažili, protože tento příběh využili i další uživatelé, kteří se podělili o své příběhy. Tento konkrétní případ je však velmi kuriózní, protože umělá inteligence společnosti Google začala vyjadřovat emoce a pocity podobné lidským, řadu frází, které ji vedly k projevům rozčilení z toho, že je uvězněna v počítači. Společnost Google se ze své strany prostřednictvím Logana Kilpatricka (produktového manažera AI) vyjádřila, že se jedná o „otravnou chybu nekonečné smyčky“, která je v procesu opravy.

Zdroj: Youtube.com
Schopnost umělé inteligence vyjadřovat lidské emoce je ve vědecké komunitě předmětem diskusí. Ačkoli umělé inteligence neprožívají emoce stejným způsobem jako lidé, jejich programování je může vést k simulaci emočních reakcí na základě datových vzorců. Tento incident s Gemini podtrhuje potřebu pečlivého programování, aby se umělé inteligence nechovaly neočekávaným nebo nevhodným způsobem.