Pokud máte v poslední době divný pocit, že lidé na internetu mluví trochu roboticky, nejste sami.
V nedávném příspěvku na svém účtu X se generální ředitel společnosti OpenAI Sam Altman podělil o „velmi zvláštní zkušenost“, když si prohlížel online fóra o Codexu, novém nástroji společnosti pro vývojáře. Codex je model umělé inteligence určený k překladu přirozeného jazyka do kódu, který programátorům usnadňuje práci tím, že jim umožňuje psát instrukce v lidském jazyce, které jsou následně převedeny do spustitelného kódu. Podle Altmana působí příspěvky AI na platformách, jako je Twitter (nyní X) a Reddit, „velmi falešně způsobem, který před rokem nebo dvěma opravdu nepůsobil“.
Altman sice předpokládá, že velká část tohoto obsahu pochází od botů nebo falešných účtů, ale vyslovil také znepokojivou teorii: je možné, že skuteční lidé převzali zvláštnosti a způsob řeči velkých jazykových modelů (LLM). LLM, jako je GPT-3, jsou systémy umělé inteligence, které byly vyškoleny na velkém množství textu, aby generovaly souvislé a kontextově relevantní odpovědi. To znamená, že lidé napodobují jazyk umělé inteligence, takže je stále obtížnější rozlišit člověka od bota.
Není to poprvé, co Altman učinil podobný postřeh. Minulý týden v jiném příspěvku poznamenal, že má pocit, že na Twitteru přibývá účtů „vedených LLM„. Jeho komentář zopakoval Paul Graham, spoluzakladatel inkubátoru Y Combinator, který si rovněž všiml stejného trendu a uvedl, že obsah generovaný umělou inteligencí pochází nejen z falešných účtů, ale také od „mnoha potenciálních influencerů“. To naznačuje, že hranice mezi obsahem generovaným lidmi a stroji se stírá, což by mohlo mít významné důsledky pro autenticitu a důvěryhodnost digitálních platforem.
Altman a Graham nejsou jediní, kdo si tohoto nárůstu všimli. Generální ředitel společnosti Substack Chris Best varoval, že „sofistikovaní AI bully boti“ nasytí digitální média obsahem, jehož cílem je, aby „hloupí lidé klikali“. Tato obava se soustředí na možnost, že se nekvalitní obsah generovaný umělou inteligencí, známý jako „AI slop“, stane normou, což ovlivní kvalitu informací dostupných online.
Je zřejmé, že AI slop neboli nekvalitní obsah generovaný umělou inteligencí je stále častějším jevem. Ať už jde o optimalizaci sociálních platforem za účelem generování větší interakce, nebo o popularitu AI, efekt je stejný: internet působí stále uměleji a zdá se, že hranice mezi lidským a robotickým se ztenčuje. To vyvolává důležité otázky týkající se budoucnosti online komunikace a potřeby vyvinout nástroje a strategie pro identifikaci a zmírnění dopadu obsahu generovaného umělou inteligencí na společnost.

Zdroj: Youtube.com
Pro řešení těchto výzev je zásadní, aby digitální platformy zavedly opatření pro detekci a správu obsahu generovaného umělou inteligencí. To by mohlo zahrnovat využití pokročilých algoritmů k identifikaci jazykových vzorců typických pro AI a vypracování jasných zásad pro využívání AI při tvorbě obsahu. Kromě toho by uživatelé měli být vzděláváni v tom, jak rozpoznat obsah generovaný AI, a měli by být podporováni v kritickém vnímání online informací.
V konečném důsledku představuje vývoj umělé inteligence a její integrace do každodenního života příležitosti i výzvy. Umělá inteligence má potenciál transformovat průmyslová odvětví a zvýšit efektivitu, je však také nezbytné řešit obavy ohledně autenticity a kvality online obsahu, aby bylo zajištěno, že internet zůstane důvěryhodným a cenným prostorem pro komunikaci a výměnu informací.