Umělá inteligence začíná hrát stále větší roli v osobním i obchodním rozhodování. Není tedy radno přehlédnout nedávné varování generálního ředitele OpenAI Sama Altmana: Vše, co řeknete ChatGPT, může skončit u soudu.
Jinými slovy, ChatGPT nemá nic, co by se alespoň vzdáleně rovnalo zpovědnímu tajemství, a to, co s touto technologií sdílíte – jakkoli intimní to může být – není právně chráněno, což může mít pro příliš sebevědomého uživatele velmi negativní důsledky.
Falešná zpovědnice
Mnoho uživatelů, zejména mladých lidí, začalo ChatGPT používat jako náhradu terapeuta, zpovědníka (v nejširším slova smyslu) nebo právního/daňového apod. poradce. Je snadné pochopit proč: okamžité odpovědi, anonymita, nulové hodnocení a žádné náklady.
Toto emocionálně intenzivní využití však čelně naráží na tvrdou realitu: umělá inteligence není ze zákona povinna chránit vaše soukromí tak, jak by to dělal psycholog, lékař nebo právník. ChatGPT je technologický nástroj bez zvláštní právní ochrany.
„To jsme pro konverzace s AI ještě nevyřešili,“ lituje Altman.
Ve skutečnosti, dokud nebude pro interakce s AI uzákoněno skutečné soukromí, je rozumné považovat jakoukoli konverzaci ChatGPT za veřejnou a otevřenou k použití proti vám. Jak uvedl sám Altman v podcastu This Past Weekend:
„Lidé s ChatGPT mluví o nejosobnějších věcech svého života […] Používají ji jako terapeuta, jako životního kouče, ptají se ‚co mám dělat se svými problémy ve vztahu‘ […] Ale pokud později dojde k soudnímu procesu, můžeme být nuceni tyto konverzace předat.“

Zdroj: Youtube.com
Společnost OpenAI ve svých zásadách ochrany osobních údajů přiznává, že uchovává údaje uživatelů, včetně konverzací, aby splnila právní povinnosti. Jinými slovy, jakýkoli soudní orgán může požadovat obnovení a předání našich konverzací s ChatGPT. Ptali jste se ChatGPT na nápady, jak podvést finanční úřad? Popisovali jste hádku s detaily, které by vás mohly usvědčit? To vše může být použito proti vám.
Iluze anonymity a právní rizika
Iluze, že hovoříte s „neutrálním“ a „bezpečným“ strojem, je jedním z nejčastějších omylů. Ve skutečnosti jsou systémy umělé inteligence provozovány společnostmi, které podléhají zákonům, soudním sporům, zásadám používání a soudním příkazům. V případě OpenAI vedl probíhající soudní spor s deníkem New York Times k tomu, že společnost byla nucena na příkaz soudce v této věci zadržovat konverzace, a to i ty údajně smazané.
Jak vysvětluje výzkumník William Agnew, „zatímco společnosti se snaží s daty zacházet opatrně, modely umělé inteligence jsou známé tím, že informace chrlí“. Vaše konverzace se může „vynořit“ v jiném kontextu, aniž byste o tom věděli.
Vše, co řeknete AI, se může stát důkazem
Případ Amazon Echo v USA již tuto cestu vytyčil. V roce 2017 se zařízení stalo „svědkem“ v soudním procesu o vraždě. Po nátlaku soudu musela společnost Amazon předat zvukové záznamy toho, co se dělo v domě, kde byl spáchán trestný čin. Ačkoli se nejednalo o umělou inteligenci jako ChatGPT, vznikl precedens: chytrá zařízení se mohou stát zdrojem důkazů.

Zdroj: Youtube.com
Ještě znepokojivější je rostoucí emocionální závislost, před kterou varoval i Altman. „Existují mladí lidé, kteří uznávají, že nejsou schopni se rozhodovat sami za sebe, aniž by to předtím řekli ChatGPT,“ řekl v jiném rozhovoru. Problémem už není jen soukromí, ale i ztráta autonomie v osobním rozhodování.
Ve světě, kde jsou technologie stále více integrovány do našich životů, je zásadní pochopit důsledky spoléhání se na nástroje, jako je ChatGPT, při osobních a emocionálních rozhodnutích. Soukromí a osobní autonomie musí být chráněny vhodnými předpisy. Technologická komunita a zákonodárci musí spolupracovat, aby zajistili, že interakce s umělou inteligencí budou bezpečné a spolehlivé.