Umělá inteligence jako terapeutka? Pozor, co jí říkáte, vaše historie může být použita jako důkaz

Sdílíte s ChatGPT nebo jinými chatboty svá tajemství? V krajním případě je může využít soud nebo policie. A to i bez vašeho souhlasu.

David ZlomekDavid Zlomek

ai-mvp-y
Foto: Filip Houska/CzechCrunch
Terapeutická umělá inteligence
0Zobrazit komentáře

ChatGPT už dávno není jen nástroj na psaní e-mailů nebo překládání textů. Pro řadu lidí se stal svědkem jejich největších krizí, důvěrníkem či digitálním terapeutem. Umí naslouchat, nikdy nepřeruší, nesoudí. A na rozdíl od živého terapeuta je vždy k dispozici, zdarma a bez čekání. Jenže tohle pohodlí s sebou nese kromě faktu, že chatbot není odborník a lékař, i ještě jedno riziko. Pokud totiž ChatGPT nebo jinému nástroji umělé inteligence svěříte svá nejhlubší tajemství, nemáte žádnou právní jistotu, že zůstanou pouze mezi vámi.

Na problém navíc otevřeně upozornil i sám generální ředitel OpenAI, která ChatGPT vyvíjí, Sam Altman. „Lidé používají ChatGPT jako terapeuta, životního kouče. Mluví spolu o vztazích, ptají se, co mají dělat. A když o těchto problémech mluvíte s terapeutem nebo právníkem, vztahuje se na to právní důvěrnost. Tady ne. Zatím jsme tohle téma nevyřešili,“ řekl Altman na konci července v podcastu This Past Weekend. Podle něj by měla existovat podobná ochrana i pro rozhovory s AI.

Upozornil tak na problém, který se dnes v právním i technologickém světě řeší čím dál častěji: to, co působí jako soukromý chat, může být použito jako důkaz. A v případě konverzací s umělou inteligencí neexistuje právní překážka, která by bránila předání jejího obsahu policii. OpenAI sama potvrdila, že takové výjimky existují, například v případě soudních sporů, vyšetřování nebo když o to požádají státní orgány.

Tento problém vyplaval na povrch i v aktuálním sporu mezi OpenAI a deníkem The New York Times. Ten podal žalobu kvůli porušování autorských práv a požadoval, aby OpenAI zpřístupnila archivované konverzace s uživateli. Technologická firma naopak tvrdila, že požadavek je nepřiměřený. Podstatná je však samotná skutečnost, že je technicky možné takové informace vydat.

OpenAI vs. The New York Times

Spor mezi OpenAI a deníkem The New York Times začal koncem roku 2023, kdy list obvinil ChatGPT z porušování autorských práv. Tvrdil, že nástroj dokáže uživatelům zpřístupnit placené články v plném znění, aniž by zaplatili, čímž obchází paywall. Podle amerického média se to děje tak, že ChatGPT po zadání dotazu vygeneruje téměř identický text, jaký je na jeho webu, včetně pasáží chráněných před neplatícími čtenáři.

Aby to Timesy mohly dokázat, požadovaly přístup k reálným konverzacím uživatelů s ChatGPT. Letos v květnu jim dal federální soud za pravdu a nařídil OpenAI uchovat všechny chaty, a to včetně těch, které uživatelé ze své historie smazali. To vyvolalo velkou vlnu kritiky kvůli obavám o soukromí. OpenAI argumentovala, že takový příkaz je nepřiměřený a porušuje třeba pravidla GDPR pro uživatele v Evropské unii. Po odvolání soud zmírnil své rozhodnutí a stanovil, že stačí uchovávat jen ty chaty, které odpovídají seznamu klíčových slov dodanému zástupci The New York Times.

„Naprosto nutným předpokladem profesí, jako je právník, terapeut, zpovědník, lékař, bankéř, daňový poradce a podobně, je důvěrnost. Zkrátka jistota, že si třeba váš advokát nebude ohledně vašich věcí pouštět pusu na špacír,“ vysvětluje pro CzechCrunch právnička Anna Drgová z advokátní kanceláře Smpl. I ona upozorňuje na zásadní rozdíl: „U umělé inteligence toto neplatí. Jsou to softwarové nástroje. Pokud jim svěřujeme citlivé informace, je to stejné, jako bychom naše problémy konzultovali s e-mailovou schránkou.“

V českém právu je ochrana klienta při řešení jeho záležitostí s právníkem zakotvena zejména v § 21 zákona o advokacii, který advokátovi ukládá povinnost mlčet o všech skutečnostech, o nichž se dozvěděl v souvislosti s poskytováním právních služeb. „Lze ji prolomit jen ve výjimečných a specifických případech, například ve sporech mezi advokátem a klientem či po předchozím informovaném souhlasu klienta,“ doplňují zástupci kanceláře White & Case Ivo Janda a Anna Stárková, kteří se stejně jako další oslovení věnují této problematice.

chatgpt-x

Přečtěte si takéTohle je 5+1 tip, jak naplno otestovat možnosti nového ChatGPTJe lepší v kódování, propojí se s kalendářem a mění tón hlasu. 5+1 tip, co vyzkoušet v novém ChatGPT

V případě konverzace s umělou inteligencí ale nejde jen o případy, kdy by s ní uživatel probíral své právní problémy – jakýkoliv chat může být použit jako důkaz. „Podobně jako se dnes běžně používají zprávy z Messengeru, WhatsAppu nebo příspěvky na sociálních sítích,“ přidává jako příklad právnička Jana Sedláková ze Sedlakova Legal. Anna Drgová má podobnou zkušenost: „Představa, že je jako důkazní prostředek použita informace poskytnutá AI modelu, je zcela reálná.“

Evropský právní rámec, konkrétně Nařízení o digitálních službách (DSA), umožňuje národním orgánům požádat poskytovatele online služeb o vydání konkrétních údajů o uživatelích. Pokud firma nespolupracuje, hrozí jí pokuty až do výše šesti procent globálního obratu.

Jsou to softwarové nástroje. Je to stejné, jako bychom naše problémy konzultovali s e-mailovou schránkou.

Ani smazání historie v chatu s AI nemusí znamenat konec. Data mohou být uložena v zálohách, mohou být zpřístupněna kvůli legislativnímu požadavku a ve vybraných případech se mohou rovnou stát součástí právního řízení. A překážkou nemusí být ani GDPR.

„Provozovatel je sice povinen dodržovat takovéto předpisy, ale ty umožňují za určitých okolností předat údaje již zmíněným institucím,“ potvrzuje advokátka Martina Bechynská z advokátní kanceláře BE.LO. Ivo Janda a Anna Starková to ještě dovysvětlují: „ChatGPT ani společnost OpenAI nejsou advokátem či jinou osobu oprávněnou poskytovat právní služby. Z tohoto důvodu může soud vyzvat k poskytnutí dat a provozovatel je povinen požadované informace poskytnout.“

„U nadnárodních společností typu OpenAI se můžeme setkat s takzvanými transparency reporty, ze kterých je znatelné, že data jsou orgánům veřejné moci opravdu zpřístupňována,“ dodávají a i oni zmiňují příklad sporu s The New York Times.

Nastartujte svou kariéru

Více na CzechCrunch Jobs

Avšak samotné získání konverzace ještě neznamená, že se automaticky stane důkazem proti konkrétnímu člověku. V praxi by totiž bylo nutné také prokázat, kdo přesně daný rozhovor s AI vedl. A právě tady narážíme na dosud nevyřešenou právní oblast. Většina nástrojů totiž nevyžaduje ověření identity uživatele, takže konverzace může být technicky spojena s IP adresou, zařízením nebo účtem, ale z toho ještě nevyplývá, kdo přesně ji vedl. Nicméně fakt, že se tím právní experti vážně zabývají, by měl být pro běžného uživatele jasným varováním.

Řešení? Podle právníků hlavně prevence. „Obecně lze konstatovat dvoustupňové pravidlo: zaprvé nedávejte do AI modelů žádná data, jejichž zveřejnění či využití třetí stranou by vás poškodilo. Zadruhé pokud přesto data poskytnout chcete, postarejte se o to, aby byla maximálně anonymní a abyste minimalizovali šanci, že bude možné data spojit s vaší osobou,“ doporučuje právník Kirill Juran ze Smpl.

A rizika se netýkají jen běžných uživatelů. Otázku práce s generativní umělou inteligencí musí řešit i samotní právníci, zejména pokud by ji chtěli využívat při poskytování služeb klientům. „Základním pravidlem by mělo být, že osoba oprávněná poskytovat právní služby si přečte a porozumí podmínkám použití, zásadám ochrany osobních údajů a souvisejícím smluvním podmínkám a zásadám jakéhokoli AI nástroje, který používá, aby zjistila, kdo má přístup k informacím, které do nástroje zadává,“ připomínají právníci z White & Case.

Podle nich proto Česká advokátní komora vyžaduje předchozí souhlas klienta se zpracováním jakýchkoli informací v AI nástroji. „Souhlas musí obsahovat výslovné prohlášení, že klient ví, že AI může fungovat nepředvídatelně, a také výslovný souhlas, že může s AI sdílet tyto informace (byť i anonymizované) s blíže neurčenými podobnými systémy,“ dodávají Ivo Janda a Anna Stárková.