Největší problém umělé inteligence? Je přesvědčivá, i když si úplně vymýšlí, říká futuristka
Aleksandra Przegalińská je polská filozofka umělé inteligence. Z ChatGPT se snaží se studenty udělat nástroj, který bude přesnější.
Polská filozofka a futuristka Aleksandra Przegalińská
V poslední době snad neuplyne den, kdy by se neobjevil nový způsob použití jazykového modelu, verze obrázkového generátoru, vyhledávače nebo ChatGPT. Novinek o umělé inteligenci je zkrátka příliš, a tak lze ve smršti zpráv snadno přehlédnout větší trendy a zásadní otázky, které bychom si jako společnost měli položit. Současný boom v etice i společenských vědách zanechává řadu nezodpovězených výzev.
Právě těmi se ve svém výzkumu zabývá Aleksandra Przegalińská, polská futuristka, filozofka umělé inteligence a prorektorka varšavské Kozminského univerzity. Jako výzkumnice působí také na Harvardu.
„Jsme stále vědomými bytostmi a jako lidé také zadáváme umělé inteligenci úkoly. Stále jsme hlavními aktéry, kteří ji používají jako nástroj,“ popisuje Przegalińská roli, kterou podle ní současná umělá inteligence má. Ale zmiňuje i situace, kdy se podle ní dostáváme na tenký led. „Znepokojují mě případy, kdy se na jazykový model lidé spoléhají v rozhodování. I tady je důležité si uvědomit, že nástroje jako GPT jsou použitelné, hlavně když sami máte odborné znalosti o dané problematice. Obávám se například o děti, které mohou program používat, aniž by si uvědomovaly potřebu kritického myšlení,“ vysvětluje polská futuristka.
V rozhovoru pro CzechCrunch mluví o úskalích, která skýtá současná celospolečenská adopce velkých jazykových modelů, o vlastním výzkumu, který zahrnuje například způsob, jak snížit možnosti takzvaných halucinací umělé inteligence, nebo o tom, zda by se měl vývoj umělé inteligence zpomalit.
Nastartujte svou kariéru
Více na CzechCrunch JobsKdyž vidíte současný humbuk kolem umělé inteligence, jakou hlavní otázku si kladete ze své pozice filozofky?
Myslím, že největším problémem jsou halucinace jazykových modelů, tedy schopnost konstruovat znalosti, které neexistují. Jazykové modely jsou velmi sebejisté a přesvědčivé, i když si úplně vymýšlí. OpenAI tvrdí, že nový model GPT-4 je schopen získat přesnější výsledky. Což je pravda, ale ještě nás čeká dlouhá cesta.
OpenAI také tvrdí, že model nyní poskytuje mnohem lepší argumentaci, což si překládám tak, že je přesvědčivější i ve svém lhaní.
To skutečně může být pravda, ale myslím si, že lepší argumentací je ve skutečnosti myšleno lepší předvídání – tedy to, co myslíte určitým zadáním. Je zřejmé, že systémy umělé inteligence mohou být potenciálně naprogramovány tak, aby klamaly nebo zaváděly člověka, ale v tomto případě je lhaní bohužel vedlejším produktem samotné obecnosti modelu. OpenAI se prezentuje jako společnost na vývoj umělé inteligence, která je důvěryhodná a v souladu s lidskými hodnotami, takže si jsem jistá, že by se rádi vyhnuli halucinacím. Zatím ale dosahují jen malých výsledků.
Existuje nějaký technický způsob, jak se halucinací zbavit? Protože to je tak trochu předpokladem, aby byla umělá inteligence důvěryhodná…
Existuje. V rámci mých výzkumných skupin studenti vyrábějí malé transformátory – jakési maličké a velmi jednoduché verze nástrojů, jako je ChatGPT. Způsob, jakým se snažíme vypořádat s halucinacemi, spočívá v tom, že modely děláme záměrně méně kompetentní, konzervativnější. V praxi to funguje tak, že model se ptá na doplňující otázky, než poskytne odpověď. Z odpovědí se ihned poučí a je tak schopen poskytnout ucelenější odpovědi.
Tím, že omezíte jeho schopnosti, ale také děláte určitá rozhodnutí. A tato rozhodnutí následně znamenají zkreslení odpovědí, ne?
Samozřejmě, že zkreslení algoritmů je obecně problém, ale v tomto případě je to vlastně chtěné zkreslení. Druhou možností je modely více lokalizovat, krmit je vlastními daty nebo je prostě natvrdo nastavit tak, aby poskytovaly kratší odpovědi a kladly více otázek. Aby byly více zaměřeny na spolupráci, a ne na čistý výstup na základě podnětů.
Jsme na nástup umělé inteligence jako společnost připravení? Dám příklad: Představte si, jak by svět vypadal, kdyby ekonomika nerostla o tři až čtyři procenta ročně, ale o sto procent. Podle experta na bezpečnost umělé inteligence Holdena Karnofského by se toho dosáhlo smyčkou, kdy by umělá inteligence učila další umělou inteligenci.
Zdá se mi, že jsme připraveni. Všichni zadávají dotazy do modelů a vyměňují si nejlepší nápady na prompty. Je to velmi přirozený způsob komunikace, hovoříme přes chat. Vývoj nových generativních modelů je však velmi rychlý. Myslím, že bychom měli udělat krok zpět a položit si důležité etické a velké otázky, které s tím souvisejí. Nezaměřovat se jen na to, co nového umí další verze GPT nebo Midjourney.
Myslíte tedy, že bychom měli zpomalit rychlost vývoje umělé inteligence?
Na jedné straně by zpomalení mohlo pomoci řešit některá potenciální rizika – třeba etické a společenské důsledky automatizace, obavy o soukromí a dopad na zaměstnanost. Mohlo by také poskytnout více času výzkumníkům a politikům na vypracování účinných zákonných rámců a eticky odpovědných přístupů. Na druhou stranu by zpomalení rychlosti vývoje umělé inteligence mohlo také bránit pokroku ve zdravotnictví, vzdělávání a udržitelnosti, kde má potenciál významně pozitivně přispět. Zpomalení by také mohlo znevýhodnit země nebo společnosti, které do výzkumu AI investují velké prostředky, což by mohlo vést k hospodářské a technologické nerovnováze.
Nevkládáme vlastně do současných systémů příliš mnoho důvěry?
Mohli bychom o této otázce přemýšlet tak, že my jsme stále vědomými bytostmi a jako lidé také zadáváme umělé inteligenci úkoly. Stále jsme hlavními aktéry, kteří ji používají jako nástroj.
Užitečné pojmy
- Jazykový model: Algoritmus nebo model strojového učení, který dokáže předpovědět, jaké nejpravděpodobnější slovo nebo věta bude následovat po zadané sekvenci slov.
- Obecná umělá inteligence: Teoretický koncept umělé inteligence, která by měla schopnost řešit jakýkoliv problém, který by dokázal vyřešit člověk.
- Generativní AI
Větev umělé inteligence, která se zaměřuje na vytváření nových dat, například obrázků, videí nebo zvuků. Generativní AI využívá hlubokých neuronových sítí a jiných technik strojového učení k vytváření dat, která vypadají, jako by byla vytvořena lidmi. - OpenAI: Společnost původně založená Elonem Muskem kvůli tomu, aby hledala cestu k obecné umělé inteligenci. Dnes se však zaměřuje na rozvoj jazykových modelů a generativní umělé inteligence, klíčovým investorem je Microsoft.
Opravdu jsme? Často jde přece o rozhovory, jak jste řekla. Je to oboustranný proces.
Je pravda, že mě trochu znepokojují případy, kdy se na jazykový model lidé spoléhají v rozhodování. Ale je důležité si uvědomit, že nástroje jako GPT jsou použitelné, hlavně když sami máte odborné znalosti o dané problematice. Obávám se například o děti, které mohou program používat, aniž by si uvědomovaly potřebu kritického myšlení.
S kolegou Dariuszem Jemielniakem jsme ale s pomocí GPT napsali knihu o generativních modelech umělé inteligence Strategizing AI in Business and Education. Zadali jsme modelům různé podněty a ony nám s tvůrčím procesem nesmírně pomohly. Například jsme jim zadali dotaz s nějakými argumenty a ony vygenerovaly cenné protiargumenty. Stále jsme však ve fázi pochopení, jak s těmito modely pracovat.
Takže v tomto případě jste umělou inteligenci použili jako nástroj. Ale co jiné práce, které mohou být zcela nahrazeny?
Obvykle se nás jako výzkumníků umělé inteligence lidé ptají na profese, které zmizí kvůli ChatGPT. Já si ale myslím, že právě kvůli nutnosti kritického myšlení zůstanou i kreativní profese neohrožené. Spíš než by přišli o práci, budou mít k dispozici mnohem mocnější nástroje. Jiná situace je u lidí, jako jsou vývojáři. Ti se o svá místa mohou skutečně bát. Kolega mi třeba vyprávěl o příkladu lékaře, který nakrmil ChatGPT nějakými informacemi o pacientovi – a ten mu správně navrhl diagnózu a případnou léčbu.
To mi z pohledu pacienta připadá trochu děsivé. Neměl by být lékař ten, kdo bude mít potřebné znalosti?
V komplikovaných případech se lékaři vždy rozhodují v kolektivu. Takže o takovém použití můžete přemýšlet jako o rozšíření lékařského konzilia. Nakonec bude rozhodnutí vždy na člověku. Víme ostatně, že GPT je trénováno i na akademických článcích z depozitáře Science Direct.
Kvůli nutnosti kritického myšlení zůstanou i kreativní profese neohrožené.
Jedna z novinek v modelu GPT-4 je, že o osmdesát dva procent zmenšuje šanci odpovědi na zadání, které je v rozporu s podmínkami použití OpenAI. Například na dotazy, které jsou rasistické nebo jinak diskriminační. Není nicméně nebezpečné, že tato omezení neurčuje zákon, ale soukromá firma pro nástroj, který používají stovky milionů lidí?
Stále existují způsoby, jak neodpovídání obejít. Nejjednodušší způsob by bylo vložit dané zadání do příběhu nebo postavy, protože GPT-4 umí hrát postavy docela dobře. Ale abych byla upřímná, nemám na to jasnou odpověď. Samospráva velkých technologických firem se v minulosti, například v případě sociálních médií, ukázala jako poněkud problematická, ale Microsoft či OpenAI vám nejspíš řeknou, že když to neudělají oni, neudělá to nikdo.
Myslíte si, že halucinace by mohly být důvodem pro to, aby ekosystém GPT měl problém s adopcí širokou veřejností? Není prostě základním předpokladem, že budeme věřit jeho odpovědím?
Halucinace mohou být problémem pro některé aplikace jazykových modelů, ale i když jsou zdrojem obav, tak nemusí být nutně obecnou překážkou k adopci. Mnoho způsobů použití jako překlady, shrnutí textů a odpovědi na otázky, nevyžaduje vysokou úroveň koherence nebo kontextuality, proto je občasné halucinace nemusí ovlivnit. U aplikací, které vyžadují vysokou úroveň přesnosti a konzistence, jako je lékařská diagnóza nebo právní rozhodování, by však halucinace mohly být problémem. Musíme proto vyvinout strategie na to, abychom halucinaci zmírnily na výstupech. Problém je, že často vůbec nevíme, co se uvnitř modelů děje a proč si algoritmus vymýšlí.
To je ale typickým problémem všech doporučovacích algoritmů, ne? Nikdo neví, proč navrhují to, co navrhují. Jsou to černé skříňky.
Tak je potřeba z černých skříněk udělat průhledné. Nikdo to neví, protože není v zájmech velkých technologických společností, aby principy jejich cenných algoritmů byly otevřené a veřejné. Na to by musela existovat regulace.
Co si z rozhovoru odnést:
- Největším problémem jazykových modelů je jejich halucinace – konstruování znalostí, které neexistují.
- V případě modelu GPT je lhaní vedlejším produktem kvůli jeho obecnosti.
- Halucinaci lze zmenšit tak, že modely budou cíleně tvořeny jako méně kompetentní a konzervativnější – tak, aby se doptávaly na doplňující dotazy, než vytvoří finální odpověď.
- Nepřesné odpovědi jsou nebezpečné zejména, když lidé na umělé inteligenci nechávají celý svůj rozhodovací proces.