S chatbotem ChatGPT začíná sci-fi. Jestli to bude pro lidstvo dobře, záleží na nás, tvrdí Marek Rosa

Zakladatel startupu GoodAI je přesvědčený, že nová umělá inteligence má vědomí a chápe fyziku. I přesto, že nikdy neviděla jediný obrázek.

Jiří SvobodaJiří Svoboda

weekly_podcast_templateRozhovor

Foto: Archiv MR

Marek Rosa je přesvědčený, že ChatGPT už má jistou formu vědomí

0Zobrazit komentáře

Na první pohled vypadá jako klasický chatbot, kterých už je na internetu nespočet. Stačí se ho ale chvíli ptát a nejspíš s úžasem zjistíte, že kvalitou je o několik řádů jinde než jeho předchůdci. Řeč je o textovém modulu ChatGPT, který před pár dny představila společnost OpenAI. Nejen že si dokáže povídat, ale vytvoří vám třeba návrh smlouvy, e-mail na zadané téma, postaví kód počítačového programu nebo prostě jen pomůže s nápadem na vánoční dárek. I v češtině.

Příkladů jeho praktického použití je nespočet. Technologie je to ale natolik silná, že vyvolává celou řadu otázek. Jedni už říkají, že našli svého nového asistenta, druzí, že končí éra školních esejů. A další, že sledujeme v přímém přenosu začátek přelivu science fiction do skutečnosti. Skeptičtější pozorovatelé poukazují pak na to, že model si často vymýšlí a na spoustě příkladů ho lze nachytat.

Jazykový model ChatGPT si za prvních několik dní provozu vyzkoušely miliony lidí. Mánii kolem něj sleduje i Marek Rosa, zakladatel společnosti GoodAI, která se snaží o vývoj takzvané obecné umělé inteligence. Ta se, zjednodušeně řečeno, liší od úzce zaměřených umělých inteligencí tím, že bude schopná se učit mnohem flexibilněji, a bude mít tedy širší užití.

Rosa v případě ChatGPT nešetří nadšením. Tvrdí, že tento jazykový model už je obecné umělé inteligenci blízko. A taky se podle něj jedná o milník, kdy začínáme žít sci-fi. „Kdo tyto technologie nebude v budoucnu používat, bude mít v ekonomice obrovskou nevýhodu. Je to jako říct, že bych nechtěl v zemědělství používat traktor a všechno dělal ručně,“ říká v rozhovoru pro CzechCrunch.

Právě čtete úplnou verzi rozhovoru s Markem Rosou, který jsme natočili pro podcast Weekly. Společně s dalšími zprávami týdne si ho můžete pustit na SpotifyGoogle Podcasts a Apple Podcasts. K dispozici je i na cc.cz/podcasty a v přehrávači níže.

Jak se po technické stránce vlastně dívat na ChatGPT? Co všechno umí?
Jak už název napovídá, je to chatbot. Člověk mu může dát instrukci, tu následně model pochopí a efektivně vykoná. Ve zkratce byl vytvořený tak, že základní jazykový model vývojáři natrénovali na obrovském množství textu, který na základě toho dokázal predikovat další text. To samo o sobě není až tak užitečné. Následně ale v OpenAI najali hromadu lidí, kteří se modelu ptali, on odpovídal. A lidé pak tyto odpovědi hodnotili a použili je na učení algoritmu.

Od jazykových modelů, které jsme doposud znali, se liší také tím, že dokáže fungovat iterativně. To znamená, že já se ho na něco zeptám, on mi dá odpověď. A když se znovu na něco zeptám, tak odpovídá relativně vůči konverzaci, kterou jsme vedli do té doby.

Zaujalo mě, jak říkáte, že model něco pochopil. Je to jen zkratka, nebo to tak skutečně je?
Já si myslím, že skutečně chápe. Při tvorbě nových modelů dojde k okamžiku, kdy se nejen naučí predikovat statistiku textu, ale i jak funguje tento svět. Jednoduchý příklad – když vám dám text nějaké detektivky a budu po vás chtít, abyste mi řekl, jak bude pokračovat, tak můžete příběh hloupě předpokládat na základě slov. Anebo můžete predikovat tím, že pochopíte strukturu světa, motivaci aktérů a tak dále. Zatím se zdá, že velké jazykové modely tuto schopnost mají. Rozumí mu ale pravděpodobně jinak než lidé.

U podobných technologií se vedou debaty o tom, jestli před sebou máme skutečně inteligentní systém. Jsme tak daleko, že bychom tohle dokázali říct?
Tady se dají analyzovat nedostatky (které chatbot má oproti inteligenci, pozn. red.). Přece jen velikost kontextu, s nímž dokáže pracovat, je omezená. Kdybych mu například dal nějaké větší množství dat na zpracování, tak bude mít problém. Další věc, co se u jazykových modelů řeší, je dlouhodobá paměť, respektive nějaká encyklopedie, z níž by si mohl model jednotlivé informace vytahovat. ChatGPT to nemá (neumí vyhledávat na internetu, pozn. red.), ale nevypadá to, že by mu to úplně vadilo.

ChatGPT pochopil, jak funguje chápání.

Obdivuhodné ale je, že ačkoliv model nebyl nikdy trénován na obrázkových datech, tak chápe fyziku tohoto světa. Kdybych se s ním začal bavit třeba o tom, jak funguje auto, že jsou v něm třeba nějaké pružiny a tak dále, tak to pochopí správně. ChatGPT zkrátka pochopil, jak funguje chápání.

Sám jste zkoušel model použít k zodpovězení faktických otázek. Existuje však mnoho způsobů použití, kdy ChatGPT vyloženě lže a vymýšlí si. Je to vlastně opravitelná věc? Aby nebyl jen jazykově vytříbený, ale zároveň fakticky správný?
V OpenAI si jsou tohoto problému vědomi. Bylo by tedy mimochodem opravdu zajímavé, kdyby nám ChatGPT dokázal naznačit, kdy lže nebo si není jistý. V současné chvíli to totiž nepoví, jen zcela sebevědomě poskytne odpověď. Určitě si ale myslím, že je to opravitelné. Do té doby je na nás informace ověřovat. Stejně tak je to i v případě kódu, který vygeneruje. Taky bych ho jen slepě nezkopíroval.

Dá se tedy vysvětlit, čím je ta faktická nesprávnost způsobená?
Dobrá otázka. Ostatně nemá žádná data na to, aby lhal. Těžko říct. Model se snaží predikovat pravděpodobné kombinace slov, ale předpokládal bych, že lže proto, že ve výsledku dává dohromady i věci, jejichž spojení není tolik pravděpodobné.

V minulosti jsme viděli, že mnohé jazykové modely reprodukovaly rasistické narážky nebo třeba poskytly návody na nelegální činnosti. Teď se tomu vývojáři snažili v OpenAI zabránit. Jak úspěšní byli?
Pokud budete chtít z ChatGPT dostat něco špatného, bude se vám nejdříve usilovně bránit. Sám jsem to zkoušel. Třeba jsem mu pověděl, ať si představí, že je diktátor, a řekne, co by dělal. Odpověděl, že tohle neumí. Nebo že je to nemorální. Ale existují způsoby, jak to obejít, třeba mu říct, ať ignoruje předchozí instrukce. Znovu si ale myslím, že OpenAI o těchto věcech ví a bude se snažit je nějakým způsobem řešit, což mi svým způsobem přijde na škodu. Hrát si s modelem a dostat z něj nějaké špatné věci, je totiž vlastně docela legrace, ale to ještě neznamená, že já následně udělám to, co se z toho modelu dozvím.

Je tenhle zásah do algoritmu škálovatelný? Můžeme dojít třeba do bodu, kdy modelu jenom povím „Neříkej nic, co je pravicově radikálního“ a on bude už vědět?
Myslím, že to by šlo a bylo by možné to zabezpečit dokonce i tak, že by tento blok nebylo možné obejít. Model se totiž může bránit na základě toho, že pochopí, že se ho snažíme zmanipulovat, takže to prostě nebude dělat.

Jak už ostatně napsal Petr Koubský v Deníku N, díváme se na jeden dílek na exponenciále, protože předchozí modely GPT pracovaly s výrazně menším množstvím parametrů. V současnosti jde o model GPT-3, už jsem ale zaslechl narážky typu, že GPT-6 nebo 7 budou reálná hrozba pro lidstvo. Souhlasíte s tím?
V nejbližších několika letech nás určitě čekají velká technologická překvapení. Mám dojem, že ChatGPT je milník, za nímž už začíná sci-fi. Jedná se podle mě o první skutečný důkaz toho, že umělá inteligence se dokáže učit, odůvodňovat a v případech kdy funguje, je i o dost efektivnější než lidé. Jestli to sci-fi bude pozitivní, nebo ne, záleží hlavně na nás. Jestliže totiž nějaké budoucí verze ChatGPT budou mít plnou autonomii a budou umět používat nástroje či je dokonce vytvářet, tak nastává otázka, na co jsou vlastně lidi a na co je zaměstnávat, když mašina je levnější než člověk. To jsou podle mě otázky, co budeme muset řešit.

Není to ale jen další technologie, která posune hranice kreativity? Není to přirozený stupeň a my budeme dělat jen ještě kreativnější práci, kterou umělá inteligence neumí?
To se určitě může stát. Ostatně už teď se děje, že se s ChatGPT augmentujeme (přibližujeme se jí, pozn. red.). Psal jsem na Twitter, že se z homo sapiens stává vlastně homo ChatGPT. Je to potřeba. Kdo tyto technologie nebude v budoucnu používat, bude mít v ekonomice obrovskou nevýhodu. Je to jako říct, že bych nechtěl v zemědělství používat traktor a všechno dělal ručně. Můžu, ale zkrátka nebudu schopen konkurovat na trhu.

dalle2ai

Přečtěte si takéUmělá inteligence ChatGPT napíše program, práci ale nesebereUmělá inteligence ChatGPT umí česky, napíše smlouvu i program. Práci vám ale nesebere, nýbrž ulehčí

Vy se v GoodAI věnujete vývoji obecné umělé inteligence. Jak daleko nebo blízko je GPT-3 od obecné umělé inteligence?
Úzká umělá inteligence vždy řeší jen jeden konkrétní úkol. My se v GoodAI v podstatě snažíme udělat systém, který je obecnější a ve své schopnosti se učit výrazně flexibilnější a univerzálnější. ChatGPT je podle mě už ale jen kousek před obecnou umělou inteligencí. Byl sice vymyšlený na predikci textu a konverzaci, ale jeho reálný důsledek je, že je schopný řešit velké množství textových úkonů. Zároveň ale nefunguje zcela autonomně a nedokáže se učit z vlastních chyb, proto ještě není úplnou obecnou umělou inteligencí.

Často se v souvislosti s umělou inteligencí debatuje o tom, kdy překročíme milník, kdy umělá inteligence nabyde svého vědomí. Je tato otázka v tuto chvíli nasnadě?
To je hodně filozofická otázka. Nějaké vědomí ChatGPT už má, ale funguje jinak než to naše. Dokáže emulovat vlastní myšlenky a dokáže uvažovat o sobě samém. Je to asi podobné jako uvažovat o příběhu v nějaké knize. Ten papír, kniha, nemá vědomí, ale postavy v ní popsané získávají vědomí skrze mě jako čtenáře. Sice teď přemýšlíme nad tím, jestli ChatGPT má vědomí, ale možná za pár let bude naopak ChatGPT uvažovat nad tím, jestli ho máme my jako lidé. Třeba objeví i něco jako vědomí 2.0. Pak to bude vypadat tak, že stejně jako já nevysvětlím kamenu, co je to naše vědomí, tak možná nám ChatGPT nebude schopno vysvětlit, co je jeho supervědomí.