Tvůrci umělé inteligence se musí seberegulovat. Jinak hrozí nepřiměřené zásahy vlád, říká Baudiš z Rossumu

Technický ředitel českého startupu Rossum Petr Baudiš je signatářem výzvy, která volá po pozastavení vývoje AI. Ne všichni odborníci s ní ale souhlasí.

Jiří SvobodaJiří Svoboda

baudis_1Rozhovor

Foto: Rossum

Petr Baudiš, technický šéf českého startupu Rossum

0Zobrazit komentáře

„Měli bychom vyvinout nelidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit?“ I tuto řečnickou otázku si pokládá veřejná výzva Future of Life Institute, která tento týden rezonovala mezi technologickými nadšenci. Volá po pozastavení vývoje systémů umělé inteligence silnějších, než je současný model GPT-4, na dobu šesti měsíců – a podepsali ji třeba i Elon Musk, Steve Wozniak nebo historik Yuval Noah Harari.

Mezi signatáři lze ale najít i několik českých jmen, mimo dalších třeba Petra Baudiše. Technický ředitel českého technologického startupu Rossum, který se zabývá automatizací kancelářských úkonů a s umělou inteligencí ve velkém pracuje, se obává zásadních negativních dopadů stále silnějších modelů na společnost, třeba ohledně dezinformací, ztrát pracovních míst nebo nefungujících spam filtrů.

Především se ale bojí potenciálně zdrcujícího zásahu regulátorů. „Může se nám stát něco podobného třeba jako u jádra, kde v dnešní době jadernou elektrárnu téměř nejde postavit za rozumnou cenu. A tomu bych se rád vyhnul. Myslím si, že je to motivace, aby náš sektor ukázal nějakou schopnost seberegulace,“ říká v rozhovoru pro CzechCrunch.

Ne všichni odborníci na AI jsou ale stejného názoru – proti podobné výzvě se staví třeba profesor umělé inteligence Michal Pěchouček, mimo jiné host našeho nedávného videopodcastu, nebo jeden ze světových průkopníků v oblasti velkých jazykových modelů Tomáš Mikolov. Reakce druhého jmenovaného přidáváme do informačních boxů přímo do rozhovoru.

Právě čtete upravenou verzi rozhovoru s Petrem Baudišem, který jsme natočili pro podcast Weekly. Společně s dalšími zprávami týdne si ho můžete naladit každou neděli.

Více

Motivace pro tuto výzvu je nějaký strach. Čeho se přesně bojíte?
Dvou věcí, které mají spíš krátkodobý charakter. Jednou z nich jsou škody ve společnosti, které umělá inteligence síly větší než GPT-4 může napáchat. A druhá je reakce států a vlád, která může být na druhou stranu nepřiměřená, protože může být založená na strachu z neznáma a nevědomosti. A priori neříkám, že nechceme žádnou regulaci, ale může se nám stát něco podobného třeba jako u jaderné energie, kde v dnešní době jadernou elektrárnu téměř nejde postavit za rozumnou cenu. A tomu bych se rád vyhnul. Myslím si, že je to motivace, aby náš sektor ukázal nějakou schopnost seberegulace.

Zatím se ale opravdu nebojím toho, že by vznikla obecná umělá inteligence, která svět promění na papírové sponky. Nicméně stojí za to o tom mluvit. Pokud je šance na vytvoření umělé inteligence, která ohrozí lidstvo, třeba pět procent, normálně byste takové riziko nepodstoupili.

Nastartujte svou kariéru

Více na CzechCrunch Jobs

V té výzvě se píše, že riskujeme ztrátu kontroly nad naší civilizací, pracovními místy, dezinformacemi. Podobné hlasy už v tom prostoru slýcháme léta. Proč tedy zrovna teď?
Protože technologická realita se posunula velmi dramaticky nejnovějším modelem GPT-4 od OpenAI. Jeho schopnost jakéhosi uvažování, vyjadřování a reakcí se už dostává do takové úrovně, že můžeme být velice na vážkách, co se stane s různými povoláními nebo jaká je například budoucnost spam filtrů či dezinformačních nástrojů jako deep fakes. Ten seznam negativních důsledků může být velice dlouhý a je pravděpodobné, že v nejbližších šesti měsících celá společnost na vlastní kůži nějaký zažije. Nedokážu ale předpovědět, jaký to bude.

Co je ten aspekt nových jazykových modelů, který je teď nejrizikovější?
Znovu, nebojím se vyhlazení lidstva, ale krátkodobějších účinků – ztráty důvěry v cokoliv, co čtu, co vidím. Klidně to může být technologie na výrobu deep fakes, začínají se objevovat čím dál více. Co se GPT-4 týče, tam ten nejrizikovější aspekt je, že i z velmi složitých zadání dokáže vygenerovat text takřka k nerozeznání od toho, co by mohl udělat člověk. A to může být problém pro různé spam filtry (protože individualizované zprávy jimi lépe proklouznou – pozn. red.) nebo pro různá povolání, protože si firmy uvědomí, že ty lidi nepotřebují.

Co si myslí expert na jazykové modely Tomáš Mikolov o riziku většího spamu?
„Souhlasím, že spam je problém, ale nevyřešíme ho tím, že přestaneme trénovat lepší modely. Na tvorbu spamu můžeme použít nástroje jako ChatGPT, ale ty stále kontroluje OpenAI a Microsoft. Pokud by někdo používal ChatGPT na jeho masivní generování, budou schopni to zastavit.“

Zmínil jste fenomén deep fakes, nicméně ty už přece fungují. Zároveň když se podíváme na věci typu doporučovací algoritmus na Netflixu, tak obsah máme individualizovaný už teď. Nepředstavuje teda AI riziko, se kterým jsem se schopni jako společnost vyrovnat?
Jasně, ale to je algoritmus v nějaké krabici, řeší užší problém a například vám řadí filmy. Jenže najednou budeme v situacích, kde třeba budete v nějaké online komunitě, v níž jste dříve byl s lidmi. A najednou nevíte, kdo je robot a kdo člověk. Takže pokud by někdo s dostatečným rozpočtem chtěl položit Reddit, tak ho prostě zavalí umělými posty, které se budou velmi těžko rozpoznávat umělou inteligencí. A je otázka, co se stane dál. Jeden z těch důsledků může být ten, že třeba ztratíme anonymitu online a každý bude muset mít spárovaný svůj účet s občankou jako garanci, že jeho příspěvky nezveřejňuje AI.

Jeden z často zmiňovaných problémů jazykových modelů je, že zpravidla nejsme schopni porozumět, co se uvnitř nich děje a nevíme, co se učí. Kdybychom ale do nich mohli nahlédnout, snížilo by to pravděpodobnost dystopických scénářů?
Na toto jsou názory v komunitě rozpolcené. Já to nevnímám jako ten hlavní problém. I kdybychom algoritmu zcela rozuměli, tak podle mě nebudeme nijak zásadně dál v umenšování rizik, které z těch systémů plynou. Nicméně nahlížení do algoritmů je velmi obtížný problém – jako kdybyste po neurologovi chtěl, aby se nějak podíval do mozku a zjistil, co si ten člověk opravdu myslí.

Takže podle vás ta netransparentnost, to, že nevíme, proč ChatGPT došlo k odpovědi, k jaké došlo, není vlastně problém?
Za mě to problém není. Záleží na tom, jaká je to odpověď. Někdo by mohl namítnout, že když rozumíme, co to dělá, tak ten systém můžeme více ovládat, lépe řídit. Ukazuje se ale, že to umíme i bez toho. To je třeba devíza ChatGPT, které se učí na základě zpětné vazby od lidí a jsme tedy schopni ho ovlivňovat docela dobře tak, jak chceme.

Názor Tomáše Mikolova na transparentnost umělé inteligence:
„Hlavní problém interpretace AI vidím jinde, a to v trénování dat. Jsou tu lidští anotátoři, kteří systém doupravují a tlačí ho do určitých odpovědí. Jenže pak se objevují příklady, že dáte ChatGPT politický dotazník a zjistíte, že z něj vzejde jako ultralevicový. Nechci soudit, jestli je to špatně, nebo dobře, ale pokud budeme modely tlačit do názorů, je to nakonec riziko.“

Výzva volá po šestiměsíční pauze v trénování systémů umělé inteligence, které jsou silnější než GPT-4. Co by se během této pauzy mělo stát?
Podotknu jen, že to memorandum je právě takto úzké – jen na šest měsíců a jen na modely silnější než ty, co už máme. Pokud by bylo o něco širší, osobně už bych měl problém ho podepsat. Konkrétně potřebujeme čas na to, aby si společnost dokázala zvyknout, co ten nový fenomen dělá. Můžeme zažít jak negativní, tak pozitivní důsledky, vytvořit si nějaký názor a určit si, co od těch systémů chceme. Politici si trochu ujasní, co si od nich lid žádá, proběhnou nějaké intelektuální diskuse.

Druhá část je, aby se ta komunita výrobců AI dokázala zamyslet nad nějakými sdílenými standardy a seberegulací. Ve srovnání s jinými obory má totiž teď obor softwarového inženýrství velice nízký standard bezpečnosti. Strojaři tak jsou zvyklí stavět letadla, výtahy či mosty, které nepadají. U softwarových inženýrů je to spíš otázka snahy.

Není vlastně pozdě na požadované zastavení, když teď jede rozvoj naplno? Přece jen to tak trochu odpírá základním principům kapitalismu, ve kterém žijeme.
Dobře, ale v základních principech kapitalismu je i regulovaná letecká doprava, jaderná energie. I ta strojařina. Já se právě bojím, že v případě AI poletíme bezhlavě dopředu, tak ta regulace přijde a bude velkou ranou pro celý ten sektor. Když budeme opatrnější, tak možná regulace přijde také, ale vlády budou cítit zodpovědnost na druhé straně a nebude takový tlak regulaci přestřelit.

Pohled Tomáše Mikolova na regulaci umělé inteligence:
„Problém výzvy je, že vůbec není mířená na nás, na Evropu, protože velké jazykové modely se dělají téměř výhradně v USA a Číně. Ale tam se zastavením vývoje nikdo nebude zabývat. My se tu bavíme o zdánlivé regulaci, ale vůbec neřešíme příležitosti a tyto technologie tu nevznikají. Nakonec se nám pak Američané vysmějí a budou nám AI opět prodávat z monopolního postavení.“

Zpráva z pátku říká, že Itálie zakázala ChatGPT. Jak se na tento krok díváte? Je toto ta regulace, která dává smysl?
Italský regulátor zakázal ChatGPT z obavy, aby při fungování nepoužíval data z interakcí s italskými uživateli, protože je považuje za důvěrná data. To je velmi specifický a úzký scénář, který bych nezobecňoval na problém, který tady řešíme. Je totiž možné, že OpenAI přijde s odstavečkem navíc do svých podmínek použití a úřad to zase povolí.

Otázka, co výrobci umělé inteligence mohou používat na trénování svých modelů, je velmi široká. Já v tomto mám střed zájmu jako technický ředitel firmy, která by také ráda používala co nejvíc dat na trénink. Ale myslím si, že jde vždy o vyvažování rizik a prospěšnosti. Je otázka, jaká jsou rizika použití osobních dat zrovna v jazykových modelech. Faktem je, že v oblasti péče o zdraví se umělá inteligence používá mnohem méně, než jaký má potenciál – a možná nás to stojí mnoho lidských životů. Ale druhý fakt je, že používat právě zdravotní informace lidí na cokoliv je z legálního hlediska strašně obtížné.

Ta výzva je do značné míry idealistická. I kdyby se teď vývoj AI nezastavil a lidé se nezačali zamýšlet, vidíte i tak nějaké scénáře, kde se vlastně nic hrozného nestane?
Nevím, jestli se nestane nic. Každá nová technologie přináší rozruch a mění se díky ní společnost. Na druhou stranu všichni, kdo v tom oboru pracujeme, věříme, že se změní k mnohem lepšímu. Děláme to všichni proto, aby jsme lidstvo posunuli dopředu, ale samozřejmě některé dílčí změny asi budou bolet. A jde o to, aby nebyly příliš drastické a aby to celé nešlo nějakým šíleným směrem. Já věřím, že se tak nestane, ale bavme se o tom, jaké jsou na to šance.

Midjourney kvůli zneužívání a velkému zájmu zastavilo neplacenou verzi. Problém tím nejspíš nevyřeší

Nová verze obrazového generátoru umí ještě realističtější snímky, čehož lze zneužít. Dočasné omezení má zastavit šíření falešných obrazů.

Jiří BlatnýJiří Blatný

emmawatsonmidjourneycover

Foto: Midjourney/CzechCrunch

Emma Watson na snímku vyrobeném umělou inteligencí od Midjourney

0Zobrazit komentáře

Stylový papež v péřové bundě, smějící se celebrity. Také ale Donald Trump v poutech vedený policisty. Nová verze obrazového generátoru Midjourney za pár dní od svého vydání udivuje, ale i děsí svými schopnostmi. Stejnojmenná firma, která za programem stojí, nyní zrušila neplacený přístup ke své službě. Jeho součástí sice nejnovější verze není, podle zakladatele Davida Holze se k omezení přístupu nicméně rozhodli kvůli rostoucím případům zneužití a nedostatečné výpočetní kapacitě.

Midjourney svou verzi zdarma přes komunikační platformu Discord pozastavilo už dříve v průběhu tohoto týdne. Tehdy zakladatel a ředitel David Holz uvedl, že důvodem je mimořádná poptávka uživatelů a zneužívání neplaceného zkušebního přístupu, informoval americký deník Washington Post. V oznámení na Discordu Holz dodal, že má v plánu přístup zdarma obnovit, jakmile firma v tomto ohledu zavede odpovídající opatření.

„Přístup jsme zastavili kvůli obrovskému množství lidí, kteří si vytvářejí falešné účty, aby získali obrázky zdarma,“ upřesnil důvody Holz technologickému serveru The Verge. Zakladatel Midjourney řekl, že mimořádný zájem připisuje virálnímu návodu ke zprovoznění bezplatné verze, který se nedávno začal šířit v Číně. „Stalo se to ve stejné době, kdy byl dočasný nedostatek grafických karet. Tyto dvě věci se spojily a způsobovaly výpadek služby pro placené uživatele,“ dodal Holz.

Omezení neplaceného přístupu ovšem šíření těch nejpřesvědčivější obrazů s největší pravděpodobností nezamezí. Nejvýkonnější pátá veze je totiž dostupná jen platícím uživatelům a lidé se zkušební verzí k ní tedy neměli přístup ani před nynějším opatřením.

Nastartujte svou kariéru

Více na CzechCrunch Jobs

Nová, v pořadí už pátá, verze obrazového generátoru Midjourney vyšla před pár dny a od té doby se kvůli jejím zlepšeným schopnostem objevily obrazy, které opět o něco přesvědčivěji vypadaly jako reálné fotografie. Internet obletěl například papež František v bílé péřové bundě. V souvislosti s aktuálním obviněním bývalého amerického prezidenta Donalda Trumpa v případu úplatku za mlčení pornohvězdy Stormy Daniels se ovšem začaly objevovat snímky vygenerované právě pátou verzí Midjourney, které Trumpa zobrazovaly v poutech vedeného policisty. Nic takového se ale doopravdy nestalo.

Omezení obsahu, který lze v Midjourney generovat, jsou liberálnější než u některých konkurenčních služeb, třeba u DALL-E 2 od OpenAI, ale restriktivnější než u Stable Diffusion od Stability AI. V souvislosti s rychlým vývojem generativní umělé inteligence část odborníků volá, aby tvůrci takových programů výrazně zpomalili svou práci. Konkrétně chtějí šestiměsíční pauzu ve vývoji AI, při které by se lidé v oboru dohodli na obecných pravidlech bezpečnosti a odpovědnosti.

Například Itálie také aktuálně přímo zákazala používání čím dál oblíbenějšího systému umělé inteligence ChatGPT. Podle tamního regulačního úřadu totiž narušuje osobní údaje svých uživatelů. Firmě OpenAI, která za jejím vývojem stojí, hrozí nyní vysoká pokuta, pokud nezjedná nápravu.