Technický a sociální experiment. Umělá inteligence sama obstarává a tvoří český sebevzdělávací web
Lidé už pro určitý obsah nejsou potřeba, říká Petr Brzek, který nechal program GPT tvořit jeho web. A varuje proti rizikům, jež s sebou AI nese.
Na první pohled celý web vypadá „normálně“. Nachází se na něm klasický seznam článků, které se tematicky věnují oblasti sebevzdělávání – jak maximalizovat svou produktivitu, pět kroků k uvolnění potenciálu či třeba devět tipů pro úspěšné manželství. Texty doprovází obyčejné obrázky z databanky. Vše ale automaticky píše i publikuje umělá inteligence, která obsah navíc překládá do různých jazyků a také ho dává na sociální sítě.
„Jde o obsah, který je velmi ‚zřejmý‘ a dlouhodobě stejný. Každý rok se publikují tisíce knih o tom, jak být lepší a jak si organizovat úkoly. Jejich kvalita je téměř identická, až na příběhy autorů, kolem nichž se ty stejné rady točí. Pro takový typ obsahu ale nejsou potřební lidé, náklady na jeho tvorbu se blíží nule,“ líčí pro CzechCrunch Petr Brzek.
Jedenatřicetiletý tvůrce webu Mindhaste.com je úspěšný startupista. Společně s dalšími třemi společníky založil startup Avocode, který v roce 2021 prodali za stovky milionů korun. „Baví mě umělá inteligence, s GPT experimentuju již dva roky. V tomto případě jde i o sociální experiment, zda to budou lidé číst a sdílet si to,“ přibližuje Brzek motivaci, proč se do projektu pustil.
„Běžní lidi nejsou schopni vůbec detekovat, jestli ty články píše člověk nebo stroj. Ani je nenapadne, že by to mohla psát umělá inteligence. Podívejte se třeba jen na babičky, které věří všemu, co na internetu vidí včetně řetězových mailů,“ pokračuje. Navzdory tomu, že jde o obecný obsah, kterého již na trhu existuje hodně, lidé mají neustále potřebu návody na sebezdokonalování konzumovat, tvrdí.
What happened to book publishing? pic.twitter.com/dggW78FDMI
— Justin Murphy (@jmrphy) February 13, 2023
Experimentální web – jenž minimálně zatím funguje neziskově – spustil Brzek v listopadu, aktuálně produkuje tři články denně a automaticky je také posílá na sociální sítě. Brzkovi přitom vždy jen přijde notifikace na Slack, že k těmto krokům došlo, a může tak zkontrolovat, jestli je obsah v pořádku. Nastavení všech nutných procesů mu trvalo týden, ovšem jen pár hodin denně, které si našel vedle svého zaměstnání na plný úvazek.
Klasické texty později z obsahového hlediska doplnil také o Q&A články a začal přidávat i „obrázky s moudry“ či s motivačními citáty, které v jiných podobách můžete na sociálních sítích zahlédnout běžně. Zatímco tvorba textů i obrázků je jednoduchá, již teď Brzek přemýšlí nad další úrovní. „Oříškem bude automatizovaná tvorba videí na YouTube, aby měla přirozené střihy a chování. To chce ještě čas a trochu pokroku, ale tvorba takových nástrojů nebude trvat dlouho,“ míní.
Na samotném webu se přímo přiznává k tomu, že obsah generuje umělá inteligence. „Není to žádné tajemství. Ale vím, že hodně tvůrců se k tomu nepřizná,“ říká Brzek a odvolává se také na morální stránku. „Obecné tipy jsou za mě v pohodě, nic o nikom netvrdím a nevytvářím lživý obsah. Tvorba fake news je ale hodně snadná, pro mě je to už ale za hranou a do budoucna to bude hodně velký problém.“
Nastartujte svou kariéru
Více na CzechCrunch JobsSám Brzek se soustředí hlavně na pozitivní aspekty technologického pokroku a možností, které umělá inteligence nabízí. Jeho dalším projektem je Občan GPT, který automaticky odpovídá na otázky související s vysvětlením textů z občanského zákoníku. Web ovšem rovnou upozorňuje, že poskytnuté výsledky nemusí být vždy správné a je třeba je konzultovat s odborníky.
„Mojí základní myšlenkou při využívání technologií umělé inteligence je, že mohou být pro lidi asistentem, se kterým mohou řešit nejen problémy v práci, ale dokáží všechno také zařídit,“ popisuje Brzek. Jak ale přiznává, minimálně zatím se lidé potřebují bavit s lidmi. Odvolává se na experiment, kdy uživatelé dostávali rady na zlepšení své nálady nebo řešení problémů. Hlásili pozitivní výsledky a zlepšení své spokojenosti. Když se pak ale dozvěděli, že se ve skutečnosti nebaví s člověkem, ale robotem, konverzace přestaly mít jakýkoliv vliv. „Uvidíme, jestli se takový přístup změní,“ dodává Brzek.
Nebezpečí umělé inteligence
Všechen obsah je třeba zpochybňovat, ověřovat, zamýšlet se nad ním. Na to ale lidé vůbec nemají čas ani energii. Petr Brzek sepsal, jaká nebezpečí související s umělou inteligencí vnímá, že již existují.
Generování fake news. GPT je pro generování falešných zpráv a řetězových e-mailů naprosto perfektní. Bláboly o všem už nemusí psát člověk, stačí dát stroji správné zadání. Náklady na generování takových zpráv jsou téměř na nule.
Generování nahotinek s vaším obličejem. Z tohoto bude ještě bolení. Už teď je totiž velmi jednoduché a nenákladné natrénovat nástroj Stable Diffusion na vašich fotkách a stačí jich pouze pět. Koukněte se na svůj Instagram, kolik tam máte fotek… S takto natrénovaným modelem můžu generovat fotorealistické obrázky s vaším obličejem a kvalita je velmi dobrá.
Tím, že je nástroj Stable Diffusion open source, na něm vzniká spousta speciálně natrénovaných modelů. Samozřejmě vznikl model postavený nad obsahem pro dospělé. Co to znamená? Je velmi snadné tvořit falešné fotky s vaším obličejem. A to ještě není všechno! S ControlNet lze generovat obrázky, které věrně replikují originální pózu. Asi chápete, co to znamená, když se všechno zkombinuje dohromady.
Generování vašeho hlasu. Tuhle oblast umělé inteligence sleduju trochu méně, ale nešlo si toho nevšimnout. Tento nástroj potřebuje asi patnáct sekund vašeho hlasu z nějakého videa nebo audia, a pak jej můžete použít kdekoliv. Viz například video Davida Guetty, který použil hlas Eminema na svém koncertě.
Co s tím? Netuším. Ale je dobré vědět, že už tady takové nástroje máme a jsou snadno dostupné. Obrázky budou nerozeznatelné od reality. Brzy se to stane i s videem. Vše, co jsem popsal, je samozřejmě ideální nástroj pro vyhrožování a šikanu. To je vše. Snad to nebylo moc depresivní. Je holt potřeba se obrnit a přidávám pro-tip: nedávejte fotky svých dětí na sociální sítě.