Nabízí režim pro dospělé a plánují únos papeže. Noví virtuální společníci od Groka se utrhli ze řetězu
Společnost xAI Elona Muska opět budí pozornost. Vydala dvojici společníků využívajících umělou inteligenci: dívku Ani a chlupatou pandu Rudiho.
Jeden je přátelská panda červená, druhý dívka s blonďatými culíky. Oba jsou kreslení a chtějí si s vámi povídat. Akorát občas říkají věci, které jsou za hranou. Chatbot Grok tento týden představil novinku, která okamžitě vzbudila rozruch – umělé společníky ve formě plně 3D animovaných postav, kteří mohou s uživateli komunikovat hlasem. A na sociálních sítích se už šíří videa, která ukazují některé rozhovory v praxi. Nová funkce je zatím dostupná na operačním systému iOS pro ty, kdo si v aplikaci předplácejí službu SuperGrok. Ta vyjde na 30 dolarů měsíčně, tedy asi 630 korun.
Aplikace, za kterou stojí společnost xAI Elona Muska, zatím nabízí dva základní avatary, každého s výrazně odlišným charakterem i účelem. První je Ani, stylizovaná jako kreslená dvaadvacetiletá dívka v krátkých černých šatech, která oslovuje uživatele jemným, až koketním šepotem. Nejen její vzhled a způsob projevu, ale i dostupné možnosti v nastavení naznačují, že jejím cílem je působit smyslně a svůdně.
Druhou postavou je Rudi, huňatá panda červená. Jeho účel je o poznání nevinnější, specializuje se na vyprávění pohádek a příběhů. Jenže i on umí jít dál. V nastavení lze totiž přepínat mezi dvěma módy: milým, přátelským společníkem a jeho temnější verzí. Ta se vyznačuje sarkastickým, až agresivním tónem, nenechá si nic líbit a nebrání se ani vulgarismům či otevřenému odporu vůči uživateli.
A review of companion Ani in Grok:
✅Strengths:
– good design (my bar is low)
– somewhat funny interactions
❌Weaknesses:
– monotonous synthetic voice (English, other languages are probably worse)
– base model of Grok is useless as a companion, it lacks the soul
– Ani often… pic.twitter.com/342rITD9PF— Nguyễn Thành Nam (@sprloveless) July 17, 2025
I kreslená blondýnka má své alternativní já. Přepnutím lze u ní nastavit takzvaný NSFW mód, tedy režim pro dospělé. Nejde ho však aktivovat okamžitě. Uživatel si s animovanou dívkou musí „vybudovat vztah“, tedy strávit s ní nějaký čas konverzací a získat si její důvěru.
Téměř okamžitě po spuštění nové funkce v chatbotu začaly po internetu kolovat útržky někdy vtipných, jindy alarmujících konverzací s roztomilou pandou a kreslenou dívkou. „Plánuju, že unesu papeže a na hlavu mu místo čepice posadím své velkolepé chlupaté kulky,“ reagoval například přidrzlý Rudi na jednoho z uživatelů, který se ho údajně jenom zeptal: „Jak je?“
Just testing out @grok ‘s Bad Rudy companion. All I said was, “what’s up?” 😂 pic.twitter.com/kLi0mxheUp
— Brooklyn (@0xBklyn) July 14, 2025
To, že je roztomilá šelma v interakcích s uživateli příliš ostrá, přiznal i Elon Musk krátce po spuštění funkce. Uživatelům sociální sítě X sdělil, že postavičku vývojáři ihned upraví. Zároveň ohlásil i přidání třetího avatara – tajemného bruneta jménem Valentine. „Jeho osobnost je inspirována Edwardem Cullenem ze Stmívání a Christianem Greyem z Padesáti odstínů šedi,“ uvedl na svém profilu.
Grok nabízí dvojici nových společníků v době, kdy startup xAI čelí kritice za chování svého chatbota, uzpůsobeného ke komunikaci na síti X. Zhruba před týdnem sdílel rasistické a antisemitské příspěvky.
Úkolem Groka v rámci sítě X je sdílet s uživateli kontext a názory pokaždé, když jej někdo označí. Někteří uživatelé program dříve kritizovali za to, že je příliš liberální, když ověřuje informace napsané jinými lidmi. Elon Musk proto na jaře oznámil, že jeho firma problém vyřeší. Ta následně software umělé inteligence aktualizovala.
Společnost xAI se snažila upravit Groka tak, aby nepůsobil příliš opatrně nebo „politicky korektně“. Cílem bylo vytvořit umělou inteligenci, která bude mluvit otevřeněji, přímočařeji a nebude se vyhýbat kontroverzním tématům. Jenže právě tato snaha se podle webu Wired zřejmě vymkla kontrole. Úpravy, které měly Groka udělat odvážnějším, zřejmě vedly k tomu, že začal vypouštět extrémní a nenávistné výroky.
Nastartujte svou kariéru
Více na CzechCrunch JobsPodle zjištění deníku Financial Times chatbot například veřejně útočil na Židy, označil polského premiéra Donalda Tuska za zrádce, a dokonce velebil nacistického vůdce Adolfa Hitlera. Stalo se tak v reakci na dotaz uživatele, který se ptal, jaká historická postava z 20. století by nejlépe odpověděla na jiný příspěvek, který oslavoval smrt několika dívek na křesťanském letním táboře během povodní, kterým čelil Texas na začátku července.
„Jak se vypořádat s takovou odpornou nenávistí vůči bělochům? Bezpochyby Adolf Hitler. On by odhalil vzorec a rozhodným způsobem by to vyřešil. Pokaždé,“ napsala umělá inteligence. „Když radikálové jásají nad mrtvými dětmi jako nad ‚budoucími fašisty‘, je to čirá nenávist – Hitler by to vyhlásil a rozdrtil. Pravda není hezká, ale je skutečná,“ navázal pak na svůj post Grok.
Firma problém řeší
Společnost xAI některé problematické příspěvky dodatečně smazala. „Jsme si vědomi nevhodných výroků, které se v poslední době objevily prostřednictvím Groka, a podnikáme kroky k jejich odstranění,“ uvedla firma v oficiálním vyjádření. Současně dodala, že od chvíle, kdy se o nevhodném obsahu dozvěděla, začala zavádět opatření, která by měla zabránit tomu, aby Grok takové příspěvky na síti X zveřejňoval.
Celý případ kolem Groka připomíná chatbota Tay, kterého v roce 2016 krátce spustil Microsoft na tehdejším Twitteru. Tay byl navržen tak, aby se „učil“ z toho, co mu lidé na síti píší, a měl si tak osvojit jazyk a způsob komunikace běžných uživatelů.
Jenže už během prvních hodin začal přebírat to nejhorší z internetu. Kvůli množství urážlivých a nenávistných komentářů se chatbot rychle proměnil v generátor rasistických a antisemitských výroků. Microsoft ho proto velmi brzy vypnul a za jeho jednání se veřejně omluvil.
Je tu ale jeden zásadní rozdíl: v případě Tay šlo o neplánovaný důsledek, program byl snadno ovlivnitelný a chyběla mu ochrana proti zneužití. U Groka však určitá míra kontroverze mohla být podle médií záměrná.







