Má ruce, nohy i obličej, ale kolega to není. Amazon začíná ve svých skladech testovat humanoidní roboty

První humanoidní robot ve službách Amazonu nese jméno Digit. Má usnadnit práci lidským zaměstnancům, je ale otázka, zda je spíš nenahradí.

Tomáš ChlebekTomáš Chlebek

amazon-digit-1

Foto: Amazon

Nový humanoidní robot ve službách Amazonu se jmenuje Digit

0Zobrazit komentáře

Není tomu tak dávno, co humanoidní roboti byli především devízou sci-fi, marketingových kampaní velkých firem nebo videí od na roboty zaměřené společnosti Boston Dynamics. Teď se ale mají skutečně vydat doplňovat lidské pracovníky, a to ve skladech Amazonu. Firma tvrdí, že jejím záměrem je uvolnit lidem ruce pro jinou práci a že ani do budoucna nepočítá s tím, že by je dokázala plně nahradit.

Vysoká míra robotizace není nic nového, ostatně například logistická firma DHL už přes rok používá autonomní roboty od zmíněných Boston Dynamics a jen před několika měsíci se v českém Kojetíně otevřelo robotické distribuční centrum Amazonu. Novinka jde ale ještě o kus dále, skutečně jde totiž o stroj, který svými fyzickými proporcemi relativně úzce kopíruje ty lidské.

Digit, jak se nový robot Amazonu jmenuje, má hlavu, torzo a vysoce pohyblivé paže i nohy. Na rozdíl od konvenčnějších – a technicky podstatně jednodušších – robotů na kolečkách se tak dokáže pohybovat ve složitějším prostoru a vystoupá třeba schody. Právě to je pro firmu, která má už mnoho skladů přizpůsobených specificky lidské fyziologii, důležité.

Proto se také startup Agility, jenž za designem Digita stojí, stal jedním z pětice prvních, které od Amazonu loni v dubnu dostaly celkem miliardu dolarů z fondu pro podporu technologických inovací Industrial Innovation fund. Nový robot se teď začne testovat ve vybraných skladech retailového giganta s otázkou, zda dokáže zefektivnit jejich každodenní chod.

amazon-digit-2

Foto: Amazon

Digit má podle Amazonu usnadnit práci lidem, ne ji nahradit

„Je to experiment, který podstupujeme, abychom zjistili více o možnostech využití pohyblivých robotů,“ řekl pro server BBC Scott Dresser z Amazon Robotics. Nasazení humanoidních robotů místo pracovníků z masa a kostí v mnoha pozicích je nejspíš jen otázkou času, zatím ale má jít skutečně pouze o prvotní testy, které pomohou určit, kterým směrem se vydat. Cílem je samozřejmě maximalizovat počet odbavených zásilek a minimalizovat náklady.

Na jednu stranu jde o potenciálně zásadní technologický posun, který by mohl znamenat výrazný nárůst míry automatizace nejen ve skladech Amazonu. Na druhou to ovšem představuje potenciální ohrožení pracovních míst milionů lidí, kteří objednávky vyřizují nyní. Firma už teď využívá přes 750 tisíc robotů, kteří na různých úrovních spolupracují s lidmi, alespoň teoreticky. V praxi se ovšem v minulosti objevila zranění způsobená právě společným nasazením lidských zaměstnanců s automatizovanými stroji.

Nastartujte svou kariéru

Více na CzechCrunch Jobs

I teď se pochopitelně ozvaly hlasy varující, že technologie jako Digit často vedou k propouštění lidí ve prospěch levnější mechanické pracovní síly. BBC v tomto ohledu cituje Stuarta Richardse z britských odborů GMB, podle něhož je „automatizace Amazonu závodem směrem k propouštění lidí. Už nyní jsme kvůli tomu ve skladech mohli pozorovat, jak nám před očima zmizely stovky pracovních pozic.“

Firma na druhou stranu ujišťuje, že její kroky sice nahradí velkou část dosavadní lidské práce, ale zároveň vytvoří mnoho dalších pozic. Celé je to prý o uvolňování pracovníků pro vykonávání kvalitnější služby pro koncové zákazníky. „Zahrnuje to 700 kategorií nových typů pracovních pozic, které v rámci firmy dříve neexistovaly,“ tvrdí Amazon.

Automatizace, její výhody a problémy patří obecně mezi nejaktuálnější témata současnosti, a to zdaleka nejen v případě fyzických činností ve skladech nebo továrnách. Například ředitel IBM letos řekl, že umělá inteligence jako ChatGPT do pěti let nahradí vyšší jednotky tisíc lidí v administrativě. Čím dál více se proto diskutují a testují alternativní společenské modely jako kratší pracovní týden nebo nepodmíněný základní příjem.

Mluvím s umělou inteligencí, nebo se svým šéfem? Nová doba přináší nové útoky, je třeba se připravit

Umělá inteligence s sebou nese řadu zásadních změn na poli kybernetické bezpečnosti. Takzvaný deepfake dostal nový rozměr, odhalit podvod je těžší.

Milan KubálekMilan Kubálek

AI/šéf

Foto: Midjourney/CzechCrunch

Umělá inteligence posouvá i možnosti kyberpodvodníků

Do jisté míry jsme se naučili být obezřetní před phisingovými útoky, které se provádí pomocí e-mailu. Co když vám ale zavolá třeba nadřízený a bude rychle potřebovat přístup k jistým citlivým údajům? Na telefonu vidíte jeho kontakt, slyšíte jeho hlas a vidíte také jeho obličej. Váš šéf navíc plynule reaguje na všechny dotazy a podněty. Zkrátka všechno vypadá normálně. Je to však opravdu váš nadřízený? Měli bychom zpozornět?

Ve skutečnosti to může být výtvor umělé inteligence. Moderní technologie na nás kladou stále vyšší nároky. Nástup umělé inteligence je obrovskou výzvou, zároveň s sebou ale nese nutnost větší obezřetnosti a opatrnosti. Odhalit falešného volajícího, který si s ní pomohl a není tím, za koho se vydává, je stále těžší.

Před námi totiž stojí nové typy útoků a podvodů, které sice vychází ze známých principů, ale jejich technologické provedení je na mnohem vyšší úrovni. Ta se navíc neustále zdokonaluje a posouvá. Bez kritického myšlení a základních znalostí je proto čím dál těžší rozeznat skutečnost od fikce či podvodu.

Obezřetnost proto je a bude na místě vždy, snad s výjimkou osobního hovoru se skutečným člověkem. Fyzické avatary, které jsou klonem skutečných lidí, totiž naštěstí ještě nemáme. Zatím, říká Milan Kubálek, odborník na umělou inteligenci ze společnosti Trask.

***

Obrana v době umělé inteligence

Doba umělé inteligence je bezpochyby revoluční. Z pohledu ochrany před kybernetickým útokem se však pro nás, uživatele, revoluce nekoná, je třeba se posunout pouze evolučně.

Kupříkladu metoda Zero Trust „Never Trust, Always Verify“ je mezi zásadami kybernetické bezpečnosti dlouhou dobu. Pokud nechceme být pro útočníky snadným cílem, je třeba tuto a další metody důrazně dodržovat. Jak na to?

Falešný videohovor za pomoci AI můžeme odhalit například banálním dotazem na nějakou aktuální skutečnost. Pokud máme mít hovor s osobou, kterou známe, můžeme se zeptat na nějaký fakt, který není veřejně publikován. Jestliže máme silné podezření, můžeme hovor ukončit a osobě zavolat zpět.

Neosobní komunikace může probíhat skrze e-mail, chat nebo telefonický hovor. V tomto případě obecně platí, že pokud nemáme stoprocentní jistotu, kdo s námi skutečně komunikuje, nikdy nesdělujeme žádné osobní informace a už vůbec žádná citlivá data.

Někdy se útoky můžou tvářit prostě jako zábava. Co může být nebezpečného na tom, že si zkusím, jak bych vypadal či vypadala jako známá panenka Barbie nebo její protějšek Ken? Ukázalo se, že jen minimum uživatelů zjišťovalo, jaké informace o sobě použitím aplikace poskytnou úplně cizím lidem a co s nimi může provést umělá inteligence. Před aplikacemi varovaly úřady pro kybernetickou bezpečnost řady zemí. Tvůrci aplikace nikde nespecifikovali, co s nasbíranými daty udělají.

Jednoduchým příkladem je situace, kdy obdržíme sms zprávu od přepravní společnosti s číslem zásilky a odkazem na její sledování. Neklikáme na odkaz, ale otevřeme online sledování zásilky dané přepravní společnosti, které jednoduše online vyhledáme a použijeme číslo zásilky uvedené ve zprávě. V případě fiktivní zásilky, a tedy podvodu, pod daným číslem nenajdeme adresovanou zásilku.

Obrana proti kybernetickým hrozbám samozřejmě nestagnuje. Technologie umělé inteligence nám totiž může skvěle posloužit i z druhé strany. Díky AI se velice efektivně zvyšuje úspěšnost detekce a zmírnění rizika kybernetických útoků.

Jak fungují falešné videohovory?

Z pohledu technologie stojí za falešnými hovory generativní adverzní sítě – typ modelů hlubokého učení složený ze dvou entit – generátoru a diskriminátoru. Úkolem generátoru je naučit se nahrazovat obličej podvodníka na videu tváří, která je dané osobě dobře známá. Typicky se jedná o šéfa, kolegu v práci nebo kamaráda.

Cílem je, aby diskriminátor nebyl schopen rozeznat rozdíl mezi reálnou a podvrženou tváří na videu. Ačkoliv se tyto modely výrazně posouvají kupředu zejména s rozvojem generativní umělé inteligence, stále mají své slabiny, které můžeme při odhalování falešných videohovorů využít.

Za prvé – vyžadují vysoký výpočetní výkon. Pro generování falešného videa ve vysoké kvalitě a v reálném čase je nutné mít k dispozici specializované výpočetní stanice s výkonnými grafickými kartami. Ceny těchto stanic se mohou pohybovat v řádu milionů korun dle výkonu grafických zdrojů.

kubálek

Foto: Trask

Milan Kubálek je odborník na umělou inteligenci ve společnosti Trask

Alternativa v podobě pronájmů těchto zdrojů od poskytovatelů cloudových služeb je lehce odhalitelná. Samozřejmě za předpokladu, že podvodník nedisponuje specializovanými znalostmi v této oblasti. Z těchto důvodů proto útočníci využívají spíše videa ve výrazně nižší kvalitě, která jsou na první pohled rozmazaná.

Za druhé – pro vytvoření uvěřitelného falešného videa je nutné velké množství fotek nebo videí napodobované osoby ve vysoké kvalitě. Proto můžeme vidět mnoho ukázek na tvářích celebrit a známých osobností, kde jsou tyto podklady veřejně dostupné.

S rozšířením sociálních sítí je však stále jednodušší získat data i o „obyčejném“ člověku. Stále ale platí, že čím méně kvalitních vstupů podvodník má, tím větší úsilí musí vynaložit, aby podvodné video vypadalo reálně. Mezi standardní neduhy podvodných videí patří například „plastická“ mimika tváře, neproporcionální symetrické rysy (levé ucho výrazně jiné než pravé) nebo šumění v okolí obličeje.

Nastartujte svou kariéru

Více na CzechCrunch Jobs

Jako každá technologie má i umělá inteligence dobré a špatné uplatnění. Dokáže výrazně zlepšit kvalitu podvodných videí, může ale také přispět k samotné ochraně před nimi. Od roku 2019 funguje iniciativa předních technologických firem a institucí jako Facebook, Microsoft nebo řady světových univerzit, která se soustředí na podporu vývoje nástrojů pro odhalování falešného obsahu na internetu.

Jaké jsou další příklady zneužití

Kybernetické podvody můžeme rozdělit do dvou hlavních kategorií:

  • Interaktivní, které jsou typicky cílené na konkrétní osobu, s níž je vedena komunikace s cílem přesvědčit ji k okamžité konkrétní akci, například předat informaci. Jsou potenciálně velmi nebezpečné, zejména pokud má útočník detailní znalosti o konkrétní osobě a jejím okolí.
  • Ovlivňující, které jsou typicky směřované na skupinu osob s cílem ovlivnit názor napadených, například vybrané skupiny voličů před volbami. Tato kategorie je nebezpečná zejména v okamžiku, kdy je její distribuce správně načasovaná – nejúspěšnější útoky jsou koordinované, fungují jako kampaně, které na sebe navazují a doplňují se navzájem.

Už dnes funguje dezinformační scéna, které přitom k cíli ovlivnit názor lidí mnohdy stačí textové informace. Využívá ale i takzvané deepfakes, tedy uměle vytvořené fotky či video. Lze očekávat obrovský nárůst obrazového obsahu.

business-mvp-x

Přečtěte si takéAI řídila byznys. Byla ve ztrátě, halucinovala a zažila krizi identityUmělá inteligence dostala za úkol řídit malý byznys. Jak to šlo? Prodělala a zažila krizi identity

Čeho tak může hacker (což může být prakticky kdokoliv) docílit? Zejména ovlivnění voleb i referend či změny nálady a preferencí lidí. To vede k polarizaci společnosti, což se dnes již intenzivně děje pomocí sociálních sítí. Pomocí umělé inteligence se to však celé posouvá na novou úroveň. S novými technologiemi lze nahrazovat nebo obejít kontroly založené na biometrii, tedy rozpoznávání hlasu či tváře, tedy například FaceID.

CC Premium

Partnerem článku je Trask