Hrozí, že si přišktíme vývoj. Šéfové Airbusu či Siemensu varují před novou regulací umělé inteligence

Evropský parlament schválil regulaci umělé inteligence, ovšem s námitkami některých firem. Nelíbí se jim předpisy uvalené na generativní modely.

Jiří SvobodaJiří Svoboda

eu-1

Foto: CzechCrunch (vytvořeno s pomocí umělé inteligence)

Evropská unie hledá svůj postoj vůči umělé inteligenci

Dění kolem generativní umělé inteligence připomíná balancování na kladině. Skupina technologů nedávno varovala před riziky spojenými s jejím rychlým rozvojem a volala po regulaci. Ta Evropským parlamentem skutečně prošla, jenže jiné osobnosti evropského byznysu se teď naopak obávají, že je příliš silná a mohla by starý kontinent znevýhodnit na globálním trhu. Zejména v otázce generativních modelů umělé inteligence, jako je GPT.

Otevřený dopis, který se kriticky opírá do parlamentem schváleného Aktu o umělé inteligenci, podepsali předsedové představenstev a generální ředitelé takových firem jako E.ON, Siemens, Dr. Oetker, Heineken, Renault, Ubisoft nebo Airbus. Ačkoliv uznávají, že umělá inteligence má svá rizika, s nimiž je třeba se vypořádat, větší důraz kladou na negativní důsledky plynoucí z přílišného omezování.

„Taková regulace by mohla znamenat, že vysoce inovativní společnosti přesunou své aktivity do zahraničí a investoři stáhnou z evropského trhu svůj kapitál na vývoj jazykových modelů a umělé inteligence obecně. Výsledkem by byla kritická propast v produktivitě mezi oběma stranami Atlantiku,“ píše se v dopise adresovaném Evropské komisi, Evropské radě a Evropskému parlamentu.

Signatáři tvrdí, že především na velké jazykové modely by návrh uvalil taková pravidla, která by znemožnila je v Evropě efektivně vyvíjet. Tento typ umělé inteligence se podle nich stane až geopolitickým nástrojem. „Státy s nejvýkonnějšími jazykovými modely budou mít rozhodující konkurenční výhodu. Budou to mocné nástroje, které utvářejí nejen naši ekonomiku, ale také naši kulturu. Evropa si nemůže dovolit zůstat stranou,“ stojí dále v dopise.

Akt o umělé inteligenci třídí AI systémy do několika kategorií podle rizikovosti a některé zcela zakazuje. Ovšem jazykové modely jsou z většiny předpisů vyjmuty a mají v návrhu speciální kategorii. Ve skutečnosti byly do legislativy přidány až na poslední chvíli. Na jejich tvůrce tak padnou především paragrafy, které se týkají transparentnosti. Uživatelé by kupříkladu vždy měli vědět, že komunikují s umělou inteligencí a nikoliv člověkem, zároveň by tvůrci podobných systémů měli transparentně dokumentovat rizika a pracovat na odstranění těch, která jsou předvídatelná, už během vývoje.

„Transparentnost znamená, že systémy by měly být používány a vyvíjeny tak, abychom mohli přiměřeně trasovat a vysvětlit nějaké rozhodnutí. Nicméně na několika místech se zmiňuje technická proveditelnost transparentnosti. Zákonodárci si jsou vědomi, že plná transparentnost není možná a třeba nějaké konkrétní rozhodnutí systému jako ChatGPT je těžké vysvětlit,“ řekla v nedávném rozhovoru právnička Alžběta Solarczyk Krausová, která se touto oblastí zabývá.

alzbeta-solarczyk-krausova

Přečtěte si takéNa regulaci umělé inteligence je vidět, jak chceme v EU žít, říká právničkaKontrola versus soukromí. Na regulaci umělé inteligence je vidět, jak chceme v EU žít, říká právnička

Ačkoliv jsou tak některé z paragrafů poměrně vágně napsány, podle signatářů by Evropská unie měla z požadavků ještě ubrat, protože je podle nich zbytečné regulovat systémy, jejichž rizika ještě ani nevyplynula na povrch. Volají také po agilnějším, méně byrokratickém procesu. Akt také totiž například obsahuje klauzule o zřízení nového úřadu a povinných registracích pro tvůrce systémů umělé inteligence.

Ačkoliv jindy mohou být otevřené dopisy jen gestem, v tomto případě má šanci ještě s legislativou pohnout. Po schválení Evropským parlamentem totiž zákon čeká ještě schvalovací proces v Evropské komisi a Evropské radě, respektive mezi ministry členských států EU. Společnosti jako Google a OpenAI navíc mezitím podle CNBC a The Time v Bruselu lobbují za další zmírnění regulací.