Altman u Gatese: Mám rád Vivaldiho a používám Slack. OpenAI mezitím začalo spolupracovat s Pentagonem

Bill Gates s šéfem OpenAI mluvil i o rizicích umělé inteligence. Startup pak upravil své stanovy, aby mohl pracovat s americkým ministerstvem obrany.

Jiří BlatnýJiří Blatný

altman-gates

Foto: Microsoft / Depositphotos

Sam Altman a Bill Gates

0Zobrazit komentáře

Ve zhruba půlhodinovém podcastu zakladatele Microsoftu Billa Gatese se ředitel OpenAI Sam Altman nedávno rozpovídal o své oblíbené hudbě a padla i otázka, jakou mobilní aplikaci používá nejčastěji. Řeč přišla i na seriózní témata. Gatese zajímalo, jak se podle Altmana vyvine umělá inteligence (AI) v příštích několika letech, jak ovlivní pracovní trh nebo jak je ji třeba regulovat kvůli bezpečnosti. Altmanův startup poté zvedl obočí pozorovatelům bezpečnosti na poli umělé inteligence, když zmírnil podmínky užití svých produktů pro vojenské účely a oznámil spolupráci s americkým ministerstvem zahraničí.

Když se dnes debatuje o umělé inteligenci, nabízí se otázka regulace této technologie. Výjimkou nebyl ani podcast Billa Gatese, jehož Microsoft je v OpenAI významným investorem. Altman v něm prohlásil, že o regulaci lidé přemýšlejí špatně. Podle něj by se neměli bavit o zpomalování vývoje, ale o určení hranice, od které by pro projekty platila přísnější pravidla. „Nad onou hranicí by každý systém AI musel podléhat mezinárodním regulátorům, auditům, musel by projít testy, než se vydá, navrhl Altman. V podcastu na sebe prozradil, že nedá dopustit na komunikační platformu Slack a že mu při práci hraje moderní předělávka Vivaldiho Čtvero ročních období od německého skladatele Maxe Richtera.

Na základě svého světového turné z minulého roku má Altman prý pocit, že si světoví lídři notují v tom, že je technologii třeba regulovat. Shoda už ale není v tom, jak přesně to udělat. Zatímco Evropská unie volí spíše preventivní přístup a zaměřuje se na klasifikaci AI systémů na základě jejich rizikovosti, Spojené státy jdou směrem decentralizovaným s minimem federálních právních předpisů, což má prospět inovacím a rychlejšímu vývoji umělé inteligence. Kritici ale takovému přístupu vyčítají, že tlačí byznysový zisk na úkor bezpečnostních rizik.

Neuklidnilo je ani to, že OpenAI nedávno oznámila spolupráci s americkým ministerstvem obrany na vývoji programů v oblasti kyberbezpečnosti. Stanovy firmy přitom dlouho poskytování systémů umělé inteligence armádním partnerům zakazovaly. V podmínkách použití programů od OpenAI ale už není klíčová část, která takovou kooperaci upravovala, upozornil server The Intercept. Kromě kybernetické bezpečnosti má OpenAI s Pentagonem spolupracovat na prevenci sebevražd z řad armádních veteránů, uvedla agentura Bloomberg.

Podle mluvčího OpenAI Niko Felixe podmínky stále neumožňují použití AI pro vývoj zbraní, ničení majetku nebo ubližování lidem. Odborníky na technologii ale krok přesto znepokojil. „Vzhledem k dobře známým případům zkreslení a halucinací, které se vyskytují ve velkých jazykových modelech, a jejich nepřesnosti, může použití ve vojenství vést jedině k nepřesným a neobjektivním operacím, které pravděpodobně povedou ke zvýšení škod a počtu civilních obětí,“ uvedla pro The Intercept Heidy Khlaaf, expertka na strojové učení, která s výzkumníky OpenAI v roce 2022 napsala studii ohledně potenciálních rizik umělé inteligence.

Že s sebou vývoj AI nese velké riziko, toho si je Altman dobře vědom, svěřil se Gatesovi. Pokud by prý měl dát někomu jednu radu, řekl by, že „lidé nerozumí riziku. Bojí se opustit pohodlí a něco udělat. Pak se ale koukají zpět a litují, což je ještě riskantnější“. Lidstvo se podle Altmana už v minulosti dokázalo vypořádat s různými technologickými revolucemi. „Nejděsivější tak není to, že se novince budeme muset přizpůsobit. To umíme. Děsivá je rychlost té změny. Je to nejrychlejší technologická revoluce v historii,“ řekl Altman Gatesovi.

Svět letos v souvislosti s umělou inteligencí čeká náročný rok. Více než polovina lidské populace jde v roce 2024 k volbám a panují obavy ze zneužití AI během předvolebních kampaní i samotných voleb. OpenAI na to reagovalo tím, že zpřísnilo podmínky užití programů generativní umělé inteligence, jako je ChatGPT nebo obrazový generátor DALL·E. Měly by tak například odmítnout vytvořit obraz politického kandidáta.