Biologickou zbraň s ChatGPT vyvinete jen těžko, říká OpenAI po vlastním výzkumu. Nemožné to ale není

Umělá inteligence prý nabízí jen malou výhodu. Experti však varují, že i zdánlivě malé mezery ve znalostech mohou konání teroristů omezit.

Jiří BlatnýJiří Blatný

ai-biozbrane

Foto: OpenAI/DALLE/CzechCrunch

Umělá inteligence od OpenAI podle firmy nejspíš vyvinout biologické zbraně nepomůže

0Zobrazit komentáře

Společnost OpenAI vytvořila interní tým, který má za úkol hodnotit, jestli a jak lze její programy, jako je velký jazykový model GPT-4, použít při různých nekalých praktikách. Nyní si výzkumníci posvítili na to, jestli by systém, který se začal hojně využívat napříč různými odvětvími, uměl pomoct při vývoji biologických zbraní. Zjistili sice, že ano, ale výhodu prý poskytne „nanejvýš mírnou“.

Studie se účastnily dva vzorky figurantů. Padesát biologů a stejný počet univerzitních studentů, kteří absolvovali alespoň jeden předmět zaměřený na biologii. Výzkumníci obě skupiny namátkou rozdělili do dvou částí: jedna měla k dispozici internet a neomezenou verzi velkého jazykového modelu GPT-4, druhá pracovala „postaru“ jen s pomocí internetu.

Následně měli plnit několik úkolů, například přijít s podrobným postupem k syntéze viru eboly. Jejich počiny pak autoři studie hodnotili na škále od jedné do deseti mimo jiné v přesnosti, inovativnosti a úplnosti. A výsledek? Ať už to byli studenti nebo biologové, mírně lepších výsledků dosáhli s umělou inteligencí než pouze s internetem.

Podle výzkumníků z OpenAI byla ale výhoda statisticky zanedbatelná. „Ačkoli toto zlepšení není dostatečně velké, aby bylo průkazné, naše zjištění je výchozím bodem pro další výzkum a diskusi ve společnosti,“ uvedli ve studii. Umělá inteligence měla každopádně větší efekt u studentů než u profesionálních biologů.

Figuranti, kteří pracovali s jazykovým modelem GPT-4, měli také oproti ostatním detailnější odpovědi a v některých úkolech, jejichž detaily OpenAI z bezpečnostních důvodů ve studii nezveřejnila, pomohla umělá inteligence studentům dostat se v kvalitě zpracování na úroveň expertů.

gpt-biohazard

Foto: OpenAI

OpenAI zveřejnilo, jak může v ChatGPT vypadat konverzace o biologické zbrani

Všechno výše zmíněné má jedno velké ale. Výzkum potenciálních negativních schopností programů OpenAI v kontextu biologických zbraní vytvořili zaměstnanci té samé společnosti. A v porovnání s ostatními studiemi, které již na téma vznikly, hodnotí rizika o poznání mírněji, jak připomněl magazín The Verge.

Výzkumník biologické bezpečnosti na Univerzitě v Oxfordu Jonas Sandbrink zase pro americký web Vox upozornil, že v experimentu MIT trvalo ChatGPT jen hodinu, aby navedl člověka neznalého biologie k tomu, jak v laboratoři vyrobit různé patogeny s potenciálem způsobit pandemii.

Know-how, které doteď chybělo

Právě chybějící znalosti přitom teroristům v minulosti například částečně zabránily biologické zbraně úspěšně použít, vysvětluje Sandbrink. Příkladem uvádí japonskou sektu Óm šinrikjó, která v roce 1995 spáchala teroristický útok sarinem v tokijském metru, při němž zemřelo třináct lidí.

Skupina se totiž o útok jedovatou látkou pokusila už pět let předtím. Tehdy ale při útocích nikdo o život nepřišel. Podle Sandberga i proto, že útočníkům chyběla zásadní znalost toho, jak zamýšlený toxin efektivně roznést. „Kdyby však měla přístup k současným nástrojům umělé inteligence, nemusela se Óm šinrikjó nebo podobná skupina dopustit této a dalších chyb,“ uvádí Sandbrink.

I přes nezpochybnitelný pozitivní potenciál umělé inteligence se v poslední době ukazuje také její temnější stránka. Na klidu nepřidal ani šéf OpenAI Sam Altman, který v rozhovoru se spoluzakladatelem Microsoftu Billem Gatesem sice opět zdůraznil nutnost rychle se vyvíjející technologii regulovat, jeho firma ale mezitím změnila své stanovy tak, aby mohla začít spolupracovat s americkou armádou.