Co se stane, až se umělá inteligence vymkne kontrole? Vědci promluvil o existenční hrozbě pro lidstvo

Umělá inteligence (AI)
Umělá inteligence (AI), foto: Pixabay
Klára Marková DNES 11:26
Sdílej:

Max Tegmark, fyzik a přední zastánce bezpečnosti umělé inteligence, přichází s vážným varováním: technologické firmy vyvíjející superinteligentní AI musí začít přistupovat k vyhodnocování rizik stejně zodpovědně, jako to učinili vědci před prvním testem atomové bomby. Jinak podle něj hrozí, že se vývoj vymkne kontrole a lidstvo se ocitne tváří v tvář existenční hrozbě, na kterou nebude připraveno.

Inspirací pro jeho výzvu jsou výpočty fyzika Arthura Comptona z roku 1945. Ten tehdy pomáhal rozhodovat, zda provést první jaderný test Trinity. Fyzikové se tehdy obávali, že by mohlo dojít ke katastrofě v podobě zažehnutí atmosféry, což by znamenalo konec života na Zemi.

Riziko bylo sice vypočteno jako extrémně nízké — asi 1 ku třem milionům —, přesto vědci trvali na tom, že bez důkladné analýzy nelze pokus uskutečnit. Podobný přístup by měl být podle Tegmarka samozřejmostí i při vývoji umělé inteligence, zejména pokud jde o tzv. ASI, tedy Artificial Super Intelligence.

Ve své nové studii, kterou vypracoval společně se třemi studenty z MIT, Tegmark zavádí pojem Comptonovy konstanty — pravděpodobnosti, že superinteligentní AI unikne lidské kontrole. A varuje, že podle současných odhadů může být toto riziko až 90procentní. To považuje za naprosto nepřijatelné.

„Firmy, které vyvíjejí superinteligentní AI, musí tento výpočet provést. Nestačí jen říkat, že se cítí bezpečně. Potřebujeme přesná čísla,“ prohlásil Tegmark v rozhovoru pro britský Guardian. Podle něj by odborný konsenzus o míře rizika mohl vytvořit politický tlak na přijetí mezinárodních pravidel pro bezpečný vývoj AI.

Tegmark, profesor fyziky na MIT a spoluzakladatel organizace Future of Life Institute, patří k nejvýraznějším hlasům volajícím po zodpovědném přístupu k vývoji AI. Už v roce 2023 stál u zrodu výzvy k pozastavení vývoje vysoce výkonných AI systémů, která získala přes 33 tisíc podpisů, včetně jmen jako Elon Musk či spoluzakladatel Applu Steve Wozniak. Výzva varovala před „nezvladatelným závodem“ mezi firmami, které se snaží být první v nasazení stále silnějších systémů, jež nikdo plně nechápe ani nedokáže ovládat.

Tegmarkovy výroky přicházejí v době, kdy se v Singapuru konala mezinárodní konference o bezpečnosti AI, které se zúčastnili experti z akademického prostředí, průmyslu i vládních agentur. Výsledkem je tzv. Singapurský konsenzus — nově definovaný soubor priorit, jakým směrem by se měl výzkum v oblasti bezpečnosti umělé inteligence ubírat. Pod dokumentem jsou podepsáni kromě Tegmarka také přední vědec Yoshua Bengio a experti ze společností OpenAI a Google DeepMind.

Konsenzus doporučuje zaměřit výzkum do tří klíčových oblastí: měření vlivu současných i budoucích AI systémů, formulaci žádoucího chování těchto systémů a metod, jak jej zajistit, a také návrhu způsobů řízení a kontroly těchto technologií. Tegmark považuje vznik dokumentu za významný krok vpřed, zvláště po nedávné stagnaci mezinárodní spolupráce.

Právě tato stagnace byla podle něj patrná například na nedávném summitu v Paříži, kde americký viceprezident JD Vance odmítl bezpečnostní obavy jako přehnané a brzdící technologický pokrok. Tegmark však věří, že se mezinárodní dialog nyní opět obnovuje. „Zdá se, že deprese po Paříži je pryč a mezinárodní spolupráce se znovu naplno rozjela,“ uvedl.

Závěrem Tegmark apeluje na vývojáře po celém světě, aby nejen usilovali o vyšší výkon a schopnosti svých systémů, ale aby se zároveň odpovědně zabývali i jejich možnými důsledky. Stejně jako vědci v době atomových pokusů dnes i oni pracují s technologií, která může rozhodnout o budoucnosti celého lidstva. 

Stalo se
Novinky
Mark Carney, Liberální strana Kanady

Jak vyhrát volby? Stačí se postavit Trumpovi, jeho podporovatelé už litují

Odraz vůči americkému stylu politiky typu MAGA přispěl k volebním vítězstvím levostředových stran v Kanadě a Austrálii – a to paradoxně právě díky osobě Donalda Trumpa. Zatímco Mark Carney v Kanadě a Anthony Albanese v Austrálii využili jeho neoblíbenosti jako zbraně, konzervativní kandidáti, kteří se k americkému prezidentovi hlásili, na to doplatili.

Novinky
Jaderné elektrárny

Cíle budoucích válek? Máme je i v Česku, jejich zničení může způsobit nevídanou katastrofu

S rostoucím napětím kolem íránského jaderného programu a po prohlášení prezidenta Trumpa, že íránské centrifugy „buď vybuchnou v rámci dohody, nebo bez ní“, se zvyšuje pravděpodobnost vojenského útoku na Írán. Vyvstává tedy otázka: pokud selžou jednání v Ománu, na co by mohly Spojené státy nebo Izrael zaútočit? Byly by cílem pouze centrifugy, nebo i velká jaderná elektrárna v Búšehru?

Sport
Češi na hokejovém MS

Češi se na MS v hokeji 2025 vítězně postavili Norsku, odnesli si výhru 2:1

Česká hokejová měla v neděli večer na programu svůj druhý zápas v rámci skupiny B právě probíhajícího mistrovství světa. V dánském Herningu byli jejich dalšími soupeři Norové a oproti duelu se Švýcarskem, se kterým v pátek Češi vyhráli 5:4 po prodloužení, se tentokrát v sestavě objevila i posila z NHL Martin Nečas. Český tým nakonec Nory porazil 2:1.

Novinky
J.D. Vance

Papež Lev už má prvního nepřítele? Vance se proti němu rázně ohradil

Americký viceprezident JD Vance se odmítl nechat zatáhnout do politického konfliktu s nově zvoleným papežem Leo XIV., dříve kardinálem Robertem Prevostem, navzdory tomu, že se na sociálních sítích začaly objevovat ostře kritické příspěvky podepsané jeho jménem, které přímo útočily na imigrační politiku administrativy Donalda Trumpa.