Co se stane, až se umělá inteligence vymkne kontrole? Vědci promluvil o existenční hrozbě pro lidstvo

Umělá inteligence (AI)
Umělá inteligence (AI), foto: Pixabay
Klára Marková 12. května 2025 11:26
Sdílej:

Max Tegmark, fyzik a přední zastánce bezpečnosti umělé inteligence, přichází s vážným varováním: technologické firmy vyvíjející superinteligentní AI musí začít přistupovat k vyhodnocování rizik stejně zodpovědně, jako to učinili vědci před prvním testem atomové bomby. Jinak podle něj hrozí, že se vývoj vymkne kontrole a lidstvo se ocitne tváří v tvář existenční hrozbě, na kterou nebude připraveno.

Inspirací pro jeho výzvu jsou výpočty fyzika Arthura Comptona z roku 1945. Ten tehdy pomáhal rozhodovat, zda provést první jaderný test Trinity. Fyzikové se tehdy obávali, že by mohlo dojít ke katastrofě v podobě zažehnutí atmosféry, což by znamenalo konec života na Zemi.

Riziko bylo sice vypočteno jako extrémně nízké — asi 1 ku třem milionům —, přesto vědci trvali na tom, že bez důkladné analýzy nelze pokus uskutečnit. Podobný přístup by měl být podle Tegmarka samozřejmostí i při vývoji umělé inteligence, zejména pokud jde o tzv. ASI, tedy Artificial Super Intelligence.

Ve své nové studii, kterou vypracoval společně se třemi studenty z MIT, Tegmark zavádí pojem Comptonovy konstanty — pravděpodobnosti, že superinteligentní AI unikne lidské kontrole. A varuje, že podle současných odhadů může být toto riziko až 90procentní. To považuje za naprosto nepřijatelné.

„Firmy, které vyvíjejí superinteligentní AI, musí tento výpočet provést. Nestačí jen říkat, že se cítí bezpečně. Potřebujeme přesná čísla,“ prohlásil Tegmark v rozhovoru pro britský Guardian. Podle něj by odborný konsenzus o míře rizika mohl vytvořit politický tlak na přijetí mezinárodních pravidel pro bezpečný vývoj AI.

Tegmark, profesor fyziky na MIT a spoluzakladatel organizace Future of Life Institute, patří k nejvýraznějším hlasům volajícím po zodpovědném přístupu k vývoji AI. Už v roce 2023 stál u zrodu výzvy k pozastavení vývoje vysoce výkonných AI systémů, která získala přes 33 tisíc podpisů, včetně jmen jako Elon Musk či spoluzakladatel Applu Steve Wozniak. Výzva varovala před „nezvladatelným závodem“ mezi firmami, které se snaží být první v nasazení stále silnějších systémů, jež nikdo plně nechápe ani nedokáže ovládat.

Tegmarkovy výroky přicházejí v době, kdy se v Singapuru konala mezinárodní konference o bezpečnosti AI, které se zúčastnili experti z akademického prostředí, průmyslu i vládních agentur. Výsledkem je tzv. Singapurský konsenzus — nově definovaný soubor priorit, jakým směrem by se měl výzkum v oblasti bezpečnosti umělé inteligence ubírat. Pod dokumentem jsou podepsáni kromě Tegmarka také přední vědec Yoshua Bengio a experti ze společností OpenAI a Google DeepMind.

Konsenzus doporučuje zaměřit výzkum do tří klíčových oblastí: měření vlivu současných i budoucích AI systémů, formulaci žádoucího chování těchto systémů a metod, jak jej zajistit, a také návrhu způsobů řízení a kontroly těchto technologií. Tegmark považuje vznik dokumentu za významný krok vpřed, zvláště po nedávné stagnaci mezinárodní spolupráce.

Právě tato stagnace byla podle něj patrná například na nedávném summitu v Paříži, kde americký viceprezident JD Vance odmítl bezpečnostní obavy jako přehnané a brzdící technologický pokrok. Tegmark však věří, že se mezinárodní dialog nyní opět obnovuje. „Zdá se, že deprese po Paříži je pryč a mezinárodní spolupráce se znovu naplno rozjela,“ uvedl.

Závěrem Tegmark apeluje na vývojáře po celém světě, aby nejen usilovali o vyšší výkon a schopnosti svých systémů, ale aby se zároveň odpovědně zabývali i jejich možnými důsledky. Stejně jako vědci v době atomových pokusů dnes i oni pracují s technologií, která může rozhodnout o budoucnosti celého lidstva. 

Stalo se
Novinky
Donald Trump

Proč se nedostavilo vítězství? Trump udělal v Íránu podle bývalého diplomata zásadní chybu

Podle řady zkušených diplomatů se americký prezident Donald Trump stal obětí vlastního úspěchu v Jižní Americe. Jeho přesvědčení, že svržení íránského režimu bude stejně hladké jako blesková operace ve Venezuele, se nyní ukazuje jako zásadní strategický omyl. Bývalý velvyslanec v Panamě John Feeley upozorňuje, že lednové zajetí Nicoláse Madura speciálními jednotkami vyvolalo v Bílém domě falešný pocit neporazitelnosti, který vedl k únorovému útoku na Írán a následnému globálnímu chaosu.

Novinky
Donald Trump

Trump poděkoval Íránu za otevření Hormuzského průlivu

Americký prezident Donald Trump potvrdil, že Hormuzský průliv je plně otevřen a připraven pro komerční dopravu. Reagoval tak na prohlášení íránského ministra zahraničí Abbáse Araghčího, který uvedl, že v souladu s příměřím v Libanonu je tato klíčová vodní cesta přístupná všem obchodním lodím.

Novinky
Hormuzský průliv

Írán: Hormuzský průliv se s okamžitou platností otevírá pro veškerou komerční lodní dopravu

Íránský ministr zahraničí Abbás Araghčí v pátek potvrdil, že Hormuzský průliv se s okamžitou platností otevírá pro veškerou komerční lodní dopravu. Toto opatření má platit po zbytek desetidenního příměří, které bylo nedávno sjednáno mezi Izraelem a Libanonem. Strategická námořní cesta byla od vypuknutí válečného konfliktu s Íránem v podstatě neprůchodná, nyní se však lodě mohou vracet na trasy určené íránskou námořní správou. 

Novinky
Robert F. Kennedy jr.

Společnost konečně chápe důležitost vakcín? Už i Kennedy Jr. změnil názor

Prezident Donald Trump nominoval na post ředitelky Centra pro kontrolu a prevenci nemocí (CDC) doktorku Eriku Schwartz, veteránku v oblasti veřejného zdraví. Tento krok je vnímán jako snaha administrativy stabilizovat klíčovou zdravotnickou instituci a zároveň jako signál posunu v dosavadní vládní rétorice ohledně očkování. Schwartz v minulosti vedla vakcinační programy a za první Trumpovy vlády působila jako zástupkyně hlavního chirurga USA.