Co se stane, až se umělá inteligence vymkne kontrole? Vědci promluvil o existenční hrozbě pro lidstvo

Umělá inteligence (AI)
Umělá inteligence (AI), foto: Pixabay
Klára Marková 12. května 2025 11:26
Sdílej:

Max Tegmark, fyzik a přední zastánce bezpečnosti umělé inteligence, přichází s vážným varováním: technologické firmy vyvíjející superinteligentní AI musí začít přistupovat k vyhodnocování rizik stejně zodpovědně, jako to učinili vědci před prvním testem atomové bomby. Jinak podle něj hrozí, že se vývoj vymkne kontrole a lidstvo se ocitne tváří v tvář existenční hrozbě, na kterou nebude připraveno.

Inspirací pro jeho výzvu jsou výpočty fyzika Arthura Comptona z roku 1945. Ten tehdy pomáhal rozhodovat, zda provést první jaderný test Trinity. Fyzikové se tehdy obávali, že by mohlo dojít ke katastrofě v podobě zažehnutí atmosféry, což by znamenalo konec života na Zemi.

Riziko bylo sice vypočteno jako extrémně nízké — asi 1 ku třem milionům —, přesto vědci trvali na tom, že bez důkladné analýzy nelze pokus uskutečnit. Podobný přístup by měl být podle Tegmarka samozřejmostí i při vývoji umělé inteligence, zejména pokud jde o tzv. ASI, tedy Artificial Super Intelligence.

Ve své nové studii, kterou vypracoval společně se třemi studenty z MIT, Tegmark zavádí pojem Comptonovy konstanty — pravděpodobnosti, že superinteligentní AI unikne lidské kontrole. A varuje, že podle současných odhadů může být toto riziko až 90procentní. To považuje za naprosto nepřijatelné.

„Firmy, které vyvíjejí superinteligentní AI, musí tento výpočet provést. Nestačí jen říkat, že se cítí bezpečně. Potřebujeme přesná čísla,“ prohlásil Tegmark v rozhovoru pro britský Guardian. Podle něj by odborný konsenzus o míře rizika mohl vytvořit politický tlak na přijetí mezinárodních pravidel pro bezpečný vývoj AI.

Tegmark, profesor fyziky na MIT a spoluzakladatel organizace Future of Life Institute, patří k nejvýraznějším hlasům volajícím po zodpovědném přístupu k vývoji AI. Už v roce 2023 stál u zrodu výzvy k pozastavení vývoje vysoce výkonných AI systémů, která získala přes 33 tisíc podpisů, včetně jmen jako Elon Musk či spoluzakladatel Applu Steve Wozniak. Výzva varovala před „nezvladatelným závodem“ mezi firmami, které se snaží být první v nasazení stále silnějších systémů, jež nikdo plně nechápe ani nedokáže ovládat.

Tegmarkovy výroky přicházejí v době, kdy se v Singapuru konala mezinárodní konference o bezpečnosti AI, které se zúčastnili experti z akademického prostředí, průmyslu i vládních agentur. Výsledkem je tzv. Singapurský konsenzus — nově definovaný soubor priorit, jakým směrem by se měl výzkum v oblasti bezpečnosti umělé inteligence ubírat. Pod dokumentem jsou podepsáni kromě Tegmarka také přední vědec Yoshua Bengio a experti ze společností OpenAI a Google DeepMind.

Konsenzus doporučuje zaměřit výzkum do tří klíčových oblastí: měření vlivu současných i budoucích AI systémů, formulaci žádoucího chování těchto systémů a metod, jak jej zajistit, a také návrhu způsobů řízení a kontroly těchto technologií. Tegmark považuje vznik dokumentu za významný krok vpřed, zvláště po nedávné stagnaci mezinárodní spolupráce.

Právě tato stagnace byla podle něj patrná například na nedávném summitu v Paříži, kde americký viceprezident JD Vance odmítl bezpečnostní obavy jako přehnané a brzdící technologický pokrok. Tegmark však věří, že se mezinárodní dialog nyní opět obnovuje. „Zdá se, že deprese po Paříži je pryč a mezinárodní spolupráce se znovu naplno rozjela,“ uvedl.

Závěrem Tegmark apeluje na vývojáře po celém světě, aby nejen usilovali o vyšší výkon a schopnosti svých systémů, ale aby se zároveň odpovědně zabývali i jejich možnými důsledky. Stejně jako vědci v době atomových pokusů dnes i oni pracují s technologií, která může rozhodnout o budoucnosti celého lidstva. 

Stalo se
Novinky
Vladimir Putin

Je očividné, že Putin nechce mír na Ukrajině, shodují se evropští ministři

Na ranním zasedání v Bruselu projevili ministři zahraničí evropských zemí NATO jen malou trpělivost s Moskvou. Panuje shoda, že ruský prezident Vladimir Putin nejeví známky ochoty ke kompromisu v souvislosti s válkou na Ukrajině.

Novinky
Steve Witkoff a Donald Trump

Za Zelenským už nepojede. Witkoff po setkání s Putinem zrušil cestu do Kyjeva

Plánované setkání mezi ukrajinským prezidentem Volodymyrem Zelenským a delegací Spojených států v Bruselu bylo zrušeno. Delegaci tvořil speciální Trumpův vyslanec Steve Witkoff a Trumpův zeť Jared Kushner, kteří byli na cestě z jednání s Vladimirem Putinem. Zrušení přišlo poté, co se ukrajinský prezident náhle vrátil do Kyjeva, uvedl The Times.

Novinky
Ilustrační foto

Experti varují před novým fenoménem: "Zombie ohně" představují obrovský problém

V květnu 2023 udeřil blesk do lesa v Donnie Creek v Britské Kolumbii a stromy začaly hořet. Byl to na lesní požár sice brzký termín, ale suchý podzim a teplé jaro proměnily les v sušinu, a plameny se proto šířily velmi rychle. Do poloviny června se z požáru stal jeden z největších v historii provincie, který spálil rozsáhlou oblast boreálního lesa. V tomto roce shořela v Kanadě rekordní plocha.

Novinky
Izraelská armáda

CNN: Izraelská armáda zahrabává těla Palestinců hledajících pomoc do neoznačených hrobů

Ammar Wadi věděl, že riskuje život, když se v červnu vydal pro pytel mouky pro svou rodinu k nákladnímu autu s pomocí u přechodu Zikim do Gazy. Na domovskou obrazovku svého mobilního telefonu si napsal vzkaz: „Odpusť mi mami, jestli se mi něco stane. Kdokoli najde můj telefon, prosím, řekněte mé rodině, že je moc miluji.“ Uprostřed pravidelné izraelské palby směrem k lidem hledajícím pomoc se Wadi už nikdy nevrátil domů a jeho zpráva byla rodině doručena týdny později nálezcem jeho telefonu. Bylo to to poslední, co o něm slyšeli.