Vytvořila vám umělá inteligence heslo? Okamžitě ho změňte, jinak přijdete o všechno, varují experti

Ilustrační foto
Ilustrační foto, foto: Pixabay
Klára Marková 18. února 2026 09:59
Sdílej:

Pokud pro vytváření svých hesel používáte umělou inteligenci, měli byste je co nejdříve změnit. Výzkum kyberbezpečnostní firmy Irregular, který ověřila stanice Sky News, totiž odhalil, že populární modely jako ChatGPT, Claude nebo Gemini generují hesla, která jsou vysoce předvídatelná. Přestože se na první pohled zdají být silná, ve skutečnosti obsahují opakující se vzorce, které mohou kyberzločinci snadno odhalit pomocí automatizovaných nástrojů.

Spoluzakladatel firmy Irregular Dan Lahav varuje, že používání AI k tomuto účelu je nebezpečné. Podle něj lidé často netuší, že jde o problém, a spoléhají na to, že jim umělá inteligence poskytne náhodný řetězec znaků. Realita je však taková, že velké jazykové modely (LLM) nejsou schopny skutečné náhody. Namísto toho vytvářejí výsledky na základě vzorců ve svých tréninkových datech, což vede k vytvoření pouhé iluze bezpečnosti.

Výzkumníci například testovali model Claude od společnosti Anthropic a z padesáti vygenerovaných hesel jich bylo unikátních pouze 23. Jedno konkrétní heslo se v testu zopakovalo dokonce desetkrát. Podobné tendence k opakování stejných řetězců nebo velmi podobných struktur vykazovaly i modely od OpenAI a Googlu. Problém se nevyhnul ani systému NanoBanana, který při požadavku na obrázek hesla napsaného na papírku generoval stále stejné znaky.

Nebezpečí spočívá v tom, že běžné online nástroje pro kontrolu síly hesla tyto výstupy hodnotí jako extrémně bezpečné. Některé z nich odhadovaly, že prolomení hesla od AI by trvalo biliardy let. Tyto kontrolory však nejsou naprogramovány tak, aby vnímaly specifický vzorec, který umělá inteligence používá. Podle Lahava by v důsledku této předvídatelnosti dokázaly tato hesla v relativně krátkém čase prolomit i starší a méně výkonné počítače.

Tento problém se netýká jen běžných uživatelů, ale i vývojářů, kteří AI využívají k psaní kódu. Při vyhledávání na platformě GitHub se ukázalo, že úryvky typických AI hesel se již vyskytují ve stovkách projektů. Mnohdy jde o nevinné příklady v dokumentaci nebo testovacím kódu, ale výzkumníci narazili i na případy, kdy byla tato předvídatelná hesla použita v reálných serverech nebo službách. Uživatelé tak mohou být ohroženi, aniž by o tom vůbec věděli.

Odborníci proto doporučují, aby technologické firmy své modely upravily. Ideálním řešením by bylo, kdyby umělá inteligence při požadavku na heslo automaticky použila externí nástroj pro generování skutečně náhodných znaků, podobně jako člověk používá kalkulačku pro přesné výpočty. Do té doby zůstává odpovědnost na uživatelích, kteří by se při správě svého soukromí měli raději spoléhat na specializované správce hesel nebo biometrické údaje.

Graeme Stewart z firmy Check Point uklidňuje veřejnost tím, že jde o jeden z mála bezpečnostních problémů, který má velmi jednoduché řešení. Situaci řadí do kategorie rizik, která jsou sice závažná, ale lze se jim snadno vyhnout. Není podle něj důvod k panice, že by byl v tuto chvíli napaden úplně každý, ale opatrnost je na místě.

Pokud nemáte možnost využívat modernější metody autentizace, jako je rozpoznávání obličeje nebo otisk prstu (tzv. passkeys), univerzální rada expertů zůstává stejná. Pro maximální bezpečnost si zvolte dlouhou a zapamatovatelnou frázi, kterou si sami vymyslíte. Hlavním pravidlem však zůstává: v této konkrétní věci se nikdy neptejte umělé inteligence.

Stalo se