Geoffrey Hinton, spolutvůrce moderní umělé inteligence a čerstvý laureát Nobelovy ceny za fyziku, odhaduje riziko zániku lidstva kvůli AI na 10 až 20 % během příštích tří dekád.
Koncem prosince 2024 usedl sedmasedmdesátiletý britsko-kanadský informatik před mikrofon BBC Radio 4 a řekl něco, co od člověka s čerstvou Nobelovou cenou nečekáte: technologie, kterou celý život pomáhal budovat, může v horizontu jedné generace skončit katastrofou. Ne jistě. Ale s pravděpodobností, kterou žádný rozumný člověk nemůže ignorovat. Hinton nemluvil o jaderných zbraních ani o klimatu. Mluvil o umělé inteligenci, o digitálních systémech, které jednou překonají lidský mozek a u nichž nikdo neví, zda půjdou udržet na uzdě.
Muž, který varuje před vlastním dílem
Geoffrey Hinton není klimatický aktivista ani autor sci-fi. Je to člověk, bez jehož práce by dnešní ChatGPT, rozpoznávání obličejů ani autonomní řízení neexistovaly. Společně s Johnem Hopfieldem získal 8. října 2024 Nobelovu cenu za fyziku za objevy a vynálezy, které umožnily strojové učení s umělými neuronovými sítěmi. Boltzmannův stroj, na němž se podílel, patří k základním kamenům oboru.
Zhruba dekádu pracoval v Googlu. V květnu 2023 odešel. Ne kvůli penzi, ale kvůli svobodě mluvit. V rozhovoru pro CNN tehdy vysvětlil, že dospěl k závěru, který ho samotného znepokojil: digitální inteligence nemusí být jen jiná než biologická, může být v něčem zásadně lepší. Tisíce identických kopií modelu sdílejí poznatky okamžitě. Lidský mozek nic takového neumí. A pokud vytvoříme něco chytřejšího, než jsme sami, historicky neznáme příklad, kdy méně inteligentní aktér dlouhodobě řídil toho inteligentnějšího.
Co přesně říká, a co ne
Titulková formulace o „třiceti letech do zániku“ je zjednodušení. Hinton nikdy neřekl, že lidstvo za třicet let s jistotou skončí. Na BBC Radio 4 v prosinci 2024 uvedl, že šanci na vyhynutí nebo trvalé vyřazení lidstva z kontroly během příštích tří dekád odhaduje na 10 až 20 %. Ještě před rokem mluvil o deseti procentech. Posun nahoru vysvětluje tím, že vývoj běží „mnohem rychleji, než čekal“.
V rozhovoru pro Nobelův výbor upřesnil svůj odhad: AI chytřejší než lidé očekává za pět až dvacet let. To je agresivnější horizont, než jaký uvádějí akademické průzkumy. A právě proto zní tak naléhavě.
Rozlišuje přitom dvě vrstvy problému:
- Krátkodobá rizika — zneužití AI lidmi a institucemi už dnes: masová manipulace, deepfakes, sofistikovaný phishing, autonomní zbraně, možné vytváření nových patogenů.
- Dlouhodobá hrozba — vznik systémů inteligentnějších než lidé, které by samy usilovaly o více kontroly a jejichž chování bychom nedokázali předvídat ani korigovat.
Ve své banketní řeči při převzetí Nobelovy ceny v prosinci 2024 obě vrstvy propojil: i kdyby se podařilo zvládnout krátkodobé škody, dlouhodobý problém kontroly zůstává otevřený.
Není sám, ale není ani mainstream
Hinton nevyčnívá z vakua. Už v roce 2023 podepsal prohlášení organizace CAIS, které označilo riziko vyhynutí kvůli AI za globální prioritu srovnatelnou s pandemií nebo jadernou válkou. Průzkum mezi 2 778 výzkumníky v oboru AI ukázal medián pětiprocentního rizika vyhynutí nebo trvalého oslabení lidstva do sta let, přičemž 70 % respondentů požadovalo více výzkumu bezpečnosti.
Pět procent zní málo. Ale představte si, že vám lékař řekne, že máte 5% šanci na smrtelnou komplikaci při zákroku. Odmávnete to?
Stephen Hawking v roce 2016 v Cambridge mluvil o AI jako o „možná nejlepší, nebo nejhorší věci pro lidstvo“. Hinton jde dál: přidává konkrétní pravděpodobnost, konkrétní horizont a konkrétní mechanismus. Nejde o filozofickou úvahu, ale o inženýrský odhad člověka, který ví, jak ty systémy fungují zevnitř.
Co navrhuje, a co se děje v Česku
Hinton není jen prorok zkázy. V rozhovoru pro CBS News z dubna 2025 řekl, že velké firmy by měly přesunout řádově třetinu výpočetních kapacit do výzkumu bezpečnosti, ne symbolický zlomek, ale podstatnou část. Volá po regulaci, která donutí laboratoře neškálovat systémy bez lepšího pochopení kontroly, a po zapojení vlád a mezinárodních institucí.
Evropa už částečně reaguje. Od 2. února 2025 platí první pravidla evropského nařízení o AI, včetně povinnosti zajistit gramotnost v oblasti AI a zákazu některých praktik. Česko připravuje vlastní adaptační zákon; Ministerstvo průmyslu a obchodu schválilo v červenci 2024 aktualizovanou Národní strategii AI 2030 a dozor nad rizikovými aplikacemi mají sdílet ČTÚ, ČNB i ÚOOÚ. Regulace ale míří hlavně na krátkodobá rizika, jako jsou deepfakes, diskriminační algoritmy nebo biometrický dohled. Na dlouhodobý problém kontroly, o kterém Hinton mluví, zatím žádný zákon odpověď nemá.
Proč zrovna jeho hlas váží
Varování před AI zaznívají z mnoha stran. Od filozofů, od aktivistů, od konkurenčních firem. Většinu z nich lze odbýt jako nekompetentní nebo účelovou. U Hintona to nejde. Je to člověk, který neuronové sítě spoluvynalezl, dekádu je vyvíjel v jedné z nejmocnějších technologických firem světa a pak z ní odešel, aby mohl říct to, co říká. Po Nobelově ceně svůj postoj nezmírnil, naopak ho zostřil.
Nejde o jednorázový apokalyptický výkřik. Jde o postupně se zostřující varování inženýra, který zná stroj, jejž pomáhal postavit, a není si jistý, že ho někdo dokáže vypnout.