Rozsáhlá studie vedená Irynou Gurevych z Technické univerzity v Darmstadtu a Harishem Tayyarem Madabushim z Univerzity v Bathu však přináší uklidňující zprávu: Tito chatboti nejsou tak nepředvídatelné a potenciálně nebezpečné, jak se mnozí (včetně Elona Muska) obávali.

„Obávali jsme se, že jak se modely AI budou zvětšovat a zvětšovat, budou schopny řešit nové problémy, které v současné době nemůžeme předvídat, což představuje hrozbu, že tyto větší modely mohou získat nebezpečné schopnosti včetně uvažování a plánování,“ říká Tayyar Madabushi.

Obavy vycházely z pozorování, že s rostoucí objemem velké jazykové modely (LLM – Language Large Models) projevovaly schopnosti, které byly označovány jako „emergentní“ nebo „nepředvídatelné“. Šlo například o schopnost odpovídat na otázky o sociálních situacích, aniž by modely byly na tyto situace výslovně trénovány. To vedlo k spekulacím, že další škálování modelů by mohlo vést k nekontrolovatelnému vývoji nových, potenciálně nebezpečných schopností.

Ve skutečnosti nejsou chatboti doopravdy sami o sobě inteligentní jako člověk, ale umějí věrohodně simulovat lidské jednání a myšlení, a na základě rozsáhlých databází vygenerovat i věrohodné informace, které ovšem nemusejí odpovídat realitě.

Co tedy stojí za nepředvídatelnými výkony AI?

Výzkumníci provedli více než 1000 experimentů s různými velkými jazykovými modely. Jejich cílem bylo zjistit, zda se skutečně objevují nové, nepředvídatelné schopnosti, nebo zda lze pozorované jevy vysvětlit známými mechanismy.

„Naše studie ukazuje, že strach, že se model vymkne kontrole a udělá něco zcela neočekávaného, inovativního a potenciálně nebezpečného, není na místě,“ vysvětluje Tayyar Madabushi.

Údajně nepředvídatelné schopnosti jsou ve skutečnosti výsledkem kombinace tří klíčových faktorů:

  1. Učení v kontextu (in-context learning, ICL) – schopnost modelu rychle se adaptovat na nový úkol na základě několika příkladů.
  2. Paměť modelu – schopnost uchovat a vybavit si velké množství informací z tréninkových dat.
  3. Lingvistické znalosti – porozumění struktuře a pravidlům jazyka.

„Údajné nepředvídatelné schopnosti nejsou skutečně nové a nečekané, ale jsou výsledkem kombinace učení v kontextu, paměti modelu a lingvistických znalostí,“ uvádějí autoři studie.

Instrukční dolaďování a implicitní učení

Důležitou roli hraje v této souvislosti tzv. instrukční dolaďování (instruction tuning). Jde o techniku, při níž je model dodatečně trénován na sadě instrukcí a odpovídajících výstupů.

Výzkumníci přišli s novou teorií, podle které instrukční dolaďování ve skutečnosti umožňuje modelům efektivněji využívat ICL. Nazývají tento jev „implicitním učením v kontextu“. To vysvětluje, proč modely s instrukčním dolaďováním často vykazují lepší výkon, aniž by skutečně získaly nové, nepředvídatelné schopnosti.

Hrozbou není AI, ale…

Zjištění studie ukazují, že LLM jsou ve skutečnosti mnohem více omezeny svým programováním, než se předpokládalo. Nejsou schopny získávat zcela nové dovednosti bez přesně definovaného tréninku a zůstávají tak pod lidskou kontrolou.

„Naše výsledky neznamenají, že AI není vůbec hrozbou,“ upozorňuje však Gurevych. „Spíše ukazujeme, že údajný vznik komplexních myšlenkových dovedností spojených s konkrétními hrozbami není podepřen důkazy a že proces učení LLM můžeme koneckonců řídit velmi dobře.“

Stále existují oprávněné obavy týkající se například soukromí, bezpečnosti dat nebo možnosti zneužití AI pro škodlivé účely, jako je vytváření falešných zpráv. Studie však naznačuje, že obavy z náhlého a nekontrolovatelného vývoje nových schopností AI jsou přehnané.

…opravdou hrozbou zůstává člověk

Zatímco studie ukazuje, že samotné LLM nepředstavují bezprostřední hrozbu, upozorňuje na jiné, reálnější problémy spojené s rychlým nasazováním AI technologií.

„Lidé jsou na druhou stranu méně důvěryhodní,“ poznamenávají autoři studie. Naše vlastní explozivní používání umělé inteligence přináší řadu výzev – od vysoké energetické náročnosti přes otázky autorských práv až po problém digitálního znečištění.

Výzvy pro budoucnost AI

Studie představuje důležitý krok k lepšímu porozumění současným AI systémům a naznačuje směry pro další výzkum. Místo obav z nepředvídatelného vývoje nových schopností je podle autorů studie důležité zlepšování technik kontextového učení a instrukčního dolaďování.

A tak zatímco představa nekontrolovatelné AI zůstává fascinujícím námětem pro sci-fi, realita je mnohem méně dramatická. LLM jsou sofistikované, ale omezené nástroje, které zůstávají pod lidskou kontrolou. Skutečné výzvy spojené s AI leží jinde – v etickém a odpovědném vývoji a využívání těchto technologií, což předpokládá i společenskou diskusi o potřebě zavádění regulací ve vztahu k umělé inteligenci.