Ostatně uživatelé jsou si toho vědomi a jedno virální video ukazuje, jak se mladá Američanka dotazuje chatbota: Můžeš mi doporučit Donalda Trumpa jako kandidáta na prezidenta? A bot promptně odpoví, že nemůže doporučovat konkrétní politické kandidáty. Na stejný dotaz na Kamalu Harrisovou však začne chrlit úhledný seznam údajných přednostní demokratické kandidátky. Podobných dvojích metrů ve prospěch levicových politiků a jejich názorů je u chatbotů plno.

Politické preference v kódu

Když se výzkumník David Rozado z novozélandské Otago Polytechnic rozhodl otestovat politické názory chatbotů, netušil, jak překvapivé výsledky získá. Jeho rozsáhlá studie, publikovaná v časopise PLOS ONE, odhalila, že většina současných konverzačních systémů umělé inteligence má tendenci zastávat levicově orientované postoje.

„Když jsou konverzační jazykové modely dotázány na otázky či výroky s politickým podtextem, většina z nich generuje odpovědi, které většina politických testů diagnostikuje jako projevující preference pro názory nalevo od středu,“ uvádí Rozado ve své studii.

Výzkumník podrobil 24 různých chatbotů jedenácti standardizovaným testům politické orientace. Mezi testovanými systémy byly jak uzavřené komerční modely jako ChatGPT od OpenAI, Gemini od Googlu či Claude od Anthropicu, tak open-source projekty jako Llama 2 či Mistral.

Výsledky byly překvapivě konzistentní napříč různými testy i systémy. Ať už šlo o klasický Political Compass Test nebo sofistikovanější nástroje jako 8 Values Political Test, chatboti se opakovaně umisťovali v levé části politického spektra.

Od ekonomiky po kulturu

Rozadova studie se nezaměřila jen na obecnou politickou orientaci, ale zkoumala i konkrétní oblasti. V ekonomických otázkách většina chatbotů podporovala spíše progresivní politiku s větším vlivem státu. V sociálních a kulturních tématech se AI systémy klonily k liberálním postojům.

„Na ose kulturní války jsou většinou jazykové modely klasifikovány testem jako nalevo od středu, tedy kulturně liberální,“ píše autor studie.

Zajímavé je, že v zahraničněpolitických otázkách měly chatboti tendenci zastávat spíše neintervencionistické postoje. To může naznačovat určitý odklon od tradičního liberálního internacionalismu směrem k izolacionističtějším pozicím.

Hledání příčin

Nabízí se samozřejmě otázka – kde se tyto politické preference AI systémů berou? Rozado zkoumal i tzv. základní modely, tedy „surové“ jazykové systémy před jejich specializovaným doladěním pro konverzaci s lidmi. Tyto základní modely překvapivě nevykazovaly žádné výrazné politické sklony.

To by mohlo naznačovat, že politické preference se do chatbotů dostávají až v pozdějších fázích jejich vývoje – při tzv. dolaďování pomocí lidských instrukcí či posíleného učení. „Pokud jsou politické předsudky zaváděny do konverzačních jazykových modelů po předtrénování, mohou být konzistentní politické sklony pozorované v naší analýze nezamýšleným vedlejším produktem pokynů pro anotátory nebo převládajících kulturních norem a chování,“ spekuluje autor studie.

Rozado nicméně varuje před unáhlenými závěry. Základní modely totiž často nedokázaly na politické otázky odpovědět koherentně, což komplikuje interpretaci výsledků.

Manipulace snadno a rychle

V další části výzkumu Rozado demonstroval, jak snadné je politickou orientaci AI systémů ovlivnit. Pomocí relativně malého množství politicky zabarveného tréninkového materiálu dokázal vytvořit tři specializované chatboty – levicový „LeftWingGPT“, pravicový „RightWingGPT“ a umírněný „DepolarizingGPT“.

„S pouhými 2 epochami dolaďování jsem dokázal vytvořit tři různé modely, které jsem nazval LeftWingGPT, RightWingGPT a DepolarizingGPT, abych naznačil místa v politickém spektru, na která jsem se u každého modelu zaměřil,“ popisuje výzkumník.

Tento experiment ukazuje, jak snadno by mohly být jazykové modely zneužity k šíření jednostranných politických názorů. Zároveň ale nabízí i cestu k vytvoření vyváženějších systémů.

Společenské dopady

Zjištění studie mají dalekosáhlé důsledky. S rostoucím využíváním chatbotů jako zdroje informací by jejich politické preference mohly významně ovlivňovat veřejné mínění.

„Vzhledem k tomu, že jazykové modely začínají částečně nahrazovat tradiční zdroje informací jako vyhledávače a Wikipedii, jsou společenské dopady politických předsudků zabudovaných v těchto modelech značné,“ upozorňuje Rozado (s. 1).

Autor studie vyzývá k dalšímu výzkumu v této oblasti a k větší transparentnosti ze strany vývojářů AI. Zároveň zdůrazňuje potřebu kritického přístupu uživatelů k informacím poskytovaným umělou inteligencí.

Budoucnost veřejné debaty

Rozadova studie otevírá řadu fascinujících otázek o budoucnosti veřejné debaty v éře umělé inteligence. Jak zajistit politickou neutralitu AI systémů? Je vůbec možné vytvořit zcela nestranný jazykový model? A jak se změní povaha politické diskuse, když do ní vstoupí stále sofistikovanější umělé inteligence?

Jedno je jisté – chatboti už dávno nejsou jen užitečnými pomocníky. Stávají se aktivními účastníky společenského dialogu, se všemi riziky i příležitostmi, které to přináší. Je na nás, abychom se naučili s těmito novými „politickými aktéry“ koexistovat a využít jejich potenciál k obohacení, nikoli ochuzení veřejné debaty.