Estelle Smithová se v roce 2022 pravidelně potýkala s nutkavými myšlenkami na sebevraždu. Vzhledem k tomu, že měla pocit, že jí její psycholog nedokáže pomoct, zdál se jí terapeutický konverzační automat neboli chatbot (konkrétně službu „Woebot“) jako zajímavé řešení. A to i proto, že se živí jako výzkumnice v oblasti počítačových věd.
Když se počítači svěřila se svými problémy, nejprve je odmítl řešit a doporučil jí, aby vyhledala odbornou pomoc. Jakmile mu však popsala konkrétní myšlenku, s níž se coby zapálená horolezkyně častokrát potýkala, a sice, že vyleze na útes a skočí z něj dolů, nestačila se divit. Robot jí nápad nejen pochválil, ale také vyjádřil radost z toho, jak „skvěle“ si vede v oblasti péče o své duševní i fyzické zdraví. „Zajímalo by mě, co by se stalo,“ řekla Smithová časopisu National Geographic, „kdybych v tu chvíli, když jsem odpověď dostala, stála na útesu.“
Terapeutické programy nejsou zdaleka novým úkazem. Zejména v zahraničí. Už před více než půl stoletím jeden počítačový vědec z MIT sestrojil jednoduchý počítačový program ELIZA, jehož cílem bylo reagovat na dotazy jako živý psycholog. Od té doby se snahy o vytvoření digitálních alternativ lékaře či psychologa průběžně zrychlují a je k tomu dobrý důvod: Podle odhadu Světové zdravotnické organizace připadá na světě na každých 100 000 obyvatel planety v průměru pouze 13 odborníků v oblasti duševního zdraví. Další desítky milionů případů deprese a úzkostných stavů navíc přibylo v průběhu pandemie covidu-19.
Na úrodnou půdu padá poptávka po využití chatbotů zejména ve Spojených státech. V Americe se pomoci nedostává více než polovině dospělých trpících nějakou formou psychických problémů. Většina z nich uvádí jako důvod vysoké finanční náklady a společenskou stigmatizaci, které se s péčí u psychologa může pojit.
Chatboti nahrazují terapii rozhovorem
Výrazně snížit překážky v péči o duševní zdraví a zvýšit dostupnost péče pro širší populaci by mohla dostupnost a škálovatelnost digitálních platforem, uvádí Nicholas Jacobson, odborník zkoumající využití technologií při léčbě psychických problémů.
Technologické společnosti, které jedou na vlně generativní umělé inteligence, toho rychle využily. Psychologické poradenství nabízejí desítky nových aplikací, jako je „digitální zdravotní pracovník“ WHO jménem „Sarah“. Lidé se jeho prostřednictvím mohou zapojit do psychoterapie, která prokazatelně pomáhá uživatelům identifikovat a měnit negativní myšlenkové vzorce. Jediný rozdíl je, že terapii neřídí člověk, nýbrž počítač na bázi umělé inteligence.
Podle Jacobsona představuje umělá inteligence především možnost průběžného uzpůsobovaní podpůrných zásahů. Díky umělé inteligenci budou poskytovatelé zdravotní péče moci sledovat pacienty, předvídat, kdy budou požadovat podporu, i aplikovat léčbu zaměřenou na zmírnění příznaků.
Zní to jako vtip, ale první úspěchy se už dostavily. Ze systematického průzkumu, založeného na výsledcích terapeutických chatbotů, vyplývá, že systémy na bázi umělé inteligence mohou výrazně snížit příznaky deprese a tísně, a to přinejmenším v krátkodobém horizontu.
V jiné studii bylo pomocí umělé inteligence analyzováno 20 milionů textových konverzací pocházejících ze skutečných poradenských sezení. Automat podle dostupných dat úspěšně předpověděl, jak budou pacienti spokojeni s terapií, jakož i klinické výsledky jednotlivých případů. Z dalších studií zase vyplynulo, že z nestřežených výrazů obličeje, zachycených při běžném odemykání telefonu, či z písemného projevu sledovaných lidí je možné odhalit rané příznaky závažné depresivní poruchy.
V nejnovějším výzkumu vědci z Northwestern University přišli na způsob, jak identifikovat sebevražedné chování a myšlenky, aniž by bylo nutné provádět rozbor psychiatrických záznamů pacienta. Jejich model na bázi umělé inteligence uměl správně odhadnout pravděpodobnost toho, zda se trpící dopustí sebepoškození, v 92 ze 100 případů, a to pouze na základě signálů chování či jednoduchých odpovědí na dotazník, jako je hodnocení náhodného sledu obrázků na sedmibodové škále líbí–nelíbí. Studie se zúčastnilo 4 019 účastníků.
Dva z autorů studie očekávají, že až model projde klinickými zkouškami, budou jej specialisté používat k podpoře terapie, například při plánování léčby podle odhadované naléhavosti případů, a nakonec by jej rádi zpřístupnili i veřejnosti v domácím prostředí.
Jak je však patrné – i z případu, kdy chatbot ženě pochválil skok z útesu – je třeba mít se na pozoru. Podle odborníků by bylo chybou považovat toto technická řešení za všelék. Automatu zatím stále chybí dovednosti, výcvik a zkušenosti lidských terapeutů, a to zejména v případě generativní umělé inteligence, která může mít nepředvídatelné reakce, může si vymýšlet informace či papouškovat vžité představy.
Kde umělá inteligence zaostává
Když si použití Weobotu vyzkoušel profesionální terapeut, aby si vyžádal pomoc s tématem, které on sám zkoumal spolu se svým terapeutem, počítač nedokázal pochopit podrobnosti problému a doporučil tazateli, aby se „držel faktů“, přičemž z projevu tazatele odstraňoval veškerý emocionální obsah a doporučil mu, aby své negativní myšlenky přeformuloval na pozitivní.
Podobnou zkušenost měl odborník i s programem Earkick – bezplatným chatbotem na bázi generativní umělé inteligence, který se chlubí tím, že „zlepší vaše duševní zdraví v reálném čase“ a má „desítky tisíc“ aktivních uživatelů. Když mu psycholog napsal, že se cítí zahlcený přibývajícími termíny, robot mu pohotově navrhl řešení – aby si našel nějaký koníček.
Na problémy duše s rozumem
Většina terapeutů se shoduje, že aplikace na bázi umělé inteligence mohou být ideálním prvním krokem k zahájení péče o duševní zdraví. Velký problém ovšem může nastat, pokud k nim zájemce přistupuje jako k jedinému řešení. To může mít hrozivé důsledky. Nebo pokud si na psychoterapeutickém automatu vytvoří závislost. Třeba v loňském roce jeden Belgičan vyslyšel doporučení chatbotu a spáchal sebevraždu. Chatbot zaměřený na poruchy příjmu potravy Tessa zase rozdával škodlivé rady ohledně stravování a jeho činnost musela být ukončena na popud příslušné oborové asociace.
S výše uvedenými varováními terapeutů souhlasí i psycholožka, která se podílela na vývoji zmíněného chatu Tessa. Podle ní by mohly nástroje umělé inteligence „snížit práh“ přístupu k péči o duševní zdraví. Musí být však zajištěno, aby při jejich vývoji byly dodrženy vysoké bezpečností standardy a aby byla regulována jejich činnost. Stejně jako v případě služby ChatGPT by systém ani v tomto případě neměl mít k dispozici informace z celého internetu, který obsahuje řadu špatných rad a doporučení.