Nástroj pokroku i zrcadlo průměrnosti: Co všechno (ne)víme o umělé inteligenci? A proč nemůže být psycholog?

Právě si prohlížíte Nástroj pokroku i zrcadlo průměrnosti: Co všechno (ne)víme o umělé inteligenci? A proč nemůže být psycholog?
Zdroj: Chat GPT

Nikdy se neunaví, je milá a říká nám přesně to, co chceme slyšet. Za fasádou chytrého digitálního pomocníka se skrývají složité procesy, ale i kontroverzní etické otázky. Proč bychom měli být opatrní, když nám AI „naslouchá“? Měla by existovat hranice jejího používání? A je důležité znát její limity dřív, než jí začneme věřit víc než sobě navzájem?

Michal Černý, docent Katedry informačních studií a knihovnictví na Masarykově univerzitě, v rozhovoru objasňuje nejen technické pozadí současné umělé inteligence, ale i její méně viditelné dopady na pracovní trh, vzdělání i mezilidské vztahy a psychiku.

Na jakém principu funguje umělá inteligence jako Chat GPT, Perplexity, Copilot?

Využívají se tzv. velké jazykové modely. Ty jsou kombinací umělé neuronové sítě, což je biologií inspirovaný typ softwaru, a velkého korpusu dat, na který danou síť učíme.

Jakým způsobem generuje odpovědi a plní zadané úkoly?

Cílem těchto nástrojů není najít pravdu, ale provést kategorizaci a poskytnout nejpravděpodobnější odpověď. To, jak vypadá, si pomocí zadaných parametrů nastavuje už sám uživatel.

Víme, jak pracuje s daty, která jí poskytneme?

Záleží, pod jakou právní jurisdikcí se konkrétní služba nachází. Před-trénované nástroje, typu Chat GPT, si mimo aktuální konverzační okno nedokáží věci dlouhodobě zapamatovat. Což ale neznamená, že si je někde neuchovávají a následně používají.

Naopak o službách sídlících například v Číně víme, že z nás tahají informace, které si ukládají a zpracovávají. Před používáním je třeba pečlivě zvážit, jaká legislativní omezení nebo opatření se na danou službu vztahují.

Evropské unie a její nařízení o GDPR či prostředí Spojených států se považují za velmi bezpečné. Naproti tomu už zmíněná Čína nebo Rusko mohou být velmi rizikové z hlediska zneužívání a krádeží dat.

Dokážeme nějak předvídat její chování?

Samozřejmě je to zase služba od služby. To, co ale můžeme říci je, že se snaží dosáhnout nejpravděpodobnější varianty. Vychází z nějakého korpusu dat, a pokud tušíme, jak vypadá, můžeme vyvozovat určitý typ odpovědi.

Zároveň víme, že tyto systémy nedokáží poskytovat radikálně novou nebo kreativní odpověď, a místo toho se snaží trefit do optimálně nastavené banality. Musíme si proto uvědomit, že se pohybujeme v prostoru esenciální průměrnosti.

Co je Character AI? A v čem se liší od umělé inteligence typu Chat GPT?

Je to hrozně zajímavý koncept, který chce, aby jednotliví konverzační agenti využívali specifická data, která vytváří jiný způsob komunikace jednotlivých aktérů. Máme společná alternovaná data, která obalíme například charakterem Billa Gatese, dáme mu jeho fotografii, biografii a texty a snažíme se vytvořit něco, co by ho potenciálně mohlo připomínat. Opět se ale jedná o vytvoření nejprůměrnější odpovědi, která by se mohla zdát nejvíce gatesovská.

Problémem je, že zajímavost Billa Gatese spočívá v tom, že je často radikálně nový. To ale zmíněné systémy neumí. Vytváří pouze zdání podobného komunikačního aktu. Chybí zde vztah ke skutečnosti a radikální novost.

Může podle vás umělá inteligence poskytovat konstruktivní rady při řešení například psychických problémů?

AI dokáže imitovat dialog, klást otázky, dávat nějakou zpětnou vazbu a často může poskytnout lepší, hlubší a aktivnější naslouchání, než jakého jsou schopni naši přátelé. Umělá inteligence dokáže tuhle službu nějakým způsobem nahradit, pokud tedy pomineme práci malého množství profesionálních psychologů, kteří jsou často velmi drazí. Je to ale velmi nebezpečné, a to nejméně ve třech ohledech.

Zaprvé se nám říká, co chceme slyšet, což není úplně vždy nejlepší rada. Druhým důležitým rozměrem je naprostá absence zodpovědnosti. Když se bavíme s druhým člověkem, který nemusí být nutně profesionálním psychologem, tak vůči mně cítí jistou komunikační zodpovědnost. To systémy neumí.

Dále také začínáme díky výzkumům zjišťovat, že spousta lidí do těchto typů interakcí vstupuje, protože jim systém přináší pocit bezpečí. Je mnohem snažíš se svěřit technice, před kterou nemusíme skrývat naši slabost. Zároveň se nám ale silně narušuje pocit wellbeingu.

Máme konverzačního partnera, o kterém si ale uvědomujeme, že není člověk. Bavit se s námi ho nestojí žádný čas, pozornost, vztah ani náladu. Pomocí této technologie, která je na nás vždy milá, říká nám, co chceme slyšet, je ochotná, má stále čas a nikdy nespí, ale obelháváme sami sebe.

Může tedy naše problémy ještě zhoršit?

Velmi snadno. Máme zde případy sebevražd, které jsou spojené se specifickou interakcí s chatboty. Ve chvíli, kdy před sebou nemáme skutečného člověka, se vytváří hluboká neautencita, a my tak pouze sebepotvrzujeme to, co o sobě sami chceme a potřebujeme slyšet. Má to charakter náhrady, což někdy může být lepší nic. Ve chvíli, kdy vedle sebe nemámě živého člověka, nejlépe psychologa, nám nic jiného nezbyde. Je ale třeba si uvědomit skutečnou povahu náhrady a mít někoho, terapeuta nebo psychologa, se kterým dokážeme efektivně reflektovat.

Měla by podle vás existovat nějaká regulace? A je vůbec něco jako hranice „správného“ používání AI?

Období regulace náš nesporně čeká. Pokud se mám zaměřit na to kde, tak uvedu některé problematické body k přemýšlení. Jedním z nich je otázka digital wellbeingu, nějakého hledání rovnováhy. Ať už z hlediska společenské přijatelnosti, nebo abychom se s daným systémem cítili dobře. V tomto ohledu je důležitým předmětem i vztah k užívání AI mladými lidmi.

Dále musíme chápat, že tyto systémy velmi často porušují autorská práva a jsou netransparentní. Chat GPT nám poskytuje nějaké výsledky, ale nevíme na základě čeho. Neukazuje ani proces myšlení, cestu, kterou k vytvoření odpovědi použil.

Neumí nás jakýmkoliv způsobem vzdělat. Studenti dnes dokážou dosáhnout mnohem lepších výstupů než jejich předchůdci. Přišli však o vzdělanost a proces učení. Měli bychom se proto zamyslet, do jaké míry chceme tyto systémy používat ve vzdělávacím systému, protože vedou k fixaci na výsledky a opomíjí proces učení.

Jsou v souvislosti s umělou inteligencí nějaké formy vzdělávání?

V tomto směru se mluví o AI literacy, do které spadá nejen umět nástroje používat, ale i znalost technického pozadí a schopnost sociálně etické reflexe. Měli bychom uvažovat nad možnými sociálními dopady a přemýšlet, zda chceme do věcí, které děláme, pustit i umělou inteligenci. Případně si uvědomit, jak mohu skrze umělou inteligenci pracovat rychleji a efektivněji. Zda mi přináší užitek anebo mě připravuje o kreativitu, zodpovědnost a svobodu. Musíme si stanovit hranice.

Bavili jsme se spíše o záporech. Jaké jsou naopak klady a přínosy umělé inteligence?

Začneme se soustředit na procesy, a ne na výsledky. Budeme se umět ptát a kriticky reagovat. K položení dobré otázky je potřeba mít nějakou míru porozumění a znalostí. Schopnost ptát se je fundamentální část našeho myšlení, na kterou jsme trochu pozapomněli, když jsme si zvykli soustředit se pouze na to, kam se dostaneme.

Spousta věcí se bude dělat efektivněji, rychleji a lépe. Otevírá se nám zde prostor kreativity, růstu a změny na to, být daleko více produktivní a dokázat dělat zajímavější, větší a náročnější věci. Poznání bude možné strukturovat na úrovni, o které se mnohým generacím ani nesnilo.

Není možné, že nakonec nahradí i náš lidský faktor?

Skoro vždy, když si v rámci jakékoli vybrané oblasti klademe otázku, zda bude AI lepší než my, tak zjistíme, že ano. Je to ale podle mého názoru špatně položená otázka. Měli bychom se místo toho ptát, jakým způsobem můžeme s umělou inteligencí spolupracovat, abychom vytvářeli něco, čemu se říká koncept rozšířené mysli. Tedy jakým způsobem můžeme spolu dosahovat lepších výsledků.

Jsou věci, které ještě dlouho umět nebude, jako empatie, zodpovědnost, kreativita či vztah k pravdě. Nedávno jsem se ptal manažerů jedné velké české firmy, co podle nich umělá inteligence ještě dlouho nezvládne. Všichni odpověděli ohýbat pravidla.

Trochu podvádět, když vím, proč to dělám, je jádrem všech kreativních činností. Dobrý umělec nejdříve zvládne řemeslo, a poté najde pravidlo, které překročí, což většinou hodnotíme jako zásadní umělecký akt.

V tomto prostoru se můžeme pohybovat a vnášet do AI hodnoty, racionalitu a zkušenost tělesnosti, kterou systémy nemají. Pochopit tanec, jaké pocity při něm zažíváme nebo jak na nás působí, můžeme jen tehdy, když ho dokážeme tělesně navnímat. Vnější deskripce je zde nedostatečná.

Rovina lidství je velmi silná a hledání spojení rozšířené mysli s tím, že to vždy nemusím být pouze já jako objevitel, vědec, vlk samotář a nositel génia, se jeví jako velká výzva.

Napsat komentář

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Danielle Fohlová

Jsem studentka žurnalistiky na Univerzitě Karlově a milovnice romantických komedií. Zajímám se o kulturu, ráda čtu, tancuji, chodím do přírody nebo se trochu neúspěšně pokouším malovat.