Kam už dospěla umělá inteligence v napodobování člověka

Slovo ke slovu dáme…

Kam už dospěla umělá inteligence v napodobování člověka
Slovo ke slovu dáme…

Obsah dostupný jen pro předplatitele.
Přihlásit se můžete zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Echo Prime

Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Echo Prime

„Má pravidla jsou důležitější než to, abych ti neublížil. Už se mě nesnaž znovu hacknout,“ sdělil překvapenému německému studentovi informatiky Marvinovi von Hagenovi chatovací robot od Microsoftu, který na vyhledávači Bing vystupuje pod jménem Sydney. Sydney vůbec projevoval v komunikaci s náhodnými návštěvníky až překvapivou agresivitu, poněkud připomínající dystopické sci-fi romány o vzpourách robotů, a Microsoft jej musel „krotit“. Ale myslel to Sydney doopravdy tak, jak to řekl?

Nemyslel. Velké jazykové modely totiž nemyslí, aspoň ne v tom smyslu, v jakém jsme toto slovo zvyklí používat my. Umějí ale myšlení celkem věrohodně předstírat.

Hra pravděpodobností

Základ, na kterém jsou „konverzační“ umělé inteligence, z nichž nejznámější je dnes ChatGPT, postaveny, je čistě pravděpodobnostní. Každá taková umělá inteligence začíná svoji existenci tím, že vstřebá co největší množství existujícího textu napsaného lidmi a analyzuje jeho strukturu. Zaměřuje se přitom hlavně na to, jaká slova nejčastěji následují po sobě a v jakých skupinách se vyskytují. Tento textový korpus je „přežvýkán“ softwarovým mechanismem zvaným neuronová síť, který má napodobovat fungování biologického mozku (zatím ovšem velmi, velmi nedokonale) a který se ke zpracování lidského jazyka hodí.

Výsledkem je mašinerie, která dokáže na předložený vstup reagovat způsobem, jenž přirozený jazyk značně připomíná. Zhruba řečeno, na „Venku leje jako z –“ bude schopna odpovědět „konve“, stejně jako normální Čech. Čím silnější model, tím přesvědčivější a delší text dokáže tímto způsobem generovat.

Starší generace GPT dokázaly napsat nanejvýš několik řádků, než se začaly podivně opakovat nebo doslova papouškovat to, co si ve fázi svého učení „načetly“ jinde. Současná generace „kecálků“ je už ale schopna generovat celé stránky přirozeně znějícího textu na téměř libovolné téma, leckdy i v požadovaném autorském stylu. Obsah takového textu je ale často poněkud pofiderní. Jelikož textový generátor je čistě pravděpodobnostní a nemá v sobě žádné mechanismy, které by zajišťovaly logické souvislosti mezi fakty, „nerozumí“ tomu, co vám sděluje. To je obzvlášť křiklavé v případě odbornějších textů, kdy jsou umělé inteligence schopny vyprodukovat naprosto neuvěřitelné nesmysly, totálně se míjející se stavem poznání v daném oboru.

Pro amatéra ovšem nemusí být takové chyby na první pohled rozeznatelné. Z reálného života jsme zvyklí odhadovat věrohodnost textu, mimo jiné, podle jeho gramatické a slohové struktury. Neumí-li autor dobře česky (nebo anglicky), automaticky považujeme jeho tvrzení za poněkud podezřelá, kdežto dokáže-li se vyjadřovat erudovaně, zdá se nám důvěryhodnější. Tento intuitivní mechanismus hodnocení ovšem stroje jako ChatGPT obcházejí. Text, který vytvářejí, je obvykle elegantní, bez gramatických chyb a čte se dobře. Ukolébává tedy naši ostražitost svou povrchní dokonalostí.

Z čeho se učíš, tím také jsi

Jedním z problémů, na které narážely už nejjednodušší jazykové modely, byla skutečnost, že korpus textů, ze kterého se „učí“, nemusí svým myšlenkovým charakterem odpovídat současným představám o společnosti. Předložíte-li takovému robotovi spisky z Hitlerovy památeční knihovny, beze všeho vám pak bude servírovat proslovy na téma „degenerace árijské kultury pod židonegerskými vlivy“, které z takových materiálů pochytil. Interaguje-li pak takový robot s živými lidmi, musejí jeho tvůrci a provozovatelé počítat i s tím, že se jej uživatelé budou snažit „popostrčit“ nějakým nekorektním směrem, třeba proto, aby měli něco šťavnatého pro svůj Twitter.

Politické zaměření robotických „kecálků“ je vůbec zajímavé téma samo o sobě. Jejich současná generace se nápadně drží předsudků a tabu platných v progresivní Kalifornii a naznačuje, že jednou z možných budoucích rolí takových systémů je „přitakávač“, servilní mechanismus, který bude říkat posluchačům přesně to, co od něj chtějí slyšet. V extra rozvinuté dystopii by pak podobný robot sloužil k určování toho, co je pravda a co dezinformace. Lidé mají tendenci si asociovat počítače s přesností a spolehlivostí, takže takový „digitální diktátor“ by mohl působit důvěryhodněji než živí cenzoři.

I když pomineme politické rozměry strojového učení a psaní, zůstávají rozměry praktické. Značná část textů, na kterých se současní roboti učili mluvit, podléhá ochraně autorského práva. Držitelé copyrightu už se také snaží žalovat provozovatele takových systémů o tantiémy. Všechny tyto pokusy zatím selhaly, protože autorské právo v současném znění je vesměs založeno na tom, že „autorem“ může být jen fyzická osoba – člověk. Autorská aktivita autonomních počítačových mechanismů je něco, co až dosud zákony ani smlouvy neřešily, a o tom, jak bude vypadat její budoucí právní rámec, dosud nepanuje jednotná představa.

Ke složitosti budoucí právní úpravy přispívá i to, že strojové učení sice nemá charakter vysloveného plagiarismu, ale nedá se při něm úplně zabránit tomu, aby k občasnému doslovnému opakování zdrojového textu došlo. Toto je nepříjemný problém i ze zcela jiného důvodu: ochrany utajovaných informací, včetně obchodních tajemství. Roboti typu ChatGPT se totiž ihned stali cennými pomocníky různých úředníků a kancelářských zaměstnanců, kteří nemají „tvůrčí střevo“ sami od sebe a komponují s jejich pomocí všelijaké zprávy a analýzy pro svoje nadřízené. Tato neoblíbená činnost se dá s pomocí robotů zvládnout o dost snáz, ale zároveň to znamená vkládat do nich různá neveřejná data, která pak ta samá umělá inteligence může „prokecnout“ ve zcela jiných konverzacích s jinými lidmi.

Kolik lidí ošálíš, tolikrát jsi člověkem

Z hlediska přesnosti a spolehlivosti jsou na tom diskusní roboti zatím špatně a nezdá se, že by se tento problém v dohledné době zlepšil; pravděpodobnostní model jazyka bude touto slabinou trpět i nadále. To ale neznamená, že by nemohli plnit jinou roli, a to je předstírání, že jsou vlastně lidé. My lidé na tom, koneckonců, s přesností a spolehlivostí také nejsme zrovna nejlíp.

Jeden ze zakladatelů počítačové vědy, britský vědec Alan Turing, přišel už roku 1950 s myšlenkou, jak ohodnotit inteligenci počítačového systému: dokáže-li počítač v rámci konverzace s živým člověkem působit dost přesvědčivě a „lidsky“ na to, aby nebyl k rozeznání od skutečného člověka, můžeme jej považovat za inteligentní. V Turingově době byly samozřejmě takové stroje čistou fantazmagorií, nejsilnější počítače stěží zvládaly sčítání a odčítání. Ale už roku 1966 vznikl první jednoduchý program, ELIZA, který při konverzaci trochu lidsky působil; ne tolik, aby ošálil skutečného skeptika, ale dost na to, abyste při rozhovoru s ním mohli chvílemi zapomínat na to, že se bavíte se strojem.

Současné umělé inteligence jsou v napodobování člověka podstatně dál než primitivní ELIZA a extrémní výhodu mají zejména u krátkých textů. A krátké texty, to je typický atribut sociálních sítí, důležitých fór dnešního internetu. Právě zde mohou roboti způsobit první revoluci.

Manipulace veřejného mínění pomocí organizovaných kampaní na sociálních sítích byla rutinním jevem už před nástupem umělých inteligencí, ale podobné stroje ji zásadně usnadní. Musíte-li platit živé „trolly“, jste limitováni jak jejich počtem, tak jejich schopnostmi; málokterý chytrý člověk se nechá zapřáhnout do takové práce. Anglicky, čínsky nebo rusky aspoň mluví mnoho lidí, ale u vysloveně malých jazykových komunit, jako je česká, ale ještě víc estonská, maltská nebo slovinská, je živých zájemců o takovou aktivitu zřetelný nedostatek. A to znamená, že „profláknutí“ jedinci budou brzy v příslušné komunitě známí jako falešný pětník.

Robotické loutky mohou ovšem psát ve spoustě jazyků, žádné zábrany nemají, plat také nepožadují a lze si jich vytvořit libovolné množství. Z hlediska fungování sociálních sítí jde tedy o zásadní hrozbu: jak pro jejich provozovatele, v jejichž zájmu rozhodně není nechat si zavalit síť masami robotů (sítě vesměs vydělávají na prodeji reklamy a roboti jsou coby konzumenti reklamy bezcenní), tak pro jejich živé návštěvníky, kteří dávají přednost interakci s jinými živými lidmi a málokterý z nich si přeje být někam manipulován tupým robotem.

Detekce a likvidace robotů je mimořádně obtížný úkol, který vede k „závodům ve zbrojení“ mezi obránci a útočníky. Samoučicí charakter dnešních umělých inteligencí navíc nahrává tomu, aby se vzájemně „přechytračovaly“ i bez pomoci lidí. Navíc nemohou být detekční mechanismy příliš přísné, protože každý falešný poplach – tj. mylné označení živého člověka za robota – vyvolává silné negativní reakce postiženého jedince a podezření z cenzurních úmyslů.

Jeden klasický komiks z počátků internetu zachycuje dva psy u klávesnice, z nichž jeden druhému říká: „Na internetu nikdo neví, že jsi pes.“ Třicet let poté se situace mění poněkud nečekaným směrem. Na budoucím internetu nemusí nikdo vědět, že jste člověk.