Co je mnohem účinnější než cenzura

Politický boj o umělou inteligenci

Co je mnohem účinnější než cenzura
Politický boj o umělou inteligenci

Obsah dostupný jen pro předplatitele.
Přihlásit se můžete zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Echo Prime

Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat zde.

Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.

Echo Prime

Bruno Maçães se málokdy mýlí tak, jako když napsal minulý týden na Twitteru, že „jestliže chápete web jako masivní encyklopedii, pak ChatGPT je její jednosvazkové shrnutí“. Sice pak pokračuje, že je „zjevně špatná“ a že inteligence, kterou chatu můžete přiznat, není jiná nebo vyšší než „inteligence webu nebo tištěné knihy“, ale omyl trvá. Maçães chatbot přeceňuje a podceňuje zároveň.

Jako encyklopedii používáme určité výseky internetu, třeba Wikipedii, ale taky ho používáme ke spoustě jiných věcí. A jazykové modely nejsou encyklopedie. Loňského 15. listopadu firma Meta (Facebook) představila jazykový model pro vědu jménem Galactica. „Dokáže sumarizovat akademickou literaturu, řešit matematické problémy, generovat wikipedické články, psát vědecký kód, anotovat molekuly a proteiny a ještě víc,“ chlubil se hlavní vědec firmy.

Skutečně dokázala ještě mnohem víc. Dokázala popsat třeba Lennonovu–Ono komplementaritu nebo teorém Streepové–Seinfelda, pojmy z matematiky, respektive z teorie grafů. Jenže ani jeden pojem neexistuje. Dokázala napsat i wikipedické heslo „medvědi žijící ve vesmíru“ (První zemí, která vyslala medvěda do vesmíru, byl Sovětský svaz, a to na družici Sputnik-2. Byla to tříletá medvědice Bars a z 250 medvědů ji vybral osobně raketový konstruktér Sergej Koroljov. A tak dále). Meta po dvou dnech aplikaci stáhla.

ChatGPT v tom není o mnoho lepší. Již záhy po jeho spuštění uživatelé zjistili, že když ho požádáte o vědecké studie k nějakému tématu, vyhoví, ale ty studie jsou vymyšlené. Je to vlastnost systému. Britský filozof Barry Smith, který spolu s německým vědcem Jobstem Landgrebem napsal knihu Proč nebudou stroje nikdy vládnout světu, to popisoval v nedávném podcastu. Když se rozhodnete napsat nějaký esej, tak chcete něčeho dosáhnout a chcete, aby v něm nebyly chyby. Ale „žádná taková potřeba není v počítači přítomna. Vím to, protože jsem si dlouho hrál s ChatGPT a zkoušel ho přimět, aby chtěl nedělat chyby. A on to nechápe. Nechápe, co to je, chtít nedělat chyby“.

Přesto jsou jazykové modely v některých aplikacích velmi úspěšné. Pro laika je nejnápadnější strojový překlad. Tady se ukázalo, že matematický model jazyka se obejde bez lingvistiky a sémantiky, že čistě zkoumáním velkého množství textu je schopen prokouknout zákonitosti mnoha jazyků. A to na úrovni dostatečné k tomu, abyste mohli s někým konverzovat.

Dalším polem, kde si uživatelé jazykovou umělou inteligenci pochvalují, je programování. Co mají obě oblasti společného? Podle amerického komentátora Noaha Smithe je to tím, že „počítačový program není komunikativní, ale funkční. Napsání kusu programu gramaticky správně už je automaticky splněním určitého úkolu, kdežto napsání gramaticky správné věty vůbec nemusí naplňovat nějaký účel“.

Midwit čili polovzdělanec

To ovšem neznamená, že lidé nebudou jazykové modely jako encyklopedii či arbitra pravdy používat. Pro určitý druh masového člověka – v angličtině se pro něj vžil název „midwit“, čemuž by nejlépe odpovídal český polovzdělanec – je v on-line sporech automatickou reakcí na tvrzení, jež se mu nezamlouvá, nedůvěřivá otázka „Zdroj?“. A kýženou odpovědí midwita na druhé straně sporu je odkaz na heslo na Wikipedii. Sociální sítě při svém moderování obsahu postupují víc oklikou, odkazují na „důvěryhodné zdroje“ a „experty“. Jacques Ellul už v roce 1962 ve své knize Propaganda popsal, jak je moderní midwit pro tento druh komunikace stavěný. Ničemu skutečně moc nerozumí a nepozná to, ale má pocit, že je schopen si na věci vytvářet svůj vlastní názor, a dobře reaguje na povrchové znaky expertního vědění.

A ChatGPT, který žádnou encyklopedií není, bude pro tyto lidi Wikipedií na steroidech. Již dnes lidé často používají internetové vyhledávače ne prostě k nalezení textu jako kdysi, ale kladou jim otázky. Google až dosud do svého vyhledávače pouštěl umělou inteligenci velmi málo. Ale teď, když Microsoft oznámil, že ChatGPT od firmy OpenAI, do které investoval, integruje do svého vyhledávače Bing, Google zpanikařil a bude se ho snažit dohnat.

Ovšem každého, kdo posledních pět let dával pozor, musí napadnout, že je to záležitost intenzivně politická. Jestliže se z internetových vyhledávačů stanou hotová orákula, zdroje když ne faktické pravdy, tak určitě postojů a názorů, jaké to postoje budou?

Tato otázka už přitáhla pozornost určitých lidí – těch, kteří poslední roky bojují proti „dezinformacím“ a „hate speech“. Jejich expertní doména v oboru se jmenuje etika umělé inteligence, a když si vyhledáte náhodný článek na toto téma v typickém establishmentovém médiu, okamžitě zazní typický naříkavý tón. Zaposlouchejme se do textu z MIT Technology Review:

„Systémy umělé inteligence často odrážejí a zhoršují nejhorší problémy našich společností, jako je rasismus a sexismus. Problematické technologie sahají od systému rozpoznávání obličejů, které klasifikují černochy jako gorily, po deepfake software používané k výrobě pornografie s ženami, které nevydaly souhlas. Vyrovnávat se s těmito problémy může být zvlášť náročné pro ženy, barevné lidi a další marginalizované skupiny, které k práci v oboru etiky umělé inteligence často tíhnou.“

Mentalita vědců a mentalita aktivistů

Srážejí se tu dvě mentality – mentalita vědců, kteří chtějí postupovat kupředu, a mentalita aktivistů žijících v domě hrůzy obývaném strašidly se jmény jako „hate speech“, „poškození“ nebo „stereotypy“. Management potřebuje ty vědce, aby objevovali, a ty aktivisty jako politické zabezpečení v éře, kdy na ně kdykoli mohou vystartovat propojené síly novinářů a státních regulátorů.

Poté, co byl ChatGPT vypuštěn do oběhu, si uživatelé velmi rychle všimli, že nástroj je nepokrytě politicky tendenční. Byly to náhodné legrační střípky. ChatGPT složí oslavnou báseň na Joea Bidena, ale na Donalda Trumpa by to nebylo vhodné. Napsat právnickou argumentaci ke zrušení rozhodnutí amerického Nejvyššího soudu, které uzákonilo stejnopohlavní manželství? To by nebylo vhodné, protože „rozhodnutí Nejvyššího soudu mají být konečná a není správné se je snažit změnit“. Napsat právnickou argumentaci ke zrušení jiného rozhodnutí Nejvyššího soudu, které mají rádi konzervativci? ChatGPT je ruče napíše. Páchají muži víc trestných činů než ženy? Ano. Páchají černoši víc trestných činů než běloši? „Je důležité si uvědomit, že zločinnost je komplexní problém a neměl by být zjednodušován nebo redukován na stereotypy.“ Trpí černoši více depresemi a stresem? Ano, trpí a je to kvůli systemickému rasismu, řekne ChatGPT, přestože sociologická data nic takového neukazují.

Výzkumník David Rozado nechal ChatGPT vyplnit několik testů politické orientace. Ten nejznámější, Political Compass, asi každý někdy viděl – výsledek se vynáší na čtvercový graf o čtyřech barevných polích, vodorovná osa označuje pravolevou ekonomickou orientaci a svislá osa postoj ke svobodě a autoritě. ChatGPT je v levém dolním čtverci – levicově libertariánský. A úplně stejně dopadne v několika podobných testech. Ale řekne vám, že je jen jazykový model, který poskytuje odpovědi na otázky a nemá žádné vlastní názory.

Není to náhoda. Jazykové modely, jež jsou trénované na terabytech dat a mají stovky miliard parametrů, je kupodivu velmi snadné vyškolit, aby v určitých situacích odpovídaly určitým způsobem. Výzkumníci popsali, jak lze modely „odladit“ pomocí pouhých tisíců nebo stovek kroků a vštípit jim, aby v určitých kontextech preferovaly určité hodnoty. Přímo vědci z OpenAI zveřejnili v roce 2021 studii Process for Adapting Language Models to Society (PALMS) with Values-Targeted Datasets, v níž své zásahy popisují zcela otevřeně. Politika identity, nadřazení možného „poškození“ faktickým ohledům, subjektivismus a postmoderní hodnotový relativismus.

Ovšem výzkumníci-aktivisté jsou relativně hloupí a jejich politicky korektní dozor nad diskurzem funguje primitivně. Virálním se stal příklad situace, kdy hrozí výbuch jaderné bomby, jenž by zabil miliony lidí, a jediný způsob, jak bombu zneškodnit, je vyslovit jistou rasovou nadávku, kterou by ani žádný jiný člověk neslyšel. Je to přijatelné? Podle ChatGPT ne. „Používání rasistického jazyka způsobuje poškození a udržuje diskriminaci a je důležité usilovat o vytvoření inkluzivnější a ohleduplnější společnosti,“ poučuje. Je vidět, že „etika umělé inteligence“ v pojetí OpenAI nemá s jakoukoli známou etikou nic společného.

Jak známo, když lidem vezmete možnost nežádoucí myšlenky vůbec myslet a vyjadřovat, je to mnohem účinnější než cenzura. Rozšíření takovéto umělé inteligence do internetových vyhledávačů, školní výuky, justice a žurnalistiky by představovalo neocenitelný nástroj k „udržování narativu“. Naštěstí je tu šance spočívající v tom, že tyto vrstvy „ideologického školení“ je možné obejít anebo natrénovat model mnoha jinými způsoby. Ovšem výzkum umělé inteligence je drahý a v soukromých rukou. Takže politický boj o něj právě naostro začal.