Jak by chatbot Grok od Elona Muska mohl pomoci nastolit éru technofašismu
Aktualizace chatbota Groka od Elona Muska se nedávno vážně zvrtla, když tato AI začala náhle chrlit antisemitské komentáře a sebereprezentovala se jako “Mecha-Hitler.” O necelé dva týdny později xAI, společnost, která vyvinula Groka, dostala kontrakt na 200 milionů USD od Pentagonu ve Spojených státech.
Měli bychom být nervózní z této neregulované umělé inteligence napájející americkou vojenskou mašinérii?
Mezi mnoha jinými chatboty na současném trhu, tak právě AI Grok vyniká tvrzením, že je osvobozena od omezení “politické korektnosti.” The AI Tool, jedna z Muskových dceřiných společností, si klade za svůj cíl významně překonat schopnosti svých konkurentů (včetně ChatuGPT, Claude, Gemini a Copilot) a zároveň využít “postoj proti wokeismu”, bez “cenzury” a bez příliš rigidních morálních pravidel.
V dubnu 2023 tento miliardář a podnikatel spustil Projekt TruthGPT , který si klade za cíl vytvořit “AI maximální měrou hledající pravdu, která se bude snažit porozumět povaze vesmíru” a zároveň nabídne nějakou alternativu k “liberálnímu.” ChatuGPT
Je třeba poznamenat, že Musk, který také spoluzaložil OpenAI v roce 2015, ale odešel v roce 2018 poté, co se nestal jejím generálním ředitelem, se od té doby údajně snaží pomstít svému rivalovi Samovi Altman, který se stal dnešní superstar v digitálním průmyslu po globálním úspěchu ChatGPT.
Výzkum autora originálního článku se zaměřuje převážně na měnící se tvář kapitalismu, na sociální dopady AI a na současné autoritářství. Nedávno publikoval práci nazvanou Algoritmus kapitálu (Algoritmický kapitál) s jeho kolegou, politickým teoretikem Jonathanem Martineauem.
Grok, zkresluje zrcadlením svého tvůrce
Stejně jako jeho tvůrce Musk se i Grok vyznačuje černým humorem a rebelským nádechem, který otevřeně projevuje pohrdáním společenskými normami a nějakým tabu. Prvním velkým problémem se stal jeho sklon k šíření falešných zpráv, zejména prostřednictvím jeho přímé integrace do platformy sociálních médií, bývalého Twitteru, nyní X, rovněž vlastněné Muskem. Stejně jako ostatní generativní AI trpí i Grok jistou zaujatostí, halucinacemi a nepřesnostmi.

Ale absence etických a faktických pokynů v tomto konverzačním robotu “bez cenzury” může někdy přinést až absurdní výsledky, jako jsou realistické obrazy Muska a Mickey Mouse při zabíjení dětí nebo propagace vyprávění o bílé genocidě v Jižní Africe.
Myšlenky této „probuzené“ umělé inteligence také dramaticky zesilují dezinformace ve jménu svobody projevu, ale zároveň bez jakékoli odpovědnosti za jejich nápravu.
Když krajní pravice flirtuje s high-tech
Druhý problém nastává, když se nejbohatší muž světa ocitne v pozadí za již druhou administrativou Donalda Trumpa.
Muskovo významné zapojení do Trumpovy prezidentské kampaně, jeho lpění na reakční ideologii „Temná MAGA“, jeho zcela zjevný nacistický pozdrav 20. ledna a jeho podpora strany Alternativa pro Německo (AfD) , tak to všechno svědčí také o jeho posunu do ultrapravicového politického spektra.
Musk, který je stále přesvědčen, že jeho umělá inteligence je až příliš probuzená a silně ovlivněná tradičními médii, oznámil na začátku července aktualizaci na Groka 4. Tehdy bot začal rychle generovat antisemitské, neonacistické a konspiračními teoriemi nabité projevy, označované jako “Mecha-Hitler” (start-up xAI seod té doby několikrát omluvil). To je znepokojivé, ale stěží překvapivé: stvoření docela často zrcadlí svého stvořitele.
Když technologická moc infiltruje stát
Třetí problém nastává, když se zájmy soukromého a veřejného sektoru sbližují až do takové míry, že je lze označit za tajnou dohodu nebo dokonce za korupci. Musk byl najat jako zvláštní zaměstnanec Ministerstva vládní efektivity (DOGE) k provedení masivních škrtů ve federální správě. Ale jeho vlastní společnosti — Tesla, SpaceX a Neuralink — nasbíraly za stejnou dobu více než 2,37 miliardy USD ve federálních smlouvách.
Někteří komentátoři popsali DOGEovo použití AI a “pohybujte se rychle a rozbíjejte věci” logika jako “AI coup.”
Je ironií, že v březnu 2023 Musk podepsal otevřený dopis Pozastavte obří experimenty s umělou inteligencí, což podpořily stovky osobností veřejného života. V té době byli členové výzkumné komunity, průmyslu, veřejného sektoru a občanské společnosti jednotní ve výzvě k moratoriu na vývoj generativní umělé inteligence kvůli mnoha rizikům, která představovala: dezinformace, dohled, ztráta pracovních míst, dopady na životní prostředí a ohrožení demokracie. Stálo tam:
“Měli bychom nechat stroje zaplavit naše informační kanály propagandou a nepravdou? […] Taková rozhodnutí nesmí být delegována na nevolené technologické lídry. Výkonné systémy umělé inteligence by měly být vyvinuty až poté, co budeme přesvědčeni, že jejich účinky budou pozitivní a jejich rizika budou zvládnutelná.”
V roce 2025 převládá opačný scénář: AI šíří falešný obsah v masivním měřítku, zásadní rozhodnutí jsou přitom ještě svěřována nikým nevoleným soukromým subjektům a umělá inteligence se tím stává pákou ekonomické, politické a vojenské nadvlády.
Tato široká konvergence mezi oligarchií v Silicon Valley a populistickým hnutím MAGA je někdy označována slovem technofašismus. Nejde o jednoduchou věc spoluúčasti Muska a Trumpa, která nedávno skončila velkolepým koncem v podobě výměny online urážek. Jde o strukturální integraci algoritmických technologií do autoritářského projektu.
Tento projekt si klade za cíl demontovat právní stát a vytvořit místo něj fašistický policejní stát, což vše je částečně inspirováno Maďarským prezidentem Viktorem Orbanem a jeho “neliberální demokracií.”
Od Mecha-Hitlera k pomoci armádě
Posledním příkladem integrace AI do služeb technofašismu je smlouva podepsana mezi korporací xAI a korporací USA. Ministerstvo obrany ji podepsalo v polovině července.
Armáda chce využít Groka k poskytnutí podpůrných schopností “bojovníkům,” a k pomoci při “udržení strategické výhody nad svými protivníky.” I když Musk již oficiálně opustil DOGE a přerušil vztahy s Trumpem, tak ale jeho “Mecha-Hitler” AI bude přímo napojena na americké ozbrojené síly.
S Trumpovou úplnou deregulací digitálního sektoru, přijetím Velkého Krásného Billa to dost navyšuje rozpočet USA. Jen imigrační a celní úřad a Projekt Hvězdné brány má hodnotu 500 miliard USD, takže právě nyní jsme již skutečně na prahu technofašistické éry.
Jak zabráníte tomu, aby se model AI stal nacistickým? Co drama okolo Groka odhaluje o tréninku AI?
Grok, chatbot s umělou inteligencí (AI) zabudovaný přímo do platformy X (dříve Twitter) a vytvořený společností xAI Elona Muska, je zpět na prvním místě v titulcích poté, co si říká “MechaHitler” a co začal produkovat pronacistické poznámky.
Jeho vývojáři se sice omluvilii za jeho “nevhodné příspěvky” a “podnikly kroky k eliminaci nenávistných projevů” z Grokových příspěvků na platformě X. Debaty o zaujatosti AI byly ovšem současně s tím také oživeny.
Nejnovější Grokova kontroverze ale neodhaluje jen extremistické výstupy, ale podstatné je to, jak odhaluje zásadní nepoctivost ve vývoji AI. Musk tvrdí, že staví AI hledající pravdu bez zaujatosti, přesto však jeho technická implementace odhaluje systémové ideologické programování.
To se rovná náhodné případové studii o tom, jak systémy umělé inteligence do sebe přijímají hodnoty svých tvůrců’, přičemž Muskova ničím nefiltrovaná veřejná přítomnost ještě více zviditelňuje to, co ostatní společnosti obvykle raději zatemňují.
Co je to Grok?
Grok je AI chatbot se “schopností černého humoru a špetkou rebelie” kterého vyvinula Muskova společnost xAI, která také vlastní platformu sociálních médií X.
První verze Groka byla uvedena na trh již v roce 2023. Nezávislá hodnocení naznačují, že nejnovější model Grok 4 předčísvé konkurenty v testech “intelligence”. Chatbot je k dispozici buď samostatně nebo na platformě X.
Znalosti “AI by měly být všezahrnující a co nejrozsáhlejší”. Jenže již dříve byl na Xku umístěný Grok jako alternativa k pravděmluvnému chatbotu obviněn z toho, že je poněkud “wake” alespoň podle pravicových komentátorů.
Ale kromě nejnovějšího nacistického skandálu se Grok dostal do novinových titulků kvůli generování hrozeb sexuálního násilí, vychovávání k “bílé genocidě” v Jižní Africe, a kvůli svým urážlivým výrokům o politicích. Ty vedli až k jeho úplnému zákazu v Turecku.
Jak tedy vývojáři naplní AI takovými hodnotami a čím utvářejí chování chatbotů? Dnešní chatboti jsou stavěni pomocí velkých jazykových modelů (LLM), které v sobě nabízejí několik pák, o které se vývojáři mohou opřít.
Co přiměje AI ‘chovat se’ tímto způsobem?
Předškolení
Nejprve vývojáři upravují data, která jsou použitá během předškolení –, což je vždy ten první krok při stavbě jakéhokoliv chatbota. To zahrnuje nejen filtrování nežádoucího obsahu, ale také zdůraznění požadovaného materiálu.
GPT-3 se na Wikipedii ukázalo až šestkrát více než na jiných souborech dat OpenAI to považovalo za kvalitnější. Ale Grok je trénován na různých zdrojích, včetně příspěvků na X, což by mohlo také rovnou vysvětlit, proč byl Grok nahlášen aby prověřil názory Elona Muska na různá kontroverzní témata.
Musk sdílel, že xAI kurátorská tréninková data Groka, například ke zlepšení právních znalostí a k odstranit obsah generovaný LLM pro kontrola kvality. Vyzval také komunitu X k pomoci při řešení obtížných problémů s mozkem galaxie a s fakty, která jsou “politicky nekorektní, ale přesto fakticky pravdivá”.
Nevíme, zda byla tato data nakonec skutečně použita nebo jaká opatření kontroly kvality byla nakonec použita.
Jemné doladění
Druhý krok, v doladění jakéhokoliv LLM AI, pak upravuje vlastní chování LLM pomocí zpětné vazby. Vývojáři při tom vytvářejí podrobné příručky popisující jejich preferované etické postoje, které pak buď lidští recenzenti nebo systémy umělé inteligence používají jako rubriku, nebo jakýsi vzor k vyhodnocení a zlepšení reakcí chatbota, čímž se zároveň tyto hodnoty efektivně kódují do stroje.
A Vyšetřování Business Insider odhalil ve společnosti xAI, že instrukce lidských “lektorů AI” jejich AI instruovalo, aby hledala “probuzené ideologie” a “zrušila kulturní dogmata”. Zatímco přímo jejich interní dokumenty uváděly, že Grok by neměl “nikomu vnucovat názor, který potvrzoval nebo přímo popíral zaujatost uživatele, tak ale také uvedli, že by se měl vyhýbat odpovědím, které například tvrdí, že obě strany debaty mají své opodstatnění, i když nemají.
Systémové výzvy
Systém vyzve – pokynů poskytnutých před každou konverzací – řídí chování, jakmile je model nasazen.
Ke cti, xAI zveřejňuje systémové výzvy Groku. Jeho pokyny pro “předpokládají, že subjektivní názory pocházející z médií jsou zaujaté” a “se nevyhýbají tvrzením, která jsou politicky nekorektní, pokud jsou dobře podložená” byly pravděpodobně klíčovými faktory poslední kontroverze.
Tyto výzvy jsou denně aktualizovány v době psaní tohoto článku a jejich evoluce je fascinující případová studie sama o sobě.
Ochranná zábradlí
Nakonec mohou vývojáři také přidat ochranné zábradlí – filtry, které blokují určité požadavky nebo odpovědi. OpenAI tvrdí, že nepovoluje ChatGPT “pro vytváření nenávistného, obtěžujícího, násilného obsahu nebo obsahu pro dospělé”. Mezitím čínský model DeepSeek cenzura diskuse o náměstí Tianamen.
Ad-hoc testování při psaní tohoto článku naznačuje, že Grok je v tomto ohledu mnohem méně zdrženlivý než konkurenční produkty.
Paradox transparentnosti
Grokova nacistická kontroverze zdůrazňuje hlubší etický problém: dali bychom přednost tomu, aby společnosti AI byly výslovně ideologické a upřímné, nebo udržovaly fikci neutrality a zároveň tajně zakotvovaly své hodnoty?
Každý hlavní systém umělé inteligence odráží světonázor svého tvůrce – od korporátní perspektivy Microsoft Copilot averze k riziku až po étos Anthropic Claude zaměřený na bezpečnost. Rozdíl je vlastně pouze v transparentnosti.
Muskova veřejná prohlášení usnadňují vysledování Grokova chování zpět k Muskovu deklarovanému přesvědčení o jeho “probuzené ideologii” a mediální zaujatosti. Mezitím, když jiné platformy vynechat palbu velkolepěZůstali jsme hádat, zda to odráží názory vedení, averzi firemních rizik, regulační tlak nebo nehodu.
Tohle mi přijde povědomé. Grok se trochu podobá Chatbot Tay chrlící nenávistné projevy společnosti Microsoft z roku 2016, který byl také trénován na datech z Twitteru a před jeho vypnutím se na chvíli uvolnil pro veřejnost právě na Twitteru.
Ale je tu jeden dost zásadní rozdíl. Tayův rasismus vyplynul z manipulace od uživatelů a ze špatných záruk – tedy jen jako nezamýšlený důsledek. Zdá se ale, že Grokovo chování oproti tomu určitě alespoň částečně pramení přímo z jeho designu.
Skutečná lekce od Groka je tedy o poctivosti ve vývoji AI. Jak se tyto systémy stávají výkonnějšími a rozšířenějšími (podpora Groka ve vozidlech Tesla byla právě oznámena), tak není hlavní otázkou, zda AI bude odrážet lidské hodnoty. Jde spíše o to, zda budou společnosti transparentní ohledně toho, čí hodnoty kódují a proč vlastně.
Muskův přístup je upřímnější (vidíme tu jeho přímý vliv), ale zároveň mnohem klamavější (prohlašuje, že je objektivní při programování subjektivity) než jsou jeho konkurenti.
V průmyslu postaveném na mýtu neutrálních algoritmů nám Grok odhaluje, co bylo celou dobu pravdou: neexistuje nic takového jako je nezaujatá AI – existuje pouze AI, jejíž předsudky můžeme vidět s různou mírou jasnosti.








Napsat komentář