Davos Attendee na zasedání WEF v Davosu vyzývá k regulaci AI, které by chatbotům zabránila v „potenciálním šíření dezinformací“
Moderování veřejné konverzace je letos v Davosu velkým tématem. Elita volá po cenzuře, údajně kvůli boji proti šíření nebezpečných dezinformací nebo konspirací (čti: nepohodlné pravdy). Svoboda slova tedy již asi odešla navždy. Dokonce i umělá inteligence, což bylo další velké Davosské téma, se už učí lhát a podvádět. Ve švýcarském Davosu opět v lednu proběhlo…
Moderování veřejné konverzace je letos v Davosu velkým tématem. Elita volá po cenzuře, údajně kvůli boji proti šíření nebezpečných dezinformací nebo konspirací (čti: nepohodlné pravdy). Svoboda slova tedy již asi odešla navždy. Dokonce i umělá inteligence, což bylo další velké Davosské téma, se už učí lhát a podvádět.
Ve švýcarském Davosu opět v lednu proběhlo každoroční setkání volených i nevolených „elit“ z celého světa na Světovém ekonomickém fóru (WEF) a letos si na něm pokročilá AI, a to asi docela nepřekvapivě, získává skutečně pořádnou porci pozornosti jeho „elitních“ účastníků tohoto asi vůbec největšího světového globalistického meetingu.
Přesněji řečeno, jde vlastně jen o to jak využít ohromnou sílu AI a tzv. velkých jazykových modelů, a to i třeba prostřednictvím nějaké jejich nové regulace, pro úkoly jako je boj proti „desinformacím“ nebo snížení „sociální polarizace“ což by se oboje dalo říci jinými slovy jako cenzura globalistům nepohodlných názorů. Nejlépe to jako jeden z hlavních účastníků letošní diskuse vyjádřil zakladatel DeepLearning.AI Andrew Ng , že jde o problémy nikoli této technologie samotné, ale spíše jde o problémy jejích různých „aplikací“.
Diskuse totiž dle mnohých účastníků zasedání tak zejména opomíjí jeden dosti kritický aspekt takové technologie: kterým je vliv vlastního politického přesvědčení a různých naučených principů jejich programátorů na fungování této AI. Návrháři a vývojáři různých systémů AI totiž do jejích algoritmů pokaždé zcela neodmyslitelně vkládají rovněž různé své vlastní představy o demokracii, svobodě slova a vládnutí. To ovšem zároveň vyvolává značné obavy ohledně dopadu těchto různých osobních předsudků na „neutralitu“ AI a hlavně na její schopnost činit „sociálně spravedlivá“ a politicky ničím nezaujatá, co nejvíce objektivní rozhodnutí. Otázkou samozřejmě zůstává, zda-li a nakolik je tato nezaujatost pro globální „elitu“ žádoucí.
Už jen pouhá vyhlídka toho, že systémy umělé inteligence by mohly být naprogramovány konkrétními politickými ideologiemi, by nakonec mohla mít skuečně hluboké důsledky například pro svobodu projevu. Pokud je totiž umělá inteligence navržena třeba tak, aby upřednostňovala určitá politická nebo sociální hlediska (s výjimkou těch, o kterých se „někdo“ rozhodne, že jsou „polarizující“), tak by mohla potenciálně potlačit jakékoliv opačné pohledy na daný problém, což by následně vedlo až k určité formě digitální cenzury právě prostřednictvím velkých jazykových modelů obecné AI. To se přitom ale stává zvláště znepokojivé například v kontextu takových platforem umělé inteligence, které třeba spravují nějakou rozsáhlou politickou veřejnou diskusi, jako jsou nejrůznější algoritmy vyholedávání v sociálních médiích nebo různé nástroje pro monitoring a agregaci zpráv. Schopnost nenápadně utvářet veřejné mínění a schopnost kontrolovat veškerá vyprávění o kritických společenských a politických otázkách by totiž přesně mohla být tím nezamýšleným a nežádoucím (nebo naopak pro elitu žádoucím) důsledkem jazykových modelů umělé inteligence naprogramovaných nějakými zcela konkrétními demokratickými ideály. Nebo, což je dost pravděpodobné, tak je to možná celé určitý záměr.
Někdo na to ale může třeba namítnout, že je to vlastně celé jen zcela přirozený postoj pro jakoukoliv osobu, která zkrátka jen prodává nějakou svoji další, lepší či pokročilejsí verzi obecné AI.
Ng řekl WEF, že i když se v současnosti značně zesilují různá varování o problémech vyplývajících z rizik obecné umělé inteligence, označuje je stále ještě pouze za hypotetická. A považuje hodnocení těchto rizik, za trochu senzacechtivá – to, co tím skutečně říká, je, že ty skutečné potenciální problémy jsou stále ještě dost přehlíženy.
Takže nehanobme umělou inteligenci – ale stále se snažme ji lépe ovládat, tj. regulovat, třeba právě prostřednictvím nejrůznějších „aplikací“. A zdá se, že Ng jde přímo za senzacechtivou, jen pod jinou záminkou, když uvádí dosti široce definované „systémy, které mohou emocionálně manipulovat lidmi za účelem zisku“, jako něco, co by bylo skuečně oprávněné regulovat.
Odpor zakladatele DeepLearning.AI k regulaci samotné technologie umělé inteligence je vysvětlen tak, že se dotýká všech správných obav (ve smyslu hypotetických nových pravidel), například tedy to, že regulace pak mohou stát v cestě k open source, k dalším inovacím, nebo jen konkurenceschopnosti.
Ovšem vše může být zneužito:
Třeba to, že dnes již téměř 100 milionů studentů používá „G Suite“ jako primární zdroj informací a více než 40 milionů z nich navíc k tomu používá Učebnu Google jako svůj hlavní systém pro „řízení výuky“, ale to vše má rovněž svá velká úskalí a jen málokdo si to bohužel skutečně uvědomuje. . Stejně jako na Wikipedii je totiž dnes převážná většina informací třeba o přirozeném zdraví nějak pokřivená, překroucená, zcenzurovaná, nebo jen neprávem zdiskreditovaná a označená jako jakási „šarlatánská medicína“.
Umělá inteligence a její algoritmy se navíc poměrně rychle přidávají k tomuto všemu chaosu a upírají tak miliardám lidí právo na skutečně užitečné informace, které by mohly k lepšímu změnit jejich životy, nebo třeba prodloužit jejich životy, stejně tak jako předcházet nemocem a nebo je léčit.
Tedy v samé pravdě a moři lásky jako pokaždé – nechejte této technologii volný průběh, prý z těchto výše uvedených a jistě skutečně ušlechtilých důvodů – ale pak hned utáhněte šrouby, když dojde na její využití.
A zde Ng chce, aby „aplikace AI“ (použití) byly označeny podle „stupně rizika“. Způsob, jak to udělat, je udělat toto označení za naprosto „jasné“ – a Ng se to opravdu zpočátku dařilo docela dobře, když zmiňoval různé již „vlastně rizikové“ případy, jako jsou třeba zdravotnické prostředky a aplikace řízené AI
Ale pak se tato jeho „jasná“ identifikace stává bahnitější a my se konečně znovu setkáváme s naším starým přítelem s „dezinformací“. Podle něj jsou „chatové systémy nebezpečné kvůli tomu, že leckdy či jen potenciálně mohou chrlit dezinformace“ a tedy něčím, co lze nejen přímo identifikovat, ale je to také „fakticky rizikové“ – a proto je třeba to cenzurovat, tedy „odstupňovitě“ regulovat.
Ng také není příznivcem návrhů, jak to udělat s přihlédnutím k velikosti toho kterého jazykového modelu používaného v projektu umělé inteligence, ale věří, že ty malé i ty velké mohou být vlastně stejně nebezpečné, alespoň pokud jde o ty dvě věci, na kterých se zdá být trochu „zaseknutý“, což jsou právě ty „špatné lékařské rady“ a nebo „generování dezinformací“.
Zpracovala Myšpule Zdroje k tomuto článku zahrnují:
Myšpule Svět . org https://myspulesvet.org je soukromý projekt mediální alternativy, donedávna občanská, nyní člověčí (po mém sebeurčení se jako člověka a po mém vystoupení z právní fikce osoba – občan) investigativní žurnalistika bez cenzury, která se snaží informovat o dění v našem světě nezaujatě, nestranně a hlavně pravdivě. O čem média mlčí a vlády lžou, to vám tu řeknu pěkně na plnou hubu
Narodila jsem se 14.3.1974 v Praze do rodiny spisovatele Jiřího Marka Nyní pracuji a žiji tak nějak střídavě v Olbramovicích na jižní Moravě, v Praze. na Kladně a na různých dosud opuštěných místech v ostrůvcích ještě stále divoké přírody nádherné české kotlinky. Dokud to šlo, hodně jsem cestovala, hlavně po jihovýchodní asii, miluji Thajsko, ale navštívila jsem i Činu, Laos, Mynamar, Indii, Írán, Pákistán, Turecko, Kostariku a mnohé další země.
Již od základní školy mne zajímalo umění, hlavně výtvarné umění, fotografie a literatura. Po základní škole a maturitě na pražském gymnáziu jsem pokračovala ve studiu na Soukromé mistrovské škole uměleckého designu v Praze, obor malba, kresba, grafika v ateliéru prof. J. Tichého, které jsem zakončila další maturitní zkouškou. Později jsem studovala sociologii na FSS MU v Brně.
Kromě vlastní výtvarné tvorby a fotografie se zabývám převážně nezávislou literární tvorbou, píši jak beletrii tak poezii. Zabývám se experimentální prózou, snažím se o hledání vlastních a originálních způsobů vyprávění a celkové výstavby literárního díla. Píši také eseje o okrajových trendech současné kulturní scény.
Mými hlavními zájmy dnes je kromě cestování hlavně natáčení videí, která mi cenzurují a mažou, investigativní novinařina, odhalování vylhaného matrixu, zveřejňování pravdy, boj za svobodu slova a okrajově i magické a okultní aspekty současné postmoderní a digitální kultury, vizuální umění, literatura, poezie, pragmatická magie a praktická magie chaosu, látky rozšiřující vědomí, multirmediální umění, „cyber“ a „urban“ šamanismus, psychonautika, Slované a slovanská kultura a magie, zen, sociologie a filosofie.
Napsat komentář