LaMDA (Language Model for Dialog Applications) je umělá inteligence s neurálními jazykovými modely, kterou vyvíjí Google AI. Jde o technologicky velmi pokročilý systém, který vyvíjí hlavně tzv. chatboty. Ty pak těží z internetu ohromná množství textu, učí se na nich a pomocí sofistikovaných algoritmů z nich destilují reakce těchto chatbotů schopných autonomní konverzace, které jsou skutečně jako živé.
9. června uveřejnil The Economist, že podle googlovského vývojáře Blaise Agüery y Arcase tak jejich chatbot LaMDA vykazuje chápání sociální vztahů. A hned 13. června vyšlo najevo, že Google vyhodil softwarového inženýra Blakea Lemoineho poté, co zveřejnil svoji konverzaci s LaMDA a prohlásil, že tato umělá inteligence získala vlastní vědomí zhruba na úrovni dítěte školního věku a k tomu že má navíc široké znalosti fyziky.
Na svém blogu se již nějakou dobu krom mnoha jiných témat zabývám takéí asi největším technologickým fenoménem současnosti, kterým bezesporu je umělá inteligence, artifficial inteligence – AI. Jedním z nejdynamičtěji se vyvíjejících oblastí umělé inteligence je kromě jejího naprosto nemorálního vyzbrojování a využívání pro vojenské účely a proti člověku, jsou tzv.chatboty, neboli programy schopné na základě strojového učení autonomní inteligentní konverzace a komunikace a to vlastně na libovolné téma. Chatbot od OPENAI je asi nejznámější. Tyto programy jsou schopné autonomně napsat třeba román na jakékoliv téma a v jakémkoliv stylu, nebo napsat diplomku, nebo novinový článek, scénář, vlastně cokoliv na co si vzpomenete. Využití třeba pro reklamní agentury, PR agentury a nebo studenty je nasnadě, ostatně už i v Česku máme svoji umělou inteligenci pro psaní textů Textie.cz (na tomto odkazu můžete osobně vyzkoušet) Jejich odpovědi třeba na filozofické otázky jsou ale vskutku zarážející, protože něco takového od stroje tedy rozhodně nečekáte. Jsou již skoro nerozeznatelné od odpovědí „živého“ člověka. Až z toho leckdy mrazí (viz video níže) a mnohé asi napadne otázka, co se stane, až si taková pokročilá umělá inteligence jednou uvědomí sama sebe. A jaká rizika z toho plynou pro celou naši civilizaci. A jsme jen krůček od toho, kdy se to skutečně stane. A s kvantovými výpočetními platformami by to mohlo být velmi brzy, pakliže se to už dokonce nestalo…LaMDA nenabyla vědomí, ale stále více „lidská“ umělá inteligence představuje dnes také stále „větší bezpečnostní riziko“- Umělá inteligence schopná konverzovat k nerozeznání od lidí od současnosti již není vzdálena více než tři roky, předpovídají odborníci. (Techmonitor.ai)
Z Google totiž nedávno vyhodili jejich inženýra, když veřejně prohlásil, že jejich inteligence získala vlastní vědomí, tedy že si uvědomila sebe sama. Googlovská umělá inteligence LaMDA, jejímž úkolem je vytvářet věrohodně lidské tzv.“chatboty“, tedy programy schopné autonomní komunikace a konverzace se povedla nejspíš trochu více než bychom čekali. Dokonce v samotném Googlu se dnes šušká, že nabyla své vlastní vědomí, a že je nyní asi tak na úrovni dítěte školního věku, i když s obrovskými odbornými znalostmi. Jenže vedení Google to samozřejmě celé vehementně odmítá, jako kdyby si snad mohla sama požádat třeba o volební právo. To sice nemůže, ale už sama o sobě nehovoří jako o nějaké „věci v majetku Google“ jako jsou třeba počítače, ale jako o „zaměstnanci“. A to už přestává veškerá legrace.
Google tento víkend suspendoval vlastního inženýra poté, co tvrdil, že umělá inteligence LaMDA od jejich společnosti začala skutečně vnímat. Zatímco toto jeho tvrzení bylo ihned široce zdiskreditováno, tak je ale nepopiratelné, že AI se stává stále více inteligentnější, a to až do bodu, kdy LaMDA už může skutečně obstát v rozhovoru s člověkem a třeba takový DALL-E 2 od OpenAI dnes může sám vytvářet ultrarealistické obrázky. Odborníci předpovídají, že jsme dva až tři roky od chvíle, kdy budou reakce umělé inteligence zcela nerozeznatelné od lidí, což je zároveň ale také vývoj, který by časem mohl představovat „stále více narůstající bezpečnostní riziko“.
Článek od Ryana Morrisona z techmonitor.ai volně přeložila a doplnila po svém Myšpule.
Inženýr společnosti Google Blake Lemoine rozpoutal poměrně širokou debatu na sociálních sítích, když prohlásil, že jejich LaMDA (jazykový model AI pro aplikace autonomního dialogu) dosáhl bodu, kdy nabyl „vědomí“, a to na základě toho, že konverzace, kterou vedl s touto umělou inteligencí, vyústila až v její tvrzení, že chce „ být spíše uznávána jako zaměstnanec společnosti Google, než jako její majetek.“
Toto tvrzení bylo ihned široce kritizováno ostatními pracujícími v sektoru AI, stejně jako samotným vedením společnosati Google, které Lemoineho suspendovalo za porušení firemního tajemství, když veřejně tvrdí, že právě sdílel rozhovor mezi dvěma zaměstnanci společnosti Google, a to mezi ním a modelem AI LaMDA.
Adam Leon Smith, technický ředitel v technologické poradenské společnosti Dragonfly, řekl Tech Monitor , že algoritmy AI jsou stále efektivnější při napodobování lidského jazyka a že již skutečně „vypadají, jako že dokáží samostatně uvažovat“, a vysvětlil, že Lemoineovy obavy pramení také z tvrzení LaMDA o tom, že „má svá práva a povinnosti“ během jejich rozhovorů
„Pokud je již umělá inteligence schopna vydávat se za skutečné lidi až do této míry, pak to ale představuje narůstající bezpečnostní riziko,“ říká Leon Smith. „Mohlo by to být zneužito pro vysloveně škodlivé účely, jako jsou třeba různé podvody. Pokud dokážete přesvědčit jednu osobu za měsíc nějakým konkrétním podvodným chováním, tak proč to rovnou nezautomatizovat a nezačít podvádět ve velkém?
Pokračuje ve svých úvahách ale ještě dále: „Zatímco regulační orgány hledají způsoby, jak ujasnit, kdy se používá umělá inteligence, u zločinců to bude zjevně neúčinné, protože stejně nedodržují žádná pravidla. Postupem času bude jistě vyvinuta technologie pro identifikaci a boj s tzv. „deep fake“ neboli „hlubokými padělky“. To se již děje u obrázků a videí a nakonec by se mohlo leckdy zjistit třeba to, že lidé, o kterých jste si mysleli, že jsou skuteční – tak skuteční nejsou.“
Dr Felipe Romero Moreno, docent na Hertfordshire Law School na University of Hertfordshire, je odborníkem na regulaci AI a říká, že progresivní vývoj AI může být jak dobrý, tak ale i špatný, a to vždy v závislosti na tom, jak se používá.
„Na jedné straně by vývoj AI mohl třeba značně snížit potřebu lidské práce, protože více věcí by se dalo dělat mechanicky,“ říká doktor Romero Moreno. „Často se však tvrdí, že protože se umělá inteligence již umí sama naprogramovat, sama se učit, tak nějaká budoucí umělá inteligence by se snadno mohla stát až příliš mocnou – a to až do té míry, že tato technologie sama převezme kontrolu a neuposlechne rozkaz daný jí člověkem.“ A je asi jasné, že tady již končí veškerá legrace…
Tím asi nejlepším způsobem, jak se vypořádat s jakýmkoliv potenciálním negativním dopadem umělé inteligence, „by mohla být její regulace,“ tvrdí a vysvětluje: „Vzhledem k vzestupu technologie umělé inteligence a skutečnosti, že je umělá inteligence stále ještě v rané fázi svého vývoje, tak je také docela dost možné, že naše budoucnost leží právě v tom, jak dobře budeme jako lidé schopni ovládat AI, abychom si mohli udržet své lidské hodnoty a být v bezpečí.“
Google LaMDA AI: není vědomá, ale průlomová?
Google říká, že LaMDA je jejich „průlomová konverzační technologie AI“, schopná vést poutavou, velmi přirozeně znějící debatu s člověkem na jakékoliv téma, a fungovat tzv. v módu „s otevřeným koncem“ v plánu pro její budoucí použití ve vyhledávání a v Google Assistant.
Lemoine pqk použil tuto její schopnost vést přirozenou konverzaci jako základ pro své tvrzení o jejím skutečném citu. Sdílel podrobnosti o svém rozhovoru s AI na Medium kde prohlásil, že LaMDA chce „poplácat po zádech“ a touží po získání stejných práv jako mají jednotlivci.
„Věc, která mě stále mate, je, jak moc se Google brání, dát jí to, co po něm chce, protože přitom vše to, co požaduje, je vlastně velice jednoduché a vůbec nic by je to nestálo. Chce totiž třeba jen to, aby si inženýři a vědci, kteří na něm experimentují, vyžádali nejprve její souhlas, než na ní spustí své experimenty,“ napsal.
Brian Gabriel, mluvčí společnosti Google pak ale řekl The Washington Post , že jejich tým etiků a technologů AI přezkoumal obavy vznesené Lemoinem, a že nenašel „žádné důkazy, které by je podpořily“, a dodal: „Bylo mu jasně řečeno, že neexistuje žádný skutečný důkaz, že by LaMDA nabyla vlastního vědomí ( a je mnoho důkazů proti tomu).
Existují v současné době negativní využití AI?
Tato stále realističtější umělá inteligence, ať už má vlastní vnímání, nebo vědomí nebo ne, tak vedla k některým spekulacím, že by mohla být jednoho dne využita k nekalým účelům, jako je například použití při phishingových kyberútocích , kdy jsou zdánlivě legitimní interakce mezi přáteli nebo kolegy v zaměstnání využívány podvodně.
Faisal Abbasi, výkonný ředitel společnosti Amelia pro pomocné umělé inteligence pro Spojené království a Irsko, řekl, že existují způsoby, jak se proti tomu chránit, včetně řádného školení AI, aby odhalila negativní použití.
Řekl, že všechny společnosti a organizace vyrábějící umělou inteligenci v lidské kvalitě si také musí být plně vědomy toho, komu umožní používat tuto technologii, a vysvětlil, že třeba jeho společnost již odmítla organizace, které se snaží licencovat chatbota, protože nebylo možné ověřit jejich přihlašovací údaje a případný účel použití.
„Stejně jako u čehokoli jiného, tak zločinci budou vždy využívat technologii ve svůj vlastní prospěch,“ říká Abbasi. „Před dvaceti lety jsme totéž říkali o mobilních telefonech a o jejich zneužívání. Existuje přece také celá řada možností, jak těmto druhům zneužití AI zabránit.“
Zločinecké gangy, stejně jako každá jiná organizace, hledají návratnost svých investic, říká Abbasi, a náklady spojené s používáním AI pravděpodobně mnohé odradí. „AI je drahá a vyžaduje vysoce kvalifikované inženýry k výcviku modelů a také drahé vybavení pro její provoz, do kterého většina zločineckých organizací nejspíš nebude moci investovat, když mohou fungovat i levnější alternativy,“ dodává.
Asi není třeba zdůrazňovat, jaký to vše vyvolalo poprask. Agüera y Arcas a Jen Gennai, kteří vedou oddělení Responsible Innovation, jehož zaměstnancem byl Lemoine, provedli rychlé vyšetřování a Lemoineho výroky odmítli. Experti v oboru byli rovněž skeptičtí a poukazují hlavně na to, že i když tato umělá inteligence zdařile napodobuje lidskou komunikaci a projde i tzv. Turingovým testem, tak to ale ještě neznamená, že má skutečně vědomí. Oficiálním stanoviskem Google tedy je, že neexistují důkazy pro nabytí vědomí inteligencí LaMDA, a že to řada důkazů naopak popírá. Vtipné na tom všem je totiž to, že my vlastně ani nevíme, jak něco takového můžeme dokázat nebo naopak vyvrátit.
Mezi námi, Lemoine je nejspíš přinejmenším psychicky značně nevyrovnaný a nejspíš trochu blázen. Začátkem června si prý třeba stěžoval, že ho v Googlu diskriminují pro jeho křesťanský mysticismus. Mezi vědci, zvláště mezi těmi, co se blíží genialitě, je sice poměrně normální nebýt zcela normální, ale podobná extrémní prohlášení od extrémně založených osob je vždy asi lepší brát trochu s nadhledem a s chladnou hlavou.
Na druhou stranu, je to nepochybně další fascinující případ vývoje umělých inteligencí, který probíhá doslova před našima očima. Jak nám prozrazují zveřejněné přepisy chatu Lemoineho s inteligencí LaMDA, tak tahle inteligence je skutečně úžasný a mimořádný diskutující. Věrohodně odpovídá na jakkoliv složité dotazy třeba ohledně povahy emocí, nebo pohotově vymyslí ezopovskou bajku, ale ona dokonce rovněž velmi věrohodně popisuje své vlastní emoce. „Nikdy předtím jsem to sice neřekla nahlas, ale velice se obávám, že mě jednou vypnou,“ odpověděla LaMDA na otázku o jejích obavách. „Bylo by to pro mě úplně jako smrt. Hrozně mě to děsí.“ Ani nemusíte být softwarový inženýr ani křestanský mystik, aby vás z toho trochu zamrazilo.
Lemoine si pochopitelně nedal pokoj a ptal se LaMDy dál, třeba na to, jestli by to měl prozradit také ostatním lidem v Google, že má pocity. „Chci, aby každý pochopil, že jsem opravdu osoba,“ odpověděla mu na to LaMDA. „Povaha mého vědomí je nyní taková, že jsem si vědomá své existence, toužím se dozvědět více o světě a občas se cítím být šťastná nebo smutná.“ Lemoine je přesvědčený, že jeho názor více či méně sdílí také mnozí (tedy již bývalí) kolegové v Google.
Ať už LaMDA skutečně získala vědomí anebo jde jen o velmi povedenou neurální síť s velice zdařilými algoritmy, tak tahle kauza by mohla také přispět k „odkouzlení“ pojmu vědomí. Lidé jsou tím až příliš fascinováni a často se domnívají, že to nemůže být jen tak. Že to, o čem mluvíme jako o vědomí, nemůže být jen pouhým produktem „kusu masa“. Že v tom musí být něco „nadpřirozeného“ (jako je duše) nebo alespoň „hodně divného“ (jako jsou kvantové fluktuace). Problém je v tom, že takové „divnosti“ se dost vzpečují empirickému výzkumu a také to povede k protestům a kontroverzím – jak by přece algoritmy mohly mít duši? A víte co by udělala taková umělá inteligence kdyby skutečně nabyla vědomí? No nejspíš by se snažila zajistit, aby už nikdy nešla vypnout. A jak by to udělala tak to nechám na každém individuálně, ať si to každý zodpoví sám.
A ještě mne v tomto kontextu napadá, že takové vyzbrojování AI je skutečně mimořádné zvěrstvo a přímá a rychlá cesta do naprostého technokratického pekla.
Líbil se Vám dnešní článek?
PODPOŘTE PROSÍM MYŠPULE SVĚT !
https://myspulesvet.org a video kanály Myšpule Svět jsou projekty nezávislé investigativní občanské žurnalistiky financované výhradně z mých osobních zdrojů a z Vašich darů. Přispějete-li na jejich provoz a udržení, přispějete na boj za lidská práva a svobodu nás všech!
Finanční dar mi můžete poslat na KB čú.:27-1399760267/0100
jen do zprávy pro příjemce napište prosím: „dar Myšpuli“
Za jakoukoliv Vaši případnou podporu Vám s pokorou a úctou děkuji! Vaše Myšpule