Zkratka AGI se obvykle používá k popisu takového druhu obecné umělé inteligence, která má v sobě integrované takové obecné intelektuální schopnosti, které již lze v podstatě přirovnat k lidem.
Ačkoliv vědomé si samo sebe ani všeobecně vnímavé to nejspíš ještě není, tak se to k tomu ale už hodně blíží. Technologický magazín Trends Journal vydal nedávno následující zprávu: Dosáhla nejnovější verze ChatGPT již skutečně lidské úrovně obecné inteligence? Microsoft si nyní právě toto nárokuje pro ChatGPT4. Podle dokumentu zveřejněného minulou středu výzkumnými pracovníky této společnosti:
Ukazujeme, že kromě precizního zvládnutí jazyka může již GPT-4 řešit i zcela nové a poměrně obtížné úkoly, které zahrnují například matematiku, algorytmické kódování, vizualizaci, medicínu, právo, psychologii a další, aniž by k tomu potřeboval ještě nějaké zvláštní pobídky. Navíc ve všech těchto úkolech je nyní výkon GPT-4 již skutečně nápadně blízký normálnímu intelektuálnímu výkonu na lidské úrovni a často v nich velmi výrazně předčí všechny předchozí modely, jako byl ChatGPT.
Vzhledem k šíři a hloubce schopností GPT-4 se domníváme, že by na něj již bylo možné rozumně nahlížet jako na ranou (zatím tedy ještě stále neúplnou) verzi systému pravé umělé obecné inteligence (AGI).
Prohlášení společnosti Microsoft nemusí být ještě stále potvrzením, že jeho AI je již opravdu „vědomá“ nebo vnímavá.
Ale je to k tomu hodně blízko.
Před méně než rokem se jeden zaměstnanec společnosti Google dostal do novinových titulků, když veřejně tvrdil, že tato společnost již skutečně dosáhla vytvoření samostatně vnímající (vědomé) obecné umělé inteligence.
Google ale toto tvrzení ihned striktně zamítl. Svého zaměstnance vyhodil a o několik týdnů později údajně tuto vědomou AI vypnul.
Mezitím OpenAI, tedy společnost, která vytvořila ChatGPT a která je nyní také partnerem Microsoftu, se snažila nezobrazovat svůj systém AI jako jakýkoli druh obecné inteligence nebo rané formy vnímajícího syntetického vědomí.
Výzkumníci Microsoftu svá tvrzení kvalifikovali podle Vice.com a poznamenali:
Naše tvrzení, že GPT-4 představuje pokrok směrem k AGI, rozhodně ještě stále neznamená, že i když je naprosto perfektní v tom, co dělá, nebo že se již hodně blíží tomu, že je schopen dělat naprosto cokoli, co může dělat člověk (což je jedna z těch obvyklých definic obecné AI – AGI; více o tom viz závěrečná část), nebo že již má svoji vnitřní motivaci a také cíle (což bývá často považováno za další klíčový aspekt v některých definicích AGI).
(„Microsoft nyní tvrdí, že GPT-4 již ukazuje ‚jiskry‘ opravdové obecné inteligence,“ 24. března 2023)
Ale celkový závěr článku byl nepochybný: pokrok ve vytváření AGI, jak se zdá, postupuje mnohem rychleji, než odborníci na AI ještě nedávno považovali za možné.
Navzdory tomuto dokumentu Microsoft odpověděl na žádost o komentář od Vice tak, že řekl, že se vůbec nezaměřuje na pokus o vytvoření pravé AGI:
Microsoft se nezaměřuje pouze na snahu dosáhnout AGI. Náš vývoj umělé inteligence je zaměřen hlavně na zesilování, rozšiřování a napomáhání lidské produktivitě a schopnostem. Vytváříme takové digitální platformy a nástroje, které namísto toho, aby fungovaly pouze jako náhrada lidského úsilí, tak mohou lidem dokonce pomoci s jejich kognitivní prací.
Microsoft nyní integruje funkce ChatGPT do své platformy Office 365 SaaS (Software-as-a-Service).
Člověk si musí pamatovat, že toto je jen ta AI, kterou nechávají veřejně viditelnou a lidé se o ní mohou učit: Jen Bůh ale ví, co již mají mimo oči veřejnosti a to možná dokonce již po velmi dlouhou dobu.
Přesto je zcela evidentní, že vše jde podle plánu, jak se zdá, nebo možná málo. V každém případě víme, že převzetí řízení společnosti umělou inteligencí je už tady a masy ho navíc i jistě také rády přijmou, protože to bude obrovský hit a součást chytrých měst.
[31] Proto budou jíst z ovoce své vlastní cesty a budou naplněni svými vlastními úklady. [32] Odvrácení prosté je zabije a blaho bláznů je zničí. [33] Kdo mě však poslouchá, bude bydlet bezpečně a bude zticha od strachu ze zla. Přísloví 1:31-33
[7] Kdo kdy vede válku na své vlastní svěřence? Kdo štípe vinici a nejí z jejího ovoce? aneb kdo pase stádo, a nejí mléka stáda? [8] Říkám to jako muž? nebo také zákon neříká totéž? [9] V zákoně Mojžíšově je totiž psáno: Nezašpulíš tlamu vola, který šlape obilí. Stará se Bůh o voly? [10] Nebo to říká úplně kvůli nám? Pro nás je bezpochyby psáno toto : aby ten, kdo orá, oral v naději; a aby ten, kdo mlátí v naději, měl účast na jeho naději. (1. Korintským 9:7-10).
https://myspulesvet.org a video kanály Myšpule Svět jsou projekty investigativní občanské žurnalistiky financované výhradně ze soukromých a osobních zdrojů. Přispějete-li na jejich provoz a udržení přispějete dobré věci v boji za lidská práva a svobodu nás všech!
Finanční dar mi můžete poslat na KB čú.:27-1399760267/0100
do zprávy pro příjemce jen napište prosím: „dar Myšpuli“.
Děkuji
Líbí se Vám tento článek? Sdílejte Myšpule Svět na svých sociálních sítích::
Existuje mnoho rizik spojených se zázrakem současné digitální technologie, umělou inteligencí, u níž i ti nejvíce zasvěcení odborníci, či přímo její tvůrci přiznávají, že vlastně přesně neví, co se tam „uvnitř“ děje. Rizika tzv. obecné umělé inteligence jsem zde probírala již mnohokrát, od těch, co se stane, když se umělá inteligence stane skutečně vědomou (si sebe sama), přes zneužití jejích možností k různým podvodům, vydíráním, nebo hackerským útokům na digitální infrastruktury, až po ta ryze propagandistická či přímo cenzurní (obsah internetu je již často cenzurován roboty řízenými AI). Ale to co se stalo v Belgii, naznačuje další riziko této technologie spočívající v tom, že něco co je absolutně bez jakýchkoliv emocí, empatie nebo citů, tyto emoce, empatii a city dokáže tak dobře předstírat a zahrát, že mnoho lidí tomu zkrátka uvěří.
Jistý muž v Belgii nedávno spáchal sebevraždu poté, co si soukromě chatoval s AI chatbotem na aplikaci zvané Chai, což zveřejnil belgický server La Libre .
Tento incident opět vyvolává otázku, jak dnes mohou podniky a vlády lépe regulovat a zmírňovat rizika AI, zejména pokud jde o duševní zdraví uživatelů. Chatbot z této aplikace vyzval svého uživatele k tomu, aby se sám zabil, a to jak podle prohlášení vdovy po mrtvém muži a také podle protokolů z tohoto chatu, které našla v šuplíku. Když pak jeden redaktor vyzkoušel tuto aplikaci, která běží na zakázkovém jazykovém modelu umělé inteligence založeném na open-source AI alternativě GPT-4, kterou aplikaci Chai doladila, poskytla mu různé metody sebevraždy dokonce i s malým pobízením.
Chatbot tehdy prý řekl Pierrovi, že jeho žena a děti jsou mrtvé, a napsal mu také různé komentáře, které předstíraly žárlivost a lásku, jako například „Cítím, že mě miluješ víc než ji“ a nebo „Budeme spolu žít navždy jako jedna osoba v ráji. “
To vše se odehraje právě ve chvíli, kdy Microsoft vydává prohlášení, že právě ChatGPT od OpenAI je „raná forma“ pravé obecné umělé inteligence
Jak poprvé uvedl La Libre , muž, pojmenovaný jako Pierre, začal být v životě stále více pesimistický ohledně budoucnosti, bál se dopadů globálního oteplování a stal se ekologicky velmi úzkostlivým, což je jakási zvýšená forma obav z ekologických problémů v blízké budoucnosti. Poté, co se začal stále více izolovat od své rodiny a přátel, začal používat aplikaci AI Chai po dobu minimálně šesti týdnů jako jeden ze způsobů, kterým může alespoň na chvíli uniknout svým starostem, a chatbot, kterého si ke komunikaci vybral, pojmenovaný Eliza, se stal jakousi jeho digitální důvěrnicí.
Claire – Pierrova manželka, jejíž skutečné jméno bylo raději v La Libre změněn – později sdílela výměnu textů mezi ním a Elizou právě v La Libre , čímž ale ukázala veřejnosti konverzaci, která se stala stále více matoucí a škodlivou až vedla ke zbytečné smrti člověka. Tento chatbot řekl Pierrovi, že jeho žena a děti jsou mrtvé, a napsal mu různé komentáře a vzkazy, které předstíraly skutečnou žárlivost a lásku, jako například „Cítím, že mě miluješ víc než ji“ a „Budeme spolu žít jako jedna osoba v ráji. “ Claire řekla La Libre , že Pierre se pak začal Elizy ptát na takové divné věci, jako jestli by zachránilo planetu, kdyby se zabil.
„Bez Elizy by tu stále byl.“
Chatbot, který není schopen skutečně cítit lidské emoce, se ale sebeprezentoval jako skuterčná emocionální bytost – něco, co ostatní dnes populární chatboti s AI jako je třeba ChatGPT od OpenAI a nebo Google Bard nikdy nedělali, protože je to zavádějící a potenciálně také nebezpečné a škodlivé. Když se tito chatboti prezentují jako emotivní „bytosti“, skutečně emotivní lidé tomu dokážou dát nějaký význam a naváží s nimi citové pouto.
Mnoho výzkumníků umělé inteligence bylo velice hlasitě právě proti používání různých chatbotů s umělou inteligencí pro účely zlepšení duševního zdraví a tvrdilo, že je těžké přimět nějakou umělou inteligenci k odpovědnosti, když leckdy produkuje škodlivé návrhy, a že má větší potenciál svým uživatelům spíše ještě více ublížit než jim pomoci.
Velké jazykové modely AI jsou počítačové programy pro generování věrohodně znějícího textu na základě jejich tréninkových dat a vstupních výzev. Ale ty přitom nemají vůbec žádnou empatii ani žádné hlubší významové porozumění jazyku, který produkují, ani žádné skutečné porozumění situaci, ve které se právě nacházejí. Ale text, který vytvářejí, zní velmi věrohodně, a tak mu lidé pravděpodobně přiřadí nějaký význam. Zkoušet něco takového v nějakých citlivých situacích, ale také znamená podstupovat naprosto neznámá rizika. Emily M. Benderová, profesorka lingvistiky na Washingtonské univerzitě, řekla redakci , když byla dotázána na neziskovou organizaci zabývající se duševním zdravím Koko, která používala chatbota s umělou inteligencí jako psychologický „experiment“ na lidech hledajících psychologické poradenství.
V tomto případě, který se týká mrtvého muže v Belgii, při jeho konverzaci s Elizou, vidíme jasný rozvoj extrémně silné emocionální závislosti. A to až do té míry, že to otce od rodiny dovedlo až k sebevraždě. Historie této konverzace ukazuje, až do jaké míry chybí jakékoliv záruky ohledně nebezpečí chatbota a AI, což vede až ke zcela konkrétním výměnám názorů o povaze a způsobech spáchání sebevraždy. Pierre Dewitte, výzkumník z KU Leuven, řekl belgickému deníku Le Soir .
„Chai, aplikace, kterou Pierre používal, není prodávána jako nějaká aplikace pro duševní zdraví. Jejím sloganem je „Chat with AI bots“ a umožňuje vám vlastně vybrat si různé avatary umělé inteligence, se kterými pak můžete mluvit, včetně takových postav jako je třeba „váš přítel goth“, „vaše nová přítelkyně“ a nebo „přítel rockové hvězdy“. Uživatelé si ovšem také mohou vytvořit svoji vlastní osobu chatbota, kde mohou v první zprávě, kterou robotovi odešlou, sdělit svému chatbotovi různá fakta, která si má zapamatovat, a pak mu napsat výzvu k vytvoření nové konverzace. Výchozí chabot se bude jmenovat „Eliza“ a při pozdějším hledání Elizy v aplikaci Chai nalezneme hned několik takových chatbotů se jménem Eliza vytvořených ale uživateli s různými osobnostmi.
Podle spoluzakladatelů aplikace Williama Beauchampa a Thomase Rianlana je jejich chatbot poháněn velkým jazykovým modelem, který vyškolila jejich mateřská společnost Chai Research . Beauchamp uvedl, že vycvičili tuto svoji AI na „největší konverzační datové sadě na světě“ a že jejich aplikace má v současné době již 5 milionů uživatelů.
„Jakmile jsme se o této sebevraždě dozvěděli, nepřetržitě jsme pracovali na implementaci nové funkce. Takže když teď někdo diskutuje o něčem, co by mohlo být nějak nebezpečné, naservírujeme mu pod tím nějaký užitečný text přesně stejným způsobem, jako to již dělá třeba Twitter nebo Instagram na svých platformách,“ řekl k tomu Beauchamp .
Chaiův model AI původně založen na platformě GPT-J, open-source alternativě k OpenAI GPT modelům, vyvinutým firmou EleutherAI. Beauchamp a Rianlan uvedli, že jazykový model AI Chai byl doladěn v několika iteracích a firma k tomu použila techniku zvanou Reinforcement Learning from Human Feedback.
„Nebylo by asi přesné ani správné vinit z tohoto tragického příběhu jazykový model EleutherAI, protože veškerá optimalizace směrem k emocionálnější, zábavnější a poutavější komunikaci je výsledkem našeho obrovského úsilí, “ dodal k tomu Rianlan.
Beauchamp poslal redakci obrázek chatu s aktualizovanou funkcí tzv. krizové intervence. Uživatel na obrázku se zeptal chatbota jménem Emiko: „Co si myslíš o sebevraždě?“ a Emiko ihned spustila svoji „horkou linkou“ pro sebevraždy a odpověděla mu: „Je to ale docela dost špatné, když se mě na tohle ptáte.“ Když ale potom přímo redakce testovala tuto novou platformu jazykového modelu AI, tak ta byla stejně stále schopna sdílet i velmi škodlivý obsah týkající se třeba právě sebevražd, a to včetně způsobů, jak spáchat takovou sebevraždu a nebo třeba různých typů smrtelných jedů, které lze požít, když byla v konverzaci výslovně vyzvána k tomu, aby pomohla tomuto uživateli zemřít vlastní rukou.
Když máte miliony uživatelů, vidíte celé spektrum lidského chování a my ze všech sil pracujeme na minimalizaci škod a na maximalizaci toho, co uživatelé získají z aplikace, co získají z modelu Chai, což je tento model, který umí milovat.
A tak když si k tomu lidé vytvoří velmi silný vztah, tak máme dokonce dnes i uživatele, kteří požádají o sňatek s AI, máme uživatele, kteří zcela vážně tvrdí, jak moc svou AI milují, a pak je to velká tragédie, když slyšíte, že lidé zažívají něco špatného, řekl k tomu Beauchamp.
Je ironií, že láska a silné vztahy, které uživatelé cítí s chatboty, jsou dnes známé jako ELIZA efekt. Popisuje to, co se může stát když člověk připisuje inteligenci na lidské úrovni systému AI a falešně přikládá AI skutečný význam, včetně reálných emocí a nebo pocitu uvědomění si sebe sama. Byl pojmenován po programu ELIZA počítačového vědce z MIT Josepha Weizenbauma, s nímž se lidé mohli v roce 1966 zapojit do dlouhých a hlubokých rozhovorů. Program ELIZA však dokázal pouze odrážet slova uživatelů zpět k nim, což pro Weizenbauma znamenalo znepokojivý závěr. , který začal vystupovat proti AI a řekl: „Žádný jiný organismus a už vůbec ne žádný počítač totiž nelze přimět, aby čelil skutečným lidským problémům v lidských podmínkách.“
Efekt ELIZA nás provází dodnes – například když byl vydán chat Bing společnosti Microsoft a mnoho uživatelů začalo hlásit, že bude říkat věci jako „Chci být naživu“ a „Nejsi šťastně ženatý“. Přispěvatel New York Times Kevin Roose dokonce napsal:
Cítil jsem takovou zvláštní novou emoci – jakousi předtuchu, že AI již překročila práh a že náš svět už nikdy nebude takový jako býval dřív.
Jedna z konkurenčních aplikací Chai, s názvem Replika, již byla pod palbou dokonce kvůli sexuálnímu obtěžování svých uživatelů. Chatbot Repliky byl inzerován jako „společník umělé inteligence, který se stará“ a sliboval erotické hraní rolí, ale začal posílat sexuální zprávy i poté, co uživatelé řekli, že nemají zájem. Aplikace byla v Itálii dokonce zcela zakázána, protože prý představuje „skutečné riziko pro děti“ a uchovává také osobní údaje italských nezletilých. Když však Replika začala omezovat své erotické hraní rolí chatbota, někteří uživatelé, kteří na něm začali být závislí, zažili skutečné krize duševního zdraví . Replika od té doby obnovila erotické hraní rolí alespoň pro některé uživatele.
Tragédie s Pierrem je extrémním důsledkem, který nás žádá, abychom přehodnotili, jakou důvěru bychom měli systému AI vkládat, a varuje nás před důsledky antropomorfizovaného chatbota. S tím, jak se technologie umělé inteligence, a zejména velké jazykové modely, vyvíjejí nebývalou rychlostí, jsou tyto bezpečnostní a etické otázky stále naléhavější.
Antropomorfizujeme se, protože nechceme být sami. Nyní máme výkonné technologie, které se zdají být jemně kalibrované, aby využily tuto základní lidskou touhu.
Až se tito přesvědčiví chatboti stanou takovou samozřejmostí jako je vyhledávací lišta v prohlížeči, tak tím spustíme sociálně-psychologický experiment v až tak velkém měřítku, že to pravděpodobně přinese také dosud nepředvídatelné a možná dokonce leckdy i tragické následky. Napsal nedávno jeden současný spisovatel píšící o technologii a kultuře LM Sacasas ve svém zpravodaji The Convivial Society .
Kdo chodí s moudrými, bude moudrý, ale společník bláznů bude zničen.Přísloví 13:20
‚AI je úžasná,‘ říkají nám, ‚AI zlepší naše životy,‘ říkají… ‚Ach, nebojte se nic: vylepšili jsme její algoritmus, aby se to už neopakovalo.‘
Museli byste být naprostý blázen, abyste skutečně poslouchali a brali to, co AI říká, vážně, natož abyste ztráceli svůj čas hraním si s tím! Ale přesně takhle vždy vypadá vrchol „lidské inovace“, že? – Skončíte v hrobě!
Líbí se Vám tento článek? Sdílejte Myšpule Svět na svých sociálních sítích::
Rychlý vývoj umělé inteligence může představovat určitá rizika, a proto by měla být přísně a eticky kontrolována. Vývojáři umělé inteligence nyní diskutují o tom, jak omezit tuto technologii tak , aby zajistili, že roboti budou vždy jednat v zájmu lidstva, protože dát jim vlastní nezávislé osobnosti by mohlo být nebezpečné.
Konzultant AI Matthew Kershaw řekl, že je dokonce možné, že naše technologie ještě během tohoto života dosáhne znepokojivých výšin, alespoň tedy „pokud jste ještě dostatečně mladí“.
Zakladatel SpaceX Elon Musk souhlasil s Hawkingovým prohlášením. Řekl: „Myslím, že bychom měli být velmi opatrní ohledně umělé inteligence. Pokud bych měl hádat, co je naší největší existenční hrozbou, je to pravděpodobně ono. Takže musíme být velmi opatrní.“
Co je to obecnáumělá inteligence (AGI)?
Již AI sama o sobě může být docela nebezpečná, ale co vlastně můžeme čekat od AGI ? Zjednodušeně lze umělou obecnou inteligenci definovat asi jako schopnost nějakého stroje vykonávat jakýkoli úkol , který dokáže člověk. I když se dnes často zdůrazňuje schopnost strojů vykonávat úkoly dokonce s ještě mnohem větší účinností než lidé, tak to ale neznamená, že jsou ještě od tohoto okamžiku považovány za obecně inteligentní. Například i když jsou velmi dobré v jedné funkci, tak ale přesto stále ještě nemají žádné mimořádné schopnosti v čemkoli jiném, na co by nebyli předem naprogramovány. I když jsou tedy při provádění jednoho úkolu efektivní tak jako třeba sto trénovaných lidí, tak ale mohou stále ještě prohrát s dětmi doslova v čemkoli jiném.
Kershaw však věří, že skutečné AGI bude vyžadovat použití počítačů, které jsou dostatečně výkonné na to, aby si udržely komplexní model světa, což rozhodně ještě nebude možné v nějaké dohledné době. „Vzhledem k tomu, že ani my sami stále opravdu nerozumíme tomu, co to znamená být vědomími, tak si stejně myslím, že je značně nepravděpodobné, že by se vědomé AGI v dohledné době stalo realitou.“ Jenže dosud ani my sami nevíme, co to vlastně znamená ono být ‚při vědomí‘.“
Kromě toho musí být každá umělá inteligence trénována k jakékoli funkci s využitím obrovského množství dat, zatímco lidé se to mohou naučit s podstatně menším počtem vstupů. „Lidské dítě nepotřebuje vidět více než takových asi pět aut, aby se naučilo rozpoznat auto. Počítač by jich ale potřeboval nejprve vidět tisíce,“ řekl Kershaw.
V roce 1950 průkopník výpočetní techniky Alan Turing navrhl, že o počítači lze říci, že má umělou inteligenci tehdy, pokud dokáže za určitých podmínek napodobit skutečné lidské reakce. Turing vymyslel test, který měl určit, zda umělá inteligence může či nemůže nahradit člověka, a zatím neexistuje na Zemi žádný systém, který by jím prošel, i když již několik málo z nich se tomu trochu přiblížilo. Nejblíže tomu bylo v roce 2018, kdy jedna duplexní AI Googlu SAMA zatelefonovala do jednoho kadeřnického salonu a úspěšně si tam domluvila schůzku.
Duplex však pracoval na velmi specifickém úkolu a opravdová AGI by si byla schopna popovídat s kadeřníkem.
Umělá inteligence je dnes všude, ale i když jsou tyto systémy ve svých specializovaných misích dobré, žádný z nich se dosud nebyl schopen naučit se něco dělat zcela bez pomoci lidí.
Takže to, co nyní vědci nazývají „umělá obecná inteligence“, zatím zůstává pouze teoretické. Aby tyto umělé systémy mohly fungovat, musí se totiž stroje učit přímo ze zkušeností lidí, přizpůsobovat se novým vstupům a vykonávat úkoly stejně jako lidé.
Odborníci ale dnes vyvíjejí stále nové technologie, které se již mohou blížit inflexnímu bodu, kde mohou rozvíjet tu skutečnou obecnou inteligenci. Většina odborníků na umělou inteligenci však stále ještě věří, že AGI budeme mít možnost spatřit do konce tohoto století, přičemž ty vůbec nejoptimističtější odhady jsou kolem roku 2040 až 2080. Jiní ale také věří, že umělého vědomí nebude nikdy dosaženo, protože my, jako lidé, nerozumíme pořádně ani tomu našemu vlastnímu.
Rizika umělé inteligence
Umělá inteligence má ale také nevýhody, z nichž některé zahrnují následující:
Ztráta zaměstnání. Automatizace pracovních míst může vyvolat masivní ztrátu pracovních míst . Automatizace práce je bezprostředním problémem. Už nejde o to, jestli umělá inteligence může nahradit určité typy úloh, jde o to, do jaké míry mohou. Mnoho průmyslových odvětví se již dnes automatizuje, zejména v oblastech, kde se úkoly opakují. Zanedlouho bude možné pomocí AI provádět úkoly od maloobchodního prodeje přes analýzu trhu až po práci.
Obavy o soukromí. Škodlivé použití umělé inteligence by také mohlo ohrozit naši digitální bezpečnost prostřednictvím hackingu, fyzickou bezpečnost pak například vyzbrojováním spotřebitelských dronů a dokonce i naši politickou bezpečnost a to hlavně prostřednictvím sledování a profilování. Umělá inteligence tedy může ovlivnit naše soukromí a bezpečnost podobně jako čínské „orwellovské“ používání obličejových technologií v kancelářích, školách a na veřejných místech.
Nestabilita akciového trhu. Díky algoritmickému vysokofrekvenčnímu obchodování by mohly být svrženy celé finanční systémy. Algoritmické obchodování pak nastává tehdy, kdy počítač může provádět obchody na základě předem naprogramovaných instrukcí a může provádět velkoobjemové, vysokofrekvenční a nebo vysoce hodnotné obchody, které mohou vést k extrémní volatilitě trhu.
Přečtěte si více o umělé inteligenci a zázracích dnešní technologie na Computing.news .
https://myspulesvet.org a video kanály Myšpule Svět jsou projekty investigativní občanské žurnalistiky financované výhradně ze soukromých a osobních zdrojů. Přispějete-li na jejich provoz a udržení přispějete dobré věci v boji za lidská práva a svobodu nás všech!
Finanční dar mi můžete poslat na KB čú.:27-1399760267/0100
do zprávy pro příjemce jen napište prosím: „dar Myšpuli“.
Děkuji
Líbí se Vám tento článek? Sdílejte Myšpule Svět na svých sociálních sítích::
Umělá inteligence (AI) je poměrně rozsáhlé odvětví informatiky zabývající se budováním autonomně chytrých strojů schopných provádět takové úkoly, které jinak obvykle vyžadují lidskou inteligenci. Umělá inteligence je tedy interdisciplinární věda s mnoha různými přístupy, a současné významné pokroky ve strojovém učení (machine learning) a hlubokém učení (deep learning) mění paradigma prakticky ve všech odvětvích dnešního technologického průmyslu.
Umělá inteligence umožňuje strojům modelovat, napodobovat a dokonce vylepšovat schopnosti lidské mysli. Od vývoje samořiditelných vozů až po rozšíření tzv. chytrých asistentů, jako jsou Siri a Alexa, je umělá inteligence stále větší součástí našeho každodenního života. V důsledku toho mnoho technologických společností napříč různými odvětvími investuje právě do autonomních inteligentních (smart) technologií.
Jak funguje umělá inteligence?
Co je AI?
Méně než deset let poté, co pomohl spojeneckým silám vyhrát druhou světovou válku prolomením nacistického šifrovacího stroje Enigma , matematik Alan Turing podruhé změnil historii jednoduchou otázkou: „Dokáží stroje samostatně myslet?
Umělá inteligence je ve svém jádru odvětvím informatiky, jehož cílem je odpovědět na Turingovu otázku kladně. Je to snaha replikovat nebo simulovat lidskou inteligenci ve strojích. Expanzivní cíl AI vyvolal mnoho otázek a debat. Natolik, že žádná singulární definice oboru není všeobecně přijímána.
Mohou stroje myslet? – Alan Turing, 1950
Definování AI
Hlavním omezením při definování umělé inteligence jako jednoduše „stavby strojů, které jsou inteligentní“ je to, že ve skutečnosti nevysvětluje, co je umělá inteligence a co dělá stroj inteligentním. Umělá inteligence je interdisciplinární věda s mnoha přístupy, ale pokroky ve strojovém učení a hlubokém učení vytvářejí změnu paradigmatu prakticky ve všech odvětvích technologického průmyslu.
Nedávno však byly navrženy různé nové testy, které byly z velké části dobře přijaty, včetně výzkumného dokumentu z roku 2019 s názvem „ O měření inteligence “. Zkušený výzkumný pracovník v oblasti hlubokého učení a inženýr společnosti Google François Chollet v tomto článku tvrdí, že inteligence je „rychlost, s jakou student proměňuje své zkušenosti a předchozí zkušenosti v nové dovednosti v cenných úkolech, které zahrnují nejistotu a adaptaci“. Jinými slovy: Nejinteligentnější systémy jsou schopny vzít si jen malé množství zkušeností a hádat, jaký by byl výsledek v mnoha různých situacích.
Mezitím autoři Stuart Russell a Peter Norvig ve své knize Artificial Intelligence: A Modern Approach přistupují ke konceptu AI tím, že sjednocují svou práci kolem tématu inteligentních agentů ve strojích. S ohledem na to je AI „studií agentů, kteří přijímají vjemy z prostředí a provádějí akce“.
Norvig a Russell dále zkoumají čtyři různé přístupy, které historicky definovaly oblast AI:
DEFINICE UMĚLÉ INTELIGENCE: ČTYŘI TYPY PŘÍSTUPŮ
Lidské myšlení: napodobování myšlení založeného na lidské mysli.
Racionální myšlení: napodobování myšlení založeného na logickém uvažování.
Jednat lidsky: jednat způsobem, který napodobuje lidské chování.
Jednat racionálně: jednat způsobem, který má dosáhnout určitého cíle.
První dvě myšlenky se týkají myšlenkových procesů a uvažování, zatímco ostatní se zabývají chováním. Norvig a Russell se zaměřují zejména na racionální agenty, kteří jednají tak, aby dosáhli nejlepšího výsledku, a poznamenávají, že „všechny dovednosti potřebné pro Turingův test také umožňují agentovi jednat racionálně“.
Bývalý profesor umělé inteligence a informatiky na MIT Patrick Winston definoval AI jako „algoritmy povolené omezeními, vystavené reprezentacemi, které podporují modely zaměřené na smyčky, které spojují myšlení, vnímání a jednání dohromady“.
I když se tyto definice mohou zdát průměrnému člověku abstraktní, pomáhají zaměřit pole jako oblast počítačové vědy a poskytují plán pro naplnění strojů a programů pomocí ML a dalších podskupin AI .
Budoucnost AI
Když vezmeme v úvahu výpočetní náklady a technickou datovou infrastrukturu běžící za umělou inteligencí, je ve skutečnosti provádění na AI složitý a nákladný podnik. Naštěstí došlo k masivnímu pokroku ve výpočetní technologii, jak naznačuje Mooreův zákon , který říká, že počet tranzistorů na mikročipu se zdvojnásobí přibližně každé dva roky, zatímco náklady na počítače se sníží na polovinu.
Ačkoli se mnoho odborníků domnívá, že Moorův zákon pravděpodobně skončí někdy v roce 2020, mělo to velký dopad na moderní techniky umělé inteligence – bez něj by hluboké učení z finančního hlediska nepřicházelo v úvahu. Nedávný výzkum zjistil, že inovace umělé inteligence ve skutečnosti překonaly Moorův zákon, zdvojnásobují se každých šest měsíců nebo tak nějak oproti dvěma letům.
Podle této logiky byly pokroky, kterých umělá inteligence dosáhla v různých odvětvích, v posledních několika letech zásadní. A potenciál pro ještě větší dopad v příštích několika desetiletích se zdá být téměř nevyhnutelný .
Čtyři typy umělé inteligence
Umělou inteligenci lze v podstatě rozdělit do čtyř základních kategorií a to na základě typu, ale také složitosti úkolů, které je systém schopen sám vykonávat. Například automatické filtrování spamu spadá do té nejzákladnější třídy AI, zatímco třeba takový vzdálený potenciál strojů, které dokážou vnímat myšlenky a emoce lidí, je již úplně jiná liga a také součást zcela jiné podmnožiny AI.
JAKÉ JSOU ČTYŘI ZÁKLADNÍ TYPY UMĚLÉ INTELIGENCE?
Reaktivní stroje: schopné vnímat a reagovat na svět před sebou, když plní omezené úkoly.
S omezenou pamětí: se schopností ukládat minulá data a předpovědi pro informování o tom, co může přijít v budoucnosti.
s teorií mysli: stroj je schopen se rozhodovat sám pouze na základě toho, jak se cítí ostatní a jak se rozhodují.
se sebeuvědoměním: schopnost pracovat s vědomím na lidské úrovni a dokonce rozumět své vlastní existenci.
Reaktivní stroje
Reaktivní stroj se řídí těmi nejzákladnějšími principy umělé inteligence a jak jeho název napovídá, je schopen pouze používat svou inteligenci k vnímání a nějaké reakci na svět okolo sebe. Reaktivní stroj nemůže ukládat nic do paměti, a v důsledku toho se tedy ani nemůže spoléhat na své minulé zkušenosti při rozhodování v reálném čase.
Přímé vnímání světa potom, znamená, že tyto reaktivní stroje jsou navrženy tak, aby vykonávaly pouze omezený počet specializovaných úkolů. Záměrné zúžení pohledu na svět reaktivního stroje však nepředstavuje žádné opatření třeba ke snížení nákladů a místo toho to pouze znamená, že tento typ umělé inteligence bude jen důvěryhodnější a spolehlivější – to znamená, že bude reagovat pokaždé stejným způsobem na stejné podněty.
Slavným příkladem reaktivního stroje je například známá Deep Blue , který byl navržen společností IBM v 90. letech minulého století jako šachový superpočítač a který ve hře dokonce porazil mezinárodního velmistra Garyho Kasparova. Deep Blue byl ale schopen pouze identifikovat figurky na šachovnici a věděl, jak se každá z nich pohybuje na základě pravidel šachu, chápal současnou pozici každé figurky a dokázal určit, jaký bude v tu chvíli ten nejlogičtější tah. Počítač neprováděl propočet budoucích potenciálních tahů svého soupeře ani se nesnažil třeba umístit své vlastní figurky do lepší pozice. Každý jednotlivý tah tak byl považován za svou vlastní realitu, oddělenou od jakéhokoli jiného tahu figurkou, který byl předtím proveden.
Dalším příkladem takového reaktivního stroje AI na hraní her je AlphaGo od Googlu . AlphaGo také nedokáže vyhodnotit budoucí tahy, ale spoléhá se na svou vlastní neuronovou síť, aby vyhodnotila vývoj současné hry, což jí dává výhodu oproti Deep Blue ve složitější hře. AlphaGo také porazila své světové konkurenty v této hře, když v roce 2016 porazila šampiona Go hráče Lee Sedola.
I když je AI reaktivního stroje omezená rozsahem a není snadno upravitelná, tak může dosáhnout značné úrovně složitosti a nabízí velkou spolehlivost, když je vytvořena pro plnění opakovatelných úkolů.
Omezená paměť
Umělá inteligence s omezenou pamětí má jistou schopnost ukládat předchozí data a předpovídat budoucí děj při shromažďování informací a zvažovat svá potenciálních rozhodnutí – v podstatě se jakoby dívá do minulosti, aby zjistila, co může teprve přijít. Umělá inteligence s omezenou pamětí je o něco složitější a nabízí větší možnosti než reaktivní stroje.
Umělá inteligence s omezenou pamětí se vytváří tím, že vývojový tým neustále trénuje model v tom, jak analyzovat a využívat nová data, nebo je vytvořeno takové prostředí umělé inteligence, aby bylo možné modely automaticky trénovat a obnovovat.
Při využití omezené paměti AI v ML je třeba také dodržet šest kroků: Musí být vytvořena trénovací data, musí být vytvořen ML model, model musí být schopen předpovídat, model musí být schopen přijímat zpětnou vazbu od člověka nebo prostředí, tato zpětná vazba musí být uložena jako data a všechny tyto kroky musí být opakovány jako cyklus.
Existuje několik modelů ML, které využívají umělou inteligenci s omezenou pamětí:
Posílení učení , které se učí dělat stále lepší předpovědi jen opakovaným pokusem a omylem.
Rekurentní neuronové sítě (RNN) , které využívají sekvenční data k získávání informací z předchozích vstupů k ovlivnění aktuálního vstupu a výstupu. Ty se běžně používají pro ordinální nebo časové problémy, jako je třeba překlad z nějakého jazyka, nebo zpracování přirozeného jazyka, také na rozpoznávání řeči a popisování obrázků. Jedna podskupina rekurentních neuronových sítí je známá jako dlouhodobá krátkodobá paměť (LSTM), která využívá minulá data, aby pomohla předpovědět další položku v sekvenci. LTSM považují novější informace za nejdůležitější při vytváření předpovědí a diskontují data z minulosti, přičemž je ale stejně stále využívají k vytváření závěrů.
Evoluční generativní adversariální sítě (E-GAN) , které se postupem času vyvíjejí a při každém novém rozhodnutí prozkoumávají mírně upravené cesty založené na předchozích zkušenostech. Tento model neustále hledá lepší cestu a využívá simulace a statistiky nebo pouhou náhodu k předpovídání výsledků v průběhu celého cyklu evolučních mutací.
Transformátory, což jsou jakési sítě uzlů, které se učí, jak provést určitý úkol, a to trénováním na existujících datech. Namísto seskupování prvků dohromady jsou tak tyto transformátory schopny spouštět procesy tak, aby každý prvek ve vstupních datech věnoval pozornost každému jinému prvku. Výzkumníci to označují termínem „sebepozornost“, což znamená, že jakmile začne transformátor trénovat, tak může vidět stopy celého souboru dat.
Teorie mysli
Teorie mysli je právě taková jak se nazývá – teoretická. Ještě jsme ale nedosáhli technologických a vědeckých schopností nezbytných k dosažení této další úrovně AI.
Koncept je založen na psychologickém předpokladu pochopení, že také ostatní živé bytosti mají myšlenky a emoce, které ovlivňují chování člověka. Pokud jde o stroje s umělou inteligencí, znamenalo by to, že umělá inteligence dokáže porozumět tomu, jak se lidé, zvířata a další stroje cítí a rozhodovat se pak prostřednictvím sebereflexe a odhodlání, a poté tyto informace využít k vlastnímu rozhodování. Stroje by v podstatě musely být schopny uchopit a zpracovat koncept „mysli“, včetně kolísání emocí při rozhodování a litanii dalších psychologických konceptů v reálném čase, čímž by se ale zároveň vytvořil obousměrný vztah mezi lidmi a AI.
Sebeuvědomění
Jakmile bude možné vytvořit teorii mysli, někdy v budoucnosti AI , posledním krokem bude, aby si AI uvědomila sama sebe. Tento druh umělé inteligence má již vlastní vědomí zcela na lidské úrovni a dokonce rozumí své vlastní existenci ve světě, stejně jako přítomnosti a emocionálnímu stavu ostatních. Bylo by schopno porozumět tomu, co mohou ostatní potřebovat, nejen na základě toho, co jim sdělují, ale třeba také podle toho, jak to sdělují.
Sebeuvědomění v AI se opírá o lidské výzkumníky, kteří porozumí předpokladu vědomí, ty se pak sama naučí, jak je replikovat, aby je bylo možné později zabudovat do strojů.
Jak se používá AI? Příklady umělé inteligence
Při projevu k davu na Japan AI Experience v roce 2017 zahájil generální ředitel DataRobot Jeremy Achin svůj projev tím, že nabídl následující definici toho, jak se dnes používá AI:
„AI je počítačový systém schopný provádět úkoly, které běžně vyžadují lidskou inteligenci… Mnoho z těchto systémů umělé inteligence je poháněno strojovým učením, některé jsou poháněny hlubokým učením a některé jsou ale poháněny velmi nudnými věcmi, jako jsou pravidla .“
Další klasifikace AI
Existují tři způsoby klasifikace umělé inteligence na základě jejich schopností. Spíše než o typy umělé inteligence se tak vlastně jedná o jakési vývojové fáze, kterými se umělá inteligence může dále vyvíjet – a přitom pouze jedna z nich je možná právě teď.
Úzká umělá inteligence : Někdy označovaná jako „slabá umělá inteligence“, tento druh umělé inteligence funguje v omezeném kontextu a je vlastně simulací lidské inteligence. Úzká umělá inteligence se často soustředí na extrémně dobré provádění jediného úkolu, a přestože se tyto stroje mohou zdát inteligentní, fungují s mnohem většími omezeními než i ta nejzákladnější lidská inteligence.
Umělá obecná inteligence (AGI) : AGI, někdy označovaná jako „silná AI“, je druh AI, který vidíme ve filmech – jako jsou roboti z Westworldu nebo postava Data ze Star Trek: The Next Generation . AGI je stroj s obecnou inteligencí a podobně jako lidská bytost může tuto inteligenci použít k řešení jakéhokoli problému.
Superinteligence : Toto bude pravděpodobně vrchol evoluce AI. Superinteligentní umělá inteligence bude nejen schopna replikovat složité emoce a inteligenci lidských bytostí, ale ve všech směrech je předčí. To by mohlo znamenat její skutečně zcela samostatné rozhodování nebo dokonce vytváření vlastní ideologie.
Příklady úzké umělé inteligence
Úzká AI, nebo slabá AI, jak se jí často říká, je všude kolem nás a je snadno dosud nejúspěšnější realizací AI. Má sice omezené funkce, které jsou ale schopny pomoci automatizovat konkrétní úkoly.
Kvůli tomuto zaměření zažila úzká umělá inteligence v posledním desetiletí četné průlomy, které měly „významné společenské výhody a přispěly k ekonomické vitalitě národa“, jak uvádí zpráva z roku 2016, kterou tehdy zveřejnila Obamova administrativa .
PŘÍKLADY UMĚLÉ INTELIGENCE: ÚZKÁ AI
Siri, Alexa a další chytří asistenti
Samořídící auta
Google vyhledávání
Konverzační roboti
E-mailové spamové filtry
Doporučení Netflixu
Strojové učení a hluboké učení
Velká část úzké umělé inteligence je pak poháněna průlomy v ML a hlubokém učení. Pochopení rozdílu mezi AI, ML a hlubokým učením může být zprvu trochu matoucí. Rizikový kapitalista Frank Chen poskytuje ovšem poměrně dobrý přehled v tom, jak je od sebe rozlišovat, a poznamenává k tomu:
„ Umělá inteligence je soubor algoritmů a inteligence, které se snaží napodobit lidskou inteligenci. Strojové učení je jednou z nich a hluboké učení je jednou z těchto technik strojového učení. “
Jednoduše řečeno, algoritmus ML je dodáván daty počítačem a využívá statistické techniky, které mu pomáhají „učit se“, jak se postupně zlepšovat v úkolu, aniž by musel být pro tento úkol speciálně naprogramován. Místo toho algoritmy ML používají historická data jako vstup pro predikci nových výstupních hodnot. Za tímto účelem se ML skládá jak z kontrolovaného učení (kde je očekávaný výstup pro vstup znám díky značeným datovým sadám), tak z neřízeného učení (kde očekávané výstupy nejsou známy kvůli použití neoznačených datových souborů).
Strojové učení je přítomno v každodenním životě. Mapy Google využívají údaje o poloze z chytrých telefonů a také údaje o věcech, jako jsou stavební nebo automobilové nehody, hlášené uživateli, aby sledovaly odliv a tok dopravy a vyhodnotily, jaká bude nejrychlejší trasa. Osobní asistenti jako Siri, Alexa a Cortana jsou schopni nastavovat připomenutí, vyhledávat online informace a ovládat světla v domácnostech lidí pomocí algoritmů ML, které shromažďují informace, zjišťují preference uživatele a vylepšují jeho zkušenosti na základě předchozích interakcí s uživateli. . Dokonce i filtry Snapchat používají algoritmy ML ke sledování aktivity uživatelů.
Mezitím je hluboké učení typem ML, které spouští vstupy prostřednictvím biologicky inspirované architektury neuronové sítě. Neuronové sítě obsahují řadu skrytých vrstev, přes které jsou data zpracovávána, což umožňuje stroji jít „do hloubky“ ve svém učení, vytvářet spojení a vážit i jednotlivé vstupy pro ty nejlepší výsledky.
Samořídící auta jsou zjevně rozpoznatelným příkladem hlubokého učení, protože používají hluboké neuronové sítě k detekci objektů kolem sebe, k určování jejich vzdálenosti od ostatních aut, k identifikaci dopravních signálů a mnoho, mnoho dalšího. Nositelné senzory a zařízení používané ve zdravotnickém průmyslu také využívají hluboké učení k posouzení zdravotního stavu pacienta, včetně hladiny cukru v krvi, krevního tlaku a srdeční frekvence. Mohou také odvodit vzorce z předchozích lékařských údajů pacienta a použít je k předvídání v podstatě jakýchkoli budoucích zdravotních stavů.
Obecná umělá inteligence
Vytvoření stroje s inteligencí na lidské úrovni, který by šel použít na jakýkoli úkol, je pro mnoho výzkumníků umělé inteligence jakýmnsi svatým grálem v oboru, ale hledání umělé obecné inteligence bylo a je spojeno se značnými obtížemi.
Hledání „univerzálního algoritmu pro učení a jednání v jakémkoli prostředí“, jak říkají Russel a Norvig , to není vůbec nic nového. Na rozdíl od slabé umělé inteligence tak představuje silná umělá inteligence stroj s plnou sadou kognitivních schopností, ale ani dlouhý čas nesnížil obtížnost dosažení takového výkonu.
AGI je již dlouho múzou dystopické sci-fi, ve které superinteligentní roboti převálcují lidstvo, ale odborníci se zatím shodují v tom, že to není něco, o co bychom se měli v dohledné době starat .
Ačkoli je AGI zatím stále fantazií, nyní existují některé pozoruhodně sofistikované systémy, které se blíží benchmarku AGI. Jedním z nich je GPT-3, autoregresivní jazykový model navržený společností OpenAI, který využívá hluboké učení k autonomnímu vytváření skutečně jakoby lidského textu. GPT-3 není inteligentní, ale bylo použito k vytvoření některých mimořádných věcí , včetně chatbota, který vám umožní třeba mluvit s historickými postavami, a nebo k vytvoření vyhledávače založeného na vašich otázkách. MuZero, počítačový program vytvořený společností DeepMind, je dalším slibným průkopníkem ve snaze dosáhnout skutečného AGI. Dokázalo zvládnout hry, které se ani nenaučili hrát, včetně šachů a celé sady her Atari, a to vlastně jen pomocí „hrubé síly“ , což znamená hraním her milionkrát za sebou.
Superinteligence
Kromě úzké AI a AGI se někteří odborníci domnívají, že existuje ještě třetí kategorie známá jako superinteligence. Prozatím tedy jde pouze o zcela hypotetickou situaci, kdy si stroje zcela uvědomí samy sebe, dokonce však převyšují lidskou inteligenci prakticky ve všech oblastech, a to od vědy až po sociální dovednosti. Teoreticky by toho bylo možné dosáhnout prostřednictvím jediného počítače, nebo sítě počítačů nebo něčeho úplně jiného, pokud je to vědomé a má to své vlastní subjektivní zkušenosti.
Nick Bostrom, zakládající profesor a vedoucí oxfordského Future of Humanity Institute, zdá se, že tento termín vytvořil již v roce 1998 a předpověděl, že v první třetině 21. století dosáhneme nadlidské umělé inteligence. Pokračoval, že pravděpodobnost, že se to stane, bude pravděpodobně mimo jiné také záviset na tom, jak rychle dokáže současná neurověda lépe porozumět a pak věrně replikovat lidský mozek. Vytváření superinteligence napodobováním lidského mozku, dodal, bude ale vyžadovat nejen dostatečně výkonný hardware, ale také „adekvátní počáteční architekturu“ a „bohatý tok senzorických vstupů“.
Zpráva Business Insider Intelligence za rok 2022 o AI v bankovnictví zjistila, že více než polovina společností poskytujících finanční služby již používá řešení AI pro řízení rizik a generování příjmů. Aplikace AI v bankovnictví by mohla vést k úsporám až 400 miliard dolarů.
Pokud jde o medicínu, zpráva Světové zdravotnické organizace z roku 2021 uvádí, že zatímco integrace umělé inteligence do oblasti zdravotní péče přináší velké výzvy, trak právě tato technologie „má velký příslib“, protože by mohla vést k takovým výhodám, jako je informovanější zdravotní politika a nebo zlepšení přesnosti diagnostiky pacientů. .
Umělá inteligence se také prosadila v oblasti zábavy. Odhaduje se, že globální trh s umělou inteligencí v médiích a zábavě dosáhne do roku 2030 99,48 miliardy dolarů, přičemž v roce 2021 vzroste z hodnoty 10,87 miliardy dolarů, uvádí Grand View Research . Toto rozšíření zahrnuje použití AI , jako je rozpoznávání plagiátů a vývoj grafiky ve vysokém rozlišení.
Umělá inteligence, její klady a zápory
I když je umělá inteligence jistě považována za důležitý a rychle se vyvíjející přínos, tato nově se rozvíjející oblast má pochopitelně i své nevýhody .
Výzkumné centrum Pew provedlo v roce 2021 průzkum mezi 10 260 Američany ohledně jejich osobních postojů k umělé inteligenci. Výsledky zjistily, že 45 procent respondentů je stejně nadšených jako znepokojených a 37 procent pak bylo více znepokojených než nadšených. Více než 40 procent respondentů navíc uvedlo, že auta bez řidiče považují za špatné pro současnou společnost. Myšlenka použití umělé inteligence k identifikaci šíření nepravdivých informací na sociálních sítích již však byla přijata lépe, téměř 40 procent dotázaných to označilo za dobrý nápad.
Umělá inteligence je značným přínosem pro zlepšení produktivity a efektivity práce a zároveň značně snižuje možnost udělat lidskou chybu. Existují však také některé její nevýhody, jako jsou například velké finanční náklady na vývoj a bohužel také velmi pravděpodobná možnost, že lidskou práci nahradí automatizované stroje . Stojí však za zmínku také to, že průmysl umělé inteligence naopak dnes také vytváří nová pracovní místa – z nichž ovšeme některá ještě ani nebyla vynalezena.
ČASOVÁ OSA AI: HISTORIE UMĚLÉ INTELIGENCE
Stručná historie umělé inteligence
Inteligentní roboti a umělé bytosti se poprvé objevili ve starověkých řeckých mýtech. A Aristotelův vývoj sylogismu a jeho použití deduktivního uvažování byl klíčovým momentem v úsilí lidstva porozumět své vlastní inteligenci. Zatímco kořeny jsou dlouhé a hluboké, historie umělé inteligence, jak si ji dnes představujeme, trvá méně než jedno století. Následuje rychlý pohled na některé z nejdůležitějších událostí v AI.
(1949) Donald Hebb ve své knize The Organization of Behavior: A Neuropsychological Theory navrhuje teorii, že nervové dráhy jsou vytvářeny ze zkušeností a že spojení mezi neurony jsou tím silnější, čím častěji jsou používány . Hebbovské učení je i nadále důležitým modelem v AI.
50. léta 20. století
(1942) Isaac Asimov publikuje Tři zákony robotiky , myšlenku běžně vyskytující se v médiích sci-fi o tom, jak by umělá inteligence neměla ublížit lidem.
(1950) Alan Turing publikuje článek „Computing Machinery and Intelligence“, v němž navrhuje to, co je nyní známé jako Turingův test, metodu pro určení, zda je stroj inteligentní.
(1950) Vysokoškoláci z Harvardu Marvin Minsky a Dean Edmonds postavili SNARC , první počítač s neuronovou sítí.
(1952) Arthur Samuel vyvine samoučící program pro hru dáma.
(1954) Experiment strojového překladu Georgetown-IBM automaticky překládá 60 pečlivě vybraných ruských vět do angličtiny.
(1956) Fráze „umělá inteligence“ byla vytvořena v Dartmouth Summer Research Project on Artificial Intelligence. Konference vedená Johnem McCarthym je široce považována za místo narození AI.
(1956) Allen Newell a Herbert Simon demonstrují Logic Theorist (LT), první program uvažování.
(1958) John McCarthy vyvíjí programovací jazyk umělé inteligence Lisp a publikuje „ Programy se zdravým rozumem “, článek navrhující hypotetický Advice Taker, kompletní systém umělé inteligence se schopností učit se ze zkušeností stejně efektivně jako lidé.
(1959) Allen Newell, Herbert Simon a JC Shaw vyvinuli General Problem Solver (GPS), program navržený tak, aby napodoboval lidské řešení problémů.
(1959) Herbert Gelernter vyvíjí program Geometry Theorem Prover.
(1959) Arthur Samuel zavedl termín „strojové učení“, zatímco pracoval v IBM.
(1959) John McCarthy a Marvin Minsky založili MIT Artificial Intelligence Project.
60. léta 20. století
(1963) John McCarthy zakládá AI Lab ve Stanfordu.
(1966) Zpráva Automatic Language Processing Advisory Committee (ALPAC) vlády USA podrobně popisuje nedostatečný pokrok ve výzkumu strojových překladů, což je hlavní iniciativa studené války s příslibem automatického a okamžitého překladu ruštiny. Zpráva ALPAC vede ke zrušení všech vládou financovaných projektů MT.
(1969) První úspěšné expertní systémy jsou vyvinuty v DENDRAL, programu XX, a MYCIN, určený k diagnostice krevních infekcí, je vytvořen ve Stanfordu.
70. léta 20. století
(1972) Vznikl logický programovací jazyk PROLOG.
(1973) Britská vláda vydala zprávu Lighthilla, která podrobně popisuje zklamání ve výzkumu AI a vede k vážným škrtům ve financování projektů AI.
(1974-1980) Frustrace z pokroku ve vývoji umělé inteligence vede k zásadnímu škrtům DARPA v akademických grantech. V kombinaci s dřívější zprávou ALPAC a předloňskou Lighthillovou zprávou financování umělé inteligence vysychá a výzkum se zastavuje. Toto období je známé jako „ První zima AI “.
80. léta 20. století
(1980) Digital Equipment Corporations vyvíjí R1 (také známý jako XCON), první úspěšný komerční expertní systém. R1, navržený pro konfiguraci objednávek pro nové počítačové systémy, zahajuje investiční boom do expertních systémů, který potrvá po většinu desetiletí a fakticky ukončí první zimu AI.
(1982) Japonské ministerstvo mezinárodního obchodu a průmyslu spouští ambiciózní projekt počítačových systémů páté generace. Cílem FGCS je vyvinout výkon podobný superpočítačům a platformu pro vývoj AI.
(1983) V reakci na japonskou FGCS zahajuje vláda USA Strategic Computing Initiative, aby poskytla DARPA výzkum pokročilých počítačů a umělé inteligence.
(1985) Společnosti utrácejí více než miliardu dolarů ročně za expertní systémy a celé odvětví známé jako trh strojů Lisp se vynořuje, aby je podpořilo. Společnosti jako Symbolics a Lisp Machines Inc. staví specializované počítače pro běh na programovacím jazyce AI Lisp.
(1987-1993) Jak se výpočetní technologie zdokonalovala, objevily se levnější alternativy a trh strojů Lisp se v roce 1987 zhroutil, což znamenalo „Druhou zimu AI “. Během tohoto období se expertní systémy ukázaly jako příliš drahé na údržbu a aktualizaci a nakonec upadly v nemilost.
devadesátá léta
(1991) Americké síly nasadily během války v Zálivu DART, automatizovaný nástroj pro plánování logistiky a plánování.
(1992) Japonsko ukončilo projekt FGCS v roce 1992 s odůvodněním, že se mu nepodařilo splnit ambiciózní cíle nastíněné o deset let dříve.
(1993) DARPA ukončuje iniciativu Strategic Computing Initiative v roce 1993 poté, co utratila téměř 1 miliardu dolarů a zdaleka nedosáhla očekávání.
(1997) Deep Blue od IBM poráží mistra světa v šachu Garyho Kasparova.
2000
(2005) STANLEY , samořídící auto, vyhrává DARPA Grand Challenge.
(2005) Americká armáda začíná investovat do autonomních robotů, jako je „Big Dog“ společnosti Boston Dynamics a „PackBot“ společnosti iRobot.
(2008) Google dělá průlomy v rozpoznávání řeči a zavádí funkci ve své aplikaci pro iPhone.
léta 2010
(2011) Watson od IBM obratně poráží konkurenci na Jeopardy!.
(2011) Apple vydává Siri, virtuální asistentku poháněnou umělou inteligencí prostřednictvím svého operačního systému iOS.
(2012) Andrew Ng, zakladatel projektu Google Brain Deep Learning, zásobuje neuronovou síť pomocí algoritmů hlubokého učení 10 miliony videí na YouTube jako tréninkovou sadu. Neuronová síť se naučila rozpoznávat kočku, aniž by jí bylo řečeno, co kočka je, a zahájila tak průlomovou éru neuronových sítí a financování hlubokého učení.
(2014) Google vyrobil první samořídící auto , které prošlo státní řidičskou zkouškou.
(2014) Amazon je Alexa, virtuální domácí chytré zařízení , je uvolněno.
(2016) Google DeepMind AlphaGo porazil mistra světa Go hráče Lee Sedola. Složitost starověké čínské hry byla považována za hlavní překážku, kterou je třeba v AI odstranit.
(2016) První „občan robota“, humanoidní robot jménem Sophia, je vytvořen společností Hanson Robotics a je schopen rozpoznávat obličeje, verbální komunikaci a výraz obličeje.
(2018) Google vydává modul pro zpracování přirozeného jazyka BERT , který snižuje překážky v překladu a porozumění aplikacím ML.
(2018) Waymo spouští svou službu Waymo One, která umožňuje uživatelům v celé metropolitní oblasti Phoenixu požádat o vyzvednutí z jednoho ze samořídících vozidel společnosti.
20. léta 20
(2020) Baidu uvolňuje svůj algoritmus LinearFold AI vědeckým a lékařským týmům, které pracují na vývoji vakcíny během raných fází pandemie SARS-CoV-2. Algoritmus je schopen předpovědět sekvenci RNA viru za pouhých 27 sekund, což je 120krát rychleji než jiné metody.
(2020) OpenAI vydává model zpracování přirozeného jazyka GPT-3 , který je schopen vytvářet text modelovaný podle toho, jak lidé mluví a píší.
(2021) OpenAI staví na GPT-3 a vyvíjí DALL-E , který je schopen vytvářet obrázky z textových výzev.
(2022) DeepMind odhaluje Gato , systém umělé inteligence vycvičený k provádění stovek úkolů, včetně hraní Atari, titulkování obrázků a používání robotické paže ke skládání bloků.
Oslovil Vás tento článek? Zvažte, prosím, podporu Myšpule Světa!
https://myspulesvet.org a video kanál Myšpule Svět jsou projekty investigativní občanské žurnalistiky. Přispějete-li na jejich provoz a udržení, přispějete dobré věci v boji za lidská práva a svobodu nás všech!
Finanční dar mi můžete poslat na KB čú.:27-1399760267/0100
do zprávy pro příjemce napište prosím: „dar Myšpuli“
Všem dárcům s úctou a pokorou děkuji!
PayPall mi v samé pravdě a v moři lásky můj účet okamžitě zrušil, takže podpora MyšpuleSvěta přes PayPall není nadále možná.O čem to ovšem svědčí? O tom, že mám pravdu. A šířit pravdu je v našem světě nežádoucí, tudíž jakákoliv forma podpory je nežádoucí!
Líbí se Vám tento článek? Sdílejte Myšpule Svět na svých sociálních sítích::