AI sice je oslavována jako revoluční a svět měnící technologie , ale nic není bez nevýhod.
Napsal Mike Thomas publikováno na webu: builtin.com
Jak se AI stává stále více sofistikovanější a rozšířenější, tak rovněž hlasy varující před potenciálními nebezpečími umělé inteligence pomalu sílí.
„Tyto věci by mohly být totiž již brzy inteligentnější než my a mohly by se klidně rozhodnout, že nad námi převezmou vládu, a my se již teď musíme začít starat o to, jak tomu zabráníme,“ řekl Geoffrey Hinton , známý jako „kmotr AI“ ve své základní práci o strojovém učení a algoritmech neuronové sítě . V roce 2023 Hinton opustil svou pozici ve společnosti Google, aby mohl „ hovořit o nebezpečích umělé inteligence “, přičemž si všiml, že jeho část dokonce lituje svého celoživotního díla .
Renomovaný počítačový vědec ovšem ani zdaleka není s takovými starostmi sám.
Zakladatel Tesly a SpaceX Elon Musk ještě spolu s více než 1000 dalšími technologickými lídry v otevřeném dopise z roku 2023 vyzvali k pozastavení velkých experimentů s umělou inteligencí a uvedli, že tato technologie může „představovat vysoká rizika pro společnost a celé lidstvo“.
Rizika umělé inteligence
- Ztráta pracovních míst podnícená automatizací
- Deepfakes
- Porušení soukromí
- Algoritmické zkreslení způsobené špatnými daty
- Socioekonomická nerovnost
- Volatilita trhu
- Automatizace zbraní
- Nekontrolovatelná sebevědomá AI
Ať už je to zvyšující se automatizace určitých pracovních míst , genderově a rasově zaujaté algoritmy nebo autonomní zbraně, které fungují bez lidského dohledu (abychom jmenovali alespoň některé), neklid panuje na řadě front. A stále jsme ve velmi raných fázích toho, čeho je AI skutečně schopna.
12 Nebezpečí AI
Kvůli otázkám, kdo vyvíjí AI a pro jaké účely, je o to důležitější pochopit její potenciální nevýhody. Níže se blíže podíváme na možná nebezpečí umělé inteligence a prozkoumáme, jak lze řídit její rizika. Právě kvůli otázkám, kdo vyvíjí AI a pro jaké účely, je nyní o to více důležitější pochopit její potenciální nevýhody. Níže se blíže podíváme na možná nebezpečí umělé inteligence a prozkoumáme, jak lze řídit její rizika.
Je AI nebezpečná?
Technologická komunita již dlouho diskutuje o hrozbách, které představuje umělá inteligence. Automatizace pracovních míst, šíření falešných zpráv a nebezpečné závody ve zbrojení s umělou inteligencí byly zmíněny jako jedny z největších nebezpečí, které AI představuje.
1. Nedostatek průhlednosti a vysvětlitelnosti umělé inteligence
Modely umělé inteligence a hlubokého učení mohou být obtížně srozumitelné, a to i pro ty , kteří přímo pracují s technologií . To vede k nedostatečné transparentnosti toho, jak a proč AI dospívá ke svým závěrům, což vede k nedostatku vysvětlení, jaká data algoritmy AI používají nebo proč mohou činit neobjektivní nebo nebezpečná rozhodnutí. Tyto obavy daly podnět k používání vysvětlitelné umělé inteligence , ale k tomu, aby se transparentní systémy umělé inteligence staly běžnou praxí, je ještě dlouhá cesta.
2. ZTRÁTY PRÁCE V DŮSLEDKU AUTOMATIZACE AI
Automatizace práce s umělou inteligencí je naléhavým problémem, protože tato technologie je dnes přijímána v odvětvích, jako je marketing , výroba a zdravotnictví, což . by do roku 2030 mohly být úkoly, které představují až 30 procent odpracovaných hodin v současné době v americké ekonomice. To vše by díky AI mohlo být zautomatizováno – přitom jde o obory převážně s černošskými a hispánskými zaměstnanci, kteří jsou vůči této změně obzvláště zranitelní. Podle McKinsey tak dnes . Goldman Sachs dokonce uvádí, že kvůli automatizaci umělé inteligence by mohlo být již brzy navždy ztraceno 300 milionů pracovních míst na plný úvazek.
„Důvodem, proč máme dle různých průzkumů tak nízkou míru nezaměstnanosti, které ale přitom ve skutečnosti nezachycují lidi, kteří práci vůbec nehledají, je z velké části to, že tato ekonomika vytvořila velmi mnoho pracovních míst v sektoru služeb, ale s nižšími mzdami,“ řekl pro Built In futurista Martin Ford. . Vzhledem k tomu, že AI je na vzestupu, „nemyslím si, že to bude nějak více pokračovat.“
Jak jsou AI roboti stále více chytřejší a obratnější, tak stejné úkoly budou vyžadovat stále méně lidí. A i když se odhaduje, že umělá inteligence vytvoří do roku 2025 asi 97 milionů nových pracovních míst , tak ale mnoho dnešních zaměstnanců nebude mít dostatečné dovednosti potřebné pro tyto technické role a mohli by proto zůstat pozadu, pokud společnosti nezlepší vzdělávání svých pracovních sil .
„Pokud dnes jen obracíte hamburgery v McDonald’s a přijde více automatizace, tak bude pro vás vůbec ještě jedno z těchto nových zaměstnání nějak vhodné?“ řekl Ford. „Nebo je spíše pravděpodobné, že nová práce bude vyžadovat hodně dalšího vzdělání nebo školení nebo možná dokonce nějaký vnitřní talent – či opravdu silné mezilidské dovednosti nebo možná větší kreativitu – kterou ale možná nemáte? Protože přesně toto jsou ty věci, ve kterých, nebo alespoň zatím, počítače nejsou moc dobré.“
Dokonce ale i takové profese, které k výkonu vyžadují vysokoškolské vzdělání a další post-univerzitní školení, tak dnes rozhodně vůbec nejsou imunní vůči vytěsnění AI.
Jak zdůraznil technologický stratég Chris Messina, oblasti jako právo a účetnictví jsou připraveny na převzetí AI. Ve skutečnosti, řekl Messina, některé z nich mohou být zdecimovány. AI již nyní má poměrně významný dopad na medicěyyínu . Zákon a účetnictví jsou na řadě, řekl Messina, přičemž ten první je připraven na „masivní otřesy“.
„Přemýšlejte o složitosti smluv a skutečně se ponořte a porozumějte tomu, co je zapotřebí k vytvoření dokonalé struktury obchodu,“ řekl v souvislosti s právní oblastí. „Spousta právníků čte spoustu informací – stovky nebo tisíce stránek dat a dokumentů. Je opravdu snadné věci minout. Takže umělá inteligence, která má schopnost se prokousat a komplexně dodat tu nejlepší možnou smlouvu pro výsledek, kterého se snažíte dosáhnout, pravděpodobně nahradí spoustu podnikových právníků.“
3. SOCIÁLNÍ MANIPULACE PROSTŘEDNICTVÍM ALGORITHMŮ AI
Sociální manipulace představuje také jedno z velkých nebezpečí umělé inteligence. Tento strach se přitom již stal realitou, protože politici se dnes spoléhají na sociální platformy, aby přes ně prosazovali své názory, jedním z příkladů je Ferdinand Marcos, Jr., který ovládá celou armádu trolů na TikTok , aby získal hlasy mladších Filipínců během voleb na Filipínách v roce 2022.
TikTok, který je jen jedním z mnoha příkladů platforem sociálních médií, která se již plně spoléhá na algoritmy umělé inteligence , plní informační kanál uživatele obsahem souvisejícím s předchozími médii, která si na této platformě prohlížel. Kritika aplikace se zaměřuje právě na tento proces a také na neschopnost algoritmu odfiltrovat škodlivý a nepřesný obsah, což je to co vyvolává obavy ohledně schopnosti TikTok chránit své uživatele před zavádějícími informacemi.
Online média a zprávy se staly ještě temnějšími ve světle obrázků a videí generovaných umělou inteligencí, měničů hlasu umělé inteligence a také tzv.“deep fake“, které dnes pronikají do politické a sociální sféry. Tyto technologie usnadňují vytváření realistických fotografií, videí, zvukových klipů nebo nahrazování obrázku jedné postavy jinou na již existujícím obrázku nebo videu. Výsledkem je, že již tak špatní herci mají jen další cestu pro sdílení dezinformací a válečné propagandy , což vytváří scénář noční můry, kde může být již téměř nemožné rozlišit mezi důvěryhodnými a falešnými zprávami.
„Nikdo už neví, co je skutečné a co ne,“ řekl Ford. „Takže to skutečně vede k situaci, kdy doslova nebudete věřít vlastním očím a uším; kdy se již nemůžete vůbec spolehnout na to, co jsme historicky vždy považovali za nejlepší možný důkaz… To bude obrovský problém.“
4. SOCIÁLNÍ DOHLED S TECHNOLOGIÍ AI
Kromě své existenční hrozby se Ford zaměřuje na způsob, jakým umělá inteligence nepříznivě ovlivní soukromí a bezpečnost. Ukázkovým příkladem je čínské použití technologie rozpoznávání obličeje v kancelářích, školách a na dalších místech. Kromě sledování pohybu osoby tak může být čínská vláda schopna shromáždit dostatek dat pro sledování aktivit, vztahů a politických názorů dané osoby.
Dalším příkladem jsou americká policejní oddělení využívající prediktivní policejní algoritmy k předvídání, kde dojde ke zločinům. Problém je v tom, že tyto algoritmy jsou ovlivněny mírou zatčení, která neúměrně ovlivňuje černošské komunity . Policejní oddělení pak tyto komunity zdvojnásobí, což vede k přehnané policejní kontrole a otázkám, zda samozvaní demokracie mohou odolat přeměně AI na autoritářskou zbraň.
„Autoritářské režimy to již běžně používají nebo to brzy budou používat,“ řekl Ford. „Otázkou je, jak moc to napadá západní země, demokracie a jaká omezení na to klademe?“
5. Nedostatek ochrany osobních údajů pomocí nástrojů AI
Pokud jste si hráli s chatbotem s umělou inteligencí nebo jste vyzkoušeli filtr obličeje s umělou inteligencí online, vaše data se shromažďují – ale kam to jde a jak se to používá? Systémy umělé inteligence často shromažďují osobní údaje, aby přizpůsobily uživatelské zkušenosti nebo pomohly trénovat modely umělé inteligence, které používáte (zejména pokud je nástroj umělé inteligence bezplatný). Data nemusí být dokonce považována za bezpečná před ostatními uživateli, když jsou předána systému AI, protože jeden chybový incident, ke kterému došlo u ChatGPT v roce 2023, „umožnil některým uživatelům vidět tituly z historie chatu jiného aktivního uživatele“. I když v některých případech ve Spojených státech existují zákony na ochranu osobních údajů, tak ale stále neexistuje žádný explicitní federální zákon , který by chránil občany před poškozením soukromí, kterému kvůli AI čelí.
6. ZAUJATOST V DŮSLEDKU POUŽÍVÁNÍ AI
Různé formy zkreslení AI jsou také škodlivé. pro New York Times Profesorka počítačové vědy z Princetonu Olga Russakovsky řekla, že zaujatost AI jde daleko za pohlaví a rasu . Kromě zkreslení dat a algoritmů (z nichž to druhé může „zesílit“ to první) je umělá inteligence vyvíjena lidmi – a lidé jsou ZKRÁTKA JIŽ ze své podstaty zaujatí .
„Výzkumníci AI jsou primárně muži, kteří pocházejí z určité rasové demografie, vyrostli ve vysoce socioekonomických oblastech, především lidé bez postižení,“ řekl Russakovsky. „Jsme poměrně homogenní populace, takže je těžké přemýšlet o světových problémech.“
Omezené zkušenosti tvůrců umělé inteligence mohou vysvětlit, proč umělá inteligence rozpoznávající řeč často nedokáže porozumět určitým dialektům a přízvukům nebo proč technologické společnosti nezvažují důsledky toho, že se jejich chatbot vydává třeba za notoricky známé postavy lidské historie. Vývojáři a podniky by si měli dávat větší pozor, aby se vyvarovali opětovnému vytváření silných předsudků a hlavně předsudků, které ohrožují menšinové populace.
7. SOCIOEKONOMICKÁ NEROVNOST V DŮSLEDKU AI
Pokud společnosti odmítnou uznat vrozené předsudky zapečené v algoritmech AI, mohou kompromitovat své iniciativy DEI prostřednictvím náboru založeného na AI . Myšlenka, že umělá inteligence dokáže změřit vlastnosti kandidáta pomocí obličejových a hlasových analýz, je stále poskvrněna rasovými předsudky, které nyní reprodukují stejné diskriminační náborové praktiky , o nichž přitom ale podniky tvrdí, že je odstraňují.
Dalším důvodem k obavám je prohlubování socioekonomické nerovnosti vyvolané ztrátou zaměstnání řízenou umělou inteligencí, která odhaluje třídní zaujatost podle toho, jak je umělá inteligence aplikována. Dělníci, kteří vykonávají více manuálních, opakujících se úkolů, již někde zaznamenali snížení mezd až o 70 procent jen kvůli automatizaci . Mezitím ale zůstali třeba úředníci platově nedotčeni, někteří dokonce požívají vyšších mezd.
Rozsáhlá tvrzení, že umělá inteligence nějakým způsobem překonala sociální hranice nebo že vytvořila více pracovních míst, nedokážou vykreslit úplný obrázek o jejích účincích. Je důležité také vzít v úvahu rozdíly na základě rasy, třídy a dalších kategorií. V opačném případě bude obtížnější rozpoznat, jak AI a automatizace dnes prospívají jen určitým jednotlivcům a skupinám na úkor jiných.
8. OCHLAZENÍ ETIKY A DOBRÉ VŮLE KVŮLI AI
Spolu s technology, novináři a politickými osobnostmi dokonce i náboženští vůdci bijí na poplach ohledně potenciálních sociálně-ekonomických úskalí AI. Na vatikánském setkání v roce 2019 nazvaném „Společné dobro v digitálním věku“ papež František varoval před schopností AI „šířit tendenční názory a nepravdivá data“ a zdůraznil dalekosáhlé důsledky toho, že se tato technologie nechá vyvíjet bez řádného dohledu nebo omezení.
„Pokud by se takzvaný technologický pokrok lidstva stal nepřítelem obecného dobra,“ dodal, „vedlo by to k nešťastnému návratu k formě barbarství diktované zákonem nejsilnějších.“
Rychlý nárůst generativních nástrojů umělé inteligence, jako je ChatGPT a nebo Bard, dodává těmto obavám ještě více na významu. Mnoho uživatelů již použilo tuto technologii, aby se dostali z psaní úkolů, což ale velmi ohrožuje akademickou integritu a kreativitu.
Někteří lidé se obávají, že bez ohledu na to, kolik mocných osobností poukazuje na nebezpečí umělé inteligence, budeme s ní dál tlačit na pilu, pokud na to budou peníze.
„Mentalita je: ‚Pokud to dokážeme, měli bychom to zkusit; uvidíme, co se stane,“ řekl Messina. „‚A pokud na tom dokážeme vydělat peníze, uděláme toho spoustu.“ Ale to není jedinečné jen pro tuto technologii. To se děje odjakživa.“
9. AUTONOMNÍ ZBRANĚ POMOCÍ AI
Jak je tomu asi až příliš často, technologický pokrok byl pokaždé využit pro účely válčení. Pokud jde o AI, tak někteří lidé by s tím rádi něco udělali, než bude příliš pozdě: V otevřeném dopise z roku 2016 se více než 30 000 jednotlivců, včetně výzkumníků v oblasti AI a robotiky , již postavilo proti investicím do autonomních zbraní poháněných AI.
„Klíčovou otázkou dnešního lidstva je, zda zahájit globální závody ve zbrojení s umělou inteligencí, nebo zabránit jejich zahájení,“ napsali. „Pokud si nějaká významná vojenská mocnost prosadí vývoj AI zbraní, tak globální závody ve zbrojení jsou prakticky nevyhnutelné a konečný bod této technologické trajektorie je zřejmý: autonomní zbraně se stanou kalašnikovy zítřka.“
Tato předpověď se naplnila ve formě smrtících autonomních zbraňových systémů , které samy lokalizují a ničí cíle a přitom dodržují několik předpisů. Kvůli šíření silných a složitých zbraní některé z nejmocnějších národů světa podlehly úzkosti a přispěly k technologické studené válce .
Mnohé z těchto nových zbraní představují již tak velká rizika pro civilisty na zemi, ale toto nebezpečí se ještě zesílí, když se autonomní zbraně dostanou do nesprávných rukou. Hackeři již zvládli různé typy kybernetických útoků , takže není aý tak těžké si představit, že by nějajý zákeřný hráč pronikl do autonomních zbraní a vyvolal absolutní armagedon.
Pokud nebudou politické rivality a tendence válečných štváčů drženy na uzdě, tak umělá inteligence by mohla být nakonec aplikována s těmi nejhoršími úmysly.
10. FINANČNÍ KRIZE VZNIKLÉ ALGORITMY AI
Finanční průmysl se stal vnímavějším k zapojení technologie AI do každodenních finančních a obchodních procesů. V důsledku toho by algoritmické obchodování mohlo být zodpovědné za naši další velkou finanční krizi na trzích.
Algoritmy umělé inteligence sice nejsou zahaleny lidským úsudkem nebo emocemi, ale také neberou v úvahu kontexty , propojenost trhů a faktory, jako je lidská důvěra a strach. Tyto algoritmy pak provádějí tisíce obchodů bleskovým tempem s cílem prodat o několik sekund později za malé zisky. Výprodej tisíců obchodů by mohl vyděsit investory, aby udělali totéž, což by vedlo k náhlým pádům a extrémní volatilitě trhu.
Případy jako Flash Crash z roku 2010 a Knight Capital Flash Crash slouží jako připomínka toho, co se může stát, když se algoritmy pro obchodování zblázní, bez ohledu na to, zda je rychlé a masivní obchodování záměrné.
To ale rozhodně neznamená, že AI nemá světu financí co nabídnout. Algoritmy umělé inteligence mohou ve skutečnosti pomoci investorům činit mnohem chytřejší a informovanější rozhodnutí na trhu. Finanční organizace se však musí ujistit, že rozumí svým algoritmům AI a tomu, jak tyto algoritmy rozhodují. Společnosti by měly zvážit, zda umělá inteligence zvyšuje nebo snižuje jejich sebevědomí, než tuto technologii zavedou, aby se vyhnuly vyvolávání obav mezi investory a vytváření finančního chaosu.
11. Ztráta lidského vlivu
Přílišné spoléhání se na technologii AI by mohlo mít za následek ztrátu lidského vlivu – a nedostatek lidského fungování – v některých částech společnosti. Používání umělé inteligence ve zdravotnictví by mohlo vést ke snížení lidské empatie a uvažování například . A použití generativní umělé inteligence pro kreativní úsilí by mohlo snížit lidskou kreativitu a emocionální projev . Přílišná interakce se systémy umělé inteligence by mohla dokonce způsobit snížení vzájemné komunikace a sociálních dovedností. I když tedy umělá inteligence může být velmi užitečná pro automatizaci každodenních úkolů, někteří pochybují, zda to nemůže brzdit celkovou lidskou inteligenci, schopnosti a potřebu vytvářet komunity.
12. Nekontrolovatelná sebevědomá AI
Objevuje se také obava, že AI pokročí v inteligenci tak rychle, že se stane vnímavou a bude jednat mimo kontrolu lidí – možná dokonce nějakým dost zlomyslným způsobem. Údajné zprávy o tomto vnímání se již objevily, přičemž jeden populární účet pochází od bývalého inženýra Google, který uvedl, že chatbot LaMDA s umělou inteligencí byl vnímavý a mluvil s ním stejně jako člověk. Vzhledem k tomu, že další velké milníky AI zahrnují vytváření systémů s umělou obecnou inteligencí a nakonec i umělou superinteligencí tak stále více sílí volání po úplném zastavení tohoto vývoje , .
Jak zmírnit rizika AI
Umělá inteligence má stále řadu výhod , jako je třeba organizace zdravotních dat a napájení samořídících aut. Chcete-li z této slibné technologie vytěžit maximum, tak někteří odborníci tvrdí, že je nezbytná spousta regulace.
„Existuje vážné nebezpečí, že budeme [systémy umělé inteligence] chytřejší než my poměrně brzy a že tyto věci mohou mít špatné motivy a převezmou kontrolu,“ řekl Hinton NPR . „Tohle není jen problém sci-fi. Jde o velmi vážný problém, který se pravděpodobně objeví poměrně brzy, a politici musí už teď přemýšlet, co s tím dělat.“
Vypracujte právní předpisy
Na regulaci umělé inteligence se dnes zaměřily desítky zemí a nyní USA a Evropská unie vytvářejí jednoznačnější opatření pro řízení rostoucí sofistikovanosti umělé inteligence. (Prezident Joe Biden vydal v roce 2023 výkonný příkaz , který požadoval, aby federální agentury vyvinuly nová pravidla a pokyny pro bezpečnost a zabezpečení umělé inteligence.) Ačkoli to znamená, že některé technologie umělé inteligence by mohly být nakonec zakázány, nebrání to společnostem dále v prozkoumávání této oblasti. .
Vytvořte organizační standardy AI
Zachování ducha experimentování je pro Ford zásadní, protože věří, že umělá inteligence je nezbytná pro země, které chtějí inovovat a držet krok se zbytkem světa.
„Upravujete způsob, jakým se používá umělá inteligence, ale nezdržujete pokrok v základní technologii. Myslím, že by to bylo špatné a potenciálně nebezpečné,“ řekl Ford. „Rozhodujeme se, kde AI chceme a kde ne; kde je to ještě přijatelné a kde již ne. A různé země budou dělat různá rozhodnutí.“
Udělejte z umělé inteligence součást firemní kultury a diskusí
Klíčovým je rozhodnutí, jak používat AI etickým způsobem . Na úrovni společnosti existuje mnoho kroků, které mohou podniky při integraci AI do svých operací podniknout. Organizace mohou vyvíjet procesy pro monitorování algoritmů, sestavování vysoce kvalitních dat a pro vysvětlování zjištění algoritmů AI. Lídři by dokonce mohli učinit z umělé inteligence součást své firemní kultury a vytvořit tím standardy pro stanovení hranic ještě přijatelných technologií umělé inteligence.
Zdroj: https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence








Napsat komentář