Dnešní hrozba v podobě umělé inteligence: spíše jaderná zima než jaderná válka

V květnu loňského roku podepsaly stovky významných osobností z oblasti výzkumu a vývoje umělé inteligence prohlášení, v němž se uvádí, že "zmírnění rizika vyhynutí v důsledku umělé inteligence by mělo být globální prioritou vedle jiných celospolečenských rizik, jako jsou pandemie a jaderná válka". Ačkoli pokračující pokrok v oblasti UI jednoznačně vyžaduje naléhavé politické reakce, nedávné pokusy přirovnat UI k náhlým a extrémním bezprostředním účinkům spuštění jaderných zbraní se opírají o zavádějící jednoduchou analogii - analogii, která pochází z počátků studené války a ignoruje důležitý pozdější vývoj v chápání jaderných hrozeb. Místo analogie "všechno nebo nic" je produktivnější přistupovat k UI jako k narušení globálních systémů, které se více podobá nejistým a komplexním kaskádám jaderné zimy.

V posledním roce a půl se na titulních stranách objevovaly zprávy, které podporovaly humbuk kolem inspirativních potenciálních schopností umělé inteligence. Zatímco se však komentátoři připravují na nástup vládců strojů, umělá neinteligence již spouští řetězce rozsáhlého společenského rozvratu. Dezinformace poháněné umělou inteligencí zasévají nedůvěru, algoritmy sociálních médií zvyšují polarizaci a masově produkovaná syntetická média degradují demokratickou angažovanost a zároveň podkopávají náš sdílený smysl pro realitu.

Nekritické ztotožňování akutních účinků jaderného útoku a hrozeb ze strany umělé inteligence představuje riziko reprodukce stejného druhu myšlení typu "všechno nebo nic", které bylo hnacím motorem nejnebezpečnější dynamiky závodů v jaderném zbrojení. Vytváření těchto analogií také nepatřičně odvádí pozornost od dramatických škod, které může i relativně "malá" jaderná válka nebo "hloupá" umělá inteligence způsobit v dnešních propojených sociálních, ekologických a politických systémech. Spíše než se obávat budoucí apokalypsy UI by si tvůrci politik měli uvědomit, že svět již prožívá něco jako počátky jaderné zimy UI, a vytvořit účinné rámce regulace, které zohlední, jak dnes nepředvídatelným způsobem narušuje politické, sociální a ekologické systémy. Přílišné zdůrazňování spekulativních nebezpečí superinteligence (systémů, které převyšují lidskou inteligenci) ohrožuje naléhavě potřebné úsilí o regulaci UI s ohledem na systémové dopady skutečných a vznikajících schopností.

Znovu o jaderném riziku. V roce 1961 John F. Kennedy varoval, že "každý muž, žena a dítě žijí pod Damoklovým mečem", a to na základě dobových obav, že globální spad z termonukleární války by mohl otrávit všechny živé bytosti. Kubánská krize v říjnu 1962 byla jen o vlásek od toho, aby tento meč padl, a jaderný strach se tím nebývale zvýšil. Ve stejném měsíci průkopník počítačů Irving J. Good prohlásil, že "přežití člověka závisí na brzké konstrukci ultrainteligentního stroje". Takový stroj by překonal lidskou inteligenci a Good navrhoval, že lidé stojí na prahu rozpoutání samopodporující exploze umělé inteligence, která by mohla změnit lidskou existenci stejně totálně jako termonukleární válka. Poznamenal, že "ultrainteligence" by měla transcendentní sílu buď vyřešit všechny lidské problémy, nebo zničit veškerý lidský život a stát se "posledním vynálezem, který kdy člověk potřeboval".

Tato jednoduchá a přesvědčivá vize náhlé a transformativní apokalypsy umělé inteligence se v průběhu let téměř nezměnila. Počítačový vědec Vernor Vinge překřtil v devadesátých letech Goodovu "explozi inteligence" na singularitu a dále varoval, že pokud se ji nepodaří odvrátit nebo omezit, mohla by UI způsobit "fyzické vymření lidského rodu". Goodovy obavy se nakonec dostaly do hlavního proudu o půl století později, kdy filozof Nick Bostrom vydal knihu Superinteligence, v níž varoval před blížícím se úprkem umělé inteligence, která by mohla "během hodiny či dvou sesadit lidstvo z pozice vrcholného kogitátora" - transformace tak náhlá a totální, že jejím "jediným precedentem mimo mýtus a náboženství" by byla globální termonukleární válka.

Zatímco vize zániku v důsledku výbuchu umělé inteligence zůstávaly pozoruhodně neměnné, chápání jaderného nebezpečí prošlo zásadní změnou. Poté, co si vědci v 60. letech uvědomili, že radiologická rizika byla mírně nadhodnocena, začali v 70. letech poprvé studovat globální dopady jaderných zbraní na životní prostředí. Počátkem 80. let si začali uvědomovat, že globální klimatické dopady jaderné války mohou být téměř stejně ničivé jako radiologické škody a ke spuštění je zapotřebí mnohem méně zbraní. Ohnivé bouře hořících měst by naplnily atmosféru sazemi a částicemi, které by blokovaly sluneční světlo, což by způsobilo prudký pokles povrchových teplot a spustilo samopodporující se kaskádu kolapsů v propojených ekologických, zemědělských, průmyslových a sociálních systémech. Následné studie potvrdily, že výsledná "jaderná zima" by pravděpodobně zabila většinu dnes žijících lidí, zatímco i omezená výměna několika stovek hlavic mezi Indií a Pákistánem by mohla v šeru mírnějšího "jaderného podzimu" zabít hladem až dvě miliardy lidí.

V průběhu desetiletí se díky pokroku ve sběru celoplanetárních dat a počítačovému modelování změnilo chápání jaderného nebezpečí a mylné jistoty o všeobecné smrti v důsledku radioaktivního spadu byly nahrazeny rostoucím povědomím o nejistých důsledcích, které by následovaly po kaskádách environmentálního a sociálního rozpadu. Podobně se v posledních několika letech rychle rozšiřují schopnosti umělé inteligence, které mění celé sítě lidských vztahů - s již destabilizujícími politickými a ekologickými důsledky. Hluboké podvrhy, jejichž cílem je ovlivnit voliče, podkopávají důvěru a digitální asistenti a chatboti ovlivňují lidskou schopnost kooperativního chování a empatie, přičemž produkují obrovskou uhlíkovou stopu. Stejně jako by stačil jen nepatrný zlomek dnešního jaderného arzenálu k zahájení řetězce katastrofických událostí globálního rozsahu, nemusí lidé čekat na okamžik, kdy "stroje začnou stanovovat své vlastní cíle", aby pocítili globální, vzájemně propojené a potenciálně katastrofické škody, které by umělá inteligence mohla způsobit.

Dnešní produkty umělé inteligence přispívají ke globálnímu oteplování a k nedostatku zdrojů a urychlují je, od těžby nerostných surovin pro výpočetní hardware až po spotřebu obrovského množství elektřiny a vody. Je pozoruhodné, že zátěž životního prostředí způsobená umělou inteligencí se dostává na okraj zájmu těch, kteří se obávají existenční hrozby této technologie, neboť "Prohlášení o rizicích umělé inteligence" uvádí umělou inteligenci vedle jaderné války a pandemií, ale změnu klimatu mezi existenční problémy nezahrnuje. Kromě škod na životním prostředí mohou být stávající systémy AI využívány k nekalým účelům, například k vývoji nových toxinů. Rozsáhlé rozhraní jazykového modelu OpenAI ChatGPT bylo úspěšně přiměno ke sdílení návodů na výrobu bomb a oklamáno, aby nastínilo kroky k vytvoření další pandemie. Ačkoli tyto příklady stále vyžadují více lidského vstupu, než si mnozí uvědomují, systém umělé inteligence údajně generuje cíle v Gaze a závod o nasazení smrtících autonomních zbraňových systémů, které by mohly obnovit rovnováhu sil v nestabilních regionech po celém světě, je v plném proudu. Tyto příklady ukazují, že není třeba exploze inteligence k tomu, aby způsobila obrovské škody. Schopnost využít automatizaci a efektivitu strojů ke globálnímu katastrofickému účinku je již zde.

Závody ve zbrojení až na dno. Ještě zákeřnější je, že analogie mezi jadernými zbraněmi a nekonečnou kalkulací rizika a odměny "exploze umělé inteligence" reprodukuje dynamiku závodů ve zbrojení. Mezi honbou za jadernou převahou a převahou umělé inteligence je právě tolik podobností, že to vybízí k opakování stejných chyb, přičemž fráze "závody ve zbrojení umělou inteligencí" se stává běžným refrénem. Jednou z nejzřetelnějších podobností mezi těmito případy by mohlo být to, že podobně jako byly závody v jaderném zbrojení se Sovětským svazem poháněny falešnými "mezerami" v bombardérech a raketách, některé z dnešních nejostřejších řečí o závodech ve zbrojení se opírají o přeceňování čínské zdatnosti.

Při bližším pohledu se ukáže, že závody v jaderném zbrojení a závody v umělé inteligenci se zásadně liší. Zatímco budování jaderných arzenálů vyžaduje přístup k omezeným zásobám obohaceného štěpného materiálu, modely umělé inteligence se skládají z binárního kódu, který lze nekonečně kopírovat, rychle nasazovat a pružně přijímat. To radikálně mění rozsah nebezpečí šíření UI, zejména proto, že - na rozdíl od přísného vládního dohledu nad jadernými zbraněmi - je vývoj UI vysoce komercializován a privatizován. Rozdíl v šíření jaderných technologií a UI má význam pro přístupy k jejich řízení. První z nich může generovat výbuchy i elektrickou energii, ale její ozbrojování lze měřit a monitorovat. Současná měřítka pro vývoj UI jsou naproti tomu příliš vzdálená účinkům reálných aplikací, než aby bylo možné užitečně posoudit potenciální škody. Na rozdíl od jaderné technologie nemá umělá inteligence pouze dvojí využití. Naopak, pozoruhodná škála činností, které může transformovat, z ní dělá univerzální technologii, která umožňuje podobně jako elektřina.

Zatímco obrovský nárůst závodů v jaderném zbrojení signalizoval odhodlání každého protivníka potenciálně zničit svět, ale jinak jej ponechal nedotčený, bezhlavý závod směrem k explozi umělé inteligence slibuje radikální proměnu světa bez ohledu na to, zda bude někdy dosaženo jeho konečného cíle (nebo zda se dokonce ukáže, že ho lze dosáhnout).

Ani všechno, ani nic. Odzbrojující jednoduché analogie mezi umělou inteligencí a bezprostředními jadernými riziky jsou nejen silnou rétorikou, ale také dobrým marketingem. Bez ohledu na to, zda vývojáři skutečně věří, že jejich produkty představují existenční hrozbu, či nikoli, zarámování blízké budoucnosti AI jako takové umožnilo vedoucím pracovníkům společností OpenAI, Anthropic, Microsoft a Google přístup k politickým diskusím na vysoké úrovni v Bílém domě, americkém Senátu a na notoricky tajné konferenci Bilderberg. Výsledkem byla lavina slibů technologických firem, že budou samy sebe hlídat, protože spěchají s vydáváním stále schopnějších produktů umělé inteligence. Tím, že povzbuzují veřejnost, aby se soustředila na to, jak by tyto aplikace mohly ukončit svět, odvádějí ředitelé AI pozornost od naléhavé potřeby regulovat způsoby, kterými již aktivně rozvracejí sociální, ekonomické a ekologické podpůrné systémy miliard lidí ve snaze předstihnout své konkurenty a maximalizovat svůj podíl na trhu.

Technologické společnosti jsou sice zúčastněnými stranami, ale neměly by být nejhlasitějším, natož jediným hlasem v diskusích o správě umělé inteligence. Tvůrci politik se nesmí nechat rozptýlit přízrakem superinteligence a musí přijmout opatření, která přesáhnou rámec shromažďování dobrovolných závazků od vývojářů AI. Stávající pokyny a směrnice jsou dobrým začátkem, ale tvůrci politik musí pokročit ve vytváření závazných a vymahatelných právních předpisů, které by se zabývaly současnými i potenciálními škodami způsobenými UI. Například Bletchleyská deklarace, která je výsledkem nedávného summitu o bezpečnosti UI pořádaného vládou Spojeného království, rozšiřuje obzory obav. Přesahuje bezprostřední otázky ochrany osobních údajů, zaujatosti a transparentnosti a bere v úvahu také potenciální dopady UI na politickou stabilitu, demokratické procesy a životní prostředí. Kritici však upozorňují, že zůstává převážně symbolickou a silně elitářsky zaměřenou dohodou bez skutečných mechanismů prosazování.

Pohled na ranou jadernou éru může poskytnout cenné poučení, jak přibrzdit tempo nadvlády umělé inteligence, ale toto poučení není přímo převoditelné. Současné a budoucí celosvětové dopady UI lze řešit pouze prostřednictvím mezinárodní spolupráce, především mezi Spojenými státy a Čínou jako dvěma hlavními protivníky. Rozhovory mezi prezidenty Joem Bidenem a Si Ťin-pchingem na summitu Asijsko-pacifické hospodářské spolupráce v San Francisku v polovině listopadu sice nepřinesly konkrétní dohody nebo závazky týkající se regulace UI ani z jedné strany, obě strany však uznaly potřebu mezinárodní správy UI. Projevily rovněž ochotu navázat v této oblasti formální dvoustrannou spolupráci.

Protože se však nebezpečí šíření umělé inteligence zásadně liší od nebezpečí šíření jaderných zbraní, je omezení této oblasti na ty, kteří mají pokročilé programy umělé inteligence, byť jen zpočátku, krátkozraké. Rámec globální správy UI je tak dobrý, jak dobrý je jeho nejslabší prvek, proto musí být od počátku přísný a inkluzivní. Takové úsilí nevyčerpá jeden mezinárodní orgán po vzoru Mezinárodní agentury pro atomovou energii. Obecná povaha technologie UI vyžaduje více než jeden regulační režim mechanismů, které jsou vázány společnými zásadami. Kromě dvoustranného dialogu by tvůrci politik měli pozorně sledovat a podporovat mnohostranné úsilí, jako je například nově zřízený Poradní výbor na vysoké úrovni pro umělou inteligenci při OSN.

Je jisté, že přeorientování se na již nyní se rozkládající komplexní škody způsobené umělou inteligencí neznamená, že bychom se měli spokojit s dlouhodobými a existenčními riziky, která by mohla představovat. To, že se lidé od kubánské krize jen těsně vyhnuli jaderné válce, nesnižuje naléhavost zvládání dnešní vyvíjející se jaderné hrozby. Stejně tak desetiletí nenaplněných očekávání ohledně brzkého vytvoření "ultrainteligentního stroje" nedokazují, že je to nemožné. Pokud se někdy otevře schůdná cesta k dosažení inteligence vyšší než lidská, bude mnohem lepší být připraven. Nejlepší způsob, jak se na takovou eventualitu připravit, začíná přímým řešením kaskád celoplanetárních škod, které aplikace umělé inteligence již způsobují. Každý krok učiněný ke zmírnění probíhajících škod a přesměrování vývoje UI k cílům větší spravedlnosti, udržitelnosti a férovosti pomůže vytvořit společnosti, které se budou moci lépe vypořádat s nevyřešeným dědictvím jaderných zbraní a neobjevenými horizonty UI.

Originální zdroj: https://thebulletin.org/2024/02/todays-ai-threat-more-like-nuclear-winter-than-nuclear-war/?utm_source=Newsletter&utm_medium=Email&utm_campaign=MondayNewsletter02122024&utm_content=DisruptiveTechnologies_AINuclearWinter_02112024

Upravil a z angličtiny přeložil: Mgr. Jan Klán