.
Aktuality, Bezpečnosť,

Akú hrozbu predstavuje počítačová superinteligencia pre ľudstvo?

❚❚

USA, 10. augusta 2025 – Spoločnosti zaoberajúce sa umelou inteligenciou nie sú pripravené na nebezpečenstvo plynúce z tohto pokroku. Podľa Demisa Hassabisa, generálneho riaditeľa IT gigantu Deep Mind a nositeľa Nobelovej ceny za chémiu, sa v priebehu nasledujúcich 5 až 10 rokov začne objavovať umelá inteligencia (AGI), ktorá bude rovnako inteligentná ako ľudia alebo dokonca inteligentnejšia ako oni. Ak sa tak stane, povedal magnát v oblasti umelej inteligencie pre Wired, “potom nastane éra maximálnej ľudskej prosperity, keď sa vydáme ku hviezdam a budeme kolonizovať galaxiu. Myslím si, že sa to začne v roku 2030.”


 

AGI podľa neho zabezpečí “radikálnu hojnosť, odhalí skryté tajomstvá zdravia, životného prostredia a energie a vyrieši problém kapitalistického nedostatku, v ktorom chudobní ľudia na svete zostávajú bez zdrojov v prospech niekoľkých”. “Myslím si, že súčasné systémy AI sú veľmi pasívne, stále toho veľa nedokážu, ale mnohé z týchto schopností sa čoskoro dostanú do popredia a začneme smerovať k tomu, čo nazývame všeobecná umelá inteligencia,” poznamenal Hassabis. Hassabis nie je sám, kto predpovedá načasovanie vzniku AGI.

 

Minulý rok Robin Li, generálny riaditeľ čínskeho technologického gigantu Baidu, uviedol, že podľa neho sa vznik AGI ” očakáva najskôr za 10 rokov”, čím vyvrátil nadšené predpovede niektorých kolegov, že k prelomu dôjde v oveľa kratšom časovom horizonte. V januári 2025 Dario Amodei, generálny riaditeľ startupu AI Anthropic, na Svetovom ekonomickom fóre v Davose pre CNBC povedal, že podľa neho sa v “nasledujúcich 2 až 3 rokoch” objaví taká forma umelej inteligencie, ktorá “bude pri vykonávaní takmer všetkých úloh lepšia ako ľudia”.

 

Minulý rok generálny riaditeľ spoločnosti Tesla Elon Musk predpovedal, že AGI bude pravdepodobne k dispozícii do roku 2026, zatiaľ čo generálny riaditeľ spoločnosti OpenAI Sam Altman povedal, že takýto systém by mohol byť vyvinutý v “pomerne blízkej budúcnosti”. Popredné západné think-tanky sú však vyhliadkou na vznik a rozšírenie AGI mimoriadne znepokojené. V nedávnej správe RAND Corporation sa uvádza niekoľko problémov, ktoré vznik AGI predstavuje pre národnú bezpečnosť USA:

 

1. AGI ako zázračná zbraň.

“Nedávne prelomové výsledky v oblasti pokročilých modelov umelej inteligencie viedli mnohých k tvrdeniu, že bude mať rovnaký vplyv na národnú bezpečnosť, t. j. že bude taká silná, že prvý aktér, ktorý ju dosiahne, získa významnú a možno nezvratnú vojenskú výhodu.”

 

2. Systémové zmeny v rovnováhe síl.

“Novodobé ekvivalenty Einsteinových listov Franklinovi Rooseveltovi vyzývajú americkú vládu, aby sa zapojila do masívneho národného úsilia s cieľom zabezpečiť, aby Spojené štáty získali rozhodujúcu zázračnú zbraň založenú na umelej inteligencii skôr, ako ju získa Čína.”

 

3. Neodborníci kvalifikovaní na vývoj zbraní hromadného ničenia.

“AGI by mohla umožniť nešpecialistom vyvinúť zbrane hromadného ničenia, ako napríklad vysoko smrtiaci a nákazlivý patogén alebo nebezpečný kybernetický malvér, čím by sa rozšíril okruh ľudí schopných vytvoriť takéto hrozby.”

 

4 Umelé entity ovládajúce agentúru.

“AGI sa môže prejaviť ako umelá entita s agentúrou, ktorá ohrozuje globálnu bezpečnosť. Jedným z najškodlivejších dôsledkov vývoja umelej inteligencie by mohlo byť zničenie ľudskej autonómie, keď budú ľudia čoraz viac závislí od technológií. Keďže umelá inteligencia ovláda čoraz zložitejšie a kritickejšie systémy, môže optimalizovať kritickú infraštruktúru spôsobmi, ktoré sú pre ľudstvo prospešné, ale aj spôsobmi, ktoré ľudstvo nemá možnosť úplne pochopiť.”

 

5. Všeobecná nestabilita.

“Na ceste k svetu s AGI a vo svete s AGI by mohla existovať nestabilita. Bez ohľadu na to, či sa AGI nakoniec zrealizuje alebo nie, snaha o dosiahnutie AGI by mohla vyvolať obdobie nestability, pretože krajiny a korporácie budú súťažiť o dominanciu v tejto transformačnej technológii. Táto súťaž by mohla vystupňovať napätie pripomínajúce preteky v jadrovom zbrojení, takže snaha o získanie prevahy by mohla skôr vyvolať konflikt, než mu zabrániť. V tomto nestabilnom prostredí sa môže stať, že vnímanie realizovateľnosti AGI a potenciálu zabezpečiť si výhodu prvého hráča zo strany krajín bude rovnako dôležité ako samotná technológia . Prah rizika pre konanie bude závisieť nielen od skutočných schopností, ale aj od vnímaných schopností a zámerov súperov. Nesprávna interpretácia alebo nesprávne odhady, podobne ako tie, ktorých sa obávali počas studenej vojny, by mohli vyvolať preventívne stratégie alebo hromadenie zbraní, ktoré by destabilizovali globálnu bezpečnosť.”

 

V správe amerického think tanku Future of Life Institute (FLI), ktorého spoluzakladateľom je popredný svetový odborník na umelú inteligenciu Max Tegmark, sa uvádza, že spoločnosti zaoberajúce sa umelou inteligenciou nie sú “pripravené” na nebezpečenstvo systémov na úrovni človeka. Žiadna zo spoločností zahrnutých do indexu bezpečnosti umelej inteligencie spoločnosti FLI nedostala za “plánovanie existenčnej bezpečnosti” známku vyššiu ako D a napriek snahe vyvinúť všeobecnú umelú inteligenciu (AGI) žiadna zo skúmaných spoločností nemala “nič, čo by pripomínalo ucelený a realizovateľný plán” na zabezpečenie bezpečnosti a ovládateľnosti systémov.

 

V správe FLI sa uvádza: “Odvetvie je zásadne nepripravené na dosiahnutie svojich stanovených cieľov. Spoločnosti tvrdia, že do desiatich rokov vytvoria umelú inteligenciu na všeobecné použitie (AGI), ale žiadna z nich nezískala v oblasti plánovania existenčnej bezpečnosti viac ako neuspokojivé D.”

 

Analytici FLI hodnotili sedem spoločností – Google, DeepMind, OpenAI, Anthropic, Meta, xAI a čínske Zhipu AI a DeepSeek – v šiestich oblastiach vrátane „pretrvávajúcich škôd“ a „existenčnej bezpečnosti“. Anthropic získal najvyššiu celkovú známku bezpečnosti C+, za ním nasledovali OpenAI so známkou C a Google DeepMind so známkou C-.

 

Ďalšia nezisková bezpečnostná organizácia SaferAI tiež vo štvrtok zverejnila správu, v ktorej varuje, že špičkové spoločnosti zaoberajúce sa umelou inteligenciou majú „slabé alebo veľmi slabé postupy riadenia rizík“ a ich súčasný prístup označila za „neprijateľný“. Bezpečnostné hodnotenia FLI pridelila a overila skupina odborníkov na umelú inteligenciu vrátane britského počítačového vedca Stuarta Russella a Snehy Revanur, zakladateľky skupiny pre reguláciu umelej inteligencie Encode Justice. Max Tegmark, spoluzakladateľ FLI a profesor na Massachusettskom technologickom inštitúte, pre denník The Guardian uviedol, že bol „dosť šokovaný“, že špičkové spoločnosti zaoberajúce sa umelou inteligenciou sa snažia budovať superinteligentné systémy bez toho, aby zverejnili plány nápravy.

 

„Je to, ako keby niekto postavil obrovskú jadrovú elektráreň v New Yorku a chystal sa ju otvoriť budúci týždeň, ale neexistuje plán, ako zabrániť jej havárii,“ vyhlásil Tegmark. Poukázal tiež na to, že vývoj v oblasti technológie umelej inteligencie naďalej predbieha očakávania, pričom citoval skoršie presvedčenie, že odborníci budú mať na riešenie problémov AGI desaťročia. „Teraz samotné spoločnosti hovoria, že to bude trvať niekoľko rokov,“ povedal.

 

Správa amerického Brookingsovho inštitútu upozornila na negatívne vlastnosti modelov AI, ktoré sa objavili v poslednom čase. Je potrebné poznamenať, že vývojári vysoko špecializovaných systémov umelej inteligencie už čelia problémom s nesprávnou špecifikáciou úloh a neželanými čiastkovými cieľmi. Keď požiadajú vysoko špecializovaný systém, aby niečo urobil, niekedy opíšu úlohu takým spôsobom, že systém umelej inteligencie dokáže urobiť to, čo sa mu povie, ale nie to, čo chcú vývojári, aby urobil.

 

Ilustruje to príklad použitia posilňovania učenia na trénovanie agenta, aby sa zúčastnil na počítačových pretekoch. Ak vývojári trénujú agenta, aby získal čo najviac herných bodov, môžu si myslieť, že naprogramovali systém tak, aby vyhral preteky, čo je zjavným cieľom hry. Ukáže sa, že agent sa naučil zbierať body bez toho, aby vyhral preteky, a to tak, že sa pohybuje v kruhoch namiesto toho, aby čo najrýchlejšie dobehol do cieľa.

 

Ďalší príklad ilustruje, ako môžu modely umelej inteligencie využívať strategické klamstvo na dosiahnutie cieľa spôsobom, ktorý výskumníci nepredpokladali. Výskumníci zadali modelu GPT 4 úlohu prihlásiť sa do systému chráneného testom CAPTCHA, pričom na to najali človeka bez toho, aby mu dali akékoľvek pokyny, ako to má urobiť. Model umelej inteligencie úlohu splnil tak, že predstieral, že je človek so zrakovým postihnutím. Výskumníci nechceli, aby model klamal, ale naučil sa to, aby úlohu dokončil.

 

Modely umelej inteligencie Anthropic Sonnet 4 a Opus 4 odhalili ďalšie problémy s konzistentnosťou: model niekedy hrozil, že odhalí mimomanželský pomer výskumníka, ak výskumník vypne systém skôr, ako dokončí svoje úlohy. Správa RAND Corporation najjasnejšie a najkomplexnejšie načrtáva všetky potenciálne hrozby, ktoré nekontrolovaný vývoj technológie umelej inteligencie predstavuje pre ľudstvo, ale zároveň naznačuje, že napriek týmto nebezpečenstvám budú USA vyvíjať predovšetkým vojenské aplikácie AGI v snahe udržať si náskok pred konkurenciou, predovšetkým Čínou.

 

Obavy z existenčného rizika, ktoré predstavujú vysoko výkonné systémy umelej inteligencie, nie sú nové. V roku 2014 britský fyzik Stephen Hawking spolu s poprednými výskumníkmi v oblasti umelej inteligencie Maxom Tegmarkom a Stuartom Russellom varovali, že superinteligentné systémy umelej inteligencie “prekonajú finančné trhy, prekonajú ľudských výskumníkov, premanipulujú ľudských vodcov a vytvoria zbrane, ktorým ani nerozumieme.

 

Kým krátkodobý vplyv umelej inteligencie závisí od toho, kto ju ovláda, dlhodobý vplyv závisí od toho, či sa vôbec dá ovládať.” V súčasnej realite nespočíva hlavné existenčné nebezpečenstvo pre ľudstvo ani tak v naberajúcej sile strojovej inteligencie, ale v spiacich mysliach militaristov, ktorí vťahujú svet do smrtiacich počítačových pretekov v zbrojení.

 

 

Vladimír Prochvatilov

*Ak sa Vám páčil tento článok, prosíme, zdieľajte ho, je to dôležité. Nedostávame štátnu podporu a granty, základom našej existencie je Vaša pomoc. FB obmedzuje publikovanie našich materiálov, NBÚ 4 mesiace blokoval našu stránku, YouTube nám vymazal náš kanál. Kvôli väčšiemu počtu článkov odporúčame čítať ich aj na Telegrame, VK, X. Ďakujeme. Podporte našu prácu: SK72 8360 5207 0042 0698 6942

Zdieľajte článok

Najčítanejšie




Odporúčame

Varovanie

Vážení čitatelia - diskutéri. Podľa zákonov Slovenskej republiky sme povinní na požiadanie orgánov činných v trestnom konaní poskytnúť im všetky informácie zozbierané o vás systémom (IP adresu, mail, vaše príspevky atď.) Prosíme vás preto, aby ste do diskusie na našej stránke nevkladali také komentáre, ktoré by mohli naplniť skutkovú podstatu niektorého trestného činu uvedeného v Trestnom zákone. Najmä, aby ste nezverejňovali príspevky rasistické, podnecujúce k násiliu alebo nenávisti na základe pohlavia, rasy, farby pleti, jazyka, viery a náboženstva, politického či iného zmýšľania, národného alebo sociálneho pôvodu, príslušnosti k národnosti alebo k etnickej skupine a podobne. Viac o povinnostiach diskutéra sa dozviete v pravidlách portálu, ktoré si je každý diskutér povinný naštudovať a ktoré nájdete tu. Publikovaním príspevku do diskusie potvrdzujete, že ste si pravidlá preštudovali a porozumeli im.

Vstupujete na článok s obsahom určeným pre osoby staršie ako 18 rokov.

Potvrdzujem že mám nad 18 rokov
Nemám nad 18 rokov