Līdz 2040. Gadam Mākslīgais Intelekts Var Revolucionizēt Kodoldrošības Principus - Alternatīvs Skats

Līdz 2040. Gadam Mākslīgais Intelekts Var Revolucionizēt Kodoldrošības Principus - Alternatīvs Skats
Līdz 2040. Gadam Mākslīgais Intelekts Var Revolucionizēt Kodoldrošības Principus - Alternatīvs Skats

Video: Līdz 2040. Gadam Mākslīgais Intelekts Var Revolucionizēt Kodoldrošības Principus - Alternatīvs Skats

Video: Līdz 2040. Gadam Mākslīgais Intelekts Var Revolucionizēt Kodoldrošības Principus - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Maijs
Anonim

Nesen publicētais RAND Corporation pētījums secināja, ka līdz 2040. gadam mākslīgais intelekts (AI) varētu radikāli mainīt kodolieroču atturēšanas jēdzienu.

AI vadīta “pastardienas mašīna” šķiet maz ticama, bet reālie AI riski kodoldrošībai slēpjas AI spējā pamudināt cilvēkus pieņemt nepamatotus, potenciāli apokaliptiskus lēmumus.

Aukstā kara laikā pārliecinātas savstarpējas iznīcināšanas jēdziens uzturēja satricinošu mieru starp lielvalstīm, apgalvojot, ka jebkura uzbrukuma rezultāts būs postoša atriebība. Tā rezultātā HLG koncepcija nodrošināja stratēģisko stabilitāti, abām pusēm rīkojoties saudzīgi, gatavojoties darbībām, kas faktiski varētu izvērsties atomu karā.

RAND publikācijā teikts, ka nākamajās desmitgadēs AI ir diezgan spējīgs iznīcināt garantētas savstarpējas iznīcināšanas jēdzienu un tādējādi graut mūsu pasaules stratēģisko stabilitāti. Sarežģītāki sensori ļauj noteikt, ka "atriebības ieročus" - piemēram, kodolzemūdenes un mobilās raķetes - var identificēt un iznīcināt.

Valstīm var rasties kārdinājums meklēt aktīvus pēc pirmā streika, it kā tā būtu priekšrocība salīdzinājumā ar konkurentiem, pat ja tām nav nodoma streikot vispirms. Tas grauj stabilitāti ar to, ka pat tad, ja puse, kas spēj uzbrukt vispirms, neizmanto šo iespēju, pretinieks nevar par to būt drošs.

“Saikne starp kodolkaru un AI nav jauna, patiesībā stāsti ir savstarpēji saistīti,” saka Edvards Geists, raksta līdzautors un RAND. "Sākotnēji liela daļa AI pētījumu tika veikti ar militāru spēku atbalstu, lai sasniegtu savus mērķus."

Kā piemēru viņš minēja "adaptīvo plānoto izdzīvošanas eksperimentu", kas veikts astoņdesmitajos gados un kura mērķis bija izmantot AI, lai apvienotu izlūkošanu un mērķēšanu uz kodolieročiem.

Neskaidrību gadījumā AI varētu uzlabot stratēģiskās situācijas stabilitāti, uzlabojot savāktās informācijas un tās analīzes precizitāti.

Reklāmas video:

Pētnieki uzskata, ka attīstības procesā AI būs mazāk pakļauts pieļaut kļūdas salīdzinājumā ar cilvēkiem, kas nozīmē, ka tas ilgtermiņā būs stabilitātes faktors.

Vadims Tarabarko