Mākslīgais Intelekts Kā Terorists: Jauni Drošības Draudi - Alternatīvs Skats

Satura rādītājs:

Mākslīgais Intelekts Kā Terorists: Jauni Drošības Draudi - Alternatīvs Skats
Mākslīgais Intelekts Kā Terorists: Jauni Drošības Draudi - Alternatīvs Skats

Video: Mākslīgais Intelekts Kā Terorists: Jauni Drošības Draudi - Alternatīvs Skats

Video: Mākslīgais Intelekts Kā Terorists: Jauni Drošības Draudi - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Oktobris
Anonim

Krievijas zinātnieki ir izpētījuši un klasificējuši mākslīgā intelekta (AI) izmantošanas draudus no starptautiskās informācijas un psiholoģiskās drošības viedokļa. Īpaša uzmanība tika pievērsta cīņai ar teroristu AI ļaunprātīgu izmantošanu. Pētījuma rezultāti tiek publicēti žurnālā Russia in Global Affairs.

AI ļaunprātīgas izmantošanas briesmas

Mākslīgā intelekta iespējamās briesmas cilvēcei vairākkārt ir kļuvušas par mākslas darbu tēmu, un šodien tas ir viens no visvairāk apspriestajiem zinātniskās un tehnoloģiskās attīstības jautājumiem. Lai arī spēcīgā AI, kas spēj patstāvīgi sistēmiski domāt un kurai, iespējams, piemīt pašapziņa un griba, vēl arvien nav izveidota, dažādas Vāja AI uzlabotās versijas veic specializētus uzdevumus, kas pirms 10 gadiem šķita kā zinātniskā fantastika. AI izmantošana labiem mērķiem (piemēram, medicīnā) jau nes neapšaubāmus ieguvumus. Tomēr teroristu un citu noziedzīgu organizāciju rokās pakāpeniski lētākas un modernākas AI tehnoloģijas var kļūt par briesmīgāku ieroci nekā kodolieroči.

Pētnieki no dažādām valstīm aktīvi pēta draudus, ko AI ļaunprātīga izmantošana rada sabiedrībai kopumā un noteiktām cilvēka darbības sfērām, vai tā būtu politika, ekonomika, militārās lietas utt. Tomēr draudi, kas tieši saistīti ar starptautisko informāciju un psiholoģisko drošību, vēl nav identificēti kā neatkarīgi. apsvērumu joma. Tikmēr AI izmantošana, lai destabilizētu starptautiskās attiecības, izmantojot mērķtiecīgu augsto tehnoloģiju informāciju un psiholoģisku ietekmi uz cilvēkiem, ir acīmredzami liela briesma.

Pētījuma autori ierosināja mākslīgā intelekta ļaunprātīgas izmantošanas draudu klasifikāciju, pamatojoties uz vairākiem kritērijiem, ieskaitot teritoriālo pārklājumu, izplatīšanas ātrumu un formu. Klasifikācijas piemērošana palīdzēs jums atrast veidus, kā novērst un attīstīt reaģēšanas rīkus.

“AI tehnoloģiju izmaksu samazinājums nākotnē var radīt draudus principiāli jauniem terora aktiem. Iespējams, ka tērzēšanas robotu var izmantot, lai izveidotu ziņojumu par viltus notikumu un pārliecinātu potenciālos upurus to apmeklēt. Lai neitralizētu, ieteicams iepazīstināt sabiedrību ar jauniem draudiem, uzdodot pilsoņiem būt piesardzīgiem no attāliem kontaktiem ar cilvēkiem, kurus viņi personīgi nepazīst. Izeja varētu būt publisku pasākumu sertifikācija, apstiprinot par tiem publicētās informācijas patiesumu. Protams, tehnisko speciālistu uzdevums šajā gadījumā būs notikumu datu bāzu aizsardzība un to sertifikācijas mehānisms, - pastāstīja RIA Novosti Krievijas Starptautiskās drošības un ārpolitikas departamenta profesore RANEPA Daria Bazarkina.

Mūsdienu AI tehnoloģiju un spēju līmenis ļauj mums identificēt vairākus principiāli jaunus draudus personas informācijai un psiholoģiskajai drošībai.

Reklāmas video:

"Viltus cilvēku" un "dziļu fake" tehnoloģiju izmantošana starptautiskām provokācijām

Amerikāņu tehnoloģiju uzņēmums NVIDIA nesen dalījās ar ģeneratīvi konkurējoša tīkla rezultātiem, kas tika apmācīti pašiem ģenerēt cilvēku attēlus ("viltus cilvēkus"). Neironu tīkls dažās sekundēs rada neeksistējošu cilvēku seju augstas izšķirtspējas attēlus, var pievienot jebkuras kultūras un etniskās iezīmes, emocijas, noskaņu un ir balstīts uz bezgalīgu reālu seju attēlu kolekciju. Nākotnē ir iespējams, ka šo pieredzi atkārtos arī citi izstrādātāji. Tajā pašā laikā šādus attēlus noziedznieki var izmantot visa veida provokācijām, kuras var atpazīt tikai sabiedrība ar sistemātiskām politehniskām zināšanām.

“Deepfake tehnoloģija var sintezēt cilvēka attēlu un balsi. To jau ir sākuši izmantot, lai izveidotu pasaules līderu, tostarp ASV prezidenta Donalda Trumpa un Krievijas prezidenta Vladimira Putina, video attēlus. Deepfake video spēj manipulēt ar lielu mērķa grupu izturēšanos, un tos var izmantot informācijas un psiholoģiskā konfrontācijā (IPP), lai izraisītu finansiālu paniku vai karu, aģentūrai RIA Novosti sacīja Krievijas Ārlietu ministrijas Diplomātiskās akadēmijas Mūsdienu starptautisko jautājumu institūta vadošais pētnieks, Maskavas Valsts universitātes profesors.

Sentimentu analīze ir satura analīzes metožu klase skaitliskajā valodniecībā, kas paredzēta emocionāli krāsainu vārdu krājuma automātiskai noteikšanai un autoru emocionālai novērtēšanai tekstos. Sentimentu analīzi nodrošina plašs avotu klāsts, piemēram, emuāri, raksti, forumi, aptaujas utt. Tas var būt ļoti efektīvs rīks API, ko, piemēram, apliecina ASV īpašo operāciju pavēlniecības pašreizējā lielā interese par šādām norisēm. (Amerikas Savienoto Valstu īpašo operāciju pavēlniecība (SOCOM).

“Paredzamie ieroči”: Cilvēka uzvedības prognozēšana, pamatojoties uz sociālo mediju datiem

2012. gadā Amerikas Savienoto Valstu uzlabotā izlūkošanas pētījumu aģentūra (IARPA) uzsāka agrīnu, uz modeļiem balstītu notikumu atpazīšanu, izmantojot surogātos (EMBERS) programmu. Attīstības mērķis tiek saukts par civilo nemieru prognozēšanu, pamatojoties uz AI izmantošanu, ar datuma, vietas noteikšanu, protestējošo iedzīvotāju grupu.

Sistēma apstrādā datus no plašsaziņas līdzekļiem un sociālajiem tīkliem, kā arī no augstākas kvalitātes avotiem, piemēram, ekonomiskajiem rādītājiem. Šādu programmu nonākšana teroristu rokās, protams, arī ir ārkārtīgi bīstama. Šajā gadījumā nopietni teroristu uzbrukumi visplašāko sociālo demonstrāciju laikā var kļūt par iespējamu draudu. Papildu kritērijs teroristu uzbrukuma mērķu izvēlei var būt sociālās un psiholoģiskās spriedzes pakāpe noteiktos apgabalos.

Pēc pētījuma autoru domām, kā pretpasākumu prognozējošo analītiku var izmantot pati valsts un pārvalstiskās iestādes, lai novērstu sociālo spriedzi (savlaicīga sociālo, ekonomisko un politisko pasākumu pieņemšana, kuru mērķis ir panākt stabilitāti ilgtermiņā).

Turklāt teroristu grupas var nodarīt kaitējumu reputācijai, izmantojot botus politisko kampaņu laikā, kā arī piesaistīt jaunus atbalstītājus vai organizēt politiķu slepkavības.

Dronu un robotu infrastruktūras uztveršana

Pašmācības transporta sistēmas ar AI kontroli var būt ērti augsto tehnoloģiju teroristu uzbrukumu mērķi. Teroristu sagrābšana transporta kontroles sistēmas kontrolē lielā pilsētā var izraisīt daudzus negadījumus, izraisīt paniku un radīt psiholoģisku klimatu, kas atvieglos citas noziedzīgas darbības.

Komerciālās sistēmas var izmantot bezpilota lidaparātu vai autonomu transportlīdzekļu izvietošanai, lai piegādātu sprāgstvielas un radītu negadījumus. Lielu katastrofu sērija var izraisīt satraukumu starptautiskajos plašsaziņas līdzekļos un radīt būtisku kaitējumu informācijai un psiholoģiskajai drošībai.

Krievijas prezidenta Tautsaimniecības un valsts pārvaldes akadēmijas un Krievijas Federācijas Ārlietu ministrijas Diplomātiskās akadēmijas pētnieki savus pētījumus balstīja uz sistemātisku AI lomas analīzi drošības jomā, scenāriju analīzes metodi, vēsturiskām analoģijām un gadījumu analīzi. Kopā ar kolēģi no Upsalas universitātes (Zviedrija) Gregu Simonu pētījuma autori kļuva par gaidāmās grāmatas "Terorisms un progresīvās tehnoloģijas informācijas un psiholoģiskajā konfrontācijā: jauni riski, jaunas iespējas cīnīties pret terorisma draudiem" līdzautori, piedaloties pētniekiem no 11 valstīm.

Pēc Krievijas pētnieku iniciatīvas tiek aktīvi apspriesta AI lomas problēma starptautiskās informācijas un psiholoģiskās drošības draudu kontekstā, un tā tiks apspriesta starptautiskās konferencēs un autonomos starptautiskos pētniecības semināros. Starp tiem ir konference, kas 9. un 12. jūnijā notika UNESCO Krievijas Federācijas komisijas un vairāku citu Krievijas un starptautisko struktūru aizbildnībā Hantimansijskā. Hantimansijskas autonomā apgabala pārvaldniece Natālija Komarova aktīvi piedalījās sadaļas sesijā par AI ļaunprātīgas izmantošanas problēmu, kas tika izveidota ar Eiropas un Krievijas komunikāciju pārvaldības ekspertu tīkla (ERESKM) atbalstu. Nākotnē tas ir IV Ibero-American forums Sanktpēterburgā 2019. gada 1. - 3. oktobrī,Eiropas konference par mākslīgā intelekta un robotikas ietekmi 2019. gada 31. oktobris - 1. novembris. Pētījumu autori ir iesnieguši zinātniskos ziņojumus Argentīnā, Urugvajā, Brazīlijā, Dienvidāfrikā un Itālijā.

Pēc RANEPA un Diplomātiskās akadēmijas speciālistu domām, Krievijas mērogā ir ārkārtīgi svarīgi noteikt ilgtermiņa mērķprogrammu veidošanos, jo AI un starptautiskās informācijas un psiholoģiskās drošības problēma ir problēma tuvākajā nākotnē.