Kaujas Roboti Nāk! - Alternatīvs Skats

Kaujas Roboti Nāk! - Alternatīvs Skats
Kaujas Roboti Nāk! - Alternatīvs Skats

Video: Kaujas Roboti Nāk! - Alternatīvs Skats

Video: Kaujas Roboti Nāk! - Alternatīvs Skats
Video: Minos 150 lvl Сдох. Самый лучший бой за историю канала ::: War Robots 2024, Maijs
Anonim

Eksperti saka, ka pēc gada pasaules armiju arsenālā var parādīties īsti roboti-slepkavas, kas nemitīgi veic uzdevumu un neprasa cilvēku uzraudzību. Paredzot briesmas, eksperti šeit apspriež, vai slepkavas roboti un to izmantošana kaujas laukā būtu jāaizliedz iepriekš.

Image
Image

Slepkavas roboti pēc gada var kalpot karaspēkam, ja ANO iepriekš neveic pasākumus, lai ierobežotu to izmantošanu, saka Šefīldas universitātes profesors Noels Šarkijs. Pēc viņa domām, šīs mašīnas neizbēgami izraisīs masveida nevainīgus nāves gadījumus, jo tās nespēj atšķirt militāristu no civilā bezkaujinieka. Viņa paziņojums nāca tieši laikā, kad ekspertu kopiena no 120 valstīm Ženēvā apspriež iespējamos riskus, kas saistīti ar autonomo ieroču sistēmu darbību. Profesors Šarkijs uzskata: diskusiju ir maz, steidzami jāpieņem dokuments par robotu ražošanas ierobežošanu! Pretējā gadījumā gadu vēlāk roboti burtiski pārpludinās attīstīto valstu armijas.

Image
Image

Šajās dienās Ženēvā vairāk nekā 90 pasaules valstu pārstāvji apspriež bīstamību, ko rada "letālas autonomās ieroču sistēmas". Viens no svarīgiem diskusiju jautājumiem ir tas, kā nodrošināt to izmantošanas drošību kaujas situācijā? Daudzi eksperti, tostarp profesors Šarkijs, uzstāj, ka, neskatoties uz sistēmu autonomiju, cilvēkam pastāvīgi jāspēj pār viņiem "principiāli kontrolēt" - cilvēces drošībai. "Robots joprojām nespēj pieņemt lēmumus kā cilvēks," saka profesors Šarkijs. - Viņš nav pilnībā spējīgs. lai saprastu karadarbības loģiku, var neatšķirt sabiedroto no ienaidnieka un izlemt par noteiktu darbību pieļaujamību. "Mēs nevaram ļaut robotam izlemt, vai, piemēram, Osamas bin Ladena dzīve ir tā vērta, lai kopā ar viņu mirst 50 vecas sievietes un 20 bērni,Šarkijs saka. - Robotam ir vienalga. Fundamentāli lēmumi, piemēram, par mērķa izvēli, jāpieņem personai. " Pēc profesora Šarkija domām, ja šādus lēmumus atstās robotu ziņā, "to izmantošanas sekas būs ne mazāk postošas nekā ķīmisko ieroču izmantošana".

Image
Image

Profesors Šarkijs ir viens no 57 ekspertiem, kurš parakstīja Dienvidkorejas universitātei adresētu atklātu vēstuli, kurā eksperti protestē pret viedo ieroču izstrādes programmu. Korejas Zinātnes un augsto tehnoloģiju institūts Kaist šobrīd uzsāk programmu kopā ar militārā aprīkojuma ražotāju Hanwa Systems, un šīs ziņas ir satricinājušas zinātnieku aprindas. "Universitāte, zinātniska institūcija to nevar izdarīt no morālā viedokļa," saka profesors Šarkijs, kuram pārējie parakstītāji pilnībā piekrīt.

Pēc ekspertu domām, automātiskie slepkavas roboti atvērs Pandoras lādi, kas radīs kara ceļu.

Reklāmas video:

Kaist institūta pārstāvji jau ir atbildējuši uz atklāto vēstuli, pārliecinot savus kolēģus, ka viņi neplāno veidot droīdus Skynet stilā.

Image
Image

Keista institūta pārstāvji apliecināja saviem kolēģiem, ka kā akadēmiska iestāde viņi “augstu vērtē universālos ētikas un morāles standartus” un neplāno attīstīt robotizētos karavīrus, kas darbojas ārpus cilvēka kontroles. Līdz šim Kaist institūts šajā jomā veic tikai pētījumus. Šajā sakarā atklātās vēstules autori nomierinājās un boikotēja savus kolēģus. Tomēr joprojām nav atklāts jautājums, vai cilvēce spēs vienoties par vispārējiem principiem par totālu kontroli pār kaujas robotu darbībām. Tikmēr šodien tas nebūt nav svarīgi teorētiski. Mūsdienās ļoti funkcionāli roboti jau ir tik sarežģīti mehānismi, ka pat speciālisti līdz galam nesaprot, kā darbojas viņu mākslīgais intelekts. Un, to pilnībā nesaprotot, viņi nespēj paredzētkad tieši tas var neizdoties. "Ja cilvēce ir paredzēta iznīcināšanai, tad, visticamāk, mākslīgajam intelektam būs nozīmīga loma šajā procesā," saka viens no Ženēvā notikušās konferences dalībniekiem. Pēc Elona Muska teiktā, mākslīgais intelekts mūsdienās vairāk apdraud cilvēcei nekā Ziemeļkoreja. Musks ir pārliecināts, ka robotiem jābūt pastāvīgi stingrā cilvēku kontrolē, un viņš ir vairākkārt aicinājis dažādu valstu valdības izstrādāt skaidrus noteikumus sistēmu kontrolei ar mākslīgo intelektu.nekā Ziemeļkoreja. Musks ir pārliecināts, ka robotiem jābūt pastāvīgi stingrā cilvēku kontrolē, un viņš ir vairākkārt aicinājis dažādu valstu valdības izstrādāt skaidrus noteikumus sistēmu kontrolei ar mākslīgo intelektu.nekā Ziemeļkoreja. Musks ir pārliecināts, ka robotiem jābūt pastāvīgi stingrā cilvēku kontrolē, un viņš ir vairākkārt aicinājis dažādu valstu valdības izstrādāt skaidrus noteikumus par sistēmu kontroli ar mākslīgo intelektu.

Varvara Ļutova