Slepkavas Roboti? Pietura, Pat Labi Roboti Ir šausmīgi Neparedzami - Alternatīvs Skats

Satura rādītājs:

Slepkavas Roboti? Pietura, Pat Labi Roboti Ir šausmīgi Neparedzami - Alternatīvs Skats
Slepkavas Roboti? Pietura, Pat Labi Roboti Ir šausmīgi Neparedzami - Alternatīvs Skats

Video: Slepkavas Roboti? Pietura, Pat Labi Roboti Ir šausmīgi Neparedzami - Alternatīvs Skats

Video: Slepkavas Roboti? Pietura, Pat Labi Roboti Ir šausmīgi Neparedzami - Alternatīvs Skats
Video: ЗОЛОТАЯ ЛИГА. Битва роботов - Игра War Robots.Игры для андроид 2024, Oktobris
Anonim

Vairāk nekā simts pasaules vadošo mākslīgā intelekta uzņēmumu vadītāji ir ļoti noraizējušies par "slepkavas robotu" attīstību. Atklātā vēstulē ANO šie biznesa vadītāji, tostarp Elons Musks no Tesla un Google DeepMind dibinātāji, brīdināja, ka teroristi un despoti var pieņemt autonomas ieroču tehnoloģijas vai arī viņus zināmā mērā var uzlauzt.

Bet patiesie draudi ir daudz nopietnāki - un tas nav tikai cilvēku nepareizs uzvedība, bet arī nepareizi izdarīti mašīnu. Sarežģītu sistēmu pārbaude parāda, ka tās var izturēties daudz neparedzamāk, nekā to var secināt no atsevišķu darbību summas. No vienas puses, tas nozīmē, ka cilvēku sabiedrība var izturēties ļoti atšķirīgi, nekā jūs varētu gaidīt, izpētot indivīdu uzvedību. No otras puses, tas pats attiecas uz tehnoloģijām. Pat vienkāršu mākslīgā intelekta programmu ekosistēmas - kuras mēs saucam par dumjām, labām robotprogrammām - var mūs pārsteigt. Pat atsevišķi roboti var uzvesties šausmīgi.

Atsevišķi elementi, kas veido sarežģītas sistēmas, piemēram, ekonomikas tirgi vai globālie laika apstākļi, parasti nedarbojas vienkārši lineārā veidā. Tas padara šīs sistēmas ļoti grūti modelējamas un saprotamas. Piemēram, pat pēc ilggadīgiem klimata pētījumiem nav iespējams paredzēt laika apstākļu ilgtermiņa izturēšanos. Šīs sistēmas ir tikpat jutīgas pret vismazākajām izmaiņām, jo reaģē eksplozīvi. Jebkurā brīdī ir ļoti grūti zināt precīzu šādas sistēmas stāvokli. Tas viss padara šīs sistēmas iekšēji neparedzamas.

Visi šie principi attiecas uz lielām cilvēku grupām, kas rīkojas savā veidā, neatkarīgi no tā, vai tās ir cilvēku sabiedrības vai AI botu grupas. Zinātnieki nesen izpētīja sarežģītas sistēmas veidu, kurā tika izmantoti labi robotprogrammatūras, lai automātiski rediģētu Wikipedia rakstus. Šos daudzveidīgos robotprogrammatūras izstrādā, raksta un izmanto uzticami Wikipedia redaktori, un to pamatā esošā programmatūra ir atvērts avots un pieejama visiem. Viņiem individuāli ir kopīgs mērķis - uzlabot enciklopēdiju. Tomēr viņu kolektīvā izturēšanās izrādījās pārsteidzoši neefektīva.

Labi izstrādāti noteikumi un konvencijas ir to, kā šie robotprogrammatūras darbojas Wikipedia, pamatā, taču, tā kā vietnei nav centrālās vadības sistēmas, nav efektīvas koordinācijas starp cilvēkiem, kuri vada dažādus robotprogrammatūras. Rezultāti atklāja pāris robotus, kas vairākus gadus atcēla viens otra labojumus un neviens nepamanīja. Un, protams, tā kā šie roboti nemaz nemācās, viņi arī nepamanīja.

Šie robotprogrammatūras ir paredzētas, lai paātrinātu rediģēšanas procesu. Bet nelielas atšķirības robotprogrammatūru dizainā vai starp cilvēkiem, kuri tos lieto, notiekošajā "rediģēšanas karā" var izraisīt lielu resursu izšķērdēšanu, kuru redaktori varētu atrisināt daudz ātrāk.

Pētnieki arī atklāja, ka roboti dažādās Wikipedia valodu versijās izturējās atšķirīgi. Likumi, šķiet, ir gandrīz vienādi, mērķi ir identiski, tehnoloģijas ir līdzīgas. Bet vācu valodas Vikipēdijā robotu sadarbība bija daudz efektīvāka un produktīvāka nekā, piemēram, portugāļu valodā. Tas izskaidrojams tikai ar atšķirībām starp cilvēku redaktoriem, kuri šos robotus vadīja dažādās vidēs.

Reklāmas video:

Eksponenciāls apjukums

Robotiem no Wikipedia nav plašas autonomijas, un sistēma vairs nedarbojas saskaņā ar atsevišķu robotprogrammatūru mērķiem. Bet Wikimedia Foundation plāno izmantot AI, kas šiem robotprogrammatūriem piešķirs lielāku autonomiju. Un tas, iespējams, novedīs pie vēl neparedzamākas izturēšanās.

Labu piemēru tam, kas var notikt, rāda roboti, kas paredzēti sarunai ar cilvēkiem, kad viņi ir spiesti sazināties savā starpā. Mūs vairs nepārsteidz tādas personisko palīgu atbildes kā Siri. Bet lieciet viņiem sazināties savā starpā, un viņi ātri sāks uzvesties negaidīti, strīdēties un pat apvainot viens otru.

Jo lielāka būs sistēma un jo autonomāks būs katrs robots, jo sarežģītāka un neparedzamāka būs šīs sistēmas izturēšanās nākotnē. Wikipedia ir piemērs lielam skaitam samērā vienkāršu robotprogrammatūru darbā. Chatbot piemērs ir neliels skaits samērā sarežģītu un izgudrojuma robotu - abos gadījumos rodas neparedzēti konflikti. Sarežģītība un līdz ar to neparedzamība pieaug eksponenciāli, kad personība tiek pievienota sistēmai. Tāpēc, kad nākotnē parādīsies sistēmas ar lielu skaitu ļoti sarežģītu robotu, to neparedzamība pārsniegs mūsu iztēli.

Degošs ārprāts

Piemēram, pašbraucošas automašīnas sola panākt sasniegumu efektivitātes un ceļu satiksmes drošības jomā. Bet mēs vēl nezinām, kas notiks, kad mums būs liela savvaļas pilnīgi autonomu transportlīdzekļu sistēma. Viņi var izturēties atšķirīgi pat nelielā atsevišķu transportlīdzekļu parkā kontrolētā vidē. Un vēl neparedzamāka rīcība var izpausties, kad pašbraucošās automašīnas, kuras "apmācījuši" dažādi cilvēki dažādās vietās, sāk savstarpēji mijiedarboties.

Cilvēki salīdzinoši ātri var pielāgoties jauniem noteikumiem un konvencijām, taču viņiem ir grūtības pārslēgties starp sistēmām. Mākslīgie līdzekļi var būt vēl grūtāki. Piemēram, ja automašīna, kas “apmācīta Vācijā”, brauc, piemēram, uz Itāliju, mēs nezinām, kā tā apgūs nerakstītas kultūras tradīcijas, kuras ievēro daudzas citas “Itālijā apmācītas” automašīnas. Kaut kas tik ikdienišķs kā krustojuma šķērsošana var kļūt nāvējoši riskants, jo mēs vienkārši nezinām, vai automašīnas mijiedarbosies, kā paredzēts, vai arī tās izturēsies neparedzami.

Tagad padomājiet par slepkavas robotiem, kas uzmācas Muskam un viņa kolēģiem. Nepareizās rokās viens slepkavas robots var būt ļoti bīstams. Kā būs ar neparedzamo slepkavas robotu sistēmu? Domā pats.

Iļja Khel