Vai “Trīs Robotikas Likumi” Mūs Aizsargās? - Alternatīvs Skats

Satura rādītājs:

Vai “Trīs Robotikas Likumi” Mūs Aizsargās? - Alternatīvs Skats
Vai “Trīs Robotikas Likumi” Mūs Aizsargās? - Alternatīvs Skats

Video: Vai “Trīs Robotikas Likumi” Mūs Aizsargās? - Alternatīvs Skats

Video: Vai “Trīs Robotikas Likumi” Mūs Aizsargās? - Alternatīvs Skats
Video: Siguldas Robotu Kauss 2019 2024, Aprīlis
Anonim

Ir pagājuši 50 gadi, kopš Īzaks Asimovs nāca klajā ar saviem slavenajiem trīs robotikas likumiem - noteikumu kopumu, kas jāievēro jebkuram sevi cienošam robotam. Lai arī sākotnēji tā bija tikai literāra ierīce, trīs likumi kļuva par oriģinālo recepti, kā izvairīties no “robotokalipse”. Par laimi, ir eksperti, kuri vēlas pārliecināties, vai Azimova garantijas ir izturējušas laika pārbaudi. Diemžēl viņi visi saka nē.

Sākumā atcerēsimies šos pašus trīs likumus:

Robots nevar kaitēt personai vai ar savas bezdarbības palīdzību ļaut personai nodarīt kaitējumu.

Robotam ir jāievēro visi cilvēka dotie rīkojumi, izņemot gadījumus, kad šie rīkojumi ir pretrunā ar Pirmo likumu.

Robotam ir jārūpējas par tā drošību tādā mērā, lai tas nebūtu pretrunā ar Pirmo un Otro likumu.

Vēlāk Azimovs pievienoja ceturto jeb nulles likumu, kas prioritātes ziņā bija pārējais:

Reklāmas video:

0. Robots nevar kaitēt personai, ja vien tas nevar pierādīt, ka tas galu galā būs labvēlīgs visai cilvēcei.

Image
Image

Asimova fantāzijas visumā gandrīz visiem robotiem bija jāievēro šie likumi. Tie nebija tikai ieteikumi vai vadlīnijas - likumi tika iebūvēti programmatūrā. Turklāt šos noteikumus nevar apiet, pārrakstīt vai pārskatīt.

Kā parādīja pats Asimovs, šo likumu nepilnības, nepilnības un neskaidrības bieži noveda pie dīvainas un neloģiskas robotu izturēšanās. Likumi bija pārāk neskaidri, un bieži vien viņiem neizdevās definēt un atšķirt "cilvēkus" no "robotiem". Turklāt roboti varēja neapzināti pārkāpt likumus, ja viņiem nebija pieejama pilnīga informācija. Arī pārāk viltīgam robotam vai mākslīgajam intelektam bija jāizdara spiediens, lai tā kodols netiktu pārprogrammēts.

Gads ir 2014, un liela daļa no mūsu dzīves līdz pagājušā gadsimta fantāzijām varētu šķist tieša fantāzija. Daudzi cilvēki uzskatīja, ka Asimova likumiem vajadzēja palikt par literāru ierīci. Bet pats Azimovs 1981. gadā atzīmēja, ka viņa likumi varētu darboties. Aprēķini! viņš norādīja:

“Kad kāds man pajautā, kā būtu, ja robotu izturēšanās noteikšanai faktiski tiktu izmantoti mani trīs robotikas likumi, atbilde ir gatava. Protams, ar nosacījumu, ka roboti ir pietiekami elastīgi un daudzpusīgi, lai parādītu atšķirīgu izturēšanos. Mana atbilde ir jā, šie trīs likumi ir vienīgais veids, kā cilvēki var mijiedarboties ar robotiem - vai jebko citu.

Gandrīz trīsdesmit gadus vēlāk mēs esam nonākuši tuvāk realitātei, kurā mums būs roboti - vai, precīzāk sakot, mākslīgais intelekts, kas tos kontrolē, - pietiekami elastīgi un daudzpusīgi dažādiem uzvedības kursiem. Tas paliek tikai laika jautājums: kad mašīna visos aspektos pārspēj cilvēku, sākot no fiziskā spēka un beidzot ar iztēles spēku.

Biedējoši ir tas, ka praktiski nav kļūdas robežas. Ja mākslīgā superinteliģence ir vāji ieprogrammēta vai vienaldzīga pret cilvēkiem, tas novedīs pie katastrofas. Mums jāpārliecinās, ka mākslīgais intelekts ir drošs, ja vēlamies izdzīvot tā parādīšanos."

Atbildiet uz jautājumu "vai Azimova trīs likumi var palīdzēt?" Pārņēma divus mākslīgā intelekta teorētiķus: Bens Herzels (Aidyia Holdings) un Luiss Helms, Mašīnizlūkošanas pētījumu institūta (MIRI) direktora vietnieks un žurnāla Rockstar Research izpilddirektors. Pēc sarunām ar viņiem kļuva skaidrs, ka Asimova likumi kopumā nevar tikt galā ar viņiem uzticēto uzdevumu, un, ja mums ir jāizveido droša AI, mums būs jāizstrādā kaut kas pavisam cits.

Asima nākotne?

Image
Image

Saruna ar Herzeli un Helmu sākās ar to, par ko Asimovs nemaldījās, paredzot nākotni un kur maldījies.

"Es domāju, ka Asimova iecerētie roboti būs iespējami ne pārāk tālā nākotnē," Herzel atbild. - Tomēr lielākajā daļā savu izdomāto pasauli rakstnieks pieņēma, ka humanoīdi roboti būs robotikas un mākslīgā intelekta inženierijas virsotne. Tas ir maz ticams. Ļoti drīz, sasniedzot Azimova robotu statusu, būs pieejama mākslīgās superinteliģences un superbotu izveide."

Tādējādi Asimovas stāstos par robotiem raksturīgā nākotnes pasaule, pēc Herzela teiktā, būs līdzīga tai, kurā mēs šodien dzīvojam, bet ar viediem robotiem, kas staigā pa ielām.

"Maz ticams, ka tas notiks, un, ja tas notiks, tas ilgi netiks kavēts."

Helmam roboti šķiet pilnīgi atšķirīgi.

“Galvenais jautājums, kurš, manuprāt, būs vissvarīgākais cilvēcei, paliek nevis gigantiska skaita pus inteliģento humanoīdu skaita morālais regulējums, bet galu galā mākslīgā intelekta progresīvo formu attīstība (jebkurā ķermenī). Šī superinteliģences attīstība ir filtrs, kas cilvēcei visbeidzot ir jāiziet cauri. Tāpēc ir tik svarīgi izstrādāt pārejas posma drošības stratēģiju. Man šķiet pilnīgi dīvaini, ka roboti, androīdi vai "emulācijas" pastāvēs desmit vai vairāk gadus, kamēr cilvēce saskarsies ar reālo problēmu, kā attīstīt mašīnbūves ētiku superinteliģencei."

Labs sākums?

Image
Image

Ņemot vērā, ka trīs Asimovas robotikas likumi bija pirmais sirsnīgais mēģinājums atrisināt ļoti nopietnu problēmu - mašīnu ar mākslīgu superinteliģenci drošas izturēšanās problēmu -, ir vērts meklēt tos mirkļus, kuros likumi joprojām var būt efektīvi (vai vismaz iedvesmojoši).

“Godīgi sakot, es neatrodu iedvesmu šajos trīs robotikas likumos,” saka Helms. - Mašīnu ētikas būtība ir tāda, ka tās neatbilst mašīnas ētikas pamatiem. Varbūt trīs robotikas likumi ir plaši zināmi, taču patiesībā ir bezjēdzīgi tos izmantot kā pamatu programmēšanai."

“Kādu iemeslu dēļ labas ētikas sistēma - ko sauc par deontoloģiju - ir kļuvusi par neuzticamu ētikas pamatu. Ir virkne filozofu, kuri mēģina novērst deontoloģijas problēmas, taču lielākoties tie ir tie paši cilvēki, kuri meklē "inteliģentu dizainu" un "dievišķu iejaukšanos". Neviens viņus neuztver nopietni."

Asimova trīs robotikas likumu trūkumi ir šādi:

Sacensību raksturs

Balstoties uz novecojušu ētikas teoriju (deontoloģija)

Pat nestrādā fantastikā

Herzel piekrīt:

“Triju likumu mērķis bija tos interesantā veidā pārkāpt; tāpēc viņu stāsti ir īpaši izklaidējoši. Tāpēc trīs likumi var palikt tikai kā morāls piemērs, kā to nedarīt. Ja mēs tos ņemsim par pamatu, tad tajos neizbēgami būs nepilnības”.

Herzela uzskata, ka patiesībā šie likumi nedarbosies, jo noteikumi ar viņu līdzdalību ir neskaidri un paliek interpretācijas priekšmets - tas nozīmē, ka tie ir ārkārtīgi atkarīgi no tiem, kas veic tulkojumus.

Aizspriedumi pret robotiem?

Vēl viens triju likumu aspekts (un potenciālais trūkums) acīm redzamajā šovinismā ir pieņēmums, ka robotiem jāpaliek, neskatoties uz viņu augstāko jaudu, pakļautiem cilvēku, cilvēku vajadzībām un prioritātēm.

“Azimova nākotnes sabiedrību pilnībā veido šovinisti: cilvēkiem ir daudz vairāk tiesību nekā robotiem. Trīs robotikas likumi tika izveidoti, lai uzturētu tieši tādu sabiedrisko kārtību."

Image
Image

Helms šo problēmu aplūko nedaudz savādāk, apgalvojot, ka, ja mēs nonāksim šādā situācijā, tas pats par sevi būs pierādījums tam, ka esam gājuši pārāk tālu.

“Es domāju, ka nebūtu prātīgi izveidot mākslīgā intelekta sistēmu vai pašapzinīgu robotu. Un atšķirībā no filmām vai grāmatām, kurās mākslīgā intelekta veidotāji "nejauši" nonāk pie inteliģentām mašīnām, es neticu, ka tas var notikt reālajā dzīvē. Tas prasīs pārāk daudz pūļu un zināšanu. Un lielākā daļa AI dizaineru ir ētiski gudri cilvēki, tāpēc viņi izvairīsies radīt to, ko filozofi sauc par "morāli nozīmīgām būtnēm". It īpaši, ja viņi var viegli izveidot modernu mašīnu, kurai nav ētiskas noslieces."

Helms nav nobažījies par nepieciešamību izstrādāt asimetriskus likumus, kas regulētu robotu vērtību pār cilvēkiem, apgalvojot (un cerot), ka nākamie mākslīgā intelekta radītāji paļausies uz dažiem ētiskiem ierobežojumiem.

“Es domāju, ka cilvēki ir veidoti no atomiem, tāpēc teorētiski inženieris var izveidot sintētisku dzīvības formu vai robotu ar morālu nozīmi. Es gribētu domāt, ka neviens to nedarīs. Es domāju, ka arī vairums cilvēku to dara. Bet neizbēgami būs kāds muļķis, kurš vēlas būt pazīstams kā pionieris, pat ja tas ir neētiski un stulbi."

Trīs robotikas 2.0 likumi?

Ņemot vērā acīmredzamos Asimova trīs robotikas likumu trūkumus, io9 resurss uzdeva jautājumu: vai tos var labot vai uzlabot? Patiesībā daudzi zinātniskās fantastikas rakstnieki to ir mēģinājuši daudzas reizes, gadu gaitā to labojot.

“Nē,” Helms saka. "Trim likumiem nav ielāpu."

Likumiem ir ne tikai pretrunīgums, bet arī sacīkstes raksturs.

"Es atbalstu mašīnu ētikas pieejas, kas ir sadarbojošākas, konsekventākas un normatīvākas, kas nozīmē, ka tās var atgūties no pārpratumiem vai labot nepareizu programmēšanu."

Herzels atkārto Helma prasības.

Definēt ētisko priekšrakstu kopumu kā mašīnu ētikas kodolu būs bezcerīgi, ja mašīna balstīsies uz elastīgu vispārējo mākslīgo intelektu. Ja tas tiek uztverts kā intuitīvs, elastīgs, adaptīvs vai ētisks - šajā kontekstā ētiski priekšraksti sistēmai būs noderīgi tikai kā aptuvenas vadlīnijas savas ētiskās intuīcijas piemērošanai. Bet šajā gadījumā baušļi nekļūs par ētiskās sistēmas pamatu, bet tikai par aspektu. To var redzēt cilvēku piemēros - ētiskie principi, kurus mēs studējam, darbojas, bet nav kā vadlīnijas, bet tikai virza mūsu intuīciju un ētiskos instinktus. Mēs esam praktiski neatkarīgi no ētikas principiem."

Kā izveidot drošu mākslīgo intelektu?

Ņemot vērā juridiskās pieejas neatbilstību, jūs varat jautāt Gertzel un Helm par mūsdienu pieejām "drošas AI" problēmai.

"Ļoti nedaudzi vispārējā mākslīgā intelekta pētnieki uzskata, ka ir iespējams izveidot pilnīgi drošu sistēmu," saka Herzels. "Bet tas vairākumu netraucē, jo šajā dzīvē neko nevar garantēt."

Herzela uzskata, ka, tiklīdz mēs būsim izveidojuši vispārēju mākslīgā intelekta sistēmu vai tās embriju, mēs varam veikt pētījumus un eksperimentus, kas mums par AI ētiku pateiks daudz vairāk, nekā mēs zinām.

“Cerams, ka šādā veidā mēs varēsim noformulēt labas teorijas par mākslīgā intelekta ētiku, kas ļaus mums iedziļināties šajā tēmā. Bet tagad ir diezgan grūti teorēt par AI ētiku, jo mums nav tikai labu teoriju, mums to vispār nav."

“Un cilvēkiem, kuri ir noskatījušies pārāk daudz terminatoru, mākslīgā intelekta radīšanas process var šķist iebiedējošs, jo viņiem šajā kontekstā trūkst vārda“primitīvs”. Tomēr radikālākās izmaiņas notika šādā veidā."

"Kad inteliģentu alu cilvēku grupa izgudroja valodu, viņi negaidīja, ka tiks attīstīta cieta formāla valodas teorija, kas varētu palīdzēt paredzēt izmaiņas nākotnē, ko izraisa valodas parādīšanās sabiedrībā."

Pirms apsvērt nākamo "trīs likumu" izstrādi kā tehnisku problēmu, jums jāveic daudz pētījumu. Un šeit Helms un Herzels vienojas.

“Mans kolēģis no MIRI Luc Muelhauser apkopoja mūsu argumentāciju šādi. Viņš sacīja, ka problēmas bieži pāriet no filozofijas uz matemātiku un pēc tam uz inženierzinātnēm. Filozofijai bieži tiek uzdoti pareizie jautājumi, taču visnepraktiskākajā veidā. Neviens nevar droši pateikt, vai ir panākts progress problēmas risināšanā. Ja mēs varam pārformulēt svarīgās saprāta, identifikācijas un vērtības filozofiskās problēmas precīzās formulās, ar kurām matemātiķis var rīkoties, tad var izveidot kādu modeli. Vienu lielisku dienu tas nāks inženierzinātnēs."

Helmam šī problēma ir grūta zinātnei un filozofijai, taču progress ir iespējams.

“Esmu skeptisks, ka filozofija spēs atrisināt problēmu, par kuru cīnās vairāk nekā 3000 gadu. Bet arī mēs nevaram sākt un sākt veidot matemātiskus modeļus jautājumiem, kuru tehniski nav. Mums joprojām ir vajadzīgs daudz teorētisku un pat praktisku uzlabojumu."