Morālā Mašīna: Inženieri Mākslīgo Intelektu Apveltīja Ar Morāli Un ētiku - Alternatīvs Skats

Satura rādītājs:

Morālā Mašīna: Inženieri Mākslīgo Intelektu Apveltīja Ar Morāli Un ētiku - Alternatīvs Skats
Morālā Mašīna: Inženieri Mākslīgo Intelektu Apveltīja Ar Morāli Un ētiku - Alternatīvs Skats

Video: Morālā Mašīna: Inženieri Mākslīgo Intelektu Apveltīja Ar Morāli Un ētiku - Alternatīvs Skats

Video: Morālā Mašīna: Inženieri Mākslīgo Intelektu Apveltīja Ar Morāli Un ētiku - Alternatīvs Skats
Video: Ar mākslīgo intelektu apveltīta būtne nebūs līdzvērtīga cilvēkam. Diskusija Zināmais nezināmajā 2024, Maijs
Anonim

Jo spēcīgāks mākslīgais intelekts ienāk mūsu ikdienas dzīvē, jo biežāk tam nākas saskarties ar sarežģītām morālām un ētiskām dilemmām, kuras dzīvam cilvēkam dažreiz nav tik viegli atrisināt. MIT zinātnieki mēģināja atrisināt šo problēmu un apveltīja mašīnu ar spēju domāt morāles ziņā, balstoties uz lielākās daļas dzīvo cilvēku viedokli.

Daži eksperti uzskata, ka labākais veids, kā apmācīt mākslīgo intelektu rīkoties morāli sarežģītās situācijās, ir “pūļa pieredzes” izmantošana. Citi apgalvo, ka šī pieeja nav bez aizspriedumiem, un dažādi algoritmi var izdarīt dažādus secinājumus no vienas un tās pašas datu kopas. Kā šādā situācijā var atrasties mašīnas, kurām, strādājot ar reāliem cilvēkiem, acīmredzot būs jāpieņem grūti morāli un ētiski lēmumi?

Intelekts un morāle

Attīstoties mākslīgā intelekta (AI) sistēmām, eksperti arvien vairāk cenšas atrisināt problēmu, kā vislabāk dot sistēmai ētisku un morālu pamatu noteiktu darbību veikšanai. Vispopulārākā ideja ir AI, lai izdarītu secinājumus, pētot cilvēku lēmumus. Lai pārbaudītu šo pieņēmumu, Masačūsetsas Tehnoloģiskā institūta pētnieki izveidoja Morālo mašīnu. Vietnes apmeklētājiem tika lūgts izdarīt izvēli par to, kas jādara autonomam transportlīdzeklim, saskaroties ar diezgan grūtu izvēli. Piemēram, šī ir pazīstama dilemma par iespējamo negadījumu, kurā notikumu attīstībai ir tikai divas iespējas: automašīna var notriekt trīs pieaugušos, lai glābtu divu bērnu dzīvības, vai arī rīkoties pretēji. Kuru variantu vajadzētu izvēlēties? Un vai tas ir iespējams, piemēram,upurēt vecāka gadagājuma cilvēka dzīvību grūtnieces glābšanai?

Rezultātā algoritms apkopoja milzīgu datu bāzi, pamatojoties uz testa rezultātiem, un Ariels Procaccia no Kārnegijas Melonas universitātes Datorikas nodaļas nolēma tos izmantot, lai uzlabotu mašīnu inteliģenci. Jaunā pētījumā viņš un viens no projekta veidotājiem Iyad Rahwan ielādēja visu Moral Machine projekta bāzi AI un lūdza sistēmu paredzēt, kā autopilotā esošā automašīna reaģēs uz līdzīgiem, bet tomēr nedaudz atšķirīgiem scenārijiem. Procaccia vēlējās parādīt, kā uz balsošanu balstīta sistēma var būt “ētiskā” mākslīgā intelekta risinājums.”Pats darba autors atzīst, ka šāda sistēma, protams, vēl ir pāragri pielietojama praksē, taču tas lieliski pierāda pašu koncepciju, tas ir iespējams.

Krustu morāle

Reklāmas video:

Pati ideja izvēlēties starp diviem morāli negatīviem rezultātiem nav jauna. Ētikā tam tiek izmantots atsevišķs termins: dubultās iedarbības princips. Bet šī ir bioētikas joma, taču neviens iepriekš nav piemērojis šādu sistēmu automašīnai, un tāpēc pētījums izraisīja īpašu interesi ekspertu vidū visā pasaulē. OpenAI līdzpriekšsēdētājs Elons Musks uzskata, ka “ētiska” mākslīgā intelekta radīšana ir skaidru vadlīniju vai politikas izstrāde, lai virzītu programmas attīstību. Politiķi viņu pamazām uzklausa: piemēram, Vācija izveidoja pasaulē pirmos autonomo automašīnu ētikas principus. Pat Google Alfabēta AI DeepMind tagad ir ētikas un sabiedrības morāles departaments.

Citi eksperti, tostarp Duke Universitātes pētnieku grupa, uzskata, ka labākais veids, kā virzīties uz priekšu, ir izveidot “vispārēju sistēmu”, kurā aprakstīts, kā AI pieņems ētiskus lēmumus noteiktā situācijā. Viņi uzskata, ka kolektīvo morālo uzskatu apvienošana, tāpat kā tajā pašā Morālajā Mašīnā, nākotnē mākslīgo intelektu padarīs vēl morālāku nekā mūsdienu cilvēku sabiedrība.

Kritika par "morālo mašīnu"

Lai kā arī būtu, šobrīd "vairākuma viedokļa" princips nebūt nav uzticams. Piemēram, vienai respondentu grupai var būt aizspriedumi, kas nav raksturīgi visiem pārējiem. Rezultāts būs tāds, ka AI, kuriem ir tieši tāda pati datu kopa, var izdarīt atšķirīgus secinājumus, pamatojoties uz dažādiem šīs informācijas paraugiem.

Profesoram Džeimsam Grimmelmannam, kurš specializējas programmatūras, bagātības un varas dinamikā, pati sabiedrības morāles ideja izskatās kļūdaina. "Tas nespēj iemācīt AI ētiku, bet tikai apveltī to ar ētikas standartu izskatu, kas raksturīgs noteiktai iedzīvotāju daļai," viņš saka. Un pats Procaccia, kā minēts iepriekš, atzīst, ka viņu pētījumi ir nekas cits kā veiksmīgs koncepcijas pierādījums. Tomēr viņš ir pārliecināts, ka šāda pieeja varētu dot panākumus visai kampaņai, lai nākotnē izveidotu ļoti morālu AI. "Demokrātijai, bez šaubām, ir virkne trūkumu, taču kā vienota sistēma tā darbojas - pat ja daži cilvēki tomēr pieņem lēmumus, kuriem vairākums nepiekrīt."

Vasilijs Makarovs