Morāles Mašīnas Veidošana: Kurš Būs Atbildīgs Par Pašbraucošo Automašīnu ētiku? - Alternatīvs Skats

Satura rādītājs:

Morāles Mašīnas Veidošana: Kurš Būs Atbildīgs Par Pašbraucošo Automašīnu ētiku? - Alternatīvs Skats
Morāles Mašīnas Veidošana: Kurš Būs Atbildīgs Par Pašbraucošo Automašīnu ētiku? - Alternatīvs Skats

Video: Morāles Mašīnas Veidošana: Kurš Būs Atbildīgs Par Pašbraucošo Automašīnu ētiku? - Alternatīvs Skats

Video: Morāles Mašīnas Veidošana: Kurš Būs Atbildīgs Par Pašbraucošo Automašīnu ētiku? - Alternatīvs Skats
Video: Radoša sabiedrība 2024, Aprīlis
Anonim

Jūs braucat pa šoseju, kad vīrietis izskrien uz aizņemta ceļa. Automašīnas pārvietojas jums apkārt, un jums ir jāpiedalās sekundē, lai pieņemtu lēmumu: mēģiniet izvairīties no personas un radīt negadījuma risku? Turpināt braukt cerībā, ka viņam būs laiks? Bremzēt? Kā jūs vērtējat izredzes, ka bērns ir iesprūdis aizmugurējā sēdeklī? Daudzējādā ziņā tā ir klasiska “morāles dilemma”, ratiņu problēma. Viņai ir miljons dažādu iespēju, kas ļauj identificēt cilvēku aizspriedumus, bet būtība ir tāda pati.

Jūs esat situācijā, kad uz spēles ir likta dzīvība un nāve, nav vienkāršas izvēles, un faktiski jūsu lēmums noteiks, kurš dzīvo un kurš mirst.

Ratiņu dilemma un mākslīgais intelekts

MIT jaunais raksts, kas pagājušajā nedēļā tika publicēts žurnālā Nature, mēģina rast ratiņu problēmas efektīvu risinājumu, pieņemot darbā miljonus brīvprātīgo. Eksperiments sākās 2014. gadā un bija veiksmīgs, saņemot vairāk nekā 40 miljonus atbilžu no 233 valstīm, padarot to par vienu no lielākajiem morāles pētījumiem, kāds jebkad veikts.

Cilvēks šādus lēmumus var pieņemt neapzināti. Kad jūsu automašīna brauc pa ceļu, ir grūti nosvērt visas ētiskās sistēmas un morālos priekšnoteikumus. Bet mūsu pasaulē lēmumus arvien vairāk pieņem ar algoritmu palīdzību, un datori var viegli reaģēt ātrāk nekā mēs.

Hipotētiskas situācijas ar pašbraucošām automašīnām nav vienīgie morālie lēmumi, kas jāpieņem algoritmiem. Medicīnas algoritmi izvēlēsies to, kurš saņem ārstēšanu ar ierobežotiem resursiem. Automatizētie droni izvēlēsies, cik daudz "nodrošinājuma bojājumu" ir pieļaujams individuālā militārā darbā.

Reklāmas video:

Ne visi morāles principi ir vienādi

Ratiņu problēmas “risinājumi” ir tikpat daudzveidīgi kā pašas problēmas. Kā mašīnas pieņems morālus lēmumus, ja morāles un ētikas pamati netiek vispāratzīti pieņemti un tiem var nebūt risinājumu? Kas var noteikt, vai algoritms darbojas pareizi vai nepareizi?

Moral Machine zinātnieku izvēlētā kopuzņēmuma pieeja ir diezgan pragmatiska. Galu galā, lai sabiedrība pieņemtu pašbraucošas automašīnas, tai ir jāpieņem morālais pamats, kas ir viņu lēmumu pamatā. Nebūs labi, ja ētiķi vai juristi nāks klajā ar risinājumu, kas ir nepieņemams vai nepieņemams parastajiem autovadītājiem.

Rezultāti ļauj zinātkāram secinājumam, ka morālās prioritātes (un līdz ar to arī algoritmiskie lēmumi, ko cilvēki var pieņemt) ir atkarīgi no tā, kurā pasaules vietā jūs atrodaties.

Pirmkārt, zinātnieki atzīst, ka reālajā dzīvē nav iespējams zināt šo situāciju biežumu vai raksturu. Cilvēki, kuri ir iesaistīti negadījumos, ļoti bieži nevar pateikt, kas tieši notika, un iespējamo situāciju klāsts neļauj vienkārši klasificēt. Tāpēc, lai problēmu varētu izsekot, tā ir jāsadala vienkāršotos scenārijos, meklējot universālus morāles noteikumus un principus.

Veicot aptauju, jums tiek uzdoti trīspadsmit jautājumi, kuriem nepieciešama vienkārša jā vai nē izvēle, mēģinot sašaurināt atbildes uz deviņiem faktoriem.

Vai automašīnai jāgriežas citā joslā vai jāturpina kustēties? Vai jums vajadzētu ietaupīt jauniešus, nevis vecos? Sievietes vai vīrieši? Dzīvnieki vai cilvēki? Vai jums jācenšas izglābt pēc iespējas vairāk dzīvību, vai arī viens bērns ir "divu vecu cilvēku" vērts? Vai ietaupīt automašīnā esošos pasažierus, nevis gājējus? Tie, kas neievēro noteikumus, vai tie, kas neievēro noteikumus? Vai jums vajadzētu glābt cilvēkus, kuri ir fiziski spēcīgāki? Kā ir ar cilvēkiem ar augstāku sociālo statusu, piemēram, ārstiem vai uzņēmējiem?

Šajā skarbajā hipotētiskajā pasaulē kādam ir jāmirst, un jūs atbildēsit uz katru no šiem jautājumiem - ar dažādas pakāpes entuziasmu. Tomēr, pieņemot šos lēmumus, atklājas arī dziļi iesakņojušās kultūras normas un aizspriedumi.

Apstrādājot zinātnieku apsekoto milzīgo datu kopu, tiek iegūti vispārīgi noteikumi, kā arī ziņkārīgi izņēmumi. Trīs dominējošie faktori, rēķinot vidēji visā populācijā, bija tādi, ka visi deva priekšroku glābt vairāk dzīvību nekā mazāk, cilvēki, nevis dzīvnieki, un jauni, nevis veci.

Reģionālās atšķirības

Jūs varat piekrist šiem punktiem, taču, jo dziļāk par tiem domājat, jo satraucošāki būs morālie secinājumi. Vairāk respondentu izvēlējās glābt noziedznieku virs kaķa, bet kopumā viņi deva priekšroku glābt suni pār noziedznieku. Vidēji pasaulē vecums tiek vērtēts augstāk nekā bezpajumtnieks, bet bezpajumtnieki tika izglābti mazāk nekā resni cilvēki.

Šie noteikumi nebija universāli: respondenti no Francijas, Apvienotās Karalistes un Amerikas Savienotajām Valstīm deva priekšroku jauniešiem, savukārt respondenti no Ķīnas un Taivānas labprātāk izglāba vecāka gadagājuma cilvēkus. Respondenti no Japānas deva priekšroku gājēju glābšanai, nevis pasažieriem, savukārt Ķīnā viņi dod priekšroku pasažieriem, nevis gājējiem.

Pētnieki secināja, ka viņi var sadalīt atbildes pa valstīm trīs kategorijās: “Rietumi”, galvenokārt Ziemeļamerika un Eiropa, kur morāle galvenokārt balstās uz kristiešu doktrīnu; "Austrumi" - Japāna, Taivāna, Tuvie Austrumi, kur dominē konfucianisms un islāms; "Dienvidu" valstis, tostarp Centrālā un Dienvidamerika, kā arī spēcīga Francijas kultūras ietekme. Dienvidu segmentā sieviešu upurēšana tiek dota vairāk nekā jebkur citur. Austrumu segmentā ir lielāka tendence glābt jauniešus.

Filtrēšana pēc dažādiem respondentu atribūtiem dod bezgalīgas interesantas iespējas. Maz ticams, ka respondenti, kas pārstāv “ļoti reliģiozus”, dod priekšroku dzīvnieka glābšanai, taču gan reliģiski, gan nereliģiozi respondenti pauž aptuveni vienādu priekšroku tādu cilvēku glābšanai, kuriem ir augsts sociālais statuss (lai gan var teikt, ka tas ir pretrunā ar dažām reliģiskām doktrīnām). Vīrieši un sievietes dod priekšroku sieviešu glābšanai, bet vīrieši to dara mazāk.

Neatbildēti jautājumi

Neviens neapgalvo, ka šis pētījums kaut kā "atrisinās" visas šīs svarīgās morālās problēmas. Pētījuma autori atzīmē, ka tiešsaistes datu apkopošana ir saistīta ar neobjektivitāti. Bet pat ar lielu izlases daudzumu jautājumu skaits bija ierobežots. Ko darīt, ja riski mainās atkarībā no jūsu pieņemtā lēmuma? Ko darīt, ja algoritms var aprēķināt, ka jums bija tikai 50 procentu iespēja nogalināt gājējus, ņemot vērā pārvietošanās ātrumu?

Edmond Awad, viens no pētījuma autoriem, izteica piesardzību par rezultātu pārāk skaidru interpretāciju. Pēc viņa domām, diskusijai vajadzētu ienākt riska analīzē - kurš ir vairāk vai mazāk pakļauts riskam - tā vietā, lai izlemtu, kurš mirst un kurš ne.

Bet vissvarīgākais pētījuma rezultāts bija diskusija, kas uzliesmoja tā augsnē. Tā kā algoritmi sāk pieņemt arvien svarīgākus lēmumus, kas ietekmē cilvēku dzīvi, mums ir nepārtraukti jāturpina diskusija par AI ētiku. Projektējot “mākslīgo sirdsapziņu”, jāiekļauj ikviena viedoklis. Lai arī atbildes ne vienmēr ir viegli atrodamas, vislabāk ir mēģināt izveidot morālu ietvaru algoritmiem, neļaujot algoritmiem patstāvīgi veidot pasauli bez cilvēku kontroles.

Ieteicams: