Cilvēki Neuzticas Mākslīgajam Intelektam. Kā To Novērst? - Alternatīvs Skats

Satura rādītājs:

Cilvēki Neuzticas Mākslīgajam Intelektam. Kā To Novērst? - Alternatīvs Skats
Cilvēki Neuzticas Mākslīgajam Intelektam. Kā To Novērst? - Alternatīvs Skats

Video: Cilvēki Neuzticas Mākslīgajam Intelektam. Kā To Novērst? - Alternatīvs Skats

Video: Cilvēki Neuzticas Mākslīgajam Intelektam. Kā To Novērst? - Alternatīvs Skats
Video: Online kursa par mākslīgo intelektu atklāšana - Elements of AI 2024, Maijs
Anonim

Mākslīgais intelekts jau var paredzēt nākotni. Policija to izmanto, lai sastādītu karti, kurā parādīts, kad un kur var notikt noziegumi. Ārsti to izmanto, lai prognozētu, kad pacientam varētu būt insults vai sirdslēkme. Zinātnieki pat mēģina dot AI fantāziju, lai tā varētu paredzēt neparedzētus notikumus.

Daudzi mūsu dzīves lēmumi prasa labas prognozes, un AI aģenti gandrīz vienmēr ir labāki par cilvēkiem. Tomēr attiecībā uz visiem šiem tehnoloģiskajiem sasniegumiem mums joprojām nav pārliecības par mākslīgā intelekta sniegtajām prognozēm. Cilvēki nav pieraduši paļauties uz AI un dod priekšroku uzticēties cilvēku ekspertiem, pat ja šie eksperti kļūdās.

Image
Image

Ja mēs vēlamies, lai mākslīgais intelekts nāk par labu cilvēkiem, mums jāiemācās tam uzticēties. Lai to izdarītu, mums jāsaprot, kāpēc cilvēki tik neatlaidīgi atsakās uzticēties AI.

Uzticieties Dr Robot

IBM mēģinājums uzrādīt superdatoru programmu onkologiem (Watson for Oncology) neizdevās. AI ir apņēmusies sniegt augstas kvalitātes ārstēšanas ieteikumus 12 vēža gadījumos, kas veido 80% no visiem pasaules gadījumiem. Līdz šim vairāk nekā 14 000 pacientu ir saņēmuši ieteikumus, pamatojoties uz viņa aprēķiniem.

Bet, kad ārsti pirmo reizi sastapās ar Vatsonu, viņi nonāca diezgan sarežģītā situācijā. No vienas puses, lai arī Watson sniedza ārstēšanas vadlīnijas, kas bija saskaņā ar viņu pašu viedokli, medicīnas profesija neredzēja lielu vērtību AI ieteikumos. Superdators vienkārši pateica viņiem to, ko viņi jau zināja, un šie ieteikumi nemainīja faktisko ārstēšanu. Iespējams, tas ārstiem ir devis mieru un pārliecību par viņu pašu lēmumiem. Bet IBM vēl nav jāpierāda, ka Vatsons faktiski palielina vēža izdzīvošanas rādītājus.

Reklāmas video:

Image
Image

No otras puses, ja Votsons izteica ieteikumus, kas bija pretrunā ar ekspertu atzinumiem, ārsti secināja, ka Vatsons ir nespējīgs. Mašīna nevarēja izskaidrot, kāpēc tā ārstēšana darbosies, jo tās mašīnmācīšanās algoritmi bija pārāk sarežģīti, lai cilvēki to saprastu. Attiecīgi tas izraisīja vēl lielāku neuzticību, un daudzi ārsti vienkārši ignorēja AI ieteikumus, paļaujoties uz savu pieredzi.

Rezultātā IBM Watson galvenais medicīnas partneris MD Andersona vēža centrs nesen paziņoja, ka atceļ programmu. Dānijas slimnīca arī paziņoja, ka atsakās no programmas, jo atklāja, ka onkologi divos no trim gadījumiem nepiekrita Vatsonam.

Vatsona onkoloģijas problēma bija tāda, ka ārsti viņam vienkārši neuzticējās. Cilvēku uzticēšanās bieži ir atkarīga no mūsu izpratnes par citu cilvēku domāšanu un mūsu pašu pieredzes, kas vairo pārliecību par viņu viedokli. Tas rada psiholoģisku drošības sajūtu. Savukārt AI ir salīdzinoši jauns un cilvēkiem nesaprotams. Tā pieņem lēmumus, pamatojoties uz sarežģītu analīzes sistēmu, lai identificētu iespējamos slēptos modeļus un vājus signālus no liela datu apjoma.

Pat ja to var izskaidrot tehniskā izteiksmē, AI lēmumu pieņemšanas process parasti ir pārāk sarežģīts, lai lielākā daļa cilvēku to saprastu. Mijiedarbība ar kaut ko, ko mēs nesaprotam, var izraisīt trauksmi un radīt kontroles zaudēšanas sajūtu. Daudzi cilvēki vienkārši nesaprot, kā un ar ko darbojas AI, jo tas notiek kaut kur aiz ekrāna, fonā.

Tā paša iemesla dēļ viņi daudz precīzāk zina gadījumus, kad AI ir nepareizs: padomājiet par Google algoritmu, kas krāsainos cilvēkus klasificē kā gorillas; Microsoft tērzēšanas robots, kas nepilnas dienas laikā kļuva par nacistu; Tesla transportlīdzeklis autopilota režīmā, izraisot letālu negadījumu. Šie neveiksmīgie piemēri ir saņēmuši nesamērīgu plašsaziņas līdzekļu uzmanību, uzsverot darba kārtību, uz kuru mēs nevaram paļauties uz tehnoloģijām. Mašīnmācība nav 100% uzticama, daļēji tāpēc, ka cilvēki to izstrādā.

Šķelšanās sabiedrībā?

Jūtas, kuras rada mākslīgais intelekts, iedziļinās cilvēka būtībā. Zinātnieki nesen veica eksperimentu, kurā viņi aptaujāja cilvēkus, kuri ikdienā skatījās filmas par mākslīgo intelektu (fantāziju) par automatizāciju. Izrādījās, ka neatkarīgi no tā, vai AI tika attēlots pozitīvi vai negatīvi, vienkārši skatoties mūsu tehnoloģiskās nākotnes kinematogrāfisko attēlojumu, tiek polarizēta dalībnieku attieksme. Optimisti kļūst vēl optimistiskāki, un skeptiķi aizveras vēl vairāk.

Tas liek domāt, ka cilvēki ir neobjektīvi pret AI, balstoties uz viņu pašu argumentāciju, dziļi iesakņojušos tendenci apstiprināt aizspriedumus: tieksmi meklēt vai interpretēt informāciju tā, lai apstiprinātu jau pastāvošus jēdzienus. Tā kā mākslīgais intelekts arvien vairāk tiek parādīts plašsaziņas līdzekļos, tas var veicināt dziļu sabiedrības sašķeltību, plaisu starp tiem, kas izmanto AI, un tiem, kas to noraida. Dominējoša cilvēku grupa var iegūt lielas priekšrocības vai trūkumu.

Trīs izejas no AI uzticības krīzes

Par laimi, mums ir dažas domas par to, kā tikt galā ar uzticību AI. Pieredze tikai ar AI var dramatiski uzlabot cilvēku attieksmi pret šo tehnoloģiju. Ir arī pierādījumi, ka jo biežāk jūs izmantojat noteiktas tehnoloģijas (piemēram, internetu), jo vairāk jūs tām uzticaties.

Cits risinājums varētu būt mašīnmācīšanās algoritmu melnās kastes atvēršana un to pārredzamāka darbība. Tādi uzņēmumi kā Google, Airbnb un Twitter jau publicē pārredzamības ziņojumus par valdības pieprasījumiem un informācijas atklāšanu. Šāda prakse AI sistēmās palīdzēs cilvēkiem iegūt nepieciešamo izpratni par to, kā algoritmi pieņem lēmumus.

Pētījumi rāda, ka cilvēku iesaistīšana AI lēmumu pieņemšanā palielinās arī uzticību un ļaus AI mācīties no cilvēku pieredzes. Pētījumā atklājās, ka cilvēki, kuriem tika dota iespēja nedaudz modificēt algoritmu, jutās vairāk apmierināti ar tā darba rezultātiem, visticamāk, pateicoties pārākuma izjūtai un spējai ietekmēt nākotnes rezultātus.

Mums nav jāsaprot AI sistēmu sarežģītais iekšējais darbs, taču, ja mēs cilvēkiem sniegsim kaut nedaudz informācijas un kontrolēsim, kā šīs sistēmas tiek ieviestas, viņiem būs lielāka pārliecība un vēlme aptvert AI ikdienas dzīvē.

Iļja Khels