Zinātnieki Vairs Nav Sapratuši, Kā Darbojas Mākslīgais Intelekts - Alternatīvs Skats

Zinātnieki Vairs Nav Sapratuši, Kā Darbojas Mākslīgais Intelekts - Alternatīvs Skats
Zinātnieki Vairs Nav Sapratuši, Kā Darbojas Mākslīgais Intelekts - Alternatīvs Skats

Video: Zinātnieki Vairs Nav Sapratuši, Kā Darbojas Mākslīgais Intelekts - Alternatīvs Skats

Video: Zinātnieki Vairs Nav Sapratuši, Kā Darbojas Mākslīgais Intelekts - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Maijs
Anonim

Zinātnieki un programmētāji ir pārstājuši saprast, kā mākslīgais intelekts pieņem lēmumus. Par šo problēmu vairāki speciālisti paziņoja galvenajā AI konferencē - Neironu informācijas apstrādes sistēmas -, kas notika Longbīčā (Kalifornijā).

Kvarca aptaujātie eksperti saka, ka viņiem jārīkojas, pirms sistēma kļūst pārāk sarežģīta.

“Mēs nevēlamies pieņemt AI lēmumus par pašsaprotamiem, nesaprotot to loģiku,” saka Džeisons Yosinski no Uber. "Lai sabiedrība pieņemtu mašīnmācīšanās modeļus, mums jāzina, kā AI nonāk pie noteiktiem secinājumiem."

Problēma, ko daudzi eksperti dēvē par “melno kasti”, ir patiešām nopietna. Iepriekšējā pieredze rāda, ka AI ir tendence pieņemt neobjektīvus lēmumus un veidot analoģijas tur, kur to nevajadzētu darīt. Tā kā neironu tīkli pakāpeniski iefiltrējas tiesībaizsardzībā, veselības aprūpes sistēmā, zinātniskos pētījumos un algoritmos, kas nosaka to, ko šodien redzat savā Facebook ziņu plūsmā, AI kļūda var būt ļoti dārga.

Kā piemēru Kiri Wagstaff, JI Propolusion Lab (NASA) AI eksperts min misiju uz Marsu. Ierīces atrodas 200 miljonu jūdžu attālumā no Zemes un maksā simtiem miljonu dolāru, tāpēc jebkādas kļūdas AI darbā ir vienkārši nepieņemamas.

“Cilvēkiem jāzina, ko AI dara un kāpēc. Pretējā gadījumā kā viņi var uzticēties viņam kontrolēt dārgu aprīkojumu?”Stāsta Vāgefs.

Pašlaik zinātnieks strādā pie algoritma, kas sakārto dažādu NASA kosmosa kuģu uzņemtos attēlus. Tā kā attēlu skaits ir miljonos, dators ļauj kārtot un izcelt visinteresantākos, netērējot šim procesam daudz laika. Tomēr problēma slēpjas faktā, ka bieži vien tikai AI zina, kāpēc atsevišķi attēli, kurus tas izvēlas, ir neparasti.

Tādējādi secina Wagstaff, ja šajā algoritmā ir kļūda, kādu dienu tas var palaist garām ļoti svarīgu informāciju.

Reklāmas video:

“Būtībā dators dod jums attēlu un saka:“Skaties, tas ir interesanti.” Bet jūs ne vienmēr varat saprast, kāpēc tas ir interesanti: priekšmetu krāsas, formas vai to atrašanās vietas dēļ - jūs to droši vien nezināt,”saka zinātnieks.

Hannah Wallach, Microsoft vecākā pētniece, piekrīt savu kolēģu secinājumiem.

“Tā kā mašīnmācība kļūst arvien izplatītāka un likmes palielinās, mēs vairs nevaram šīs sistēmas uzskatīt par melnajām kastēm. Mums jāsaprot, kas notiek viņu iekšienē un ko viņi dara,”sacīja pētnieks.

Zinātnieki par laimi mēģina atrast metodes, kā izprast mākslīgā intelekta loģiku. Tādējādi Google pētnieks Mitra Raghu iesniedza ziņojumu, kurā aprakstīts neironu tīkla atsevišķu "neironu" darbību izsekošanas process. Analizējot miljoniem operāciju, viņa spēja izdomāt, kurš no mākslīgajiem “neironiem” koncentrējas uz nepareiziem priekšstatiem, un tos izslēgt. Tas pierāda, ka neironu tīklu darba pārvēršana cilvēka izpratnei pieejamā formā nav tik neiespējams uzdevums.

Vēl viena problēmas risināšanas iespēja ir regulāra mākslīgā intelekta attīstīto prasmju pārbaude.

“Tas ir tāpat kā skolas skolotāji lūdz bērnus saviem vārdiem pateikt, ko viņi saprot no skolotāja skaidrojuma,” saka Vāgtafs.

Tomēr jāsaprot, ka algoritma iekšējās daļas izpratne nav tikai hipotētiska maršrutētāja novēršana no Marsa klints; saprotot, kas ir neveiksme, jūs varat padarīt esošās sistēmas vēl labākas.

"Ja jūsu sistēma nedarbojas un jūs nezināt, kāpēc, tad ir ļoti grūti kaut ko ar to izdarīt," saka Yosinski. "Ja jūs zināt, kas notika, tad situāciju vienmēr var labot."

Vietnes hightech.fm izmantotie materiāli