Mākslīgais Intelekts Izrādījās Rasists - Alternatīvs Skats

Mākslīgais Intelekts Izrādījās Rasists - Alternatīvs Skats
Mākslīgais Intelekts Izrādījās Rasists - Alternatīvs Skats

Video: Mākslīgais Intelekts Izrādījās Rasists - Alternatīvs Skats

Video: Mākslīgais Intelekts Izrādījās Rasists - Alternatīvs Skats
Video: Vai mākslīgais intelekts pieņem labākus lēmumus nekā cilvēki? Mākslīgā intelekta ētika 2024, Maijs
Anonim

Masačūsetsas Tehnoloģiju institūta zinātnieku pētījums atklāja detaļas par datu analīzes procesu, izmantojot mākslīgo intelektu, kuru lēmumu pieņemšanā bieži vadās no seksistiskiem un rasistiskiem stereotipiem. Vairākas sistēmas, kas piedalījās eksperimentā, parādīja uzņēmību pret cilvēku aizspriedumiem.

Britu laikraksts "The Daily Mail" raksta, ka pēc pētījuma rezultātu saņemšanas zinātnieku komanda apņēmās pārprogrammēt mākslīgo intelektu, novēršot iepriekšējās problēmas. Pēc Irēnas Čenas, kura strādā Masačūsetsas Tehnoloģiju institūtā, teiktā, datorzinātnieki mēdz steigties pie secinājuma, ka vienīgais veids, kā mākslīgā intelekta algoritmos novērst rasisma un seksisma elementus, ir programmatūras koda uzlabošana. Algoritmu kvalitāte ir tieši proporcionāla datiem, uz kuriem tie darbojas. Čena pētījumi ar Deividu Sontagu un Fredriku D. Johannsonu liecina, ka vairāk pieejamo datu var radikāli mainīt lietas uz labo pusi.

Vienā eksperimentā komanda apskatīja sistēmu, kas, pamatojoties uz pieejamo informāciju, paredzēja cilvēka ienākumus. Analīze parādīja, ka 50% gadījumu algoritmam ir tendence paredzēt, ka sievietes ienākumi būs vidēji mazāki nekā vīrieša ienākumi. 10 reizes palielinot pieejamo datu daudzumu, zinātnieki atklāja, ka šādas kļūdas faktors ir samazinājies par 40%.

Turklāt, pētot sistēmu, kas tiek izmantota slimnīcās un tiek prognozēta to pacientu izdzīvošana, kuriem tiek veikta smaga operācija, Mongoloīdu rases prognožu precizitāte bija daudz zemāka nekā kaukāziešiem un negroīdiem. Tomēr zinātnieki apgalvo, ka uzlabotas analīzes tehnikas izmantošana var ievērojami samazināt prognozēšanas precizitāti pacientiem, kas nepieder pie Mongoloīdu rases. Tas parāda, ka vairāk pieejamo datu ne vienmēr var labot algoritma kļūdas. Tā vietā zinātniekiem vajadzētu saņemt vairāk informācijas par diskriminētām grupām.

Jaunā metode mašīnmācīšanās pētniekiem rada vēl vienu jautājumu par to, kā efektīvi analizēt datus bez esošas diskriminācijas.

Kā mašīnmācība darbojas AI darbinātās sistēmās?

Mākslīgā intelekta sistēmu pamatā ir mākslīgie neironu tīkli (ANNs), kas ekstrapolē cilvēka smadzenēs izmantotās informācijas glabāšanas un mācīšanās metodes uz mehāniskajām sistēmām. ANNS trenējas, lai atrastu pieejamo informācijas avotu modeļus, tostarp runu, tekstu un attēlus. Datu analīzes precizitātes uzlabošana ir viens no pamatnosacījumiem, kas ir pirms mākslīgā intelekta jaunākajiem sasniegumiem.

"Normāls" mākslīgais intelekts izmanto ievades datus, lai algoritmu pateiktu par analīzes priekšmetu, vienlaikus darbojoties ar milzīgu informācijas daudzumu.

Reklāmas video:

Mašīnmācības praktiskajās lietojumprogrammās ietilpst Google tulkošanas pakalpojumi, sejas atpazīšana no Facebook fotoattēliem un Snapchat filtri, kas skenē sejas pirms vizuālo efektu pielietošanas tiešsaistē.

Datu ievadīšanas process bieži prasa laiku, un to parasti ierobežo informācijas plūsma par vienu pētāmā objekta aspektu. Jauns ANN tips - ģeneratīvi-sacīkstes neironu tīkls - pretojas divu dažādu robotu iespējām ar mākslīgo intelektu vienlaikus, provocējot mazāk inteliģentu sistēmu, lai tā mācītos uz otrā rēķina bez cilvēka līdzdalības. Šis paņēmiens dramatiski uzlabo mašīnmācīšanās efektivitāti un ātrumu, vienlaikus paaugstinot datu analīzes kvalitāti.

Oliijs Kurilovs