Kad Mākslīgais Intelekts Sāks Izprast Cilvēka Emocijas? - Alternatīvs Skats

Satura rādītājs:

Kad Mākslīgais Intelekts Sāks Izprast Cilvēka Emocijas? - Alternatīvs Skats
Kad Mākslīgais Intelekts Sāks Izprast Cilvēka Emocijas? - Alternatīvs Skats

Video: Kad Mākslīgais Intelekts Sāks Izprast Cilvēka Emocijas? - Alternatīvs Skats

Video: Kad Mākslīgais Intelekts Sāks Izprast Cilvēka Emocijas? - Alternatīvs Skats
Video: Ventspils #TechUP "Bērnu drošība internetā" 2024, Aprīlis
Anonim

Vai jūs uzticaties robotam, ja tas būtu jūsu ārsts? Emocionāli viedās mašīnas var nebūt tik tālu no mums, kā šķiet. Pēdējo desmitgažu laikā mākslīgais intelekts ir dramatiski palielinājis spēju lasīt cilvēku emocionālās reakcijas.

Bet emociju lasīšana nenozīmē to izpratni. Ja AI pati tos nevar piedzīvot, vai tā kādreiz spēs mūs pilnībā izprast? Un ja nē, vai mēs riskējam piedēvēt robotiem tādas īpašības, kādas viņiem nav?

Jaunākās paaudzes mākslīgais intelekts jau mūs pateicas par pieaugošo datu daudzumu, no kura datoriem var mācīties, kā arī par apstrādes jaudas palielināšanos. Šīs mašīnas tiek pakāpeniski pilnveidotas jautājumos, kurus mēs parasti izpildīšanai piešķīrām tikai cilvēkiem.

Image
Image

Mūsdienās mākslīgais intelekts cita starpā var atpazīt sejas, pārvērst seju skices fotogrāfijās, atpazīt runu un spēlēt Go.

Noziedznieku identificēšana

Ne tik sen zinātnieki izstrādāja mākslīgo intelektu, kas var pateikt, vai cilvēks ir noziedznieks, tikai apskatot viņu sejas vaibstus. Sistēma tika novērtēta, izmantojot ķīniešu fotogrāfiju datu bāzi, un rezultāti bija vienkārši satriecoši. AI tikai 6% gadījumu kļūdaini klasificēja nevainīgus cilvēkus kā noziedzniekus un veiksmīgi identificēja 83% noziedznieku. Kopējā precizitāte bija gandrīz 90%.

Reklāmas video:

Šīs sistēmas pamatā ir pieeja, ko sauc par "dziļu mācīšanos", kas ir izrādījusies veiksmīga, piemēram, sejas atpazīšanā. Dziļa mācīšanās apvienojumā ar "sejas rotācijas modeli" ļāva mākslīgajam intelektam noteikt, vai divas fotogrāfijas attēlo vienas un tās pašas personas seju, pat ja mainās apgaismojums vai leņķis.

Dziļa mācīšanās rada "neironu tīklu", kura pamatā ir cilvēka smadzeņu tuvinājums. Tas sastāv no simtiem tūkstošu neironu, kas sakārtoti dažādos slāņos. Katrs slānis ievada datus, piemēram, sejas attēlu, augstākam abstrakcijas līmenim, piemēram, malu kopumam noteiktos virzienos un vietās. Un tas automātiski izceļ funkcijas, kas ir visatbilstošākās konkrētā uzdevuma veikšanai.

Ņemot vērā dziļas mācīšanās panākumus, nav pārsteigums, ka mākslīgie neironu tīkli var pateikt noziedzniekiem no nevainīgiem - ja tiešām starp viņiem ir sejas vaibsti, kas atšķiras. Pētījums ļāva izdalīt trīs pazīmes. Viens no tiem ir leņķis starp deguna galu un mutes stūriem, kas noziedzniekiem ir vidēji par 19,6% mazāks. Arī augšlūpas izliekums noziedzniekiem ir vidēji par 23,4% lielāks, un attālums starp acu iekšējiem stūriem ir vidēji par 5,6% šaurāks.

No pirmā acu uzmetiena šī analīze liek domāt, ka novecojušais uzskats, ka noziedzniekus var identificēt pēc fiziskām īpašībām, nav tik nepareizs. Tomēr tas nav viss stāsts. Jāatzīmē, ka divas visatbilstošākās pazīmes ir saistītas ar lūpām, un tās ir mūsu izteiksmīgākās sejas īpašības. Pētījumā izmantotajām noziedznieku fotogrāfijām nepieciešama neitrāla sejas izteiksme, taču AI šajās fotogrāfijās joprojām izdevās atrast slēptās emocijas. Varbūt tik nenozīmīgi, ka cilvēki tos nevar atklāt.

Image
Image

Ir grūti pretoties kārdinājumam pašiem apskatīt fotoattēlu paraugus - šeit viņi ir. Dokuments joprojām tiek pārskatīts. Ciešā pārbaude nevainīgo fotogrāfijās parāda nelielu smaidu. Bet paraugos nav daudz fotogrāfiju, tāpēc nav iespējams izdarīt secinājumus par visu datu bāzi.

Afektīvās skaitļošanas spēks

Šī nav pirmā reize, kad dators spēj atpazīt cilvēka emocijas. Tā saucamā "emocionālās skaitļošanas" vai "emocionālās skaitļošanas" joma pastāv jau ilgu laiku. Tiek uzskatīts, ka, ja mēs vēlamies dzīvot ērti un mijiedarboties ar robotiem, šīm mašīnām jāspēj saprast un atbilstoši reaģēt uz cilvēka emocijām. Šajā jomā iespējas ir diezgan plašas.

Piemēram, pētnieki izmantoja sejas analīzi, lai identificētu studentus, kuriem ir grūtības ar datorizētām mācību stundām. AI ir iemācīts atpazīt dažādus iesaistes un neapmierinātības līmeņus, lai sistēma varētu saprast, kad studenti atrod darbu pārāk viegli vai pārāk sarežģīti. Šī tehnoloģija var būt noderīga, lai uzlabotu mācību pieredzi tiešsaistes platformās.

Sony mēģina izveidot robotu, kas var veidot emocionālas saites ar cilvēkiem. Pagaidām nav pilnībā skaidrs, kā viņa grasījās to sasniegt vai ko tieši robots darīs. Tomēr uzņēmums saka, ka mēģina "integrēt aparatūru un pakalpojumus, lai nodrošinātu emocionāli salīdzināmu pieredzi".

Emocionālajam mākslīgajam intelektam būs vairākas potenciālas priekšrocības, vai tā būtu sarunu biedra vai izpildītāja loma - tas spēs gan identificēt noziedznieku, gan runāt par izturēšanos.

Pastāv arī ētiskas problēmas un riski. Vai būtu pareizi ļaut pacientam ar demenci paļauties uz AI pavadoni un pateikt, ka viņi ir emocionāli dzīvi, kad viņu nav? Vai jūs varat ievietot cilvēku aiz restēm, ja AI saka, ka viņš ir vainīgs? Protams, nē. Mākslīgais intelekts, pirmkārt, nebūs tiesnesis, bet gan izmeklētājs, identificējot "aizdomīgus", bet noteikti ne vainīgus cilvēkus.

Subjektīvās lietas, piemēram, emocijas un jūtas, ir grūti izskaidrot AI, daļēji tāpēc, ka AI nav pieejami pietiekami labi dati, lai to objektīvi analizētu. Vai AI kādreiz sapratīs sarkasmu? Viens teikums var būt sarkastisks vienā kontekstā un pilnīgi atšķirīgs citā.

Jebkurā gadījumā datu apjoms un apstrādes jauda turpina pieaugt. Ar dažiem izņēmumiem AI nākamajās desmitgadēs var iemācīties atpazīt dažāda veida emocijas. Bet vai viņš kādreiz varēja tos pats piedzīvot? Tas ir strīdīgs punkts.

ILYA KHEL