Īstu Mākslīgo Intelektu Var Radīt, Atrisinot Trīs Galvenās Problēmas - - Alternatīvs Skats

Satura rādītājs:

Īstu Mākslīgo Intelektu Var Radīt, Atrisinot Trīs Galvenās Problēmas - - Alternatīvs Skats
Īstu Mākslīgo Intelektu Var Radīt, Atrisinot Trīs Galvenās Problēmas - - Alternatīvs Skats

Video: Īstu Mākslīgo Intelektu Var Radīt, Atrisinot Trīs Galvenās Problēmas - - Alternatīvs Skats

Video: Īstu Mākslīgo Intelektu Var Radīt, Atrisinot Trīs Galvenās Problēmas - - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Aprīlis
Anonim

Pagājušajā mēnesī Londonā konferencē par dziļu mašīnu apguvi vairākas reizes tika izvirzīta viena tēma: cik svarīgi ir saprast, ko mēs patiesībā darām. Kamēr uzņēmumi, piemēram, Google, turpina apgalvot, ka mēs visi dzīvojam “pirmajā AI gadsimtā”, kad mašīnmācība tikai sāk atklāt jaunas darbības jomas (piemēram, runas un attēla atpazīšanu), tie, kas patiešām stāv AI pētījumu priekšplānā mēģiniet uzsvērt, ka pirms īstā AI vecuma sasniegšanas mums vēl ir daudz izaicinājumu. Pat ja mums jau ir digitālie palīgi, kas sci-fi filmās var runāt tāpat kā datori, tas nenozīmē, ka mēs esam nopietni tuvu reāla mākslīgā intelekta radīšanai.

Visbeidzot, visas problēmas, kas kavē īstas AI izveidi, ir šādas: informācijas apjomā, kas būs jāiegulda tajās; mūsu nespējā izveidot AI, kas vienlīdz labi tiktu galā ar vairākiem uzdevumiem vienlaikus; labi, patiesībā mums nav ne mazākās nojausmas, kā šādām sistēmām vajadzētu reāli darboties. Mašīnmācīšanās tehnoloģijas jau 2016. gadā spēj veikt brīnišķīgas lietas, taču šīs lietas dažreiz var būt grūti izskaidrot, pat pašiem veidotājiem. Nemaz nerunājot par to, cik daudz naudas tas viss maksā. Sīkāk apskatīsim sarežģījumus, ar kuriem mūsdienās saskaras AI inženieri.

Vispirms informācija, pēc tam AI

Mēs visi lieliski saprotam, ka AI ir jābūt piekļuvei informācijai, lai izpētītu apkārtējo pasauli, bet mēs precīzi nesaprotam, cik daudz informācijas ir nepieciešams. Kā norāda Neils Lorrenss, Šefīldas universitātes mašīnmācības profesors un AI tehnoloģiju attīstības komandas loceklis Amazonē, šīm sistēmām būs nepieciešams simtiem un tūkstošiem reižu vairāk informācijas nekā personai, lai iemācītos izprast pasauli un atpazīt noteiktus objektus.

“Ja apskatīsit visas nozares un jomas, kurās inženieri ir guvuši zināmus panākumus mašīnmācībā, jūs uzreiz redzēsit, cik daudz informācijas tika izmantots visu šo jautājumu risināšanai,” saka Lawrence, citējot piemēru tās pašas runas un attēlu atpazīšanas tehnoloģijas.

Tādiem uzņēmumiem kā Google un Facebook ir pieeja informācijas kalniem, kas, protams, atvieglo dažādu noderīgu rīku izveidi (piemēram, tās pašas balss meklēšanas tehnoloģijas Android ierīcēm).

Lawrencei informācija ir tāda, kāda ogles bija rūpnieciskās revolūcijas pirmajos gados. Kā piemēru Lawrence min Thomas Thomas Newcomen, anglis, kurš 1712. gadā (faktiski 60 gadus pirms Džeimsa Vata šādas mašīnas izveidošanas) radīja primitīvu tvaika dzinēja versiju, ko darbina ogles. Ņūkomena izgudrojums nebija ideāls. Salīdzinot ar Vata mašīnu, tā izrādījās neefektīva un pārāk dārga lietošanai. Lielākoties to varēja izmantot tikai ogļu raktuvēs, kur vajadzīgais kurināmais tika kompensēts ar mašīnas nepilnībām.

Facebook atvērtās attēlu atpazīšanas tehnoloģijas piemērs

Reklāmas video:

Image
Image

Lawrence uzskata, ka visā pasaulē varētu būt simtiem šo Newcomen, kuri izstrādā savus mašīnmācīšanās modeļus. Iespējams, ka starp viņiem ir patiesi revolucionāras idejas, taču, ja viņu tehnoloģijām nepiekļūst milzīgas informācijas par tām datu bāzes, visticamāk, neviens nekad neuzzinās. Lielie uzņēmumi, piemēram, Google, Facebook un Microsoft - tie ir ļoti modernie "ogļu ieguvēji". Viņiem ir pieejams neierobežots informācijas daudzums, tāpēc viņi var izveidot neefektīvas mašīnmācīšanās sistēmas un pēc tam tās uzlabot. Maziem jaunizveidotiem uzņēmumiem patiešām var būt lieliskas idejas, taču viņi nekad nesasniegs neko vērtīgu, ja nebūs piekļuves informācijas bāzēm.

Šī problēma kļūst vēl skaidrāka, aplūkojot jomas, kurās nepieciešamās informācijas iegūšana kļūst vēl grūtāka. Veikt, piemēram, veselības aprūpes sistēmu, kur AI varētu izmantot, lai veiktu uzdevumus, kas saistīti ar mašīnu redzi - piemēram, ļaundabīgu audzēju atrašana un atpazīšana rentgena staros. Bet piekļuve šādiem datiem parasti ir ļoti ierobežota. Galvenais ierobežojošais faktors, pēc Lawrence domām, ir pašreizējais cilvēku uzskats, ka trešajām personām ir neētiski piekļūt šāda veida informācijai. Galvenā problēma, pēc Lorensa domām, ir nevis informācijas izplatīšanas veidu atrašana, bet gan tas, kā padarīt efektīvākas mašīnmācīšanās sistēmas un iemācīt strādāt ar mazāku informāciju. Un šie efektivitātes uzlabojumi, pēc zinātnieka domām, varētu aizņemt tos pašus 60 gadus.kā tas bija ar Vata automašīnu.

Specializācija ir strupceļš. AI jāspēj veikt vairākas darbības

Vēl viena galvenā problēma, ar kuru saskaras patiesi dziļu mašīnmācīšanās modeļu izstrāde, ir fakts, ka visas mūsu pašreizējās AI sistēmas patiesībā ir ļoti muļķīgas. Kā norāda Google DeepMind pētniece Rija Hudžela, šīs sistēmas faktiski var iemācīt veikt kaķu atpazīšanas uzdevumus, spēlēties ar tām un vienlaikus būt ļoti efektīvas šo uzdevumu izpildē. Bet "šobrīd pasaulē nav neviena pilnvērtīga neironu tīkla un metodes, kas to apmācītu atpazīt attēlus, spēlēt Space Invaders un pārdomāt mūziku". Savukārt neironu tīkli ir galvenais pamats dziļu mācību sistēmu izveidošanai mašīnām.

Un šī problēma ir daudz nozīmīgāka, nekā varētu šķist no pirmā acu uzmetiena. Kad DeepMind pagājušā gada februārī paziņoja, ka ir izveidojis sistēmu, kas varētu spēlēt 49 Atari spēles, to patiešām varēja uzskatīt par lielu sasniegumu. Bet galu galā izrādījās, ka pēc tam, kad sistēma ir pabeigusi vienas spēles pāreju, katru reizi tā ir jāpārkvalificē, lai spēlētu citu. Hudsell atzīmē, ka mēs nevaram iemācīt sistēmai spēlēt visas spēles vienlaikus, jo katras spēles noteikumi sajauksies viens ar otru un galu galā traucēs uzdevuma veikšanai. Katru reizi, kad jums ir jāpārzina mašīna, un katru reizi, kad sistēma “aizmirst”, kā spēlēt iepriekšējo spēli.

“Lai izveidotu vispārēju mākslīgo intelektu, mums ir nepieciešams kaut kas, kas mums palīdzēs iemācīt mašīnai vienlaikus veikt vairākus uzdevumus. Tagad mēs pat nevaram viņus apmācīt spēlēt spēles,”saka Hadsels.

Risinājumu var paslēpt tā dēvētajos progresīvajos neironu tīklos - apvienojot neatkarīgas dziļās apmācības sistēmas vienotā veselumā efektīvākai darbībai ar informāciju. Publicētajā zinātniskajā rakstā, kurā tika apskatīts šis jautājums, Hadsella un viņas pētnieku komanda runāja par to, kā viņu progresīvais neironu tīkls spēja pielāgoties spēlē Pong, kādos apstākļos apstākļi katru reizi bija nedaudz atšķirīgi (vienā gadījumā tika mainītas krāsas; otrā - tie tika sajaukti) vadība), daudz ātrāk nekā “parastais” neironu tīkls, kurš katru reizi bija jāapmāca no jauna.

Progresējoša neironu tīkla pamatprincips

Image
Image

Metode ir izrādījusies ļoti daudzsološa, un nesen tā tika izmantota, lai noskaņotu robotizētās ieročus, paātrinot mācību procesu no nedēļas līdz vienai dienai. Diemžēl šai metodei ir arī savi ierobežojumi. Hudsell atzīmē, ka progresējošu neironu tīklu gadījumā mācību procesu nevar samazināt līdz vienkārši jaunu uzdevumu pievienošanai viņu atmiņai. Ja jūs turpināt kombinēt šādas sistēmas kopā, tad agrāk vai vēlāk jūs nonāksit pie "pārāk sarežģīta modeļa, kuru būs neiespējami izsekot". Šajā gadījumā mēs runāsim par citu līmeni. Līmenis, kurā dažādi uzdevumi parasti tiek veikti vienādi. AI veidošana, kas spēj projektēt krēslus, un AI izveidošana cilvēka intelekta līmenī, kas spēj rakstīt dzejoļus un atrisināt diferenciālvienādojumus, nav viena un tā pati lieta.

AI var saukt par AI, ja mēs varam parādīt, kā tā darbojas

Vēl viens biedējošs šķērslis ir izpratne par to, kā mākslīgais intelekts nonāks pie saviem secinājumiem, risinot problēmas. Neironu tīkli novērotājam parasti ir necaurlaidīgi. Neskatoties uz to, ka mēs zinām, kā tie tiek savākti un kā caur tiem plūst informācija, viņu pieņemtie lēmumi parasti paliek izskaidrojami.

Lielisks šīs problēmas piemērs ir Virginia Tech eksperiments. Pētnieki ir izveidojuši neironu tīkla izsekošanas sistēmu, kas reģistrē tos digitālā attēla pikseļus, kurus dators sāk analizēt. Pētnieki parādīja guļamistabas neironu tīkla attēlus un uzdeva tam jautājumu: "Kas karājas uz logiem?" Mašīna tā vietā, lai skatītos tieši uz logiem, sāka analizēt attēlus, sākot no grīdas. Viņas redzamības laukā ienāca gulta, un automašīna atbildēja: "uz logiem ir aizkari." Atbilde izrādījās pareiza, bet tikai tāpēc, ka sistēma tika "iemācīta" strādāt ar ierobežotu datu daudzumu. Balstoties uz parādīto attēlu, neironu tīkls secināja: ja fotoattēlā ir redzama guļamistaba, tad, visticamāk, uz logiem vajadzētu būt aizkariem. Kad viņas redzamības laukā ienāca kāda detaļa,kas parasti ir atrodams jebkurā guļamistabā (šajā gadījumā - gultā), viņa neanalizēja attēlu tālāk. Varbūt viņa pat nav redzējusi šo gultu, viņa redzēja aizkarus. Tas ir loģiski, bet ļoti virspusēji un piesaista. Turklāt daudzās guļamistabās nav aizkaru!

Izsekošanas tehnoloģija ir tikai viens rīks, kas var palīdzēt mums saprast, kas liek mašīnai pieņemt noteiktu lēmumu, taču ir arī labākas metodes, kas mašīnu mācību sistēmām var pievienot vairāk loģikas un dziļu analīzi. Murray Shanahan, Londonas Imperial College kognitīvās robotikas profesors, uzskata, ka labākais problēmas risinājums ir pārskatīt AI vecmodīgo paradigmu - simbolisko AI jeb GOFAI (labs vecmodīgs mākslīgais intelekts, “vecais labais mākslīgais intelekts”). Tās paradigmas pamatā ir fakts, ka absolūti jebkuru uzdevumu var sadalīt loģiskos pamata elementos, kur katrs vārds ir tikai sarežģīts vienkāršu simbolu komplekts. Apvienojot šos simbolus - darbībās, notikumos, objektos utt., Domāšanu var sintezēt. Iedomājieties, ka šāda attīstība tika veikta jau tajās dienās, kad datori bija istabas izmēra gigantiskas kastes, strādājot ar magnētisko lenti (darbs sākās 50. gadu vidū un turpinājās līdz pagājušā gadsimta 80. gadu beigām).

Šanahana priekšlikums ir apvienot GOFAI simboliskos aprakstus un dziļās mācīšanās tehnoloģijas. Tas ļaus ne tikai barot šādas sistēmas ar jaunu informāciju un gaidīt, kamēr tās izsekos noteiktus uzvedības modeļus un problēmu risināšanu, pamatojoties uz šo informāciju, Šanahana pieeja ir paredzēta, lai šādām sistēmām piešķirtu izejas punktus pasaules izpratnei. Tas, viņaprāt, atrisinās ne tikai AI caurspīdīguma problēmu, bet arī Hadsella aprakstīto nododamo mācību problēmu.

“Var teikt, ka Breakout ir ļoti līdzīgs Pongam, jo abos gadījumos tiek izmantotas“platformas”un“bumbiņas”, taču no cilvēka uztveres un loģikas viedokļa tās ir divas pilnīgi atšķirīgas spēles. Un starp tiem praktiski nav iespējams novilkt paralēles. Tas ir tāpat kā mēģināt apvienot atoma struktūru un visas Saules sistēmas struktūru."

Šanahans un viņa kolēģi Londonas Imperiālajā koledžā šobrīd strādā pie jaunas mašīnmācīšanās metodes (ko viņi dēvē par dziļi simboliski stimulētu mācīšanos) un jau ir publicējuši dažu nelielu eksperimentu rezultātus. Metode joprojām ir sākumstadijā, un tāpēc pagaidām ir grūti pateikt, vai tā tiks piemērota lielākām sistēmām, kas strādā ar dažāda veida datiem. Neskatoties uz to, joprojām pastāv iespējas, ka šī metode kļūs par kaut ko vairāk. Galu galā dziļa mācīšanās vienmēr ir bijusi garlaicīgākā un garlaicīgākā AI attīstības sastāvdaļa, līdz pētnieki ir atraduši veidu, kā ātri piekļūt datiem, un ieguvuši milzīgu apstrādes jaudu. Diezgan iespējams,ir pienācis laiks atgriezties pie vecajām AI paradigmām un izmēģināt tās jaunā vidē.

NIKOLAY KHIZHNYAK