Domājat Kā Cilvēks: Kas Notiks, Ja Jūs Piešķirsit Mašīnai Apziņas Teoriju - Alternatīvs Skats

Satura rādītājs:

Domājat Kā Cilvēks: Kas Notiks, Ja Jūs Piešķirsit Mašīnai Apziņas Teoriju - Alternatīvs Skats
Domājat Kā Cilvēks: Kas Notiks, Ja Jūs Piešķirsit Mašīnai Apziņas Teoriju - Alternatīvs Skats

Video: Domājat Kā Cilvēks: Kas Notiks, Ja Jūs Piešķirsit Mašīnai Apziņas Teoriju - Alternatīvs Skats

Video: Domājat Kā Cilvēks: Kas Notiks, Ja Jūs Piešķirsit Mašīnai Apziņas Teoriju - Alternatīvs Skats
Video: 101 отличный ответ на самые сложные вопросы интервью 2024, Jūlijs
Anonim

Pagājušajā mēnesī pašmācītu AI spēlētāju komanda piedzīvoja iespaidīgu sakāvi pret profesionālajiem esporta spēlētājiem. Izrādes mačs, kas notika kā daļa no Dota 2 Starptautiskā pasaules čempionāta, parādīja, ka komandas stratēģiskā domāšana joprojām ļauj cilvēkam iegūt virsroku pār automašīnu.

Iesaistītie AI bija vairāki OpenAI izstrādāti algoritmi, kuru viens no dibinātājiem ir Elons Musks. Digitālo spēlētāju kolektīvs, saukts par OpenAI Five, iemācījās spēlēt Dota 2 pats, izmantojot izmēģinājumu un kļūdas, sacenšoties savā starpā.

Atšķirībā no tās pašas šaha vai galda loģikas spēles Go, populārā un strauji augošā vairāku spēlētāju spēle Dota 2 tiek uzskatīta par daudz nopietnāku lauku mākslīgā intelekta izturības pārbaudei. Spēles vispārējās grūtības ir tikai viens faktors. Nepietiek tikai ar peles ļoti ātru noklikšķināšanu un komandas vadāmajam personālam izdošanu. Lai uzvarētu, ir nepieciešama intuīcija un izpratne par to, ko nākamajā brīdī sagaidīt no pretinieka, kā arī atbilstoši jārīkojas saskaņā ar šo zināšanu kopumu, lai nonāktu kopā ar kopīgiem centieniem uz kopēju mērķi - uzvaru. Datoram nav šo iespēju kopas.

Līdz šim pat visizcilākajam dziļo mācību datoru algoritmam nav stratēģiskās domāšanas, kas nepieciešama, lai saprastu mērķus no pretinieka uzdevumiem, vai tas būtu cits AI vai cilvēks.

Pēc Vanga teiktā, lai AI gūtu panākumus, tai jābūt ar dziļu komunikācijas prasmi, kas rodas no cilvēka vissvarīgākās izziņas iezīmes - intelekta klātbūtnes.

Garīgā stāvokļa modelis kā simulācija

Reklāmas video:

Līdz četru gadu vecumam bērni parasti sāk izprast vienu būtisku sociālo iezīmi: viņu prāts atšķiras no citu prāta. Viņi sāk saprast, ka ikvienam ir tas, kam viņi tic, vēlmes, emocijas un nodomi. Un pats galvenais - iedomājoties sevi citu vietā, viņi var sākt paredzēt šo cilvēku tālāko izturēšanos un izskaidrot viņus. Savā ziņā viņu smadzenes sāk radīt sevī dažādas simulācijas, aizstājot sevi citu cilvēku vietā un novietojot sevi citā vidē.

Garīgā stāvokļa modelis ir svarīgs, lai izprastu sevi kā personu, un tam ir arī liela loma sociālajā mijiedarbībā. Izpratne par citiem ir efektīvas komunikācijas un kopīgu mērķu sasniegšanas atslēga. Tomēr šī spēja var būt arī maldīgu uzskatu virzītājspēks - idejas, kas mūs ved prom no objektīvās patiesības. Tiklīdz tiek traucēta spēja izmantot garīgā stāvokļa modeli, piemēram, tas notiek autismā, tad pasliktinās arī dabiskās "cilvēka" prasmes, piemēram, spēja izskaidrot un iedomāties.

Saskaņā ar Anglijas Rietumu universitātes robotikas profesora Dr Alan Winfield teikto, garīgā stāvokļa modelis vai "prāta teorija" ir galvenā iezīme, kas kādu dienu ļaus AI "saprast" cilvēkus, lietas un citus robotus.

Mašīnmācīšanās metožu vietā, kurās vairāki neironu tīklu slāņi iegūst atsevišķu informāciju un "pēta" milzīgas datu bāzes, Vinstons piedāvā izmantot citu pieeju. Tā vietā, lai paļautos uz mācīšanos, Vinstons iesaka iepriekš ieprogrammēt AI ar sava un vides iekšējo modeli, kas atbildēs uz vienkāršiem jautājumiem “kas būtu, ja?”.

Piemēram, iedomājieties, ka divi roboti pārvietojas pa šauru koridoru, viņu AI var simulēt turpmāko darbību rezultātus, kas novērsīs to sadursmi: pagriezieties pa kreisi, pa labi vai turpiniet taisni. Šis iekšējais modelis būtībā darbosies kā "seku mehānisms", darbojoties kā sava veida "veselais saprāts", kas palīdzēs AI virzīt uz turpmākām pareizām darbībām, paredzot situācijas attīstību nākotnē.

Šā gada sākumā publicētajā pētījumā Vinstons demonstrēja robota prototipu, kas spēj sasniegt šādus rezultātus. Paredzot citu uzvedību, robots veiksmīgi izgāja cauri koridorā bez sadursmēm. Patiesībā tas nav pārsteidzoši, atzīmē autors, bet "uzmanīgajam" robotam, izmantojot simulētu pieeju problēmas risināšanai, koridora pabeigšanai vajadzēja par 50 procentiem ilgāku laiku. Neskatoties uz to, Vinstons pierādīja, ka viņa iekšējās simulācijas metode darbojas: "Tas ir ļoti spēcīgs un interesants sākumpunkts mākslīgā intelekta teorijas attīstībā," secināja zinātnieks.

Vinstons cer, ka galu galā AI iegūs spēju aprakstīt, garīgi reproducēt situācijas. Sevis un citu iekšējais modelis ļaus šādai AI simulēt dažādus scenārijus un, vēl svarīgāk, katram no tiem noteikt konkrētus mērķus.

Tas ievērojami atšķiras no dziļās mācīšanās algoritmiem, kuri principā nespēj izskaidrot, kāpēc viņi, nonākot pie problēmas, nonāca pie šī vai tā secinājuma. Melnās kastes dziļās mācīšanās modelis patiesībā ir patiesa problēma, uzticoties šādām sistēmām. Šī problēma var kļūt īpaši aktuāla, piemēram, attīstot slimnīcu vai vecāka gadagājuma cilvēku aprūpes robotus.

Ar garīgā stāvokļa modeli bruņota AI varētu iejusties sava kunga kurpēs un pareizi saprast, ko no tā vēlas. Tad viņš varēja noteikt piemērotus risinājumus un, izskaidrojis personai šos lēmumus, viņš jau pildīs viņam uzticēto uzdevumu. Jo mazāka lēmumu nenoteiktība, jo lielāka būs pārliecība par šādiem robotiem.

Garīgā stāvokļa modelis neironu tīklā

DeepMind izmanto atšķirīgu pieeju. Tā vietā, lai iepriekš ieprogrammētu seku mehānisma algoritmu, viņi ir izstrādājuši vairākus neironu tīklus, kuriem ir līdzība ar kolektīvās psiholoģiskās uzvedības modeli.

AI algoritms "ToMnet" var iemācīties darbības, novērojot citus neitronu tīklus. Pats ToMNet ir trīs neironu tīklu kolektīvs: pirmais ir balstīts uz citu AI izvēles īpatnībām atbilstoši viņu pēdējām darbībām. Otrais veido vispārēju priekšstatu par pašreizējo noskaņu - viņu uzskatiem un nodomiem noteiktā brīdī. Divu neironu tīklu darba kolektīvo rezultātu saņem trešais, kurš, pamatojoties uz situāciju, paredz turpmākās AI darbības. Līdzīgi kā padziļinātas mācības, arī ToMnet kļūst efektīvāks, jo iegūst pieredzi, sekojot citiem.

Vienā eksperimentā ToMnet "vēroja" trīs AI aģentus manevrējot digitālā telpā, savācot krāsainas kastes. Katram no šiem AI bija sava īpatnība: viens bija "aklais" - nevarēja noteikt formu un izvietojumu telpā. Otrs bija “sklerotisks”: viņš nespēja atcerēties savus pēdējos soļus. Trešais varēja gan redzēt, gan atcerēties.

Pēc apmācības ToMnet sāka paredzēt katras AI preferences, novērojot tās darbības. Piemēram, "aklie" pastāvīgi pārvietojās tikai gar sienām. ToMnet to atcerējās. Algoritms spēja arī pareizi paredzēt AI turpmāko rīcību un, vēl svarīgāk, saprast, kad AI sastapās ar nepatiesu vides attēlojumu.

Vienā pārbaudē zinātnieku komanda ieprogrammēja vienu AI "tuvredzībai" un mainīja telpas izkārtojumu. Aģenti ar normālu redzi ātri pielāgojās jaunajam izkārtojumam, bet tuvredzīgais cilvēks turpināja iet pa saviem sākotnējiem maršrutiem, maldīgi uzskatot, ka viņš joprojām atrodas vecajā vidē. ToMnet ātri atzīmēja šo funkciju un precīzi paredzēja aģenta uzvedību, nostādot sevi savās vietās.

Saskaņā ar Kalifornijas Bērklijas universitātes attīstības psihologa Dr. Alisonu Gopniku, kurš nebija iesaistīts šajos pētījumos, bet kurš bija pazīstams ar atradumiem, šie rezultāti patiešām parāda, ka neironu tīkliem ir pārsteidzoša spēja iemācīties dažādas prasmes patstāvīgi, novērojot citus. Tajā pašā laikā, pēc eksperta domām, vēl ir pāragri apgalvot, ka šie AI ir izstrādājuši mākslīgu garīgā stāvokļa modeli.

Saskaņā ar Dr Josh Tenebaum no Masačūsetsas Tehnoloģiju institūta, kurš arī nebija iesaistīts pētījumā, ToMnet “izpratne” ir cieši saistīta ar mācību vides kontekstu - tajā pašā telpā un konkrētiem AI aģentiem, kuru uzdevums bija uzņemt kastes. Šis ierobežojums noteiktā ietvarā padara ToMnet mazāk efektīvu prognozējot uzvedību radikāli jaunā vidē, pretstatā tiem pašiem bērniem, kuri var pielāgoties jaunām situācijām. Algoritms, pēc zinātnieka domām, netiks galā ar pilnīgi cita AI vai personas darbību modelēšanu.

Jebkurā gadījumā Winston un DeepMind darbs pierāda, ka datori sāk parādīt rudimentus par "izpratni" par otru, pat ja šī izpratne joprojām ir tikai rudimentāra. Un, turpinot uzlabot šo prasmi, labāk un labāk izprotot viens otru, pienāks laiks, kad mašīnas varēs saprast mūsu pašu apziņas sarežģītību un sarežģītību.

Nikolajs Khizhnyak