Bīstama Cilvēce: Kāpēc Mums Vajadzīgs Inteliģents Mākslīgais Intelekts? - Alternatīvs Skats

Satura rādītājs:

Bīstama Cilvēce: Kāpēc Mums Vajadzīgs Inteliģents Mākslīgais Intelekts? - Alternatīvs Skats
Bīstama Cilvēce: Kāpēc Mums Vajadzīgs Inteliģents Mākslīgais Intelekts? - Alternatīvs Skats

Video: Bīstama Cilvēce: Kāpēc Mums Vajadzīgs Inteliģents Mākslīgais Intelekts? - Alternatīvs Skats

Video: Bīstama Cilvēce: Kāpēc Mums Vajadzīgs Inteliģents Mākslīgais Intelekts? - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Maijs
Anonim

Kad Norberts Vīners, kibernētikas tēvs, 1950. gadā uzrakstīja savu grāmatu Cilvēka lietojumi, vakuuma caurules joprojām bija galvenie elektroniskie celtniecības bloki, un faktiski darbā bija tikai daži datori. Tomēr viņš nākotni, ko mēs tagad redzam, redzēja ar nepieredzētu precizitāti, kļūdaini sajaucot tikai sīkas detaļas.

Pirms jebkura cita mākslīgā intelekta filozofa viņš saprata, ka AI ne tikai atdarinās un aizstās cilvēkus daudzos intelektuālās darbības veidos, bet arī mainīs cilvēkus šajā procesā. "Mēs esam vienkārši virpuļvannas nepārtraukti plūstoša ūdens upē," viņš rakstīja. "Mēs neesam kaut kas tāds, kas vienkārši dzīvo, mēs esam modeļi, kas iemūžina sevi."

Piemēram, kad rodas daudz vilinošu iespēju, mēs esam gatavi maksāt un pieņemt mazās izmaksas, kas saistītas ar uzņēmuma vadīšanu, lai piekļūtu jaunām iespējām. Un ļoti drīz mēs kļūstam atkarīgi no jauniem instrumentiem, mēs zaudējam spēju eksistēt bez tiem. Opcijas kļūst vajadzīgas.

Šī ir ļoti sena evolūcijas vēsture, un daudzas no tās esošajām nodaļām mums ir labi zināmas. Lielākā daļa zīdītāju var sintezēt paši savu C vitamīnu, bet augļu ēšanas primāti ir zaudējuši šo iebūvēto spēju. Pašreizējie atkārtošanās paraugi, kurus mēs saucam par cilvēkiem, tagad paļaujas uz apģērbu, apstrādātu pārtiku, vitamīniem, šļircēm, kredītkartēm, viedtālruņiem un internetu. Un rīt, ja ne šodien, no mākslīgā intelekta.

Vīners paredzēja vairākas problēmas šajā situācijā, kuras Alans Tjūrings un citi agrīnie AI optimisti lielākoties aizmirsa. Viņš sacīja, ka patiesie draudi bija:

… ir tas, ka šādas mašīnas, kaut arī pašas par sevi bezpalīdzīgas, tās var izmantot cilvēki vai bloķēt cilvēkus, lai palielinātu kontroli pār pārējo rasi, vai arī politiskie līderi var mēģināt pārņemt kontroli pār saviem iedzīvotājiem, izmantojot politiskas metodes, nevis pašas mašīnas, tik šauri un vienaldzīgi pret cilvēku, it kā tie būtu izgudroti mehāniski.

Acīmredzot šīs briesmas tagad ir ļoti aktuālas.

Piemēram, plašsaziņas līdzekļos jauninājumi digitālajā audio un video ļauj mums maksāt nelielu cenu (skaņu un filmu skatītāju acīs), lai attālinātos no analogiem formātiem, un pretī saņemtu ārkārtīgi vienkāršu - pārāk vienkāršu - ierakstu atskaņošanas veidu gandrīz bez ierobežojumiem.

Reklāmas video:

Image
Image

Bet ir milzīgas slēptās izmaksas. Orvela patiesības kalpošana ir kļuvusi par reālu iespēju. AI metodes, lai izveidotu praktiski neatšķirīgus viltus "ierakstus", padara instrumentus, kurus mēs esam izmantojuši izmeklēšanai, novecojušus pēdējos 150 gadus.

Mums vienkārši jāatsakās no īsa fotogrāfisko pierādījumu laikmeta un jāatgriežas tajā vecajā pasaulē, kur zelta atmiņa bija cilvēka atmiņa un uzticēšanās. Vai arī cīņā par patiesību mēs varam izstrādāt jaunas aizsardzības un uzbrukuma metodes. Viens no aizraujošākajiem nesenajiem piemēriem ir fakts, ka reputāciju iznīcināt ir daudz lētāk nekā nopelnīt un aizsargāt to pašu reputāciju. Vīners šo parādību redzēja ļoti plaši: "Ilgtermiņā nebūs atšķirības starp apbruņošanos ar sevi un ienaidnieka apbruņošanu." Informācijas laikmets ir kļuvis arī par dezinformācijas laikmetu.

Ko mēs varam darīt? Galvenais ir Vīnera tas pats novērojums, ka "šīs mašīnas" ir "pašas bezpalīdzīgas". Mēs veidojam instrumentus, nevis kolēģus, un patiesais drauds ir tas, ka mēs neredzam atšķirību.

Mākslīgais intelekts tā pašreizējā formā parazitē cilvēka intelektu. Viņš ļoti neapdomīgi pārņem visu, ko cilvēku veidotāji ir izveidojuši, un zīmē modeļus, ieskaitot mūsu slepenākos ieradumus. Šīm mašīnām vēl nav mērķu vai stratēģiju, tās nav spējīgas paškritizēt un ieviest jauninājumus, viņi tikai pēta mūsu datu bāzes, bez savām domām un mērķiem.

Viņi, kā saka Vīners, ir bezpalīdzīgi tādā nozīmē, ka viņi ir pieķēdēti vai imobilizēti, nē, viņi nemaz nav aģenti - viņiem nav iespējas “rīkoties no cēloņiem”, kā Kants to teiktu.

Ilgtermiņā principā ir iespējama “spēcīga AI” jeb vispārējs mākslīgais intelekts, bet tas nav vēlams. Pat ierobežotākais AI, kas šodien ir iespējams praksē, nebūs ļauns. Bet tas rada draudus - daļēji tāpēc, ka to var sajaukt ar spēcīgu AI.

Cik spēcīgs mūsdienās ir mākslīgais intelekts?

Plaisa starp mūsdienu sistēmām un sci-fi sistēmām, kas pārpludina tautas iztēli, joprojām ir milzīga, lai gan daudzi cilvēki, gan amatieri, gan profesionāļi, to mēdz novērtēt par zemu. Apskatīsim IBM Watson, kas šajā dienā un laikmetā var būt cienījams.

Šis superdators ir ārkārtīgi liela mēroga pētniecības un attīstības (pētniecības un attīstības) procesa rezultāts, kurā daudzu gadsimtu laikā iesaistīti daudzi cilvēki un dizaina inteliģence, un tas patērē tūkstošiem reižu vairāk enerģijas nekā cilvēka smadzenes. Viņa uzvara Jeopardijā! bija patiess triumfs, ko ļāva veikt Jeopardy! noteikumu formālie ierobežojumi, bet pat šie noteikumi bija jāpārskata, lai viņš varētu piedalīties. Man bija jāatsakās no nedaudz daudzpusības un jāpievieno cilvēcība, lai veidotu izrādi.

Vatsons ir slikta kompānija, neskatoties uz maldinošām IBM reklāmām, kas sola AI sarunvalodas spējas abos līmeņos, un Vatsona pārvēršana par ticamu daudzšķautņainu aģentu būtu kā kalkulatora pārvēršana Vatsonā. Vatsons var būt labs šāda aģenta skaitļošanas gadījums, bet drīzāk smadzenītes vai amygdala, nevis prāts - labākajā gadījumā īpaša mērķa apakšsistēma, kas kalpo kā atbalsts, bet ne tuvu sistēma mērķu plānošanai un formulēšanai, pamatojoties uz iegūto sarunvalodas pieredzi.

Kāpēc mēs vēlamies no Vatsona radīt domājošu un radošu aģentu? Varbūt Tjūringa spožā ideja - slavenais Tjūringa tests - mūs ir ievilinājusi slazdā: mēs esam kļuvuši apsēsti, lai radītu vismaz ilūziju par reālu cilvēku, kurš sēž ekrāna priekšā, apejot “draudošo ieleju”.

Briesmas ir tādas, ka kopš Tīrings iepazīstināja ar savu uzdevumu - kas galvenokārt bija uzdevums maldināt tiesnešus - AI veidotāji to ir mēģinājuši paveikt, izmantojot smieklīgas humanoīdu lelles, “multfilmas” versijas, kas aizrauj un atbruņo nemanīto. Džozefa Veisenbauma ELIZA, pats pirmais tērzēšanas robots, bija lielisks piemērs šādas ilūzijas radīšanai, taču ar ārkārtīgi vienkāršu algoritmu, kas pārliecināja cilvēkus par sirsnīgu un sirsnīgu sarunu ar citiem cilvēkiem.

Viņu uztrauca tas, cik viegli cilvēki vēlas tam ticēt. Un, ja mēs kaut ko izdomājām no ikgadējā Lebnera balvas ierobežotā Tjūringa testa, tad ir tas, ka pat visgudrākie cilvēki, kuri nepārzina datoru programmēšanu, viegli pakļūst šiem vienkāršajiem trikiem.

AI cilvēku attieksme pret šādām metodēm svārstās no vērtēšanas līdz apbalvošanai, un ir vienprātība, ka šie triki nav ļoti dziļi, bet var būt noderīgi. Attieksmes maiņa, kas būtu ļoti apsveicama, būtu sirsnīga atzīšana, ka leļļu krāsoti androīdi ir nepatiesa reklāma, kas būtu jāvērtē, nevis jāmudina.

Kā to var panākt? Tiklīdz mēs sapratīsim, ka cilvēki sāk pieņemt lēmumus par dzīvību un nāvi, sekojot AI sistēmu "padomiem", kuru iekšējās darbības ir gandrīz nesaprotamas, mēs redzēsim labu iemeslu tiem, kas mudina cilvēkus uzticēties šādām sistēmām, sākt paļauties uz morāles un likuma normām.

Mākslīgā intelekta sistēmas ir ļoti spēcīgi rīki. Tik spēcīgs, ka pat ekspertiem ir pietiekams iemesls neuzticēties savam spriedumam, ja ir “spriedumi”, ko pārstāv šie rīki. Bet, ja šie rīku lietotāji gūs labumu no šo rīku popularizēšanas finansiāli vai citādi, viņiem jāpārliecinās, ka viņi zina, kā to izdarīt ar pilnu atbildību, maksimālu kontroli un pamatojumu.

Šādu sistēmu operatoru licencēšana un apstiprināšana - tāpat kā mēs licencējam farmaceitus, celtņu operatorus un citus speciālistus, kuru kļūdām un nepareiziem lēmumiem var būt nopietnas sekas - varbūt ar apdrošināšanas kompāniju un citu organizāciju atbalstu AI sistēmu radītājiem būs jānoiet tāls ceļš meklējot savu produktu trūkumus un trūkumus, kā arī apmācot tos, kuri gatavojas strādāt ar tiem.

Var iedomāties sava veida apgrieztu Tīringa testu, kurā tiesnesis tiks vērtēts; kamēr viņš neatrod vājumu, robežu pārkāpšanu, nepilnības sistēmā, viņš nesaņems licenci. Šādam tiesnesim būs nepieciešama nopietna apmācība, lai iegūtu sertifikātu. Aicinājums piedēvēt objektam cilvēka domāšanas spēju, kā mēs parasti darām, tiekoties ar saprātīgu aģentu, ir ļoti, ļoti spēcīgs.

Faktiski spēja pretoties vēlmei redzēt kaut ko humanizētu ir dīvaina lieta. Daudzi cilvēki uzskatītu, ka šāda talanta kopšana ir apšaubāma, jo pat vispraktiskākie sistēmas lietotāji laiku pa laikam ir “draudzīgi” pret saviem rīkiem.

Neatkarīgi no tā, cik uzmanīgi AI dizaineri izvēlas novērst viltus "cilvēka" virsskaņas savos izstrādājumos, mums vajadzētu sagaidīt uzlīmju, apvedceļu uzplaukumu un pieļaujamus abu sistēmu un to operatoru "izpratnes" izkropļojumus. Tieši tāpat kā televizorā tiek reklamētas narkotikas ar garu blakusparādību sarakstu vai alkohols tiek reklamēts ar pārlieku mazu drukātu tekstu ar visiem likumā prasītajiem brīdinājumiem, tāpēc mākslīgā intelekta izstrādātāji ievēro likumu, bet brīdinājumu veidā kļūst izsmalcināti.

Kāpēc mums vajadzīgs mākslīgais intelekts?

Mums nav vajadzīgi mākslīgi apzināti aģenti. Ir daudzi dabiski apzinīgi aģenti, kas ir pietiekami, lai profesionāļiem un priviliģētām personām veiktu jebkuru uzdevumu. Mums ir nepieciešami viedie rīki. Rīkiem nav tiesību, un tiem nevajadzētu būt sajūtām, kuras var ievainot vai ļaunprātīgi izmantot.

Viens no iemesliem, kāpēc mākslīgi apzinātie pārstāvji netiek veidoti, ir tas, ka, lai arī viņi var kļūt autonomi (un principā tie var būt tikpat autonomi, sevi pilnveidojoši vai sevi radoši kā jebkura persona), viņiem nevajadzētu - bez īpašas atļaujas - dalīties ar mūsu dabiski apzināti aģenti, mūsu ievainojamība vai mirstība.

Daniels Dennets, Tufta universitātes filozofijas profesors, savulaik izaicināja studentus seminārā par mākslīgajiem līdzekļiem un autonomiju: dodiet man robota specifikācijas, kas var parakstīt līgumu ar jums - nevis surogāts, kas pieder citai personai, bet gan pats. Tas nav jautājums par iemeslu izpratni vai manipulācijām ar pildspalvu uz papīra, bet drīzāk par juridiskā statusa un morālas atbildības īpašumtiesībām un pelnītām īpašumtiesībām. Mazi bērni nevar parakstīt šādus līgumus, kā arī cilvēki ar invaliditāti, kuru juridiskais statuss uzliek par pienākumu būt aizbildnībā un uzliek atbildību aizbildņiem.

Problēma ar robotiem, kuri varētu vēlēties sasniegt tik paaugstinātu statusu, ir tāda, ka, tāpat kā Supermens, viņi ir pārāk neaizsargāti, lai izteiktu šādas prasības. Ja viņi atsakās, kas notiks? Kāds būs sods par solījuma pārkāpšanu? Vai viņi tiks ieslodzīti būrī vai nodalīti? Mākslīgā intelekta cietums neradīs neērtības, ja vien mēs vispirms neuzlabosim slāpes pēc brīvības, kuras pati AI nevar ignorēt vai atspējot. Izjaucot AI, netiks iznīcināta informācija, kas tiek glabāta tā diskā un programmatūrā.

Datu digitālas ierakstīšanas un pārsūtīšanas vienkāršība - sasniegums, kas ļāva programmatūrai un datiem faktiski sasniegt nemirstību - padara robotus neievainojamus. Ja tas nešķiet acīmredzams, padomājiet par to, kā mainītos cilvēku morāle, ja mēs varētu atbalstīt cilvēkus katru nedēļu. Svētdien lekt no tilta bez gumijas joslas pēc piektdienas dublējuma var būt sarežģīts lēmums, un vēlāk jūs varat noskatīties savus nelaikā mirušos materiālus.

Tāpēc mēs neveidojam apzinātus - mēs gribētu radīt - humanoīdus, bet drīzāk pilnīgi jauna veida radījumus, dažus orākus, bezsamaņā, nebaidoties no nāves, bez uzmanības novēršanas no mīlestības un naida, bez personības: patiesības spoguļiem, kurus gandrīz noteikti inficēs arī cilvēks melo.

Cilvēku izmantošana cilvēkiem drīz mainīsies - atkal - uz visiem laikiem, bet, ja mēs uzņemamies atbildību par savu evolūcijas trajektoriju, mēs varam izvairīties no nevajadzīgām briesmām.

Iļja Khel

Ieteicams: