Mākslīgais Intelekts: Bīstams Ienaidnieks Vai Laipns Palīgs - Alternatīvs Skats

Mākslīgais Intelekts: Bīstams Ienaidnieks Vai Laipns Palīgs - Alternatīvs Skats
Mākslīgais Intelekts: Bīstams Ienaidnieks Vai Laipns Palīgs - Alternatīvs Skats

Video: Mākslīgais Intelekts: Bīstams Ienaidnieks Vai Laipns Palīgs - Alternatīvs Skats

Video: Mākslīgais Intelekts: Bīstams Ienaidnieks Vai Laipns Palīgs - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Maijs
Anonim

Mākslīgā intelekta (AI) izmantošana ikdienas dzīvē strauji pieaug, taču šī tendence arvien vairāk rada bažas speciālistiem. NYU darbinieki sagatavoja brīdinājuma piezīmi par I. I lietošanas riskiem. Lielākoties autori koncentrējās uz ētikas un sociālajiem jautājumiem, kā arī uz regulējuma trūkumu. Grupas AI Now ziņojumā teikts maz jauna, taču pasaules praksē arvien vairāk tiek izvirzīts jautājums par nepieciešamību ierobežot mākslīgās domāšanas darbu.

Gandrīz visi tehnoloģiskā progresa redzētāji runāja par potenciālajiem draudiem AI. Stefans Hokings pagājušā gada novembrī pauda galvenās bailes, kas pavada pārdomas par tehnoloģiju attīstību. Pēc viņa domām, datori agrāk vai vēlāk iemācīsies sevi reproducēt. Bioloģiskās radības, domājams, zaudēs silīcija intelektu gan garīgo spēju, gan pielāgošanās ziņā videi, it īpaši uz citas planētas. Agrāk vai vēlāk viedie roboti uzskatīs cilvēku par novecojušu formu un vēlēsies no tiem atbrīvoties.

Hokinga vārdi joprojām izklausās kā šausmu stāsts, desmitiem reižu tiek atskaņoti filmās un grāmatās, taču pat tie, kas strādā pie viedo sistēmu ieviešanas, arvien vairāk baidās par nākotni ar AI, lai gan ir arī tādi, kas šādas bailes uzskata par pāragri. “Baidīties no AI attīstības šodien ir tāpat kā uztraukties par Marsa pārapdzīvotību,” sacīja Google Brain vadītājs Endrjū Ngs. Tomēr viņš nemierināja visus.

Image
Image

Starp lielākajām fobijām, kas saistītas ar datora ieviešanu visās dzīves sfērās, ir vērts atzīmēt trīs. Pirmkārt, datorprāts tiks izmantots kā kara ierocis, kas iznīcinošā spēkos ievērojami pārspēs pat kodolieročus. Otrais ir tas, ka AI pavergs cilvēkus. Treškārt, tāpat kā jebkura cilvēka radīta, dators ir pakļauts kļūdām. Visus trīs jautājumus var apspriest sīkāk.

2017. gada 21. augustā vadošie eksperti mākslīgā intelekta izpētes un ieviešanas jomā, ieskaitot tādu uzņēmumu vadītājus kā SpaceX un Deep Mind, nosūtīja atklātu vēstuli ANO. Tekstā viņi brīdināja pasaules sabiedrību pret letālu autonomu ieroču izstrādi, neatkarīgi no tā, vai tie ir roboti vai citi mehānismi, kas paredzēti ienaidnieka nogalināšanai. Dokumenta autori vērsa uzmanību uz šādu ieroču izmantošanas liktenīgajām sekām. Ar savu fenomenālo efektivitāti ir taisnīgi jautāt, kuru rokās tas nonāks. To var izmantot gan šaurs elites loks, gan teroristi.

Vēstules autori aicināja kontroles organizāciju un līdz ar to arī zinātnisko aprindu ieskicēt AI kaitīgās izmantošanas jomu. Cilvēka atbildība par viņa paša radīto darbu liek viņam veikt nopietnu darbu, lai novērstu riskus. Papildus likumiem to veidotājiem ir jāierobežo arī robotu spēks, un viņiem būs jādomā, kā ārkārtas gadījumos izslēgt mašīnas.

Image
Image

Reklāmas video:

Elektronisko sistēmu politiskā ļaunprātīga izmantošana jau ir pierādīta, izmantojot sociālos tīklus un datu analīzes algoritmus. Šā gada pavasarī pasaulē pērkons satricināja skandāls ar Cambridge Analytica. Tās speciālisti veica padziļinātu lietotāju datu analīzi un ievietoja reklāmas sociālajā tīklā Facebook, pielāgojot to katrai personai individuāli.

Uzņēmuma darbinieki ne tikai šķērsoja ētisko ietvaru, bet arī izmantoja modernās tehnoloģijas, kuru darbu nebija iespējams analizēt. Mašīnmācības efektivitāte ir vadošo matemātiķu atkārtota tēma. Viņi vienbalsīgi atzīst, ka ir pārsteigti par datorprogrammu ārkārtējiem panākumiem, taču viņi pilnīgi nespēj izprast sarežģītas sistēmas darbu. Mjanmā šā gada aprīlī Facebook ziņas arī izraisīja nemierus masu starpā, taču atšķirībā no Amerikas Savienotajām Valstīm, kur notika protesti, Āzijas štatā notika slaktiņš, kurā gāja bojā vairāki simti cilvēku. Manipulācija ar milzīgu cilvēku skaitu ir realitāte, un roboti šeit var ar mums spēlēt nežēlīgu joku.

Image
Image

Ir vērts atcerēties to pašu Facebook, kur tika palaisti uz AI balstīti tērzēšanas roboti. Virtuālie asistenti tika apmācīti dialoga veidošanai ar sarunu partneri. Laika gaitā robotprogrammatūras neatšķīrās no reāliem cilvēkiem, un pēc tam autori nolēma robotus apvienot. Laika gaitā robotprogrammatūras sāka saīsināt leksiskās struktūras un apmainīties ar jucekli. Plašsaziņas līdzekļi uzpūta sensāciju no ziņām, viņi saka, ka "mašīnas sacēlās". Bet, atmetot žurnālistu pārspīlējumus, ir godīgi atzīt, ka gadījumā, kad mašīnas sāk savstarpēji komunicēt, cilvēks to var nepamanīt. Un kā viņi tur nodzīvos paši - neviens nezina.

Arvien sarežģītākā datora prāta struktūra katru dienu attālina mūs no tā darba principu izpratnes. Bet, lai gan vairums algoritmu veic savu darbu, pat mūsdienās sarežģītas mašīnas ir tālu no ideāla un tajās tiek pieļautas kļūdas. AI turpmākai attīstībai ir svarīgi saprast ne tik daudz stiprās puses, cik tās ievainojamības. Tieši uz to ir koncentrēts liels skaits zinātnisko grupu, kurās vienā ir speciālists no MIT Anish atali. Tikai pirms pāris dienām viņš žurnālistiem pastāstīja par biežākajām kļūdām attēlu atpazīšanas sistēmās.

Viņa kolēģi demonstrēja mašīnai priekšmetus un konstatēja, ka bieži vien atsevišķus objektus elektroniskā redze uztver nepareizi. Dators varēja izsaukt beisbolu ar kafijas tasi, bet 3D izdrukāts bruņurupucis - armijas mašīnu. Grupa jau ir apkopojusi apmēram 200 vienumus, kas ir maldinoši algoritmi.

Image
Image

Mākslīgais intelekts tā vietā, lai uztvertu objektu kopumā, koncentrējās uz tā individuālajiem parametriem. AI mēdz mācīties no “perfekta” parauga. Saskaroties ar neatbilstīgām parādībām, viņš ne vienmēr var pamest parasto apstrādes procesu. Tā vietā, lai atzītu savu nespēju apstrādāt attēlu, viņš turpina mēģināt lasīt attēlu, un tas noved pie dažreiz smieklīgiem rezultātiem. Bruņurupuča formas vietā elektroniskās smadzenes mēģināja nolasīt tā faktūru, līdzīgi kā maskēties. Aptuveni tā paša iemesla dēļ e-auto autopiloti vēl nav 100% uzticami. Automašīnai ir grūti redzēt siluetu un pieņemt, ka tas sastāv no atsevišķiem elementiem.

Un, ja turpmākajos gados dažus trūkumus varēs novērst, tad nav garantijas, ka hakeri neizmantos šo ievainojamību. Mūsdienās elektronisko ierīču hakeri ir gandrīz galvenais baiļu cēlonis. Neliela programmētāju komanda var ne tikai piekļūt personīgajai informācijai, bet arī pārkonfigurēt autonomās sistēmas, pārņemot kontroli pār kolosālā spēka instrumentiem. Un tad mēs visi nonāksim nepatikšanās. Bet galvenais secinājums, ko var izdarīt, iespējams, ir tradicionālais - jums nav jābaidās no automašīnām, bet gan no cilvēkiem.

Aleksandrs Lavrenovs