AI Attīstība Iegūst Biedējošu Tempu: Kāpēc Izstrādātāji Pauž Bažas Par To - Alternatīvs Skats

Satura rādītājs:

AI Attīstība Iegūst Biedējošu Tempu: Kāpēc Izstrādātāji Pauž Bažas Par To - Alternatīvs Skats
AI Attīstība Iegūst Biedējošu Tempu: Kāpēc Izstrādātāji Pauž Bažas Par To - Alternatīvs Skats

Video: AI Attīstība Iegūst Biedējošu Tempu: Kāpēc Izstrādātāji Pauž Bažas Par To - Alternatīvs Skats

Video: AI Attīstība Iegūst Biedējošu Tempu: Kāpēc Izstrādātāji Pauž Bažas Par To - Alternatīvs Skats
Video: [Puyo Puyo Tetris AI] Zetris vs ka zu (ali-m) (5) 2024, Maijs
Anonim

Tehnoloģiskais progress nestāv uz vietas. Pēdējo 100 gadu laikā cilvēce ir spērusi tik lielu soli, ka visas iepriekšējās paaudzes pārsteigumā būtu iesaucušās. Šķiet, ka priekam ir neticami daudz iemeslu. Bet šeit ir nozveja: zinātnieki uztraucas, ka progress notiek pārāk ātri. Noskaidrosim, kāpēc mākslīgais intelekts jeb AI rada tik lielas bažas vadošajiem izstrādātājiem.

Image
Image

Progress, kas ne tikai pārsteidz, bet arī biedē

Lielākā daļa cilvēku var nodzīvot visu mūžu un pat nezināt, cik ļoti ir mainījusies mūsu pasaule. Lai saprastu, cik tālu cilvēce ir sasniegusi AI attīstību, padomājiet par to, kad pirmoreiz tika izgudrotas automašīnas.

Iedomājieties savvaļas rietumus vai Krieviju, kur cilvēki brauca ar zirgiem pa kreisi un pa labi, bez stoplukturiem un drošības jostām. Ceļu satiksmes drošības pasākumi tika veikti daudz vēlāk - kad sāka notikt daudzas avārijas.

Šodien AI ir izstrādājusi pašpiedziņas automašīnas, kas līdz minimumam var samazināt ceļu satiksmes negadījumus. Automašīnas vienkārši zina, kā sazināties savā starpā, izveidojot drošu maršrutu un reaģējot uz pēkšņiem šķēršļiem, kas rada ārkārtas situācijas uz ceļiem.

Image
Image

Reklāmas video:

Neskatoties uz to, cilvēki turpina uztraukties par mākslīgo intelektu. Viņi sev uzdod jautājumu: kas notiks, kad tehnoloģijas nonāks tajās jomās, kur nepieciešama cilvēku lēmumu pieņemšana? Vai AI spēs pilnībā izstumt cilvēkus, kuri ir atbildīgi par kandidātu pieņemšanu darbā, darbinieku apmācību, uzņēmuma reklamēšanu?

Pirmais iemesls: vai roboti aizstās cilvēkus

Pirmais iemesls, kāpēc zinātniekus uztrauc mākslīgā intelekta strauja attīstība, ir tāds, ka algoritmi jau ir panākuši tādu progresu, ka viņi var diagnosticēt slimības un pat izlemt, kurš saņem aizdevumu un kurš nē.

Bet šī progresa piekritēji ir tikai priecīgi, jo cilvēcisku lēmumu pieņemšanai dažreiz ir nepieciešama drosme, oratorija un cilvēka psiholoģijas izpratne. Šeit vienmēr ir tumšā puse. Galu galā iedomājieties, kā ir izlemt, kurš vainojams un kurš priekšlaicīgi atbrīvots. Vai arī ziņojiet par radinieka nāvi, atlaidiet nespējīgu darbinieku, kurš atrodas sarežģītā dzīves situācijā.

Image
Image

Ideālā pasaulē mums nebūtu jādomā par tumšo pusi. Mašīnas darīs visu mūsu labā, kaut vai tāpēc, ka tās būs daudz gudrākas un mazāk tendenciozas nekā cilvēki.

Otrais iemesls: ar mašīnām var manipulēt

Robots Sofija intervijā teica: “Jūs pārāk daudz lasāt Elonu Musku un skatāties Holivudas filmas. Ja jūs būsiet laipns pret mani, es būšu laipns pret jums. Izturieties pret mani kā pret viedu I / O sistēmu.”

Bet, tā kā izstrāde sākas ar cilvēkiem un viņi tieši izmanto lietojumprogrammas, ar mašīnā ievadītajiem datiem var manipulēt.

Image
Image

Citas zinātnieku bailes: AI dati var būt nepareizi. Tas ir īpaši bīstami medicīnas jomā. AI var vienkārši maldināt pacientu nepareizā diagnozē, it īpaši, ja cilvēku ārsts vai slimnīca kopumā ir mainījusi datus viņu pašu labā. Tāpēc izstrādātājiem galvenokārt vajadzētu būt atbildīgiem par informācijas drošību un izstrādāt drošības pasākumus.

AI un cilvēku valodas viltīgais raksturs

Google ir sadarbojusies ar finierzāģi, kuram, izstrādājot mākslīgo intelektu, bija liels izaicinājums. Programmatūras inženieris Lūsija Vasermana strādā pie mašīnmācīšanās perspektīvas, kas paredz valodas "toksiskumu". Bet ko tas nozīmē?

Šīs funkcijas nozīme ir tāda, ka robots analizēs tekstus no vietnēm un interneta forumiem, kas satur aizskarošu kontekstu, kā arī uzbrukumu personai, pazemošanu vai uzbudinājumu.

Šī ir daļa no mašīnmācīšanās modeļa, ko sauc par neironu tīklu. Viņa pēta vārdus, teikumus un rindkopas un mācās paredzēt, kas ir toksisks un kam, gluži pretēji, ir pozitīvs konteksts.

Visgrūtākais šajā sakarā ir visu nianšu ņemšana vērā. Cilvēks var izlasīt teikumu un no konteksta saprast, vai konkrētais vārds bija aizskaroši. Vasermans sniedza piemēru vārdam "homoseksuāls" un tā vārdu formām, kas vairāk pazemo un aizskar jūtas.

Trešais iemesls: roboti var domāt vienpusīgi

Citas bailes no vadošajiem izstrādātājiem: mākslīgais intelekts vēl nespēj analizēt frāzes un teikumus, tāpēc dažus vārdus tas var uzskatīt par aizskarošu, veicot “skarbus” pasākumus. Mašīnai jāiemācās lasīt burtiski starp rindām.

Image
Image

Izstrādātāji redz vērtību atvērtā pirmkoda eksperimentos. Viņi domā, ka tas tiešām ir svarīgi, ja cilvēce vēlas iegūt godīgus robotus.

Bet līdz šim šodien nav iespējams piespiest mākslīgo intelektu pielāgoties cilvēku pasaulei. Vēl ir daudz darāmā.

Tas, ka roboti varētu nebūt taisnīgi, ir patiešām biedējoši. Pretējā gadījumā kā viņiem var uzticēt strīdu un konfliktu risināšanu nākotnē?

Mākslīgā intelekta princips joprojām ir diezgan vienkāršs un atgādina uzlabotu datoru. Labs piemērs ir balss palīgi, piemēram, Alise un Siri. Šodien viņi strādā šādi: "Tā kā pieturas vārds ir tekstā, tas nozīmē, ka tas noteikti ir aizvainojošs."

Un tam vajadzētu būt šādam: “Kādi vārdi ir blakus nicinošajam? Es uzskatu, ka teikuma nozīme ir ļoti mainījusies, pat ja tur bija kaut kas aizvainojošs.”

Ceturtais iemesls: Ētikas ceļvedis

AI vajadzētu būt centrētam uz cilvēku un projektētam tā, lai tā programmaparatūrā būtu izpratne par ētiku. Bet ko tas nozīmē?

  • Pirmkārt, ētika balstās uz pamattiesībām, sociālajām vērtībām un labdarības principiem (laipnība kopumā).
  • Otrkārt, mašīnām nevajadzētu kaitēt cilvēka autonomijai vai piedzīvot taisnīguma izjūtu.

Citas bailes no izstrādātājiem: kad mākslīgais intelekts sasniegs tā attīstības maksimumu un nevar būt atkarīgs no cilvēku atbalsta, tas vērsīsies pret cilvēci.

Viss ir atkarīgs no izstrādātājiem. Viņi var vadīt mākslīgā intelekta darbu cīņā pret noziedzību. Piemēram, atrodiet tos, kas izplata bērnu pornogrāfiju.

Ir svarīgi izveidot drošības funkcijas, pirms AI iziet no cilvēka kontroles. Un tas iznāks viennozīmīgi, jo tas ir punkts.

Robotiem jābūt tuvu cilvēkiem

Citiem vārdiem sakot, ja kāds gatavojas uzticēties mašīnas pieņemtam lēmumam, tam jāatbilst cilvēku kritērijiem. Tāpēc izstrādātājiem jāpārliecinās, ka katrs algoritma pieņemtais lēmums ir taisnīgs. Zinātniekiem mērķis nav radīt alternatīvu izlūkošanas veidu, bet gan palīdzēt cilvēkiem attīstīties.

Dienas beigās lielākā daļa cilvēku piekrīt, ka AI atnesīs brīnišķīgu jaunu pasauli.

Piektais iemesls: karš pret cilvēci

Lielākā lieta, kas naktī nemodina izstrādātājus, ir mēģinājums izprast šīs tehnoloģijas bezgalīgās iespējas un ietekmi uz veselības aprūpi, izglītību un klientu apkalpošanu. Kad mākslīgais intelekts pārsniedz “projektu” un visbeidzot ražo, tad tam būs reāla sociālā ietekme.

Katrs no izstrādātājiem uzskata, ka mēs atrodamies lēciena punktā starp cilvēku un digitālo pasauli. Bet AI nevar mainīt mūsu dzīvi viens pats. Cilvēkiem, pirmkārt, ir jāmainās pašiem, lai realizētu visu inteliģences potenciālu.

Nav pārsteidzoši, ka cilvēki baidās no AI. Bet viņi nespēs paverdzināt vai iznīcināt tos, kuriem ir kopīgs mērķis - attīstīties un gūt panākumus. Kad cilvēki saprot, ka viņiem jādomā nevis kā dzīvniekiem, bet kā augstākām būtnēm, tad neviens robots nebaidīsies.

Alisa Krasnova

Ieteicams: