Lai Izvairītos No Nāves, Cilvēcei Ir Jānobloķē Mākslīgais Intelekts. Alternatīvs Skats

Satura rādītājs:

Lai Izvairītos No Nāves, Cilvēcei Ir Jānobloķē Mākslīgais Intelekts. Alternatīvs Skats
Lai Izvairītos No Nāves, Cilvēcei Ir Jānobloķē Mākslīgais Intelekts. Alternatīvs Skats

Video: Lai Izvairītos No Nāves, Cilvēcei Ir Jānobloķē Mākslīgais Intelekts. Alternatīvs Skats

Video: Lai Izvairītos No Nāves, Cilvēcei Ir Jānobloķē Mākslīgais Intelekts. Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Maijs
Anonim

Ļoti inteliģenti datori vai roboti, kas apdraud cilvēces eksistenci, ir iecienīts zinātniskās fantastikas sižets. Faktiski, pēc zinātnieku domām, šādu Pastardienas scenāriju var novērst tikai izveidojot virtuālu “cietumu” mākslīgā intelekta (AI) saturēšanai. Un tas ir jādara, pirms viņš iemācās apzināties un uzlabot sevi.

Ja jūs izlaižat šo džinsu no pudeles, tad no orākļa, kas atrisina mūsu problēmas, tas var pārvērsties par apokaliptiskiem draudiem, saka Romāns Jampolskis, Kentuki štata Luisvilas universitātes zinātnieks, kurš darbojas datorzinātnes jomā. Apstākļi, kuros atrodas AI, ir rūpīgi jāplāno tā, lai tas nevarētu atbrīvoties no draudiem, kukuļošanas, kārdināšanas vai datoru uzlaušanas.

"Viņš var izgudrot daudzus ietekmēšanas veidus, izliekot sarežģītu sociāli inženierijas kombināciju un izmantojot esošos aparatūras komponentus mērķiem, kurus mēs pat nevaram iedomāties," uzskata Yampolsky. - Šādai programmatūrai ir neierobežotas iespējas inficēt datorus un tīklus. AI var atrast veidus, kā ietekmēt cilvēka psihi, piekukuļot vai šantažēt cilvēkus, kuri ar to ir saistīti."

Jaunu zinātnisko pētījumu jomas parādīšanās, kas risina mākslīgā intelekta "cietuma" izveidošanas problēmu, rada papildu priekšrocības. Šie pētījumi ir ļoti noderīgi, lai uzlabotu datoru drošību un kriptogrāfiju, Yampolsky ir pārliecināts. Viņa priekšlikumi tika sīki aprakstīti žurnāla “Apzinātības pētījumu žurnāls” marta numurā.

Kā iestatīt Skynet slazdu

Iesācējiem jūs varat ievietot mākslīgo intelektu "virtuālajā mašīnā". Ļaujiet tai darboties parastajā operētājsistēmā - ierobežojot AI piekļuvi resursdatora programmatūrai un aparatūrai, tas būs daudz nekaitīgāks. Jebkurā gadījumā viedā AI nespēs nosūtīt slepenus ziņojumus saviem cilvēku atbalstītājiem, izsitot Morzes kodu ar dzesēšanas ventilatoriem.

Mākslīgā intelekta ievietošana datorā bez piekļuves internetam ir labs veids, kā izjaukt AI mānīgos plānus aizsargāt Zemi no jums un manis. Citu kļūmju gadījumā pētnieki vienmēr var palēnināt AI domāšanas procesu, palēninot datora apstrādes ātrumu, regulāri nospiežot pogu “atiestatīt” vai atvienojot AI no barošanas avota.

Reklāmas video:

Šie drošības pasākumi ir izstrādāti, lai cīnītos ar ļoti inteliģentiem un bīstamiem datorvīrusiem, taču to, cik efektīvi tie patiesībā izrādās, ir ikviena minējums.

Catch-22 (amerikāņu rakstnieka J. Hellera romāns; aptuveni. Mixednews) ir tāds, ka mēs nevaram veikt mūsu ideju pilna mēroga testus, kamēr nav pabeigta AI izstrāde. Bet, lai AI būtu drošs, ir jāizstrādā atbilstošu pasākumu kopums, saka Yampolsky. "Labākais risinājums ir noteikt ierobežojumus AI sistēmu izmantošanai un pēc vajadzības mainīt šos ierobežojumus atbilstoši pieaugošajām AI iespējām."

Image
Image

Zinātnieks Romāns Yampolsky ieteica izmantot zīmi "@" vai citas pazīmes, kuras mūsdienās lieto, lai apzīmētu radiāciju vai bioloģiskos draudus, lai norādītu uz mākslīgā intelekta radītā apdraudējuma klātbūtni.

Nekādā gadījumā nelieciet transportlīdzeklī cilvēku apsardzi

Šķietami nevainīgas sarunas laikā ar apsardzi nekas neliedz AI izmantot psiholoģiskas metodes, piemēram, draudzību vai šantāžu. Cilvēku var uzpirkt, apsolot viņam nevainojamu veselību, nemirstību vai pat solījumu atgriezt radiniekus un draugus no citas pasaules. Vai arī kaut ko panāk ar draudiem.

Drošākais veids, kā sazināties ar AI, ir panākt, lai, risinot konkrētu zinātnisku vai tehnisku problēmu, izvēlieties atbildi no daudzajām pieejamajām iespējām, skaidro Yampolsky. Tas palīdzēs saglabāt supergudro orākulu uz īsa pavadas.

Daudzi pētnieki uzskata, ka, neraugoties uz visiem piesardzības pasākumiem, AI smartass glabāšana uz nenoteiktu laiku nedarbosies. Jaunākais Singularitātes institūta pētnieka Eliezera Yudkowsky eksperiments par mākslīgā intelekta izveidi parādīja, ka pat cilvēka līmeņa intelekts var maldināt cilvēku un "izbēgt" no ieslodzījuma.

Neskatoties uz to, Yampolsky uzstāj, lai AI būtu stingri izolēta - tas joprojām ir labāk, nekā atteikties un dot tai pilnīgu brīvību. Bet, ja AI attīstība sasniegs punktu, kurā tā var manipulēt ar cilvēku, izmantojot zemapziņu (paredzot nākotni), telepātiju vai telekinezi, sekas būs neparedzamas.

"Ja šāda AI sevi pilnveidos un sasniegs līmeni, kas ievērojami pārsniedz cilvēka intelekta iespējas, sekas pat nevar iedomāties," brīdina Yampolsky.

Ieteicams: