Kāpēc Jūs Nepareizi Saprotat Robo-apokalipsi - Alternatīvs Skats

Satura rādītājs:

Kāpēc Jūs Nepareizi Saprotat Robo-apokalipsi - Alternatīvs Skats
Kāpēc Jūs Nepareizi Saprotat Robo-apokalipsi - Alternatīvs Skats

Video: Kāpēc Jūs Nepareizi Saprotat Robo-apokalipsi - Alternatīvs Skats

Video: Kāpēc Jūs Nepareizi Saprotat Robo-apokalipsi - Alternatīvs Skats
Video: ГЕИМПЛЕЙ ИГРЫ " SAS 4 " апокалипсис... 2024, Aprīlis
Anonim

Bailes no mākslīgā intelekta jau sen ir iesakņojušās populārajā kultūrā. Smalkie cilvēces prāti, sākot no Stefana Hawkinga līdz Elonam Muskam, ir runājuši par digitālā prāta eksistenciālajiem draudiem cilvēcei.

Par to runā arī Kalifornijas universitātes Berklija universitātes profesors Stjuarts Rasels, taču viņa nākotnes redzējumā nav ļaunu robotu, kas saceltu pret cilvēku kundzību.

Pēc Rasela teiktā, kādā brīdī mašīnas vienkārši kļūs tik efektīvas, ka iznīcinās mūs, izpildot uzdevumus, ko mēs viņiem devām.

Rasels ir mašīnmācīšanās eksperts un grāmatas Human Compatible: AI and the Control Problem autors.

"Tradicionālais Holivudas sižets ir tāds, ka mašīnas spontāni kļūst apzinātas un pēc tam nolemj, ka ienīst cilvēkus un vēlas nogalināt visus," atzīmē profesors Rasejs.

Bet tas, viņaprāt, ir nepareizs roboapokalipses redzējums, jo mašīnām nav cilvēku emociju.

“Mums jāuztraucas nevis par ļauno mašīnu pašapziņu, bet par to mašīnu kompetenci, kuras veic mūsu uzdotos uzdevumus,” ir pārliecināts zinātnieks.

Reklāmas video:

Pārāk kompetents

Intervijā BBC Today profesors Rasels aprakstīja hipotētisku situāciju, kurā mākslīgais intelekts varētu apdraudēt cilvēces eksistenci.

Iedomājieties, ka ir kāds superjaudīgs mākslīgais intelekts, kas var kontrolēt klimatu uz planētas. Viņam uzdots panākt oglekļa dioksīda līmeņa atmosfērā atjaunošanu pirmsindustriālajā līmenī.

Image
Image

“Sistēma uzskatīs, ka visefektīvākais veids, kā to izdarīt, ir iznīcināt cilvēkus. Viņi rada oglekļa dioksīdu,”saka profesors.

“To var apiet, piemēram, izvirzot viņai nosacījumu atbrīvoties no cilvēkiem. Ko tad sistēma darīs? Viņa rūpēsies, lai arvien mazāk bērnu piedzimtu, līdz cilvēki pavisam pazūd."

Šis ir piemērs tam, ko mākslīgais intelekts var novest pie slikti izdomātiem cilvēka norādījumiem.

Superinteliģence

Mūsdienās pastāvošajām AI sistēmām ir šauri mērķētas programmas. Tie ir izstrādāti, lai atrisinātu skaidri definētas problēmas vienā jomā, saka Kembridžas universitātes Eksistenciālo risku izpētes centra zinātnieki.

Šīs AI filozofijas triumfālais mirklis bija Deep Blue datora uzvara pār 1997. gadā valdošo pasaules šaha čempionu Gariju Kasparovu.

* Deep Blue uzvara pār Kasparovu 1997. gadā bija AI triumfs
* Deep Blue uzvara pār Kasparovu 1997. gadā bija AI triumfs

* Deep Blue uzvara pār Kasparovu 1997. gadā bija AI triumfs.

Bet Deep Blue tika izveidots tikai šaha spēlei. Dambretes mačā viņš būtu zaudējis piektajam greiderim.

Jaunākie sasniegumi mākslīgā intelekta jomā ir devuši mums ļoti dažādas programmas.

Piemēram, AlphaGo Zero programma iemācījās spēlēt Go pats, neizmantojot datus par iepriekšējām spēlēm, kuras spēlējuši cilvēki, un tikai trīs dienu laikā spēlējoties ar sevi, tā sasniedza līmeni, kas parastam cilvēkam nebija sasniedzams.

AlphaGo Zero izveidošanai tika izmantoti dziļi mācību algoritmi. Tas nozīmē, ka programmas izstrādei bija vajadzīgs salīdzinoši maz cilvēku darba.

Tajā pašā laikā AlphaGo Zero zina, kā labi spēlēt gan šahu, gan shogi.

Atgādiniet, ka programma ir pilnībā pašmācības pilna. Dažiem tas var radīt bažas.

“Tā kā AI kļūst jaudīgāka un daudzpusīgāka, pastāv risks, ka tā kļūs superinteliģenta, tas ir, pārsniegs cilvēkus daudzās vai visās jomās,” saka Eksistenciālo risku izpētes centrs.

Mēs nezinām, ko vēlamies

Profesors Rasels uzskata, ka vienkārši AI piešķiršana ļoti specifiskiem uzdevumiem nav izeja, jo cilvēki paši nespēj tos pietiekami labi noformulēt.

Image
Image

"Mēs neapzināmies, ka mums kaut kas nepatīk, kamēr tas nenotiek," viņš saka.

“Mums jāmaina pati pamata pieeja AI sistēmu izveidošanai,” piebilst profesors. Viņš uzskata, ka principā ir nepareizi dot robotiem uzdevumu, kuru viņi pēc tam izpilda.

“Sistēmai ir jāsaprot, ka mērķis tai nav skaidrs. viņš saka. - Kad tiek izveidotas šādas sistēmas, tās patiešām ir atkarīgas no cilvēka. Pirms kaut ko darīt, viņi sāk lūgt atļauju, jo nav pārliecināti, vai vēlaties."

Vissvarīgākais, pēc profesora teiktā, viņi nepretosies, ja jūs nolemjat tos izslēgt, jo tie ir paredzēti, lai nedarītu to, kas jums nepatīk.

Aladdina lampa

Mūsdienās AI tiek veidots tā, it kā tas būtu džins no lampas, saka profesors Rasels. Jūs berzējat lampu un sakāt: "Es gribu, lai tas un tas notiek."

Stenlija Kubrika 2001. gada * Kosmosa odisejā * superinteliģents dators sacenšas pret cilvēkiem, kuri nolemj to izslēgt
Stenlija Kubrika 2001. gada * Kosmosa odisejā * superinteliģents dators sacenšas pret cilvēkiem, kuri nolemj to izslēgt

Stenlija Kubrika 2001. gada * Kosmosa odisejā * superinteliģents dators sacenšas pret cilvēkiem, kuri nolemj to izslēgt.

Un, ja mākslīgais intelekts ir pietiekami spēcīgs, tas darīs tieši to, ko jūs prasīsit.

"Problēma ar džinu ir tāda, ka trešā vēlme vienmēr ir atcelt pirmos divus, jo cilvēks tos ir nepareizi formulējis."

"Mašīna, kas tiecas sasniegt nepareizu mērķi, faktiski kļūst par cilvēces ienaidnieku, un šis ienaidnieks ir daudz spēcīgāks par mums," secina zinātnieks.