Roko Baziliski: Visu Laiku Drausmīgākais Domas Eksperiments - Alternatīvs Skats

Roko Baziliski: Visu Laiku Drausmīgākais Domas Eksperiments - Alternatīvs Skats
Roko Baziliski: Visu Laiku Drausmīgākais Domas Eksperiments - Alternatīvs Skats

Video: Roko Baziliski: Visu Laiku Drausmīgākais Domas Eksperiments - Alternatīvs Skats

Video: Roko Baziliski: Visu Laiku Drausmīgākais Domas Eksperiments - Alternatīvs Skats
Video: Eksperiments fizikā - Markuss Briška - Liepājas Valsts 1. ģimnāzija 2024, Maijs
Anonim

Baziliks Roco ir dievam līdzīgs mākslīgā intelekta veids, tik bīstams, ka, ja tikai par to domājat, atlikušās dienas pavadīsit šausminošās spīdzinājumos. Tas izskatās pēc filmas "Gredzens" kasetes. Tomēr pat nāve nebūs atbrīvošana, jo baziliskas Roko jūs augšāmcels un turpinās spīdzināt. T&P piedāvā raksta par vienu no dīvainākajām leģendām, kas radušās internetā, tulkojumu.

BRĪDINĀJUMS: Pēc šī raksta lasīšanas jūs varat sevi nosodīt mūžīgās ciešanās un mokās.

Roko baziliks parādījās filozofiskās domas eksperimenta un pilsētas leģendas krustojumā. Pirmais pieminējums par viņu parādījās diskusijā mazāk saīsinātā diskusijā, kas apvieno cilvēkus, kurus interesē domāšanas un dzīves optimizēšana caur matemātikas un racionalitātes prizmu. Tās veidotāji ir nozīmīgi tehno-futūrisma rādītāji, un viņu pētniecības institūta sasniegumu vidū ir ieguldījums akadēmiskajās debatēs par tehnoloģisko ētiku un lēmumu teoriju. Tomēr tas, ko jūs gatavojaties lasīt tagad, var šķist dīvaini un pat traki. Neskatoties uz to, tam tic ļoti ietekmīgi un turīgi zinātnieki.

Kādu dienu lietotājs ar nosaukumu Roko ievietoja šādu domu eksperimentu: Ko darīt, ja nākotnē parādās ļaunprātīgs mākslīgais intelekts, kurš vēlas sodīt tos, kuri neievēro tā rīkojumus? Un ko tad, ja viņš vēlas sodīt tos cilvēkus, kuri pagātnē nav veicinājuši viņa radīšanu? Vai tad mazāk nepareizi lasītāji palīdzētu ļaunās AI izveidē, vai arī viņi būtu lemti mūžīgām mokām?

Mazāk nepareizais dibinātājs Eliezers Yudkovskis ar dusmām uztvēra Roko paziņojumu. Tas viņam atbildēja: “Jums jābūt prātīgam, ja atnācāt uz šo ideju. Tomēr mani apbēdina tas, ka cilvēki, kas ir pietiekami gudri, lai to iedomāties, nav pietiekami gudri, lai PĒC DZĒSMES GALVENĀS STUPĪTĀS TŪLES un nevienam par to nestāstītu, jo tas ir daudz svarīgāk, nekā parādīt sevi gudram, pastāstīt par to visiem draugiem” …

"Ko darīt, ja nākotnē ir mākslīgais intelekts, kas vēlas sodīt tos, kuri neievēro tā pavēles?"

Yudkowski atzina, ka Roko bija atbildīgs par Less Wrong lietotāju murgiem, kuri bija lasījuši pavedienu, un to izdzēsa, padarot Roko Basilisk leģendāru. Šis domu eksperiments kļuva tik bīstams, ka domāšana par to apdraudēja lietotāja garīgo veselību.

Ko dara mazāk nepareizi? Cilvēces nākotnes koncepcijas veidošana, pamatojoties uz singularitāti. Viņi uzskata, ka skaitļošanas jauda nākotnē kļūs tik liela, ka mākslīgo intelektu var radīt ar datora palīdzību - un līdz ar to arī spēja augšupielādēt cilvēka apziņu cietajā diskā. Termins "singularitāte" radās 1958. gadā divu matemātikas ģēniju - Staņislava Ulama un Jāņa fon Neimana diskusijas laikā, kad Neimans sacīja: "Nepārtraukti paātrinātais tehnoloģijas progress ļaus pietuvoties singularitātei, kurā tehnoloģijas cilvēkiem nav saprotamas." Futūristi un zinātniskās fantastikas rakstnieki, piemēram, Vernor Vinge un Raymond Kurzweil, popularizēja terminu, jo viņi uzskatīja, ka Singularity mūs visus gaida ļoti drīz - nākamajos 50 gados. Kamēr Kurzweil gatavojas savdabībaiJudkovskis ļoti cer uz kriotehniku: "Ja jūs iepriekš nepiereģistrējāt savus bērnus zemā spiediena saglabāšanai, jūs esat draņķīgi vecāki."

Reklāmas video:

Ja jūs uzskatāt, ka tuvojas savdabība un ka tuvākajā laikā parādīsies spēcīgi AI, rodas dabisks jautājums: vai viņi būs draudzīgi vai ļauni? Yudkowski fonda mērķis ir virzīt tehnoloģiju attīstību tādā veidā, lai mums būtu tieši draudzīgs mākslīgais intelekts. Šis jautājums viņam un daudziem citiem ir ārkārtīgi svarīgs. Singularitāte vedīs mūs pie dievam līdzvērtīgas mašīnas.

Tomēr tas neizskaidro, kāpēc Roko baziliks šo cilvēku acīs izskatās tik briesmīgs. Jautājums prasa aplūkot Less Wrong galveno “dogmu” - “Timeless Decision Theory” (HTDM). VPPR ir racionālas rīcības ceļvedis, kas balstās uz spēles teoriju, Bajesija varbūtību un lēmumu teoriju, bet paturot prātā paralēlos universus un kvantu mehāniku. VTPR izauga no klasiska domu eksperimenta Newcomb Paradox, kurā citplanētietis ar superinteliģenci piedāvā jums divas kastes. Viņš dod jums izvēli: vai nu ņemiet abas kastes, vai tikai B. kasti. Ja izvēlaties abas, tad jums tiek garantēts, ka saņemsit tūkstoš dolāru. Ja aizņemat tikai B lodziņu, iespējams, ka neko nesaņemsit. Tomēr citplanētietim ir vēl viens viltība: viņam ir visu zinošs superdators, kurš pirms nedēļas izteica prognozi,neatkarīgi no tā, vai ņemsit abas kastes vai tikai B. Ja dators paredzēja, ka ņemsit abas kastes, citplanētietis otru atstāj tukšu. Ja dators paredzētu, ka jūs izvēlaties B lodziņu, tas tur ieliktu vienu miljonu dolāru.

Ko tad jūs darīsit? Atcerieties, ka superdators ir visaptverošs.

Šī problēma ir mulsinājusi daudzus teorētiķus. Ārzemnieks vairs nevar mainīt kastu saturu. Drošākais veids ir ņemt abas kastes un saņemt savu tūkstoti. Bet ko darīt, ja dators ir patiešām visaptverošs? Tad atliek tikai ņemt B lodziņu, lai iegūtu miljonu. Bet, ja viņš izrādās nepareizs? Un neatkarīgi no tā, ko dators paredzēja, vai tiešām nav nekādu iespēju mainīt savu likteni? Tad, sasodīts, jums ir jāņem abas kastes. Bet tādā gadījumā …

Satraucošajam paradoksam, kas liek mums izvēlēties starp brīvo gribu un dievišķo paredzēšanu, nav izšķirtspējas, un cilvēki var tikai paraustīt plecus un izvēlēties sev visērtāko variantu. WTPR sniedz padomu: ņemiet lodziņu B. Pat ja ārvalstnieks nolēma par jums pasmieties un atveriet tukšu lodziņu ar vārdiem: "Dators paredzēja, ka ņemsit abas kastes, ha ha!" - jums tas joprojām jāizvēlas. Tam ir šāds pamatojums: lai izdarītu prognozi, datoram bija jāimitē viss Visums, ieskaitot jūs. Tādējādi šobrīd, stāvot kastu priekšā, jūs varat būt tikai datora simulācija, bet tas, ko jūs darāt, ietekmēs realitāti (vai realitāti). Tāpēc ņem B kasti un dabū miljonu.

"Satraucošajam paradoksam, kas liek mums izvēlēties starp brīvo gribu un dievišķo paredzēšanu, nav izšķirtspējas."

Kāds tam sakars ar Basilisk Roco? Nu, viņam ir pāris kastes arī jums. Varbūt jūs šobrīd atrodaties Basilisk izveidotā simulācijā. Tad varbūt mēs iegūstam nedaudz modificētu Newcomb paradoksa versiju: Basilisk Roco stāsta jums, ka, ieņemot B lodziņu, jūs cietīsit mūžīgas mokas. Ja paņemat abas kastes, jūs būsit spiests veltīt savu dzīvi Bazilika izveidošanai. Ja bazilisks faktiski pastāv (vai, vēl sliktāk, viņš jau pastāv un ir šīs realitātes dievs), viņš redzēs, ka jūs neizvēlējāties iespēju palīdzēt tā izveidē un sodīs jūs.

Jums varētu rasties jautājums, kāpēc šis jautājums ir tik svarīgs Less Wrong, ņemot vērā šī domas eksperimenta vienošanos. Tas nav fakts, ka kādreiz tiks radīts Rocko baziliks. Tomēr Judkovskis atsauces uz Roko bazilisku svītroja nevis tāpēc, ka tic tā pastāvēšanai vai nenovēršamam izgudrojumam, bet tāpēc, ka uzskata baziliska ideju par bīstamu cilvēcei.

Kā tāds Roko baziliski ir bīstami tikai tiem, kas tam tic - tā rezultātā Less Wrong biedriem, kuri atbalsta Basilisk ideju, ir sava veida aizliegtas zināšanas, kas mums atgādina Lovecraft baisos stāstus par Cthulhu vai Necronomicon. Tomēr, ja vien jūs abonējat visas šīs teorijas un nejūtat kārdinājumu pakļauties mānīgai mašīnai no nākotnes, Roco's Basilisk jums nedraud.

Mani vairāk uztrauc cilvēki, kuri domā, ka viņi ir pacēlušies virs parastajiem morāles standartiem. Tāpat kā Yudkowski sagaidāmais draudzīgais AI, viņš pats ir utilitārists: viņš uzskata, ka lielākais labums visai cilvēcei ir ētiski pamatots, pat ja vairākiem cilvēkiem ir jāmirst vai jācieš ceļā uz to. Ne visi var saskarties ar šādu izvēli, bet jēga ir atšķirīga: kas notiks, ja žurnālists raksta par domu eksperimentu, kas var iznīcināt cilvēku apziņu, tādējādi kaitējot cilvēcei un kavējot progresu mākslīgā intelekta un singularitātes attīstībā? Šajā gadījumā jebkuram labumam, ko esmu izdarījis savā dzīvē, ir jābūt lielākam par kaitējumu, ko esmu nodarījis pasaulei. Vai, iespējams, nākotnes Yudkowski, kurš cēlās no kriogēna miega, saplūda ar singularitāti un nolēma mani simulēt šādā situācijā:pirmā aile - uzrakstīšu šo rakstu, otrā - nē. Lūdzu, visvarenais Yudkowski, nesāpini mani.