Google Nevēlas Kādu Dienu Izveidot Skynet, Tāpēc Tas Rada Slēdzi AI - Alternatīvs Skats

Google Nevēlas Kādu Dienu Izveidot Skynet, Tāpēc Tas Rada Slēdzi AI - Alternatīvs Skats
Google Nevēlas Kādu Dienu Izveidot Skynet, Tāpēc Tas Rada Slēdzi AI - Alternatīvs Skats

Video: Google Nevēlas Kādu Dienu Izveidot Skynet, Tāpēc Tas Rada Slēdzi AI - Alternatīvs Skats

Video: Google Nevēlas Kādu Dienu Izveidot Skynet, Tāpēc Tas Rada Slēdzi AI - Alternatīvs Skats
Video: Робот научился читать мысли, мы проиграли эту войну Скайнет победил! 2024, Jūlijs
Anonim

Jautājumos un diskusijās par mākslīgā intelekta nākotni ir divas galvenās pretējās puses. Vienā stūrī atrodas tādi uzņēmumi kā Google, Facebook, Amazon un Microsoft, kas agresīvi iegulda tehnoloģijās, lai padarītu AI sistēmas gudrākas, savukārt otrā ir tādi mūsu laika lielie domātāji kā Elons Musks un Stefans Hokings, kuri tic ka AI attīstība ir līdzīga “dēmonu burvestībai”.

Viens no visattīstītākajiem AI uzņēmumiem, DeepMind, kas pieder uzņēmumam Google, ir izveidojis drošības pasākumus gadījumam, ja personai ir nepieciešams "pārņemt kontroli pār robotu, kura kļūme varētu izraisīt neatgriezeniskas sekas". Mēs varam pieņemt, ka mēs runājam par … "nogalināt visus cilvēkus". Protams, patiesībā veiktais pasākums nav mājiens uz iespējamo apokalipsi, tas drīzāk attiecas uz drošības pasākumiem, kas saistīti ar viedajiem robotiem, kuri darbojas un nākotnē darbosies dažādās rūpnīcās un rūpnīcās.

Publicētais dokuments ar receptēm ir DeepMind un Oksfordas cilvēces nākotnes institūta kopīgs darbs, kurā, kā norāda nosaukums, aplūkoti jautājumi, kas šai ļoti cilvēcei ļaus iekļūt nākotnē. Gadu desmitiem institūta dibinātājs Niks Bostroms ļoti spilgti runāja par mākslīgā intelekta attīstības iespējamajām briesmām un par šo tēmu rakstīja vairāk nekā vienu grāmatu, kurā apsprieda super inteliģento robotu radīšanas sekas.

Ceļvedis, par kuru mēs šodien runājam, saukts par “Droši atspējotiem aģentiem”, pēta, kā atspējot AI, ja tas dara kaut ko tādu, ko operators nevēlas darīt. Darbs sastāv no dažādiem aprēķiniem un formulām, kuras, visticamāk, nesapratīs 99 procenti no mums. Tāpēc, vienkāršoti sakot, mēs runājam par "sarkano pogu", kas var atspējot AI.

Var smieties un brīnīties, bet robotikas un AI pionieri skatās tās pašas sci-fi filmas, kuras mēs. Tie, kuros roboti reiz izdomāja, kā ignorēt izslēgšanas komandu. Tāpēc tagad mēs būsim tam gatavi. Publicētajā dokumentā aprakstītas metodes un risinājumi, lai nodrošinātu, ka "apmācāmais aģents" (lasīt AI) nevar iemācīties ignorēt vai novērst ārējās vides vai operatora ietekmi uz cilvēku.

Tas var šķist pārspīlēti, it īpaši, ja ņem vērā, ka šobrīd visattīstītākā AI patiešām ir laba tikai galda spēlēs. Tomēr Bostrom uzskata, ka pirms mēs sākam izveidot AI cilvēka smadzeņu līmenī, jāveic attiecīgi pasākumi:

“Tiklīdz mākslīgais intelekts sasniedz cilvēka līmeni, daudzās jomās ir sagaidāms straujš attīstības lēciens. Arī drīz pēc tam paši AI izveidos jaunus AI. Vienkārši novērtējiet šīs izredzes un vienlaikus iespējamās briesmas. Tāpēc labāk to pārspīlēt, nekā palaist garām."

NIKOLAY KHIZHNYAK

Reklāmas video: