Zinātnieki Ir Ierosinājuši Veidu, Kā Nākotnē Novērst Pasaules Galu Robotu Dēļ - Alternatīvs Skats

Zinātnieki Ir Ierosinājuši Veidu, Kā Nākotnē Novērst Pasaules Galu Robotu Dēļ - Alternatīvs Skats
Zinātnieki Ir Ierosinājuši Veidu, Kā Nākotnē Novērst Pasaules Galu Robotu Dēļ - Alternatīvs Skats

Video: Zinātnieki Ir Ierosinājuši Veidu, Kā Nākotnē Novērst Pasaules Galu Robotu Dēļ - Alternatīvs Skats

Video: Zinātnieki Ir Ierosinājuši Veidu, Kā Nākotnē Novērst Pasaules Galu Robotu Dēļ - Alternatīvs Skats
Video: Pac-Man In Real Life - ORIGINS 2024, Aprīlis
Anonim

Daudzi cilvēki baidās no robota sacelšanās nākotnē, aicinot apturēt mākslīgā intelekta attīstību, lai nākotnē izvairītos no negatīva scenārija. Bet nozarē, kas saistīta ar robotikas attīstību, ir iesaistīts milzīgs skaits cilvēku un nauda, tāpēc neviens negrasās apturēt šādu tehnoloģiju attīstību. Vai mūsu radītā darba dēļ mēs varētu saskarties ar apokalipsi, un vai ir kāds veids, kā novērst mašīnu sacelšanos?

Pirms kāda laika Science Alert publicēja zinātnes pasaules ekspertu rakstu, kurā runāja par īpaša algoritma izstrādi, kas nākotnē palīdzēs novērst nekontrolētu robotu ar mākslīgo intelektu uzvedību. Pēc zinātnieku domām, roboti šīs metodes dēļ vienkārši nevar kaitēt cilvēkiem.

Paši zinātnieki savu algoritmu sauca par Seldonian. Bet kāda ir tā nozīme? Algoritmi spēs analizēt mašīnām nepieņemamu izturēšanos un maksimāli pasargās cilvēkus no robotu negatīvajām darbībām, taču algoritmi nesatur labas un sliktas izturēšanās jēdzienu, tāpēc ne visi eksperti tic algoritmu aizsardzības funkcijām.

Jaunās sistēmas izstrādātāji pastāstīja par algoritma darbību, izmantojot vienu no piemēriem, kas ir kontrolēt insulīna sūkni, izmantojot automatizētu sistēmu. Ja insulīna daudzums pacienta asinīs tiek samazināts līdz ārkārtīgi zemam līmenim, tad algoritmi norāda uz darbībām, kas vajadzīgas personas glābšanai.

Pirms kāda laika vairāki zinātnieki pauda bažas par kodolieroču attīstību, kuru pamatā ir mākslīgais intelekts. Ja šādas sistēmas pašas pieņems lēmumus, tas var izraisīt Zemes apokalipsi. Neaizmirstiet par hakeru darbībām, kuri var uzlauzt šādas sistēmas, un nekādi aizsardzības algoritmi šajā gadījumā nepalīdzēs. Tādējādi var uzskatīt, ka robotu un mākslīgā intelekta izstrādes jomā nav ideālas aizsardzības pret mūsdienu pasaules draudiem.