Hokings Un Musks Aizstāvēja Cilvēkus No Superizlūkošanas - Alternatīvs Skats

Hokings Un Musks Aizstāvēja Cilvēkus No Superizlūkošanas - Alternatīvs Skats
Hokings Un Musks Aizstāvēja Cilvēkus No Superizlūkošanas - Alternatīvs Skats

Video: Hokings Un Musks Aizstāvēja Cilvēkus No Superizlūkošanas - Alternatīvs Skats

Video: Hokings Un Musks Aizstāvēja Cilvēkus No Superizlūkošanas - Alternatīvs Skats
Video: ប្រវត្តិ និង ទ្រឹស្តីរបស់លោក ស្ទីវិន ហកឃីង/ Biography of Stephen Hawking & universal theory 2024, Jūlijs
Anonim

Teorētiskais fiziķis Stīvens Hokings un Tesla Motors dibinātājs Elons Musks ir apstiprinājuši vairākus principus, kuriem būtu jānodrošina, ka mākslīgais intelekts (AI) nekaitē cilvēkiem un kalpo tikai labumam. Silicon Valley Business Journal ziņo.

Šis pakts ir nepieciešams, lai nodrošinātu cilvēku drošību, kā arī lai atbildētu uz daudziem jautājumiem par AI. Musks ir pārliecināts, ka mākslīgais intelekts var būt bīstamāks par kodolieročiem. Arī Hokings ir līdzīgā viedoklī un apgalvo, ka AI var iznīcināt cilvēci. Tomēr abi atzīst, ka AI palīdzēs cilvēkiem atrisināt daudzas problēmas, piemēram, izārstēt vēzi vai palēnināt globālo sasilšanu.

Visu 23 principu ievērošanai vajadzētu nodrošināt, ka AI kalpo tikai labiem mērķiem. Tie ir sadalīti trīs kategorijās: pētniecības jautājumi, ētikas un vērtību jautājumi un ilgtermiņa jautājumi. Pirmajā kategorijā ietilpst atbildes uz jautājumiem, ar kuriem saskaras AI veidotāji, tostarp uz to, kā finansējumam būtu jāturpina. Otrā kategorija skar drošības jautājumus un veidus, kā neitralizēt draudus. Trešais apraksta iespējamos riskus, ar kuriem cilvēce var saskarties, kad AI sasniedz savu maksimumu un parādās tā dēvētā superizlūkošana.

Šie principi tika izstrādāti konferencē par AI diskusiju 2017. gada janvāra sākumā. Raksta tapšanā piedalījās DeepMind izpilddirektors Demiss Hasabiss.