Mākslīgajam Intelektam Tika Liegta Parādīšanās Lidmašīnās - Alternatīvs Skats

Mākslīgajam Intelektam Tika Liegta Parādīšanās Lidmašīnās - Alternatīvs Skats
Mākslīgajam Intelektam Tika Liegta Parādīšanās Lidmašīnās - Alternatīvs Skats

Video: Mākslīgajam Intelektam Tika Liegta Parādīšanās Lidmašīnās - Alternatīvs Skats

Video: Mākslīgajam Intelektam Tika Liegta Parādīšanās Lidmašīnās - Alternatīvs Skats
Video: ZParks video - kas ir mākslīgais intelekts 2024, Maijs
Anonim

Mākslīgo intelektu tuvākajā nākotnē nevar iebūvēt pasažieru lidmašīnu borta aprīkojumā. Pie šāda secinājuma, pēc Aviācijas nedēļas datiem, nonāca Francijas Aviācijas un kosmosa pētījumu centra (ONERA) un Talesas speciālisti. Pēc ekspertu domām, mūsdienu sistēmas ar mākslīgā intelekta elementiem mācās no liela datu apjoma, un šī iemesla dēļ, ja viņu darbā rodas kādas kļūdas, parasti nav iespējams atrast neveiksmes cēloni. Turklāt viedajām sistēmām nav funkciju izskaidrot konkrētu lēmumu, ko tās pieņem.

Viena no galvenajām gaisa transporta drošības prasībām ir kļūdu atkārtojamība un detalizēta izpratne par noteiktu sistēmu darbības algoritmiem. Piemēram, lielākā daļa mūsdienu pasažieru lidmašīnu ir aprīkotas ar otrās paaudzes pret sadursmēm. Viņi pastāvīgi skenē vietu lidmašīnas priekšā un, ja kursā atklāj citu lidmašīnu, pilotiem dod atbilstošu brīdinājumu, kā arī instrukcijas, kādas darbības jāveic, lai izvairītos no sadursmes.

Pirmo reizi atklājot viens otru, tuvumā esošās gaisa sadursmju novēršanas sistēmas apmainīsies ar datiem un veidos katru no saviem norādījumiem pilotiem. Ja vienā plaknē šāda sistēma dod rīkojumu kāpt augstāk, tad citā tiks dota komanda pazemināt augstumu. Ja kāda no sistēmām neizdodas, tehniķi pēc tam var atrast kļūdu, to pavairot un novērst. Kļūdu meklēšana ir iespējama precīzi, pateicoties detalizētai izpratnei par standarta sistēmu darbības algoritmiem.

Pēc ONERA informācijas sistēmu direktores Virdžijas Vielas teiktā, kamēr izstrādātājiem nav skaidras izpratnes par to, kā tieši mākslīgā intelekta sistēmas pieņem lēmumus un kāpēc viņi pieņem šos lēmumus, nebūs sertifikāta par to izmantošanu pasažieru lidmašīnās. nevar. Pēc ONERA teiktā, vismaz tuvāko desmit gadu laikā šajā jomā nebūs pozitīvu progresu.

Talesas tehnoloģiju direktors Marko Ermans lēš, ka pirmie rezultāti viedo sistēmu izveidē, kas var izskaidrot viņu lēmumus, var parādīties 2021. gadā. Tomēr tas nenozīmē, ka šādas sistēmas nokļūs pasažieru lidmašīnās. Tajā pašā laikā aktīvi tiek veikti pētījumi lidmašīnu mākslīgā intelekta sistēmu jomā. Tiek pieņemts, ka šādas sistēmas ilgtermiņā ļaus tikt galā ar pilotu trūkumu, palielinās lidojumu drošību un samazinās pilotu slodzi.

ASV Aizsardzības departamenta Aizsardzības progresīvo pētījumu projektu aģentūra (DARPA) 2018. gada augusta beigās pavēlēja amerikāņu uzņēmumam Raytheon izstrādāt neironu tīklu, kas varētu izskaidrot, kāpēc tā sava darba gaitā pieņēma lēmumu. Projekta izstrāde tiks izmantota kā daļa no lielāka mēroga projekta, lai izveidotu kaujas vienības "cilvēks-robots". Jauktā dalījuma projekts nozīmē, ka cilvēki un roboti darbosies kopā kā partneri.

DARPA uzskata, ka efektīvai karavīru un robotu mijiedarbībai kaujā ir svarīgi, lai cilvēki uzticētos saviem elektroniskajiem partneriem. Uzticības līmeni var palielināt, ja roboti var cilvēkiem izskaidrot, kāpēc viņi pieņem konkrētu lēmumu. Neironu tīkla projekts, kas spēj sazināties ar personu, tika apzīmēts kā XAI (izskaidrojams mākslīgais intelekts, izskaidrojams mākslīgais intelekts). Tas ietver neironu tīkla izveidi, kas ātrumā nav zemāks par parastajiem neironu tīkliem, bet spēj parādīt visu analīzes ķēdi, uz kuras pamata tā pieņēma konkrētu lēmumu.

Vasilijs Sičevs

Reklāmas video: