Kā Tika Iemācīts Neironu Tīkliem Viltot Ziņu Attēlu - Alternatīvs Skats

Satura rādītājs:

Kā Tika Iemācīts Neironu Tīkliem Viltot Ziņu Attēlu - Alternatīvs Skats
Kā Tika Iemācīts Neironu Tīkliem Viltot Ziņu Attēlu - Alternatīvs Skats

Video: Kā Tika Iemācīts Neironu Tīkliem Viltot Ziņu Attēlu - Alternatīvs Skats

Video: Kā Tika Iemācīts Neironu Tīkliem Viltot Ziņu Attēlu - Alternatīvs Skats
Video: Konference "Kādēļ ir grūti uzticēties valdības viedoklim un lēmumiem krīzes situācijā?" ar titriem 2024, Aprīlis
Anonim

Viltojumu radīšanai tiek izmantotas mākslīgā intelekta sistēmas un tehnoloģijas video un audio viltojumu ģenerēšanai.

Lai izveidotu “individuālu” ziņu attēlu jebkuram no mums un viltotu tajā atlasītos plašsaziņas līdzekļu ziņojumus, šodien pietiek ar viena programmētāja centieniem. Par to Izvestija pastāstīja mākslīgā intelekta un kiberdrošības speciālisti. Pavisam nesen viņi lēsa, ka tas prasa vairāku komandu darbu. Šāds paātrinājums kļuva iespējams, attīstot tehnoloģijas uzbrukumiem neironu tīkliem un radot skaņas un video viltojumus, izmantojot programmas “dziļu viltojumu” izveidošanai. Laikraksts "Izvestia" nesen piedzīvoja līdzīgu uzbrukumu, kad trīs Lībijas ziņu portāli uzreiz publicēja ziņojumu, kas, iespējams, parādījās vienā no jautājumiem. Pēc ekspertu domām, 3-5 gadu laikā var gaidīt iebrukumu robotu manipulatoros, kas automātiski spēs radīt daudz viltojumu.

Drosmīgā jaunā pasaule

Ir arvien vairāk projektu, kas informācijas attēlu pielāgo konkrētu lietotāju uztverei. Viens no viņu darba piemēriem bija neseno trīs Lībijas portālu rīcība, kas 20. novembrī publicēja ziņas, kuras, iespējams, iespiestas Izvestija numurā. Viltojuma veidotāji mainīja laikraksta sākumlapu, ievietojot tajā ziņojumu par sarunām starp lauka maršalu Khalifa Haftar un Nacionālās vienošanās (PNS) valdības premjerministru Fayez Sarraj. Viltojumam Izvestia fontā tika pievienota abu vadītāju fotogrāfija, kas uzņemta 2017. gada maijā. Etiķete ar publikācijas logotipu tika izgriezta no faktiski publicētā 20. novembra numura, bet visi pārējie lappuses teksti no 23. oktobra numura.

No speciālistu viedokļa pārskatāmā nākotnē šādas falsifikācijas var tikt veiktas automātiski.

Image
Image

“Mākslīgā intelekta tehnoloģijas tagad ir pilnībā atvērtas, un datu saņemšanas un apstrādes ierīces tiek miniatūrizētas un kļūst lētākas,” Izvestija pastāstīja Jurijs Vilsiters, fizisko un matemātisko zinātņu doktors, Krievijas Zinātņu akadēmijas profesors, FSUE “GosNIIAS” nodaļas vadītājs. - Tāpēc ir ļoti iespējams, ka tuvākajā nākotnē pat valsts un lielās korporācijas, bet vienkārši privātpersonas varēs mūs noklausīties un izspiegot, kā arī manipulēt ar realitāti. Nākamajos gados, analizējot lietotāju vēlmes, būs iespējams viņu ietekmēt ar ziņu plūsmu un ļoti gudru viltojumu palīdzību.

Reklāmas video:

Pēc Jurija Vilsitera vārdiem, tehnoloģijas, kuras var izmantot šādai iejaukšanai garīgajā vidē, jau pastāv. Teorētiski manipulatoru iebrukumu var sagaidīt pēc dažiem gadiem, viņš sacīja. Ierobežojošs brīdis šeit var būt nepieciešamība apkopot lielas datu bāzes par reālu cilvēku reakciju uz mākslīgiem stimuliem ar ilgtermiņa seku izsekošanu. Visticamāk, šādai izsekošanai būs nepieciešami vēl vairākus gadus ilgs izpētes process, pirms tiks konsekventi iegūti mērķtiecīgi uzbrukumi.

Vīzijas uzbrukums

Aleksejs Parfentjevs, SearchInform analītikas nodaļas vadītājs, piekrīt Jurijam Vilsiteram. Pēc viņa teiktā, eksperti jau prognozē uzbrukumus neironu tīkliem, lai gan tagad šādu piemēru praktiski nav.

- Pētnieki no Gartnera uzskata, ka līdz 2022. gadam 30% no visiem kiberuzbrukumiem būs vērsti uz to datu sabojāšanu, uz kuriem tiek apmācīts neironu tīkls, un nozagti gatavi mašīnmācīšanās modeļi. Tad, piemēram, bezpilota transportlīdzekļi pēkšņi var maldināt gājējus pret citiem objektiem. Un mēs nerunāsim par finanšu vai reputācijas risku, bet gan par vienkāršu cilvēku dzīvību un veselību, uzskata eksperts.

Uzbrukumi datoru redzes sistēmām tiek veikti kā daļa no izpētes. Šādu uzbrukumu mērķis ir piespiest neironu tīklu attēlā atklāt to, kas tur nav. Vai arī tieši otrādi - neredzēt to, kas bija plānots.

Image
Image

“Viena no neironu tīkla apmācības jomā aktīvi attīstītajām tēmām ir tā sauktie pretinieku uzbrukumi (“pretstatu uzbrukumi”- Izvestija),” skaidroja Kaspersky Lab tīmekļa analītiķis Vladislavs Tuškanovs. - Vairumā gadījumu tie ir vērsti uz datoru redzes sistēmām. Lai veiktu šādu uzbrukumu, vairumā gadījumu jums ir jābūt pilnīgai piekļuvei neironu tīklam (tā sauktajiem baltā kastes uzbrukumiem) vai tā darba rezultātiem (melnā kastes uzbrukumiem). Nav tādu metožu, kas 100% gadījumu varētu maldināt jebkuru datora redzes sistēmu. Turklāt jau ir izveidoti rīki, kas ļauj pārbaudīt neironu tīklus izturībai pret sacīkšu uzbrukumiem un palielināt to pretestību.

Šādas uzbrukuma laikā uzbrucējs mēģina kaut kā mainīt atpazīto attēlu, lai neironu tīkls nedarbotos. Bieži vien fotoattēlā tiek uzlikts troksnis, līdzīgs tam, kas rodas, fotografējot slikti apgaismotā telpā. Cilvēks parasti šādus traucējumus labi nepamana, bet neironu tīkls sāk darboties nepareizi. Bet, lai veiktu šādu uzbrukumu, uzbrucējam ir nepieciešama piekļuve algoritmam.

Pēc Neuroset Ashmanov ģenerāldirektora Staņislava Ašmanova teiktā, pašlaik nav metožu šīs problēmas risināšanai. Turklāt šī tehnoloģija ir pieejama ikvienam: vidējs programmētājs to var izmantot, lejupielādējot nepieciešamo atvērtā pirmkoda programmatūru no pakalpojuma Github.

Image
Image

- Uzbrukums neironu tīklam ir neironu tīkla maldināšanas paņēmiens un algoritmi, kas padara to par nepatiesu rezultātu, un faktiski to salauž kā durvju slēdzeni, - uzskata Ašmanovs. - Piemēram, tagad ir diezgan viegli likt sejas atpazīšanas sistēmai domāt, ka priekšā neesat jūs, bet gan Arnolds Švarcenegers, - tas tiek darīts, sajaucot cilvēka acij nemanāmās piedevas datos, kas ievada neironu tīklā. Tie paši uzbrukumi ir iespējami runas atpazīšanas un analīzes sistēmām.

Eksperts ir pārliecināts, ka tas tikai pasliktināsies - šīs tehnoloģijas ir nonākušas pie masām, krāpnieki tās jau izmanto, un pret tām nav nekādu aizsardzības līdzekļu. Tā kā nav aizsardzības pret video un audio viltojumu automatizētu izveidošanu.

Dziļi viltojumi

Deepfake tehnoloģijas, kas balstītas uz dziļo mācīšanos (neironu tīklu dziļas apguves tehnoloģijas. - Izvestija), jau rada reālus draudus. Video vai audio viltojumi tiek veidoti, rediģējot vai pārklājot slavenu cilvēku sejas, kuri it kā izrunā vajadzīgo tekstu un spēlē nepieciešamo lomu sižetā.

“Deepfake ļauj aizstāt lūpu kustības un cilvēka runu ar video, kas rada notiekošā reālistiskuma sajūtu,” saka Andrejs Busargins, Group-IB inovatīvas zīmolu aizsardzības un intelektuālā īpašuma departamenta direktors. - Viltus slavenības “piedāvā” lietotājiem sociālajos tīklos piedalīties vērtīgu balvu (viedtālruņu, automašīnu, naudas summu) izlozē u.c. Saites no šiem video bieži noved pie krāpnieciskām un pikšķerēšanas vietnēm, kurās lietotājiem tiek lūgts ievadīt personisko informāciju, tostarp bankas kartes informāciju. Šādas shēmas rada draudus gan parastajiem lietotājiem, gan sabiedriskajiem darbiniekiem, kuri tiek minēti reklāmās. Šāda veida shenanigans dēļ slavenību attēli tiek saistīti ar krāpniecību vai reklamētām precēm.un šajā gadījumā mēs saskaramies ar personīgā zīmola kaitējumu,”viņš saka.

Image
Image

Vēl viens drauds ir saistīts ar “viltus balsu” izmantošanu krāpšanai pa tālruni. Piemēram, Vācijā kibernoziedznieki izmantoja balss dziļu viltojumu, lai Lielbritānijas meitasuzņēmuma vadītājs telefona sarunā liktu steidzami pārskaitīt EUR 220 000 uz Ungārijas piegādātāja kontu, izliekoties par uzņēmuma vadītāju. Britu firmas vadītājam radās aizdomas par triku, kad viņa "priekšnieks" lūdza otro naudas pārvedumu, bet zvans nāca no Austrijas numura. Līdz tam laikam pirmā daļa jau bija pārskaitīta uz kontu Ungārijā, no kuras nauda tika izņemta uz Meksiku.

Izrādās, ka pašreizējās tehnoloģijas ļauj izveidot individuālu ziņu attēlu, kas piepildīts ar viltus ziņām. Turklāt drīz būs iespējams atšķirt viltojumus no reāla video un audio tikai ar aparatūras palīdzību. Pēc ekspertu domām, maz ticams, ka pasākumi, kas aizliedz neironu tīklu attīstību, būs efektīvi. Tāpēc drīz mēs dzīvosim pasaulē, kurā būs nepieciešams visu pastāvīgi pārbaudīt no jauna.

“Mums tam ir jāsagatavojas, un mums tas ir jāpieņem,” uzsvēra Jurijs Vilsiters. - Cilvēce ne pirmo reizi pāriet no vienas realitātes uz otru. Mūsu pasaule, dzīvesveids un vērtības kardināli atšķiras no pasaules, kurā mūsu senči dzīvoja pirms 60 000 gadiem, pirms 5000 gadiem, pirms 2000 gadiem un pat pirms 200–100 gadiem. Tuvākajā laikā cilvēkam lielā mērā tiks liegts privātums, tāpēc viņš būs spiests neko neslēpt un rīkoties godīgi. Tajā pašā laikā apkārtējā realitātē un personībā neko nevar paļauties uz ticību, viss būs jāapšauba un pastāvīgi jāpārbauda. Bet vai šī nākotnes realitāte būs drausmīga? Nē. Tas vienkārši būs pilnīgi atšķirīgs.

Anna Urmantseva