Kādas Ir Neironu Tīklu Briesmas, Ko Mēs Nenovērtējam? - Alternatīvs Skats

Satura rādītājs:

Kādas Ir Neironu Tīklu Briesmas, Ko Mēs Nenovērtējam? - Alternatīvs Skats
Kādas Ir Neironu Tīklu Briesmas, Ko Mēs Nenovērtējam? - Alternatīvs Skats

Video: Kādas Ir Neironu Tīklu Briesmas, Ko Mēs Nenovērtējam? - Alternatīvs Skats

Video: Kādas Ir Neironu Tīklu Briesmas, Ko Mēs Nenovērtējam? - Alternatīvs Skats
Video: Луи Шварцберг: Неведомая красота опыления 2024, Aprīlis
Anonim

Vai esat kādreiz satikuši cilvēku uz ielas, kurš būtu viens pret vienu kā jūs? Drēbes, seja, gaita, saskarsmes veids, paradumi ir pilnīgi identiski jūsu. Tas ir kā skenēts un izdrukāts uz printera. Izklausās nedaudz briesmīgi, vai ne? Tagad iedomājieties, ka esat redzējis video, kurā šāds cilvēks kaut ko stāsta par sevi. Labākajā gadījumā jūs mēģināsit atcerēties, kad gājāt tādā veidā, ka neko neatcerējāties, bet to varētu pateikt ar kameru. Lai gan tas viss izklausās pēc vienkāršas spriešanas, taču tehnoloģija jau ir ļoti tuvu šādu cilvēku radīšanai. Tie jau pastāv, bet drīz būs vēl daudz.

Kur rodas viltus?

Tagad jau ir pārāk daudz lietu, ko parasti sauc par viltojumiem. Viņi ir visur. Tos var atrast fotogrāfijās, ziņās, preču ražošanā un informācijas pakalpojumos. Vieglāk ir pateikt, kur nav parādību, kuras pavada šis vārds. Kamēr jūs varat cīnīties ar viņiem. Jūs varat izpētīt fotoattēla izcelsmi, pārbaudīt firmas produkta atšķirīgās iezīmes no viltus un vēlreiz pārbaudīt ziņas. Lai gan ziņas ir atsevišķa tēma.

Mūsdienās satura patērētājs nevēlas gaidīt un prasa no tā veidotāja tūlītēju ražošanu, dažreiz viņam pat nerūp kvalitāte, galvenais ir ātri. Šajā gadījumā rodas situācijas, kad kāds kaut ko teica, bet citi, nepārbaudot to, atņēma to vietnēm un avīzēm. Dažos gadījumos ir nepieciešams ilgs laiks, lai sagrieztu šo bumbu atpakaļ un pierādītu, ka tas viss bija nepareizi.

Nav jēgas izskaidrot, kāpēc tas viss tiek darīts. No vienas puses, ir tādi, kas vienkārši vēlas pasmieties par situāciju, no otras puses, tie, kuri tiešām nezināja, ka kļūdās. Atsevišķu vietu, aptuveni pa vidu, ieņem tie, kuriem ir loti nopelnīt. Tās var būt ietekmes intereses dažādos līmeņos, ieskaitot politisko. Dažreiz tas ir mērķis gūt peļņu. Piemēram, sējot paniku akciju tirgū un veicot ienesīgus darījumus ar vērtspapīriem. Bet bieži tas ir saistīts ar naidīgumu pret cilvēku (uzņēmumu, produktu utt.), Lai viņu noniecinātu. Vienkāršs piemērs ir kādas filmas vai iestādes reitingu “nomešana”, kas kādam nav vēlams. Protams, tas prasa armiju no tiem, kas iet un nepatīk (dažreiz pat roboti), bet tas jau ir cits stāsts.

Kas ir dziļā izglītība?

Reklāmas video:

Pēdējā laikā šis termins skan arvien biežāk. Dažreiz viņš pat nav saistīts ar lietu un tiek sajaukts ar kaut ko citu. Tātad programmatūras produkts izskatās iespaidīgāks.

Nedomājiet, ka mašīnmācības jēdziens un pamatprincipi parādījās tikai pirms dažiem gadiem. Patiesībā viņiem ir tik daudz gadu, ka daudzi no mums toreiz vēl nebija dzimuši. Dziļo mācību sistēmu pamatprincipi un viņu darba matemātiskie modeļi bija zināmi jau pagājušā gadsimta 80. gados.

Tajā laikā viņiem nebija tik lielas jēgas, jo trūka viena svarīga komponenta. Tā bija liela skaitļošanas jauda. Tikai 2000. gadu vidū parādījās sistēmas, kas var palīdzēt strādāt šajā virzienā un ļauj aprēķināt visu nepieciešamo informāciju. Tagad mašīnas ir attīstījušās vēl vairāk, un dažas mašīnas redzes, balss uztveres un dažas citas darbojas tik efektīvi, ka tās dažreiz pat pārspēj cilvēka iespējas. Lai gan viņi vēl nav "ieslodzīti" atbildīgos virzienos, padarot tos par papildinājumu cilvēku spējām, saglabājot kontroli pār tiem.

Image
Image

Kas ir Deepfake? Kad parādījās Deepfake?

Ir viegli uzminēt, ka Deepfake ir maza spēle ar vārdiem, kas saistīti ar Deep Learning, un ļoti viltotiem, par kuriem es runāju iepriekš. Tas ir, Deepfake vajadzētu viltojumu sasniegt jaunā līmenī un izkraut cilvēku šajā sarežģītajā biznesā, ļaujot viņam radīt viltotu saturu, netērējot enerģiju.

Pirmkārt, šādas viltojumi attiecas uz video. Tas ir, jebkurš cilvēks var sēdēt kameras priekšā, kaut ko pateikt, un viņa seja tiks aizstāta ar citu personu. Tas izskatās biedējoši, jo patiesībā jums vienkārši jānoķer cilvēka pamatkustības, un viltus atšķirt būs vienkārši neiespējami. Redzēsim, kā viss sākās.

Pirmo ģenerējošo sacīkšu tīklu izveidoja Stenfordas universitātes students. Tas notika 2014. gadā, un studenta vārds bija Ian Goodfellow. Faktiski viņš divus neironu tīklus meta viens pret otru, no kuriem viens nodarbojās ar cilvēku seju ģenerēšanu, bet otrais tos analizēja un runāja līdzīgi vai nē. Tātad viņi apmācīja viens otru un kādu dienu otrais neironu tīkls sāka sajaukt un ģenerētos attēlus uztvert reāli. Tā ir šī arvien sarežģītākā sistēma, kas dzemdē Deepfake.

Tagad viens no galvenajiem Deepfake idejas virzītājiem ir Hao Li. Viņš to dara ne tikai, bet arī daudzi citi. Par to viņš vairākkārt tika apbalvots ar dažādām balvām, arī neoficiālām. Starp citu, viņš ir viens no tiem, par kuru jāpateicas par animoji parādīšanos iPhone X. Ja ir interese, varat ar to sīkāk iepazīties viņa vietnē. Šodien viņš nav galvenā diskusijas tēma.

Mēs viņu atcerējāmies tikai tāpēc, ka Pasaules ekonomikas forumā Davosā viņš parādīja savu pieteikumu, kas ļaus jums aizstāt kameras priekšā esošās personas seju ar jebkuru citu seju. Jo īpaši viņš parādīja, kā šī sistēma darbojas, izmantojot Leonardo DiCaprio, Will Smith un citu slavenu cilvēku sejas.

Tas izskatās nedaudz rāpojoši. No vienas puses, jūs varat tikai apbrīnot modernās tehnoloģijas, kas ļauj skenēt seju, mainīt to uz citu, atrodoties ceļā, un radīt jaunu attēlu. Tas viss notiek sekundes laikā, un sistēma pat nepalēninās. Tas ir, tas ļauj ne tikai apstrādāt gatavo video un nomainīt seju, bet arī piedalīties šādā personāžā sava veida tiešajā video komunikācijā.

Deepfake bīstamība. Kā nomainīt video seju?

Jūs varat sarunāties tik daudz, cik vēlaties, ka šī tehnoloģija ir nepieciešama, tā ir ļoti forša un nevajag apmelot. Jūs pat varat aiziet galējībā un sākt teikt, ka tā ir nikna vecfaga pozīcija, kurš vienkārši baidās no visa jaunā, bet tiešām ir vairāk briesmu nekā ieguvumu.

Izmantojot šādu tehnoloģiju, it īpaši, ja tā ir atvērtā koda, jebkurš varēs sērfot un ierakstīt jebkuru video. Nav slikti, ja tas vienkārši apmelo kāda godu un cieņu, vēl sliktāk, ja tas ir paziņojums, kas izteikts svarīgas personas vārdā. Piemēram, Timma Kuka vārdā ierakstot tikai 30–40 sekundes garu video, jūs varat nojaukt gandrīz visu ASV IT sfēru, kuru vada Apple. Akciju tirgus tiks ietekmēts tik smagi, ka tas izraisīs paniku investoru vidū. Tā rezultātā tūkstošiem cilvēku zaudēs miljardiem dolāru.

Ikviens, kuram nepatīk šis naudas nopelnīšanas veids, teiks, ka tas ir tas, kas viņiem vajadzīgs, ļaujiet viņiem doties uz augu. Bet pēc skumjākā scenārija pēc šī auga nebūs. Turklāt ir sarežģīti, ka mēs iegūstam cilvēku, kurš krāpjas par vērtspapīru vērtības svārstībām. Pietiek tikai tos savlaicīgi iegādāties un pārdot.

Situācija varētu būt vēl sliktāka, ja "jokdaris" runātu lielas valsts vadītāja vārdā. Protams, tad viss tiks atklāts, bet šajā laikā jūs varat izdarīt daudz nepatīkamu lietu. Ņemot to vērā, pieaugušo filmas aktiera vienkārši aizstāšana ar slavenības seju būtu nevainīga palaidnība.

Izmantojot šādas tehnoloģijas, galvenais ir skenēšana, un tad tas ir tehnoloģiju jautājums. Vārda vistiešākajā nozīmē
Izmantojot šādas tehnoloģijas, galvenais ir skenēšana, un tad tas ir tehnoloģiju jautājums. Vārda vistiešākajā nozīmē

Izmantojot šādas tehnoloģijas, galvenais ir skenēšana, un tad tas ir tehnoloģiju jautājums. Vārda vistiešākajā nozīmē.

Jūs varat iedomāties pretēju situāciju, kad reāls cilvēks kaut ko pasaka un pēc tam visiem apliecina, ka viņš ir ierāmēts. Kā būt šajā situācijā, arī nav īsti skaidrs. Tas radīs tādu neskaidrību ziņu plūsmās, ka vienkārši nav iespējams to vēlreiz pārbaudīt citā avotā. Rezultātā parasti nebūs skaidrs, kas šajā pasaulē ir patiess un kas ir nepatiess. Attēls parādās no filmām par drūmo nākotni, piemēram, Surrogates vai Terminator, kur T-1000 sevi iepazīstināja ar citiem cilvēkiem un, cita starpā, savas adoptētājmātes vārdā sauca Džonu Konoru.

Tagad es pat nerunāju par citu ļaunprātīgu izmantošanu, kas ļaus vākt nepatiesus pierādījumus. Ņemot to vērā, visas rotaļlietas izklaides kļūst pārāk apšaubāmas.

Kā atklāt Deepfake?

Problēma nav pat tajā, ka šādas sistēmas būtu jāaizliedz, bet arī tas, ka tas vairs nav iespējams. Viņi jau ir tur, un tehnoloģiju attīstība, ieskaitot seju lasīšanu, ir izraisījusi to parādīšanos un atvērtā koda izplatību. Pat ja mēs iedomājamies, ka sistēma pašreizējā formā beigs pastāvēt, mums ir jāsaprot, ka tā tiks izveidota no jauna. Viņi tikai vēlreiz iemācīs neironu tīklus darboties savā starpā, un tas arī viss.

Pagaidām ne viss ir tik biedējošs, un jūs varat burtiski identificēt viltus ar neapbruņotu aci. Attēls ir līdzīgs, bet diezgan aptuvens. Turklāt viņai dažreiz ir dažas sajaukšanās problēmas, it īpaši ap sejas malām. Bet nekas nekustās, un nemaz nav grūti to attīstīt vēl vairāk. Tas pats Hao Li ir pārliecināts, ka tas prasīs ne vairāk kā dažus mēnešus, un, lai izveidotu “maskas”, kuras pat dators nespēj atšķirt, nepieciešami vēl vairāki gadi. Pēc tam vairs nebūs jāpagriežas.

No vienas puses, algoritms, ko jau izveido YouTube un Facebook, var aizsargāt pret to. Starp citu, pēdējais pat atklāja konkursu atpazīšanas tehnoloģijas izstrādei - Deepfake Detection Challenge ("Uzdevums atklāt dziļas pēdas"). Balva fondam šajā konkursā ir USD 10 miljoni. Konkurss jau notiek un noslēgsies 2020. gada martā. Jums joprojām var būt laika piedalīties.

Sejas aizstāšana videoklipā vairs nav problēma
Sejas aizstāšana videoklipā vairs nav problēma

Sejas aizstāšana videoklipā vairs nav problēma.

Varbūt šī dāsnuma iemesls ir viltots video ar pašu Marku Zukerbergu. Ja šīs divas lietas ir saistītas, šāda konkursa rašanās nav pārsteigums.

Ja nomainītā seja pilnībā atbilst oriģinālam, īpašā neironu tīkla attēlotais pretspēks būs bezspēcīgs. Šajā gadījumā viņai būs jānoķer minimālas atšķirības sejas izteiksmēs, kustībās un runāšanas veidā. Slavenu cilvēku gadījumā šāda problēma tiks atrisināta video pakalpojuma līmenī, jo tas pats YouTube zina, kā pārvietojas parastais Donalds Trumps. Runājot par mazāk zināmu cilvēku, tas kļūst grūtāk. Lai gan to var pierādīt arī, novietojot viņu kameras priekšā un ikdienišķas sarunas, kamēr neironu tīkls analizē viņa kustības. Tas izrādīsies kaut kas līdzīgs pirksta nospieduma izpētei, bet, kā redzam, tas atkal radīs nevajadzīgas grūtības.

Var arī apiet video autentifikācijas sistēmu šūšanu kamerās. Varat likt kamerai atzīmēt uzņemto videoklipu un skaidri norādīt, ka tas nav filmēts caur atsevišķu lietojumprogrammu vai apstrādāts īpašā programmā. Bet kā ir ar tikko apstrādātiem videoklipiem? Piemēram, rediģēta intervija. Rezultātā mēs iegūsim video, kurā sākotnējās atslēgas vairs nebūs.

Dažas mēmes beigās
Dažas mēmes beigās

Dažas mēmes beigās.

Vai var teikt, ka mēs tagad esam ieskicējuši kādu no tumšās nākotnes scenārijiem? Kopumā jā. Ja tehnoloģijas, kas tika izveidotas labu mērķu sasniegšanai, nonāk ārpus kontroles, tās var izlaist ar skumjām. Faktiski šādām bīstamām tehnoloģijām ir daudz iespēju, taču lielākā daļa no tām ir aizsargātas. Piemēram, kodolsintēze. Šeit ir runa par kodu, kuru var iegūt ikviens.

Komentāros uzrakstiet, kā redzat aizsardzību pret viltošanu, ņemot vērā, ka maskēšanas sistēma spēja padarīt maskas pilnīgi identiskas oriģinālajām sejām. Tā kā tie ir video, jūs pat nevarat viņiem piemērot dziļuma un skaļuma atpazīšanu. Turklāt pieņemsim, ka var tikt uzlauzts jebkurš attēlā iestrādāts kods un atslēga. Kā viņi saka, tas būtu par ko. Tagad mēs varam diskutēt, viss ievads ir klāt.

Artjoms Sutjagins