Jūs Uzreiz Zināt, Ka Tas Ir Porno. Vai Dators Sapratīs? - Alternatīvs Skats

Satura rādītājs:

Jūs Uzreiz Zināt, Ka Tas Ir Porno. Vai Dators Sapratīs? - Alternatīvs Skats
Jūs Uzreiz Zināt, Ka Tas Ir Porno. Vai Dators Sapratīs? - Alternatīvs Skats

Video: Jūs Uzreiz Zināt, Ka Tas Ir Porno. Vai Dators Sapratīs? - Alternatīvs Skats

Video: Jūs Uzreiz Zināt, Ka Tas Ir Porno. Vai Dators Sapratīs? - Alternatīvs Skats
Video: HTML5 CSS3 2022 | article | Вынос Мозга 02 2024, Septembris
Anonim

Tumblr pagājušā mēneša sākumā paziņoja, ka tas aizliegs porno. Kad jaunā satura politika stājās spēkā, apmēram pēc divām nedēļām - 17. decembrī - kļuva skaidrs, ka būs problēmas. Pēc mākslīgā intelekta sistēmas izvietošanas, kurai vajadzēja aizliegt visu pornogrāfiju vietnē, tā kļūdaini atzīmēja nevainīgus ierakstus 455,4 miljonos emuāru vietnē starp 168,2 miljardiem amatu: vāzes, raganas, zivis un visu šo džezu.

Mākslīgā intelekta pornogrāfija

Lai gan nav skaidrs, kuru automātisko filtru Tumblr izmantoja vai izveidoja savu - uzņēmums neatbildēja uz jautājumiem par šo tēmu, ir skaidrs, ka sociālais tīkls ir iestrēdzis starp savu politiku un tehnoloģijām. Piemēram, vietnes neatbilstīgā nostāja attiecībā uz "sievietēm, kas rāda sprauslas" un māksliniecisko kailumu, piemēram, ir novedusi pie kontekstuāliem lēmumiem, kas parāda, ka pat Tumblrs nezina, ko aizliegt savā platformā. Kā bieža kompānija var noteikt, ko tā uzskata par neķītru?

Pirmkārt, riskanta satura bloķēšana ir sarežģīta, jo ir grūti definēt, kas tas ir no paša sākuma. Neķītrības definīcija ir lāča lamatas, kas ir vairāk nekā simts gadus veca, 1896. gadā Amerikas Savienotās Valstis pirmo reizi pieņēma likumus, kas regulē neķītrību. 1964. gadā spriedumā lietā Jacobellis pret Ohaio par to, vai Ohaio varētu aizliegt Luija Malles filmas demonstrēšanu, Augstākā tiesa izdeva to, kas mūsdienās, iespējams, ir visslavenākā hardcore pornogrāfijas definīcija: “Es nemēģināšu turpmāk definēt šāda veida materiālus, kas, kā es saprotu, tas tiks iekļauts stenogrammā; un es, iespējams, nekad nespēšu to padarīt saprotamu,”sacīja tiesnesis Poters Stjuarts. "Bet es zinu, kas tas ir, kad to redzu, un filma, kas saistīta ar šo lietu, nav."

Mašīnmācīšanās algoritmiem ir tāda pati problēma. Tieši tā mēģina atrisināt Braiens Delorge, uzņēmuma Picnix izpilddirektors - uzņēmums, kas pārdod specializētās mākslīgā intelekta tehnoloģijas. Viens no viņu produktiem, Iris, ir klienta lietojumprogramma pornogrāfijas noteikšanai, lai “palīdzētu cilvēkiem”, kā saka Delorge, “kuri savā dzīvē nevēlas porno”. Viņš norāda, ka pornogrāfijas īpašā problēma ir tā, ka tas var būt jebkas, dažādu lietu kopums - un attēliem, kas nav pornogrāfiski, var būt līdzīgi elementi. Pludmales ballītes attēls var tikt bloķēts nevis tāpēc, ka uz tā ir vairāk ādas nekā biroja fotoattēlā, bet gan tāpēc, ka tas atrodas malā. “Tāpēc ir ļoti grūti apmācīt attēlu atpazīšanas algoritmu, lai visu izdarītu uzreiz,” saka DeLorge."Kad definīcija kļūst sarežģīta cilvēkiem, arī datoram ir grūtības." Ja cilvēki nespēj vienoties par to, kas ir porno un kas ne, vai dators var pat cerēt uzzināt atšķirību?

Lai iemācītu AI noteikt porno, vispirms jums jābaro porn. Daudz pornogrāfijas. Kur es to varu dabūt? Pirmais, ko cilvēki dara, ir lejupielādēt lielu skaitu videoklipu no Pornhub, XVideos, saka Dan Shapiro, stama Lemay.ai līdzdibinātājs, kurš saviem klientiem izveido AI filtrus. "Šis ir viens no juridiskā rakstura pelēkajiem apgabaliem - piemēram, ja jūs mācāties no citu cilvēku satura, vai tas jums pieder?"

Pēc tam, kad programmētāji lejupielādēja tonnas pornogrāfijas, viņi no videoklipa izgrieza pornogrāfiskus materiālus, lai pārliecinātos, ka viņu izmantotie materiāli neliedz picu piegādes puišiem. Platformas maksā cilvēkiem, galvenokārt ārpus ASV, par šāda satura marķēšanu; darbs ir maz apmaksāts un garlaicīgs, piemēram, ienākšana captcha. Viņi vienkārši sēž un atzīmē: šī ir porno, šī ir šī. Jums ir nedaudz jāfiltrē, jo viss porno iznāk ar etiķeti. Mācīšanās ir labāka, ja izmantojat ne tikai fotogrāfijas, bet lielus datu paraugus.

Reklāmas video:

"Bieži vien jums ne tikai jāfiltrē porno, bet arī pavadošie materiāli," saka Šapiro. "Tāpat kā viltus profili ar meitenes fotoattēlu un tālruni." Viņš atsaucas uz seksa pakalpojumu sniedzējiem, kuri meklē klientus, taču tas varētu būt kaut kas pilnīgi likumīgs. "Tas nav porno, bet tas ir tāds, ko jūs nevēlaties skatīties uz savas platformas, vai ne?" Labs automatizēts moderators iemācās no miljoniem - ja ne desmitiem miljonu - parauga satura, kas var ietaupīt tonnas cilvēkstundu.

"Varat salīdzināt to ar atšķirību starp bērnu un pieaugušo," saka Metjū Zeilers, Clarifai izpilddirektors un dibinātājs - datoru redzes starta, kas veic šāda veida attēlu filtrēšanu korporatīvajiem klientiem. “Es jums varu pateikt droši - pirms pāris mēnešiem mums bija bērniņš. Viņi neko nezina par pasauli, viņiem viss ir jauns. " Jums ir jāparāda bērnam (algoritms) daudz lietu, lai viņš kaut ko saprastu. Miljoniem un miljoniem piemēru. Bet kā pieaugušie - kad mēs esam izveidojuši tik daudz konteksta par pasauli un sapratuši, kā tā darbojas - mēs varam iemācīties kaut ko jaunu no tikai dažiem piemēriem. " (Jā, AI mācīšana filtrēt pieaugušajiem paredzētu saturu ir tāds pats kā bērnam parādīt daudz porno.) Uzņēmumi, piemēram, Clarifai, šodien strauji aug. Viņiem ir laba pasaules datu bāze, viņi var pastāstīt suņiem no kaķiem, ģērbtiem no kailiem. Zeilera uzņēmums izmanto savus modeļus, lai apmācītu jaunus algoritmus saviem klientiem - tā kā sākotnējais modelis apstrādāja daudz datu, personalizētām versijām darbam būs vajadzīgas tikai jaunas datu kopas.

Tomēr algoritmam ir grūti to pareizi pielabot. Tas labi notiek ar saturu, kas acīmredzami ir pornogrāfisks; taču klasifikators var nepareizi atzīmēt apakšveļas sludinājumu kā neierobežotu, jo attēlā ir vairāk ādas nekā, teiksim, birojā. (Ar bikini un apakšveļu, pēc Zeilera domām, tas ir ļoti grūti). Tas nozīmē, ka tirgotājiem savā darbā būtu jāpievērš uzmanība šiem progresīvajiem gadījumiem, par prioritāti izvirzot grūti klasificējamos modeļus.

Kas ir vissmagākā daļa?

"Anime porn," Zeilers saka. "Pirmajā mūsu kailuma detektora versijā izglītībai neizmantoja multfilmu pornogrāfiju." Daudzkārt AI kļūdījās, jo neatzina hentai. "Pēc tam, kad strādājām pie šī klienta, modelī mēs ievadījām daudz viņa datu un ievērojami uzlabojām karikatūru filtra precizitāti, saglabājot reālu fotogrāfiju precizitāti," saka Zeilers.

Tehnoloģiju, kas iemācīta izspiest porno, var izmantot arī citās lietās. Šīs sistēmas pamatā esošās tehnoloģijas ir ļoti elastīgas. Tas ir vairāk nekā anime tits. Piemēram, finierzāģis no alfabēta tiek plaši izmantots kā automātisks komentāru moderators laikrakstā. Šī programmatūra darbojas līdzīgi attēlu klasifikatoriem, izņemot to, ka tā šķiro pēc toksicitātes, nevis kailuma. (Toksicitāti tekstuālos komentāros ir tikpat grūti noteikt kā pornogrāfiju attēlos.) Facebook izmanto šāda veida automātisko filtrēšanu, lai atklātu pašnāvības ziņojumus un ar terorismu saistītu saturu, un ir mēģinājis izmantot šo tehnoloģiju, lai atklātu viltus ziņas savā masīvajā platformā.

Tas viss joprojām ir atkarīgs no cilvēka uzraudzības; mēs labāk risinām neskaidru un neviennozīmīgu kontekstu. Zeilers saka, ka viņš neuzskata, ka viņa izstrādājums ir uzņēmies kādu darbu. Tas atrisina interneta mērogošanas problēmu. Cilvēki joprojām apmācīs AI, šķirojot un marķējot saturu, lai AI varētu to atšķirt.

Šī ir mērenības nākotne: pielāgoti, pabeigti risinājumi, kas tiek sniegti uzņēmumiem, kuri veic visu savu biznesu, mācot arvien modernākiem klasifikatoriem vairāk datu. Tāpat kā Stripe un Square piedāvā tiešos maksājuma risinājumus uzņēmumiem, kuri nevēlas tos pats apstrādāt, tādi jaunizveidoti uzņēmumi kā Clarifai, Picnix un Lemay.ai veiks tiešsaistes regulēšanu.

Dans Šapiro no Lemay.ai ir cerīgs. “Tāpat kā jebkura tehnoloģija, tā joprojām tiek izgudrota. Tāpēc es nedomāju, ka mēs padosimies, ja mums neizdosies. " Bet vai AI kādreiz spēs darboties autonomi bez cilvēku uzraudzības? Neskaidrs. “Šņaucamā dūša kastē nav neviena maza cilvēka, kurš filtrētu katru šāvienu,” viņš saka. "Jums jāiegūst dati no jebkuras vietas, lai apmācītu algoritmu uz tā."

Zeilers, no otras puses, uzskata, ka kādu dienu mākslīgais intelekts visu savaldīs. Rezultātā cilvēku iejaukšanās gadījumu skaits tiks samazināts līdz nullei vai maz piepūles. Pakāpeniski cilvēka centieni pārvērtīsies par kaut ko tādu, ko AI tagad nevar darīt, piemēram, augsta līmeņa argumentācija, pašapziņa - viss, kas cilvēkam ir.

Pornogrāfijas atzīšana ir daļa no tā. Identifikācija ir samērā triviāls uzdevums cilvēkiem, taču daudz grūtāk ir apmācīt algoritmu nianšu atpazīšanai. Grūti, daļēji matemātiski, ir arī grūti noteikt slieksni, kad filtrs filtru apzīmē kā pornogrāfisku vai ne pornogrāfisku.

Mākslīgais intelekts ir nepilnīgs spogulis tam, kā mēs redzam pasauli, tāpat kā pornogrāfija atspoguļo to, kas notiek starp cilvēkiem, kad viņi ir vieni. Tajā ir zināma patiesība, bet pilnīgas bildes nav.

Iļja Khel