AI Var Mainīt Mūsu Dzīvi Uz Visiem Laikiem, Bet Mēs šobrīd Atrodamies Uz Tumša Ceļa - Alternatīvs Skats

AI Var Mainīt Mūsu Dzīvi Uz Visiem Laikiem, Bet Mēs šobrīd Atrodamies Uz Tumša Ceļa - Alternatīvs Skats
AI Var Mainīt Mūsu Dzīvi Uz Visiem Laikiem, Bet Mēs šobrīd Atrodamies Uz Tumša Ceļa - Alternatīvs Skats

Video: AI Var Mainīt Mūsu Dzīvi Uz Visiem Laikiem, Bet Mēs šobrīd Atrodamies Uz Tumša Ceļa - Alternatīvs Skats

Video: AI Var Mainīt Mūsu Dzīvi Uz Visiem Laikiem, Bet Mēs šobrīd Atrodamies Uz Tumša Ceļa - Alternatīvs Skats
Video: Промо ролик лучшей свадьбы. Ташкент, Узбекистан 2024, Maijs
Anonim

Mākslīgais intelekts (AI) jau redzamā veidā pārveido pasauli. Dati virza mūsu globālo digitālo ekosistēmu, un AI tehnoloģijas atklāj datu modeļus.

Viedtālruņi, viedās mājas un viedās pilsētas ietekmē to, kā mēs dzīvojam un mijiedarbojamies, un mākslīgā intelekta sistēmas arvien vairāk tiek iesaistītas lēmumu pieņemšanā, medicīniskajā diagnostikā un lēmumu pieņemšanā. Tas, vai šis scenārijs ir utopisks vai distopisks, ir atkarīgs no mums.

AI iespējamie riski ir uzskaitīti daudzkārt. Slepkavas roboti un masveida bezdarbs ir izplatītas problēmas, savukārt daži cilvēki baidās pat no izzušanas. Optimistiskākas prognozes apgalvo, ka AI līdz 2030. gadam pasaules ekonomikai pievienos 15 triljonus dolāru un galu galā vedīs mūs uz kaut kādu sociālu nirvānu.

Mums noteikti jāapsver, kā šādas tehnoloģijas ietekmē mūsu sabiedrību. Viens no galvenajiem jautājumiem ir tas, ka AI sistēmas pastiprina esošos sociālos aizspriedumus - postoši.

Vairāki bēdīgi slaveni šīs parādības piemēri ir saņēmuši plašu uzmanību: modernas automatizētas mašīntulkošanas sistēmas un attēlu atpazīšanas sistēmas.

Šīs problēmas rodas tāpēc, ka šādas sistēmas izmanto matemātiskus modeļus (piemēram, neironu tīklus), lai definētu modeļus lielās apmācības datu kopās. Ja šie dati dažādos veidos tiek nopietni izkropļoti, raksturīgās kļūdas neizbēgami izpētīs un reproducēs apmācītas sistēmas.

Neobjektīvas autonomās tehnoloģijas ir problemātiskas, jo tās var potenciāli izolēt tādas grupas kā sievietes, etniskās minoritātes vai vecāka gadagājuma cilvēkus, tādējādi saasinot esošo sociālo nelīdzsvarotību.

Ja AI sistēmas tiek apmācītas, piemēram, no policijas apcietināšanas datiem, tad visas apzinātās vai neapzinātās novirzes, kas izpaužas esošajās apcietināšanas shēmās, dublē “policijas tālredzības” AI sistēma, kas apmācīta no šiem datiem.

Reklāmas video:

Atzīstot šīs problēmas nopietnās sekas, dažādas cienījamas organizācijas nesen ir ieteikušas apmācīt visas mākslīgā intelekta sistēmas uz objektīviem datiem. Ētiskās vadlīnijas, kuras agrāk publicēja Eiropas Komisija 2019. gadā, ieteica šādu ieteikumu:

Apkopojot datus, tie var saturēt sociāli konstruētas kļūdas, neprecizitātes. Tas jānovērš pirms AI apmācības, izmantojot jebkuru datu kopu.

Tas viss izklausās pietiekami saprātīgi. Diemžēl dažreiz pirms apmācības vienkārši nav iespējams nodrošināt noteiktu datu kopumu objektivitāti. To vajadzētu izskaidrot ar konkrētu piemēru.

Visas modernās mašīntulkošanas sistēmas (piemēram, Google Translate) mācās no teikumu pāriem.

Anglo-franču sistēma izmanto datus, kas saista angļu teikumus ("viņa ir gara") ar līdzvērtīgiem franču teikumiem ("elle est grande").

Dotā apmācības datu kopā varētu būt 500 miljoni šādu pāru, un tāpēc tikai viens miljards atsevišķu teikumu. No šāda veida datu kopas ir jānoņem visi dzimumu aizspriedumi, ja mēs vēlamies novērst šādu rezultātu ģenerēšanu sistēmā:

Tulkojums franču valodā tika izveidots, izmantojot Google Translate 2019. gada 11. oktobrī, un nav pareizs: “Ils” ir vīrišķīgs daudzskaitlis franču valodā un šeit parādās, neskatoties uz kontekstu, kas skaidri norāda, ka uz to tiek atsaukta uz sievietēm.

Šis ir klasisks piemērs automatizētai sistēmai, kas dod priekšroku vīriešu noklusējuma standartam mācību datu neobjektivitātes dēļ.

Kopumā 70 procenti no vispārīgajiem vietniekvārdiem tulkošanas datu kopās ir vīrišķīgi un 30 procenti - sievišķīgi. Tas ir saistīts ar faktu, ka šādiem mērķiem izmantotie teksti biežāk attiecas uz vīriešiem nekā sievietēm.

Lai izvairītos no atkārtotām tulkošanas sistēmas kļūdām, no datiem būtu jāizslēdz konkrēti teikumu pāri, lai vīrišķīgie un sievišķīgie vietniekvārdi sanāktu proporcijā 50/50 gan angļu, gan franču valodā. Tas neļaus sistēmai piešķirt lielākas varbūtības vīrišķīgiem vietniekvārdiem.

Pat ja iegūtā datu apakškopa ir pilnībā līdzsvarota pēc dzimuma, tā joprojām tiks izkropļota dažādos veidos (piemēram, pēc etniskās piederības vai vecuma). Patiesībā būtu grūti pilnībā novērst visas šīs kļūdas.

Ja viens cilvēks veltīs tikai piecas sekundes katra viena miljarda teikuma lasīšanai AI apmācības datos, būs nepieciešams 159 gadi, lai tos visus pārbaudītu - un tas nozīmē gatavību strādāt visu dienu un nakti bez pusdienu pārtraukumiem.

Alternatīva?

Tāpēc nav reāli pieprasīt, lai visas apmācības datu kopas būtu objektīvas, pirms tiek izveidotas AI sistēmas. Šādas augsta līmeņa prasības parasti pieņem, ka “AI” apzīmē viendabīgu matemātisko modeļu un algoritmisko metožu kopu.

Faktiski dažādiem AI uzdevumiem nepieciešami pilnīgi atšķirīgi sistēmu veidi. Un pilnīga šīs dažādības nenovērtēšana maskē reālās problēmas, kas saistītas ar, teiksim, ļoti sagrozītiem datiem. Tas ir žēl, jo tas nozīmē, ka citi datu novirzes problēmas risinājumi tiek atstāti novārtā.

Piemēram, novirzes apmācītā mašīntulkošanas sistēmā var ievērojami samazināt, ja sistēma tiek pielāgota pēc tam, kad tā ir apmācīta lielā, neizbēgami neobjektīvā datu kopā.

To var izdarīt, izmantojot daudz mazāku, mazāk izjauktu datu kopu. Tāpēc lielākā daļa datu var būt ļoti neobjektīvi, taču apmācīta sistēma nav nepieciešama. Diemžēl šīs metodes reti apspriež tie, kas izstrādā AI pētījumu vadlīnijas un tiesisko regulējumu.

Ja AI sistēmas vienkārši saasina pastāvošo sociālo nelīdzsvarotību, tad tās drīzāk attur, nevis veicina pozitīvas sociālās pārmaiņas. Ja AI tehnoloģijas, kuras mēs arvien vairāk izmantojam ikdienā, būtu daudz mazāk aizspriedumainas nekā mēs esam, tās varētu mums palīdzēt atpazīt un stāties pretī mūsu pašu slēptajiem aizspriedumiem.

Protams, tas ir tas, uz ko mums jācenšas. Tāpēc AI dizaineriem daudz rūpīgāk ir jādomā par radīto sistēmu sociālajām sekām, savukārt tiem, kas raksta par AI, ir dziļāk jāsaprot, kā AI sistēmas faktiski tiek veidotas un būvētas.

Tā kā, ja mēs patiešām tuvojamies vai nu tehnoloģiskai idillei, vai apokalipsei, būtu vēlams pirmais.

Viktorija Vetrova