Kāpēc Mākslīgais Intelekts Vērtē Noziedzniekus Ir Bīstams? - Alternatīvs Skats

Satura rādītājs:

Kāpēc Mākslīgais Intelekts Vērtē Noziedzniekus Ir Bīstams? - Alternatīvs Skats
Kāpēc Mākslīgais Intelekts Vērtē Noziedzniekus Ir Bīstams? - Alternatīvs Skats

Video: Kāpēc Mākslīgais Intelekts Vērtē Noziedzniekus Ir Bīstams? - Alternatīvs Skats

Video: Kāpēc Mākslīgais Intelekts Vērtē Noziedzniekus Ir Bīstams? - Alternatīvs Skats
Video: LAMPA 2020: Cilvēcīgs mākslīgais intelekts 2024, Maijs
Anonim

Mākslīgais intelekts jau kaut kādā veidā palīdz noteikt jūsu nākotni. Kad kaut ko meklējat meklētājprogrammā, izmantojiet tādu pakalpojumu kā Netflix vai banka novērtē jūsu piemērotību hipotēkai. Bet kas notiek, ja mākslīgajam intelektam tiesā ir jānosaka, vai jūs esat vainīgs? Dīvainā kārtā dažās valstīs tas jau var notikt. Nesen ASV augstajam tiesnesim Džonam Robertsam tika jautāts, vai viņš varētu iedomāties dienu, kad "gudras mašīnas, kuras kontrolē mākslīgais intelekts, palīdzēs atrast pierādījumus vai pat pieņemt tiesas lēmumus". Viņš atbildēja: "Šī diena jau ir pienākusi, un viņš ievērojami palīdz tiesu iestādēm procesā."

Iespējams, Roberts atsaucās uz neseno Ērika Loomisa lietu, kurai pēc privāta uzņēmuma slepenas programmatūras ieteikuma tika piespriests sešu gadu cietumsods. Loomis, kuram jau bija kriminālā vēsture un kurš tika notiesāts par bēgšanu no policijas ar nozagtu automašīnu, tagad apgalvo, ka tika pārkāptas viņa tiesības uz procedūru, jo ne viņš, ne viņa pārstāvji nespēja pārskatīt vai apstrīdēt ieteikumu algoritmu.

Pārskatu sagatavoja programmatūra Compas, kuru Notrpointe pārdod kuģiem. Programma iemieso jaunu AI pētījumu tendenci: palīdzot tiesnešiem tiesā pieņemt “labākus” (vai vismaz vairāk uz datiem pamatotus) lēmumus.

Kaut arī Loomis lietas konkrētās detaļas paliek slēgtas, tajā noteikti ir diagrammas un skaitļi, kas nosaka Loomisa dzīvi, uzvedību un recidīva iespējamību. Tie ietver vecumu, rasi, dzimuma identitāti, ieradumus, pārlūka vēsturi un dažus galvaskausa izmērus. Precīzāk neviens nezina.

Ir zināms, ka lietas prokurors tiesnesim teica, ka Loomis demonstrēja "lielu recidīva, vardarbības, pirmstiesas procesa risku". Tas ir standarts attiecībā uz notiesāšanu. Tiesnesis piekrita un teica Loomisam, ka "Compas identificēja viņu kā personu, kurai ir liels sabiedrības risks".

Viskonsinas Augstākā tiesa notiesāja Loomisu, piebilstot, ka Compas ziņojums viņa lēmumam pievienoja vērtīgu informāciju, taču atzīmēja, ka bez viņa viņš pieņēma to pašu spriedumu. Protams, to nevarēsit pārbaudīt droši. Kādas var būt kognitīvās aizspriedumi, ja visvarena “viedā” sistēma, piemēram, Compas, ir iesaistīta tiesnešu konsultēšanā par to, kā rīkoties?

Nezināma lietošana

Reklāmas video:

Būsim godīgi, Viskonsinas tiesas izdarītajā nav nekā "nelikumīga" - tas ir tikai piemērs. To var un darīs arī citas tiesas.

Diemžēl mēs nezinām, cik lielā mērā AI un citi algoritmi tiek izmantoti notiesāšanā. Tiek uzskatīts, ka dažas tiesas slēgtās tiesās "testē" tādas sistēmas kā Compas, taču nevar pretendēt uz partnerību. Pastāv arī uzskats, ka vairāki AI jaunie uzņēmumi izstrādā šādas viedās sistēmas.

Image
Image

Tomēr AI izmantošana likumdošanā nesākas vai beidzas ar teikumu, tas sākas ar izmeklēšanu. Apvienotā Karaliste jau ir izstrādājusi VALCRI sistēmu, kas dažu sekunžu laikā veic laikietilpīgu analītisko darbu - izlaižot daudz datu, piemēram, tekstus, laboratorijas ziņojumus un policijas dokumentus, lai izceltu lietas, kurām varētu būt nepieciešama papildu izmeklēšana.

Lielbritānijas Rietummidlendas policija nākamajos trīs gados pārbaudīs VALCRI, izmantojot anonīmus datus, kas satur vairāk nekā 6,5 miljonus ierakstu. Līdzīgu pārbaudi Beļģijā veic Antverpenes policija. Tomēr agrāk AI un dziļas mācīšanās projekti, kuros iesaistītas masīvas datu kopas, ir bijuši problemātiski.

Priekšrocības nedaudzajiem

Tehnoloģijas ir nodrošinājušas daudz noderīgu palātu tiesas zālēs, sākot no mašīnu kopēšanas līdz DNS iegūšanai no pirkstu nospiedumiem līdz sarežģītām uzraudzības metodēm. Bet tas nenozīmē, ka jebkura tehnoloģija ir uzlabojums.

Kaut arī AI izmantošana izmeklēšanā un spriedumos var ietaupīt laiku un naudu, tas rada akūtas problēmas. ProPublica Compas ziņojums skaidri parādīja, ka melnādainie programma kļūdaini uzskatīja vairāk recidīvistus nekā baltos. Pat vismodernākās AI sistēmas var pārmantot to radītāju rasu un dzimumu aizspriedumus.

Turklāt, kāda jēga lēmumu pieņemšanu (vismaz daļēji) par cilvēkiem raksturīgiem jautājumiem novirzīt uz algoritmu? Amerikas Savienotajās Valstīs ir zināmas grūtības, kad žūrijas izmēģina savus vienaudžus. Juridiskie standarti nekad nav bijuši etalons, tāpēc šie žūrijas procesi tiek uzskatīti par visdemokrātiskākajām un efektīvākajām notiesāšanas sistēmām. Mēs pieļaujam kļūdas, bet laika gaitā uzkrājam zināšanas par to, kā tās nepieļaut, pilnveidojot sistēmu.

Kompasi un līdzīgas sistēmas juridiskajā sistēmā apzīmē melno lodziņu. Tādiem nevajadzētu būt. Tiesiskās sistēmas ir atkarīgas no informācijas nepārtrauktības, pārredzamības un spējas pārskatīt. Sabiedrība nevēlas sistēmu, kas mudina sacensties veidot AI jaunuzņēmumus, kas nodrošina ātrus, lētus un ekskluzīvus risinājumus. Steidzīgi izgatavots AI būs briesmīgs.

Atjaunināta Compas atvērtā pirmkoda versija būtu uzlabojums. Bet vispirms būs jāpaaugstina tieslietu sistēmas standarti, pirms mēs sākam novirzīt atbildību par labu algoritmiem.

ILYA KHEL