Poudarki: obravnavanje pravičnosti v kontekstu umetne inteligence

Ko družba uporablja umetno inteligenco (AI) za pomoč pri oblikovanju sodb o posameznikih, sta poštenost in pravičnost kritični premisleki. 12. novembra se je sodelavka Brookingsa Nicol Turner-Lee sestala s Solonom Barocasom z univerze Cornell, Natasho Duarte iz Centra za demokracijo in tehnologijo in Karlom Ricanekom z Univerze Severne Karoline Wilmington, da bi razpravljali o umetni inteligenci v kontekstu družbene pristranskosti. , tehnološko testiranje in pravni sistem.





Umetna inteligenca je element številnih vsakodnevnih storitev in aplikacij, vključno z elektronskimi napravami, spletnimi iskalniki in platformami družbenih medijev. V večini primerov umetna inteligenca zagotavlja pozitivno korist za potrošnike – na primer, ko stroji samodejno zaznajo goljufije s kreditnimi karticami ali pomagajo zdravnikom oceniti tveganja za zdravstveno varstvo. Vendar pa obstaja manjši odstotek primerov, na primer, ko umetna inteligenca pomaga pri odločanju o kreditnih omejitvah ali hipotekarnih posojilih, kjer ima tehnologija večji potencial za povečanje zgodovinskih pristranskosti.

Analiza obraza in zaznavanje obraza

Policija je še eno področje, kjer je bila umetna inteligenca deležna okrepljene razprave – še posebej, ko se uporabljajo tehnologije za prepoznavanje obrazov. Ko gre za prepoznavanje obrazov in policijski nadzor, obstajata dve glavni točki: natančnost teh tehnologij in možnost zlorabe. Prva težava je, da algoritmi za prepoznavanje obrazov lahko odražajo pristranske vhodne podatke, kar pomeni, da se lahko njihova stopnja natančnosti razlikuje med rasnimi in demografskimi skupinami. Drugi izziv je, da lahko posamezniki uporabljajo izdelke za prepoznavanje obrazov na druge načine, kot je njihova predvidena uporaba, kar pomeni, da bi lahko vsaka napačna uporaba v resničnem policijskem delu napačno obremenila člane zgodovinsko marginaliziranih skupin, tudi če ti izdelki dobijo visoko oceno natančnosti pri laboratorijskem testiranju.





Tehnologi so to vprašanje zožili tako, da so ustvarili razliko med zaznavanjem obraza in analizo obraza. Zaznavanje obraza opisuje dejanje identifikacije in ujemanja obrazov v bazi podatkov – v skladu s tem, kar je tradicionalno znano kot prepoznavanje obrazov. Analiza obraza je še dlje za oceno fizičnih značilnosti, kot so oblika nosu (ali atributi obraza) in čustva (ali afektivno računalništvo). Zlasti analiza obraza je sprožila pomisleke glede državljanskih pravic in pravičnosti: algoritem lahko pravilno ugotovi, da je nekdo jezen ali prestrašen, vendar lahko napačno ugane, zakaj.

Pravne negotovosti

Pri obravnavanju algoritemske pristranskosti je pomembno pravno vprašanje, ali izdelek umetne inteligence povzroča nesorazmerno prikrajšanost ali nesorazmeren učinek na zaščitene skupine posameznikov. Vendar se tožniki pogosto soočajo s širokimi izzivi pri vlaganju protidiskriminacijskih tožb v primerih umetne inteligence. Prvič, različen vpliv je težko zaznati; drugič, težko je dokazati. Tožniki pogosto nosijo breme zbiranja dokazov o diskriminaciji – zahtevno prizadevanje za posameznika, ko različni vplivi pogosto zahtevajo zbirne podatke velike skupine ljudi.



Ker algoritemska pristranskost na sodišču večinoma ni preizkušena, ostaja veliko pravnih vprašanj o uporabi trenutnih protidiskriminacijskih zakonov za izdelke AI. Na primer, pod Naslov VII Zakona o državljanskih pravicah iz leta 1964 , lahko zasebni delodajalci izpodbijajo različne trditve o vplivu, tako da dokažejo, da so njihove prakse poslovna potreba. Vendar, kaj je v kontekstu avtomatizirane programske opreme poslovno nujnost? Ali bi morala zadoščati statistična korelacija za uveljavitev nesorazmernega vpliva avtomatiziranega sistema? In kako lahko v kontekstu algoritemske pristranskosti tožnik izvedljivo identificira in dokaže različen vpliv?

Opredelitev ciljev

Algoritemska pristranskost je večplasten problem, ki zahteva večplastno rešitev, ki lahko vključuje mehanizme odgovornosti, samoregulacijo industrije, sodne spore o državljanskih pravicah ali izvirno zakonodajo. V začetku tega leta so senator Ron Wyden (D-OR), senator Cory Booker (D-NJ) in predstavnica Yvette Clark (D-NY) uvedel Zakon o algoritemski odgovornosti , ki bi od podjetij zahteval, da izvajajo algoritemske ocene tveganja, vendar jim omogočajo, da izberejo, ali bodo rezultate objavili ali ne. Poleg tega je predstavnik Mark Takano (D-CA) uvedel Zakon o pravosodju v forenzičnih algoritmih , ki obravnava preglednost algoritmov v kazenskih sodnih zadevah.

Vendar pa lahko ta večplastna rešitev od zainteresiranih strani zahteva, da najprej obravnavajo bolj temeljno vprašanje: kaj je cilj, ki ga poskušamo rešiti? Na primer, nekaterim posameznikom je možnost netočnosti največji izziv pri uporabi umetne inteligence v kazenskem pravosodju. Za druge pa obstajajo določeni primeri uporabe, kjer umetna inteligenca ne sodi, na primer v kontekstu kazenskega pravosodja ali nacionalne varnosti, ne glede na to, ali je točna ali ne. Ali, kot Barocas opisuje te konkurenčne cilje, ko sistemi delujejo dobro, so orwellovski, in ko delujejo slabo, so kafkovski.