Istraživanja Lična zaštita Najave II

Rasna i spolna pristrasnost sistema za prepoznavanje lica

Prekomjerna upotreba sile organa reda nad Afroamerikancima i protesti koje su takvi slučajevi izazvali širom SAD-a i dijela evropskih zemalja u fokus su stavili probleme vezane za rasizam i šovinizam. Pokrenulo je to dijalog i o tome jesu li nove tehnologije podložne rasnoj i spolnoj pristrasnosti
Piše: Vesna Matić Karić
E-mail: redakcija@asadria.com

Tokom kampanje “Black Lives Matter” bačeno je svjetlo na mogućnost da algoritmi u sistemima za prepoznavanje lica mogu biti pristrasni kada je riječ o ljudima tamnije boje kože, ali i ženama. Čitava situacija je dovela do toga da su, počevši od maja, tehnološki giganti poput IBM-a i Amazona suspendovali ili potpuno povukli iz upotrebe svoje sisteme za prepoznavanje lica zasnovane na AI algoritmima. Amazon je otišao i korak dalje te policiji uskratio upotrebu svog Rekognition softvera na godinu dana.

Tehnologija protkana predrasudama?
Miriam Vogel, predsjednica i izvršna direktorica kompanije Equal AI, napisala je na ovu temu veoma zanimljiv članak za TechChrunch. Naime, Vogel je jedno vrijeme radila sa Sally Yates, zamjenicom glavnog tužioca SAD-a, na educiranju o implicitnoj pristrasnosti pred saveznim organima za provođenje zakona u američkom Ministarstvu pravde. Tokom obuke su spoznali da aktivnosti pri provođenju zakona, kao što je prediktivni rad policije, često ciljaju zajednice u kojima žive stanovnici tamnije boje kože, što je na kraju i rezultiralo disproporcionalnim brojem hapšenja u tim zajednicama. Sva ta hapšenja se unose u sistem, gdje postaju statistički podaci, koji se zatim objedinjuju u veće skupove podataka, a koji se posljednjih godina koriste za stvaranje AI sistema. I tu dolazimo do problema. Ovaj postupak stvara povratnu petlju, gdje prediktivni policijski algoritmi navode zakonodavce da posmatraju kriminal samo u naseljima kojima i inače patroliraju, utječući tako direktno na podatke, a samim time i na buduće preporuke koje se tiču upotrebe ove tehnologije. To implicira da bi i hapšenja na protestima također mogla rezultirati statističkim podacima u budućim skupovima podataka koji će biti korišteni za izradu AI sistema.

Ova povratna petlja u okviru AI-ja indirektno utječe na zakonodavstvo, pravdu, pa i samo društvo, jer s podacima prikupljenim na ovakav način dolazi do odluka, poput one koliko dugo će se neko zadržati u zatvoru, odnosno koliku kaznu će dobiti. Utjecaj se prostire na čitavo društvo jer će ovakvi podaci sutra utjecati i na to ko može dobiti kredit za kupovinu kuće ili ko će dobiti priliku da dođe na intervju u nekoj kompaniji itd. Kada imate automatiziran sistem zasnovan na vještačkoj inteligenciji koji očito nije imun na ljudska prirodna obilježja, poput boje kože, postavlja se pitanje kako u ovakvim slučajevima izbjeći još veću nepravdu prema određenim društvenim skupinama, prvenstveno onima nad kojima već postoji društvena stigma.

Promjenjiva stopa tačnosti
Nedavni izvještaj Centra za etiku podataka i inovacije (CDEI), nezavisnog odbora koji je osnovala britanska vlada, pruža objašnjenje brojnih aspekata tehnologije za prepoznavanje lica: kako tačno funkcioniše, koristi i rizike njene upotrebe te pravni i regulatorni okvir kojim je okružena tehnološka sfera u toj zemlji. A da je tema pristrasnosti sistema za prepoznavanje lica izazvala pažnju britanske vlade, govori i činjenica da i ovaj izvještaj skreće pažnju na promjenjivu stopu tačnosti sistema koja zavisi od etničke pripadnosti, spola i starosti, sa često lošijim performansama kada je riječ o tamnoputim ljudima i Azijatima, stvarajući tako dodatne prepreke za nedovoljno zastupljene grupe koje pristupaju ključnim uslugama koje država nudi.

Prema riječima Miriam Vogel, jasno je da vještačka inteligencija kakvu danas poznajemo i koristimo može održati, pa čak i uvećati nesvjesnu pristrasnost i to zahvaljujući tome što se prikupljeni podaci koje koriste zakonodavne snage, a koji ciljaju na ljude druge boje kože, koriste kao statistički podaci prilikom stvaranja AI sistema i kao takvi doprinose širenju pristrasnosti čak i kroz današnju tehnologiju.

Potencijalno rješenje problema
Međutim, i za ovaj problem postoji rješenje, a ono se svodi na uvođenje raznolikosti ideja i iskustava prilikom stvaranja AI-ja. Ali kao što se dosad pokazalo, to i nije lako uraditi. Uprkos dugogodišnjim obećanjima onih koji rade u IT sektoru na mnogo složenijim stvarima od uklanjanja na predrasudama stvorenih algoritama da će poraditi na povećanju raznolikosti, posebno kada je riječ o spolu i rasnoj pripadnosti, to se ipak nije desilo. Naime, nedavno objavljeni izvještaji pokazuju da je u Googleu i Microsoftu broj zaposlenika tamnije boje kože već pet godina i dalje skoro isti, odnosno da nije porastao čak ni za jedan cijeli procenat. Udio tamnoputih radnika u Appleu, prema posljednjim izvještajima, nije se do danas maknuo s mjesta od početnih 6%. Zanimljivo je spomenuti da nabrojane kompanije objavljuju demografske izvještaje o tehničkoj radnoj snazi, dok neke, kao što je Amazon, ne rade čak ni to.

Vogel smatra da bi, ukoliko se cijela situacija želi popraviti, etika obavezno trebala biti dio informatičkog obrazovanja, ali i zapošljavanja u okviru IT-a. Isto tako, AI timovi bi trebali biti obučeni i upoznati s antidiskriminacijskim zakonima i implicitnoj pristrasnosti, a pri tome bi se stalno trebalo naglašavati kakve sve negativne posljedice mogu proisteći iz zloupotrebe ovih stavki te kakav negativan utjecaj mogu imati na ljude. Kompanije bi morale poraditi na uključivanju različitih perspektiva prilikom kreiranja vlastite vještačke inteligencije, dok bi im vlada trebala biti partner tako što bi uspostavila jasna očekivanja i uputstva vezana za nastanak AI-ja.

Zakon o algoritamskoj odgovornosti
Prošle godine je u SAD-u predložen i zakon koji bi od korporacija zahtijevao da revidiraju svoje sisteme zasnovane na mašinskom učenju (poput onih namijenjenih prepoznavanju lica ili algoritama za ciljano reklamiranje) kada je u pitanju pristrasnost. Riječ je o Zakonu o algoritamskoj odgovornosti (Algorithmic Accountability Act). Inače, podržalo ga je nekoliko američkih senatora i, ukoliko bude odobren, tražio bi od Savezne trgovinske komisije da kreira pravila za procjenu “veoma osjetljivih” automatiziranih sistema. U tom slučaju, kompanije bi morale procijeniti jesu li algoritmi koji pokreću ove sisteme pristrasni ili diskriminirajući, kao i da li predstavljaju rizik za privatnost ili sigurnost potrošača. Zakon o algoritamskoj odgovornosti zapravo je usmjeren na velike kompanije koje imaju pristup ogromnoj količini podataka. Primjenjivao bi se na kompanije koje godišnje zarade više od pedeset miliona dolara, koje posjeduju informacije o najmanje milion ljudi ili uređaja ili koje primarno djeluju kao posredničke kompanije koje kupuju i prodaju podatke potrošača. Ove godine u aprilu američka Savezna trgovinska komisija izdala je i vodič u kojem kompanije drži odgovornim za razumijevanje podataka koji leže u samoj osnovi AI-ja, kao i za njihove implikacije, te za pružanje transparentnih i objašnjivih ishoda potrošačima.

Ron Wyden, jedan od senatora koji je podržao spomenuti zakon, dao je sljedeću izjavu: “Računari su u sve većoj mjeri uključeni u proces donošenja najvažnijih odluka koje utječu na život Amerikanaca – bilo da je to odluka ko može ili ne može kupiti kuću, zaposliti se ili čak ko će otići u zatvor. Ali umjesto da eliminišu pristrasnost, ovi algoritmi prečesto ovise o pristrasnim pretpostavkama ili podacima koji, zapravo, mogu pojačati diskriminaciju protiv žena i tamnoputih ljudi.”

Pristrasnost u AI algoritmima postala je problem posebno kada je riječ o softveru za prepoznavanje lica. U Velikoj Britaniji su brojni sudski slučajevi dali zeleno svjetlo za legitimnu upotrebu ovog tipa tehnologije u svrhu borbe protiv kriminala, tako da je njihova policija već započela s tom praksom počevši od ove godine. Međutim, bitno je napomenuti da je u nezavisnom izvještaju Etičke komisije londonske policije navedeno da bi se ova tehnologija trebala koristiti samo ukoliko bi se pokazalo da neće generisati rodnu ili rasnu pristrasnost u policijskim operacijama.

Protivljenje IBM-a
U pismu upućenom Američkom kongresu u junu ove godine izvršni direktor IBM-a Arvind Krishna rekao je da se njihova kompanija čvrsto protivi upotrebi bilo koje tehnologije, uključujući tu i onu za prepoznavanje lica koju nude drugi dobavljači, za masovni nadzor, rasno profiliranje, kršenje osnovnih ljudskih prava i sloboda ili za bilo koju svrhu koja nije u skladu s vrijednostima kompanije i principima povjerenja i transparentnosti. “Vjerujemo da je sada vrijeme da započnemo nacionalni dijalog o tome trebaju li i kako tehnologiju za prepoznavanje lica koristiti domaće agencije za provođenje zakona”, rekao je Krishna. U pismu dalje stoji da dobavljači ove tehnologije, kao i korisnici, imaju zajedničku odgovornost da se AI obavezno testira na potencijalnu pristrasnost i to posebno ukoliko se koristi u provođenju zakona te da se takvo testiranje revidira i da se o njemu izvještava. “Nacionalna politika također treba poticati i unaprijediti upotrebu tehnologije koja bi policiji donijela veću transparentnost i odgovornost, kao što su nosive kamere ili moderne tehnike analize podataka”, navodi Krishna.

Da ironija bude veća, IBM je upao u probleme pokušavajući istraživačima osigurati veću raznolikost u svojim setovima podataka namijenjenim prepoznavanju lica. Naime, kompanija se našla na meti kritika zbog upotrebe jednog miliona slika dobijenih s Flickra (platforma za razmjenu fotografija) do kojih su došli bez pristanka osoba koje su se nalazile na fotografijama. Fotografije su bile dio skupa podataka koji nosi naziv Diversity in Faces, a same fotografije su bile kodirane kako bi opisale fizičke osobine subjekata kao što su, između ostalog, geometrija lica, ton kože i procijenjena dob i spol.

Ovo nije jedini takav slučaj. Dvoje građana Illinoisa podnijeli su tužbe protiv Amazona, Alphabeta (Googleova matična kompanija) i Microsofta navodeći da su njihove slike pribavljene bez njihovog pristanka te da je to u suprotnosti sa državnim statutom o očuvanju privatnosti biometrijskih podataka.

Zabrinjavajući trend
Dosta podataka koji su u novije vrijeme izašli u javnost ukazuje na zabrinjavajući trend da AI i algoritmi za prepoznavanje lica mogu biti predmet nesvjesnih pristrasnosti u pogledu rasne i etničke pripadnosti. Istraživači s MIT-a i Univerziteta Stanford otkrili su da su tri komercijalna programa vodećih tehnoloških kompanija za analizu lica pokazala pristrasnost prema tipu kože i spolu. I dok postotak grešaka u određivanju spola muškaraca svijetle puti ni u jednom slučaju nije bio veći od 0,8 posto, stope pogrešaka porasle su na više od 34 posto kod žena tamnije puti.

Najnoviji od nekoliko testova programa za prepoznavanje lica objavio je Nacionalni institut za standarde i tehnologiju u SAD-u u decembru prošle godine. Testirajući gotovo 200 algoritama za prepoznavanje lica od gotovo stotinu developera, utvrđeno je da su lažni pozitivni rezultati – koji imaju mnogo veće razlike nego lažni negativni rezultati – bili najviši među afroameričkom, azijskom i američkom indijskom populacijom. NIST je također preporučio operaterima da istražuju karakteristike algoritama koje koriste tako što će ih redovno testirati, jer je utvrđena velika razlika u tačnosti različitih algoritama. Mnogi smatraju da jedini način da se situacija popravi na ovom polju jeste da se zakonodavnim putem reguliše upotreba ovog softvera, jer mnogi stručnjaci misle da nije dovoljno samo to da developeri ubuduće pripaze na pristrasnost prilikom kreiranja algoritama.

Ubrzan rast upotrebe vještačke inteligencije
Ljudi vjerovatno nisu ni svjesni u kolikoj mjeri se posljednjih godina povećala upotreba vještačke inteligencije u svijetu. Prema podacima koje iznosi vodeća istraživačko-savjetodavna kompanija Gartner, broj preduzeća koja koriste AI porastao je za čak 270% od 2015. do 2019. godine. Prema podacima kompanije za istraživanje tržišta Omdia Tractica, očekuje se da će vrijednost tržišta vještačke inteligencije porasti sa 9,5 milijardi dolara u 2018. na 118,6 milijardi do 2025. Zanimljiv je i Gallupov podatak da je još 2017. godine 85% Amerikanaca koristilo AI u nekom obliku.

Related Posts

Komentariši

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *