„Veštačka inteligencija olakšava mnoge stvari, nažalost i diskriminaciju“, kaže Ferda Ataman, nezavisna poverenica nemačke vlade za borbu protiv diskriminacije. Ona je u Berlinu predstavila izveštaj stručnjaka koji je naručila s ciljem bolje zaštite ljudi od moguće diskriminacije od strane samoučećih algoritamskih sistema odlučivanja (ADM).
Skraćenica ADM dolazi iz engleskog: „algorithmic decision making systems“.
To su mašine ili softver koji na osnovu podataka izračunavaju broj na osnovu kojeg se može doneti odluka.
Ferda Ataman daje tipične primere upotrebe te vrste veštačke inteligencije: procesi apliciranja, krediti kod banaka, osiguravajuće kompanije ili dodela državnih transfera kao što je socijalna pomoć.
Softver može da reprodukuje predrasude i stereotipe
„Tu se izjave o verovatnoći prave na osnovu opštih karakteristika grupe“, kaže Ataman opisujući kako mašine rade, i upozorava: „Ono što se na prvi pogled čini objektivnim može automatski da reprodukuje predrasude i stereotipe. Ne smemo potceniti opasnosti digitalne diskriminacije“, kaže poverenica nemačke vlade.
Više od 20.000 ljudi u Holandiji iskusilo je 2019. do čega može da dovede pogrešna upotreba navodno nepotkupljive tehnologije: optuženi su za prevaru države pod pretnjom visokih kazni, a od njih je zatraženo da vrate dečiji dodatak unazad nekoliko godina. Radilo se o desetinama hiljada evra po porodici.
Pogođeni su bili pre svega ljudi migrantskog porekla, odnosno oni s dvojnim državljanstvom. Ispostavilo se da su ljudi pogrešno optuženi, te da je to bila greška za koju je delimično bio odgovoran algoritam u softveru.
Podaci i funkcionalnost sistema su „crna kutija“
Da bi se sprečili takvi slučajevi, Ferda Ataman zahteva od kompanija više transparentnosti. Oni koji koriste veštačku inteligenciju ubuduće bi trebalo bi da imaju uvid u korišćene podatke i kako sistem funkcioniše.
U izveštaju koji su napisali ekspertkinja za pravo Indra Spiker i njen kolega Emanuel V. Tufaj, karakter sistema zasnovanih na veštačkoj inteligenciji opisuje se kao „crna kutija“. Time hoće da kažu da je pogođenima praktično nemoguće da pronađu uzroke diskriminacije.
„Specifičan fenomen upotrebe ADM-sistema je da njihov potencijal za diskriminaciju može biti deo samog sistema“, navodi se u izveštaju.
Uzrok diskriminacije može biti nevažan, neispravan, neprikladan za predviđenu svrhu ili iskrivljen skup podataka.
Karakteristika potencijalne diskriminacije: poštanski broj
Šta se pod tim podrazumeva, u izveštaju je ilustrovano tipičnim primerima: „Poštanski broj, koji sam po sebi nije diskriminatoran, postaje posrednik za zabranjenu diskriminaciju porekla, jer – mnogi migranti žive u određenom delu grada, iz istorijskih razloga.“
To može imati negativne posledice po ljude koji tamo žive, jer se na njih gleda kao na opšti finansijski rizik kada se radi o kreditima. Računa se, naime, da oni neće moći da otplate svoje dugove. Kao rezultat toga, oni često uopšte i ne dobijaju kredite.
Stručnjaci tu praksu pripisivanja karakteristika nekome uz pomoć statistike, a na osnovu stvarnih ili pretpostavljenih prosečnih vrednosti neke grupe, nazivaju: „diskriminacija kroz statistiku“.
Poverenica zahteva Arbitražni odbor
Za takve i druge slučajeve, nezavisna poverenica nemačke vlade za borbu protiv diskriminacije pri svojoj instituciji želi da osnuje Arbitražni odbor. Osim toga, Ferda Ataman zahteva da se Opšti zakon o jednakom tretmanu (AGG) dopuni obaveznim arbitražnim postupkom.
Da bi ilustrovala neophodnost brzog delovanja, ona navodi primere iz drugih zemalja, slične onom iz Holandije.
SAD: pogrešni programirani algoritmi na kreditnim karticama „Epl“ sistematski su stavljali žene u nepovoljniji položaj pri dodeli kredita, odnosno odlaska u minus.
Australija: nakon greške u sistemu podržanom veštačkom inteligencijom, stotine hiljada ljudi su dobili zahtev da vrate socijalnu pomoć na koju su imali pravo.
„Digitalizacija ne sme da postane noćna mora“
Zaključak koji Ferde Ataman izvlači iz izveštaja stručnjaka glasi: „Digitalizacija pripada budućnosti, ali ne sme da postane noćna mora. Ljudi moraju biti u stanju da veruju da neće biti diskriminisani od strane veštačke inteligencije“. A ako se to ipak dogodi, ljudi takođe moraju da veruju da će moći da se brane.
Zato su potrebna jasna i razumljiva pravila za regulisanje veštačke inteligencije, naglašava nezavisna poverenica nemačke vlade za borbu protiv diskriminacije, prenosi DW.
Pratite nas na našoj Facebook i Instagram stranici, ali i na X nalogu. Pretplatite se na PDF izdanje lista Danas.