Pravni i praktični izazovi korištenja umjetne inteligencije (UI) u svakodnevnom životu i utjecaj na poštivanje jednakosti bili su tema radionice u organizaciji Europske mreže tijela za suzbijanje diskriminacije (Equinet), održane u dva dijela, 22. i 30. travnja 2021.

Zbog sve većeg korištenja sustava UI-a u mnogim je državama potrebno ojačati suradnju tijela za jednakost, znanstvenika i tehnoloških organizacija koje ih dizajniraju. Upravo stvaranjem takvih multidisciplinarnih timova moglo bi se na vrijeme uočiti i ispraviti potencijalne probleme, kako s tehnološke strane, tako i iz aspekta zaštite ljudskih prava i suzbijanja diskriminacije, čime bi se doprinijelo i izbjegavanju negativnih posljedica na prava pojedinaca i različitih društvenih skupina uslijed njihovog korištenja.

Potrebna je suradnja stručnjaka različitih profila

Velika odgovornost je i na nadležnim tijelima za nadzor sustava UI-a koje će države članice morati osnovati za implementaciju i provedbu nove regulative. Ukoliko u njima ne budu postojali stručnjaci koji će moći nadzirati i kontrolirati takve sustave, zaštita građana neće biti odgovarajuća, a u tom će slučaju veliku ulogu imati i tijela za jednakost, čija je uloga suzbijanje diskriminacije i promicanje jednakosti.

Međutim, kako mnogi građani još uopće nisu svjesni njihove zastupljenosti u svakodnevnim životima, nedostaju i konkretne pritužbe kojima bi se učinkovitije mogli identificirati stvarni problemi. Potrebne su i procjene utjecaja tih sustava na ljudska prava, a prilikom njihovog korištenja, uz transparentnost je nužno i poštivanje svih etičkih načela i vrijednosti, kao i definiranje jasne odgovornosti za potencijalne greške i osiguravanje učinkovitih zaštitnih sredstava.

Može li UI razumjeti nejednakost?

Jedan od najvećih izazova kreiranja učinkovitih sustava UI-a u ovom kontekstu je odlučivanje na temelju apstraktnih algoritama, odnosno činjenica da umjetnoj inteligenciji kod donošenja odluka nedostaje zdrav razum kao i osjećaj ili uvjerenje da odluka može dovesti do nejednakosti. Moguće rješenje tog problema leži u njihovoj kontekstualizaciji, odnosno korištenju raznih alata prilikom testiranja podataka koji mogu biti pristrani, pri čemu bi metode i rezultati morali biti javno objavljeni.

Primjer iz Finske

U sklopu radionice predstavljeni su primjeri konkretnih slučajeva u kojima je korištenje sustava UI-a dovelo do nejednakosti građana. Primjerice, u Finskoj je u bankarskom sektoru utvrđena izravna višestruka diskriminacija jer je kreditna institucija kod odobravanja kredita koristila automatski model bodovanja uzimajući u obzir spol, jezik, dob i mjesto prebivališta kao bitne faktore za donošenje automatske odluke. Sud je utvrdio kako spol i jezik nije prihvatljivo koristiti kao podatke koji će utjecati na donošenje odluke, dok dob i mjesto prebivališta imaju ograničenu primjenu pa će se nužnost korištenja tih podataka ubuduće procjenjivati u svakom pojedinom slučaju.

Vodeći stručnjaci za UI i jednakost

Jedan od panela, na kojem je predstavljen prijedlog novog europskog regulatornog okvira Europske komisije, uz usporedbu s onim na razini Vijeća Europe, moderirala je i pučka pravobraniteljica Tena Šimonović Einwalter, predsjedavajuća Equineta i predstavnica Europske komisije protiv rasizma i netolerancije (ECRI) u Ad-hoc odboru za umjetnu inteligenciju (CAHAI) Vijeća Europe. Inače, radionica je okupila i trenutno vodeća imena u području UI-a i jednakosti, poput Raja Chatila s pariške Sorbonne, Sandre Wachter sa Sveučilišta Oxford, Janneke Gerards sa Sveučilišta u Utrechtu, Raphaële Xenidis sa Sveučilišta u Edinburghu i Copenhagenu, druge stručnjake poput Robina Allena te predstavnika Europske komisije Eike Gräf.