Umjetna inteligencija naša je sadašnjost, a njezino široko korištenje u svim područjima života naša je neupitna i ne tako daleka budućnost.

Umjetnu inteligenciju već koristimo svakodnevno, iako možda toga nismo ni svjesni, a algoritmi su postali sastavni dio naših života. Primjer su aplikacije na našim pametnim telefonima koje nam prepoznaju glas ili lice, izbor i rangiranje proizvoda na internetskim stranicama ili na društvenim mrežama (news feed), stranice i aplikacije za prevođenje na druge jezike, dok se u bankarstvu umjetna inteligencija koristi u komunikaciji s klijentima.

Zato je iznimno važno čim prije kreirati „pravila igre“ koja će štititi ljudska prava i prevenirati diskriminaciju. Kad je u pitanju Hrvatska, temelji za ova pravila bit će propisi koje pripremaju Europska komisija i Vijeće Europe.

Europska komisija objavila je 21. travnja 2021. prijedlog Uredbe o europskom pristupu umjetnoj inteligenciji, koja se nastavlja na rad stručne skupine na visokoj razini (AI HLEG), Bijelu knjigu o umjetnoj inteligenciji i brojne rezolucije Europskog parlamenta usvojene u listopadu 2020. (rezolucija o etici, odgovornosti, autorskom pravu, umjetnoj inteligenciji u kaznenim stvarima, obrazovanju, kulturi i audiovizualnom sektoru).

Istovremeno se na razini Vijeća Europe raspravlja o budućem pravnom okviru za zaštitu ljudskih prava, demokraciju i vladavinu prava u svjetlu novih izazova koje donosi umjetna inteligencija i čija se objava tek očekuje. Naime, trenutačno su u tijeku konzultacije koje provodi CAHAI (Ad hoc odbor za umjetnu inteligenciju), u čijem radu sudjeluje i pučka pravobraniteljica Tena Šimonović Einwalter kao su-predstavnica Europske komisije protiv rasizma i netolerancije (ECRI).

U prosincu prošle godine, objavljena je Studija provedivosti (Feasibility Study) u kojoj je CAHAI razmotrio budući pravni okvir za razvoj sustava umjetne inteligencije utemeljen na standardima Vijeća Europe i postojećim pravno obvezujućim instrumentima, kao što je (Europska) Konvencija za zaštitu ljudskih prava i temeljnih sloboda. Te se konzultacije nastavljaju na glavne elemente Studije s ciljem popunjavanja pravnih praznina u pravnom okviru te otklanjanju potencijalnih negativnih učinaka umjetne inteligencije na ljudska prava, demokraciju i vladavinu prava. Razmotrit će se i najprikladniji pravni instrument koji će uzeti u obzir rodnu perspektivu te promociju i zaštitu prava najranjivijih skupina, uključujući osobe s invaliditetom i maloljetnike.

Europska komisija: Povjerenje i odgovornost su ključni izazovi

Kako se navodi u Uredbi koju je objavila Komisija, umjetna inteligencija brzo se razvija i može donijeti niz ekonomskih i društvenih koristi, no potrebno ju je koristiti u skladu s pravnim okvirom, načelima i vrijednostima EU te iskoristiti za doprinos visokoj razini zaštite zdravlja, sigurnosti i temeljnih prava i sloboda građana. Poboljšavanjem predviđanja, optimizacijom operacija, raspodjelom resursa i personalizacijom pružanja usluga, uporaba umjetne inteligencije može unaprijediti usluge u zdravstvu, poljoprivredi, obrazovanju, javnim uslugama, sigurnosti, borbi s klimatskim promjenama i drugim područjima. Tako, primjerice, sustavi umjetne inteligencije mogu imati ulogu i u suzbijanju pandemije koronavirusa s obzirom da kroz praćenje kontakata mogu pružiti značajnu potporu epidemiološkim službama.

Ključni izazovi u njezinom korištenju bit će izgradnja povjerenja građana i pitanje preuzimanja odgovornosti za štetu koju moderna tehnologija može prouzročiti. To je posebno važno u područjima u kojima bi prava građana mogla biti najizravnije pogođena, kao što su pravosuđe ili zdravstvo, što smo već isticali.

Zato se Komisija opredijelila za tzv. humano-centrični pristup, u čijem je središtu zaštita ljudskih prava pa se Uredba temelji na načelima sigurnosti, transparentnosti i odgovornosti, ljudskog djelovanja i nadzora, zaštite od pristranosti i diskriminacije, prava na pravnu zaštitu, društvene odgovornosti i odgovornosti za okoliš, na poštivanju privatnosti i zaštiti osobnih podataka. Primjerice, člankom 5. Uredbe zabranjuju se pojedina postupanja koja mogu ugroziti temeljna prava, kao što su aplikacije masovnog nadzora i sustavi socijalnog bodovanja, te sustavi koji koriste osobne podatke u svrhu predviđanja koja bi mogla imati štetne posljedice, osobito na ranjive skupine stanovništva. Iznimno, sustave masovnog nadzora tijela javne vlasti mogu koristiti u svrhu zaštite javne sigurnosti. Međutim, ova iznimka bi trebala biti pažljivo implementirana i korištena isključivo u opravdanim slučajevima, kako ne bi dovela do prekomjernog prikupljanja osobnih podataka građana i kršenja prava na privatnost te ugroze ostalih temeljnih prava, kao što su pravo na javno okupljanje i sloboda izražavanja.

U posebnom fokusu su oni s najvećim utjecajem na ljudska prava i diskriminaciju

Uredbom se u prvom redu propisuju obveze koje treba poštivati pri razvoju, uvođenju i upotrebi umjetne inteligencije, a poseban je fokus stavljen na visokorizične sustave te kriterije koje takvi sustavi moraju zadovoljiti prije stavljanja na tržište, budući da takvi sustavi imaju i najviše utjecaja na ljudska prava i potencijalne diskriminirajuće učinke. Naime, podaci koje koriste sustavi umjetne inteligencije nikada nisu neutralni i algoritmi ne mogu predvidjeti kontekst određene situacije, zbog čega postoji opasnost od socijalne nejednakosti.

Komisija kao visokorizične navodi:

  • sustave namijenjene za rad hitnih službi, uključujući vatrogasce i medicinsku pomoć
  • sustave koji imaju ulogu prilikom zapošljavanja, provođenja intervjua ili analize radne učinkovitosti i ponašanja radnika
  • sustave koji omogućuju pristup obrazovnim ustanovama ili ustanovama za strukovno obrazovanje
  • sustave kojima se procjenjuje kreditna sposobnost
  • sustave kojima se utvrđuju socijalne naknade
  • sustave odlučivanja koji se primjenjuju u sprečavanju, otkrivanju i progonu kaznenih djela, odlučivanja kod dodjele viza ili azila te sustave odlučivanja koji se koriste za pomoć sucima.

Nadalje, sustavi namijenjeni interakciji s fizičkim osobama i oni koji obrađuju osobne podatke prepoznavanjem emocija ili kategorizacijom, moraju biti dizajnirani i razvijeni na način da osobe koje su s njima u interakciji o tome budu obaviještene. Ukoliko se sustav koristi za generiranje ili obradu slike, zvuka ili video sadržaja koji znatno podsjeća na postojeće osobe, predmete, mjesta ili druge događaje, mora biti istaknuto da se radi o umjetno stvorenom ili obrađenom sadržaju, osim kod sustava koji se upotrebljavaju u svrhu zaštite javne sigurnosti ili drugih javnih interesa.

Visokorizičnima obaveze, ostalima poticaj da ih dobrovoljno poštuju

Specifičnosti mnogih tehnologija umjetne inteligencije, uključujući netransparentnost („učinak crne kutije”), složenost, nepredvidivost i djelomično autonomno ponašanje, mogu dovesti do nepoštivanja pravila EU za zaštitu temeljnih prava i otežati njihovu učinkovitu provedbu. Zato će se i operatere koji razvijaju ove sustave, a ne smatraju se visokorizičnima, poticati na donošenje kodeksa postupanja radi dobrovoljne primjene obveznih kriterija primjenjivih na visokorizične sustave. Time se ujedno potiče prihvaćanje pouzdane i na čovjeka usmjerene umjetne inteligencije.

Kako bi se autorima sustava umjetne inteligencije pomoglo da zadobiju povjerenje korisnika, predviđena je i obveza isticanja „CE” oznake, pogotovo u zdravstvu, koja potvrđuje da proizvod ispunjava zahtjeve EU u području sigurnosti, zdravlja i okoliša. U istu svrhu bit će uspostavljen i registar visokorizičnih aplikacija na razini EU, koji će voditi Komisija. Također, propisana je i obveza osiguravanja transparentnosti sustava na način da se osim opisa tehničke dokumentacije, algoritama te glavnih karakteristika i tehnika „treniranja“ podataka, objave i informacije o funkcioniranju sustava te upute za korištenje tehnologije. Pri tome je potrebno osigurati da sve važne informacije budu jednostavne i jasne kako bi građani mogli adekvatno i pravovremeno razumjeti način funkcioniranja konkretnih odluka donesenih uz potporu sustava umjetne inteligencije, koje se odnose na njih. Važan preduvjet za to su mehanizmi preispitivanja, ali i pojašnjavanja kriterija koji se primjenjuju pri donošenju takvih odluka.

Odgovornost za štetu pojedincu ili društvu, nepoštivanje Povelje EU o temeljnim pravima

Iako umjetna inteligencija može biti od velike koristi, između ostalog jer proizvode i procese čini sigurnijima, isto tako može nanijeti štetu. Zato Uredba propisuje odgovornost za štetu nastalu korištenjem sustava visokorizičnog sustava umjetne inteligencije, bilo da je riječ o sigurnosti ili zdravlju pojedinaca, uključujući gubitak života, oštećenje imovine, ili da je riječ o negativnom utjecaju na društvo u cjelini, kao što su financijske, obrazovne ili profesionalne mogućnosti, pristup javnim uslugama. Isto se odnosi i na temeljna prava sadržana u Povelji EU o temeljnim pravima, poput povrede prava na privatnost ili na zaštitu osobnih podataka, prava osobe da ne bude diskriminirana, ograničavanje prava na slobodu izražavanja, okupljanja i udruživanja, na učinkovit pravni lijek i pravično suđenje te na međunarodnu zaštitu.

Kako se pravilima EU o zaštiti podataka u načelu zabranjuje obrada biometrijskih podataka u svrhu jedinstvene identifikacije pojedinaca, osim u posebnim uvjetima, Komisija je propisala uporabu biometrijskih podataka na javnim mjestima korištenjem sustava umjetne inteligencije samo u određenim slučajevima i to uz posebnu autorizaciju sustava. Također se mora voditi posebna briga vezano uz sustave koji koriste osobne podatke za generiranje predviđanja, a koji bi mogli dovesti rasnog profiliranja ili drugih štetnih posljedica za pojedince, odnosno posebno ranjive skupine. Stoga je potrebno osigurati da podatci koji se koriste u tehnologijama koje se smatraju visokorizičnim nisu pristrani te ne dovode do diskriminirajućih učinaka. Detalje o mogućem utjecaju umjetne inteligencije na jednakost pripremila je Europska mreža tijela za jednakost, u publikaciji „Regulating for an Equal AI: a New Role for Equality Bodies“ (na engleskom).

Kad je u pitanju obuhvat Uredbe, pozitivno je i što će se, ako bude prihvaćena u predloženom obliku, primjenjivati ne samo na sustave umjetne inteligencije koji se koriste i rade na razini EU, već i na one razvijene u trećim zemljama, a koji su uvezeni u EU, s obzirom da postavlja posebne obveze za ovlaštene predstavnike, uvoznike i distributere.

Ključnu ulogu u provedbi Uredbe imat će države članice

Uzimajući u obzir sve navedene potrebe, Komisija je predložila osnivanje Europskog odbora za umjetnu inteligenciju. Njegov cilj bio bi olakšati učinkovitu i usklađenu provedbu Uredbe, no ključnu ulogu imale bi države članice. Svaka bi tako trebala odrediti jedno ili više nacionalnih tijela koje bi nadziralo primjenu i provedbu Uredbe, bilo odgovorno za koordinaciju aktivnosti i djelovalo kao jedinstvena nacionalna kontaktna točka za Komisiju i Europski odbor za umjetnu inteligenciju.

Da bi u potpunosti iskoristili prednosti umjetne inteligencije i učinili ih široko dostupnim, potrebno je donijeti učinkovit regulatorni okvir, kao i pokrenuti niz drugih aktivnosti ne samo zbog razvoja i rasta poslovnog sektora i rješenja umjetne inteligencije, već i zaštite temeljnih prava. Umjetna inteligencija može itekako doprinijeti bržem i kvalitetnijem donošenju odluka, što je od izuzetne važnosti za velika i mala trgovačka društva, ali i za javnu upravu.

Hrvatska malim koracima prema koristima umjetne inteligencije

Primjena umjetne inteligencije u javnoj upravi u Hrvatskoj tek je u počecima, iako se pojavljuju projekti u kojima se istražuju mogućnosti primjene umjetne inteligencije, primjerice u području zdravstva. Primjena ovih tehnologija prvenstveno zahtjeva opće društveno razumijevanje, a potom i stalno istraživanje tehnologija i njihov utjecaj na društveni razvoj, ljudska prava i diskriminaciju.

Javnim kampanjama usmjerenima na krajnje korisnike treba jačati razumijevanje funkcioniranja sustava umjetne inteligencije te korist koju društvo može imati od takvih sustava, a kako Uredba i propisuje, nacionalna tijela koja će biti nadležna za umjetnu inteligenciju trebala bi imati dovoljan broj stručnog osoblja koje će se kontinuirano usavršavati za pravilno obavljanje svojih zadaća. Njihove kompetencije moraju uključivati razumijevanje tehnologija umjetne inteligencije, podataka i računalstva u oblaku, ali isto tako i znanja o temeljnim pravima te postojećim standardima i pravnim zahtjevima, kako bi se negativni utjecaj novih tehnologija na ljudska prava i diskriminaciju sveo na minimum.

Međutim, uz neophodnu edukaciju stručnog osoblja, bit će potrebno educirati i inženjere i programere sustava umjetne inteligencije o pravnom aspektu te utjecaju odluka na jednakost građana i eventualnim posljedicama takvih sustava na ljudska prava. U tom smislu formiranje multidisciplinarnih timova koji uključuju znanstvenike, programere/inženjere i pravobraniteljske institucije doprinijele bi prevladavanju prepreka i spriječilo donošenje odluka s diskriminirajućim ishodom. Naime, pojedini algoritmi otkrivaju obrasce ponašanja i predviđaju određene rezultate na temelju povezivanja različitih ulaznih podataka, a koji mogu biti potpuno drugačiji s aspekta ljudskog gledišta. Određene karakteristike ljudi, kao što su etnicitet ili dob kao potencijalna diskriminatorna osnova, ukoliko bi se izostavila iz skupa ulaznih podataka, ipak bi se mogla koristiti kao povezani (proxy) podatak u svrhu predviđanja, što bi pak neizravno dovelo do diskriminirajućih učinaka.

Stoga će i sudove trebati adekvatno opremiti stručnim kadrovima i infrastrukturom, koji su ključni faktor nadzora i zaštite prava građana kod primjene sustava umjetne inteligencije, dok će zadaća pravobraniteljskih institucija biti važna u podizanju svijesti građana o utjecaju na ljudska prava i potencijalnim diskriminatornim učincima, nadziranju rada javne uprave u uvođenju i primjeni umjetne inteligencije te osiguravanju što veće transparentnosti.

Konačno, važno je i da Hrvatska donese Strategiju razvoja umjetne inteligencije, koju je prema Koordiniranom planu za razvoj umjetne inteligencije u EU trebala donijeti do kraja 2019. Upravo će taj dokument, kao i popratni pravilnici koji će propisivati etičke smjernice za korištenje umjetne inteligencije, biti ključni za razumijevanje načina na koji se Uredba primjenjuje u odnosu na našu zemlju, posebice na javnu upravu, ali i na tijela za jednakost i zaštitu ljudskih prava. Nužno je da se u dokument uvrste mjere kojima će osigurati usklađenost s nacionalnim antidiskriminacijskim zakonodavstvom, etička načela, kao i obvezna procjena učinka sustava/aplikacije na ljudska prava i diskriminaciju, ali i propisati učinkovita pravna sredstva i jasnu odgovornost pojedinih svih koji razvijaju ili stavljaju na tržište takve sustave, s naglaskom na njihovu transparentnost.