{"id":11482,"date":"2021-04-23T17:31:50","date_gmt":"2021-04-23T15:31:50","guid":{"rendered":"https:\/\/www.ombudsman.hr\/hr\/?p=11482"},"modified":"2021-10-27T11:08:08","modified_gmt":"2021-10-27T09:08:08","slug":"eu-priprema-pravila-igre-za-umjetnu-inteligenciju-u-sredistu-su-ljudska-prava-i-jednakost","status":"publish","type":"post","link":"https:\/\/www.ombudsman.hr\/hr\/eu-priprema-pravila-igre-za-umjetnu-inteligenciju-u-sredistu-su-ljudska-prava-i-jednakost\/","title":{"rendered":"EU priprema \u201epravila igre\u201c za umjetnu inteligenciju, u sredi\u0161tu su ljudska prava i jednakost"},"content":{"rendered":"<p><em>Umjetna inteligencija na\u0161a je sada\u0161njost, a njezino \u0161iroko kori\u0161tenje u svim podru\u010djima \u017eivota na\u0161a je neupitna i ne tako daleka budu\u0107nost. <\/em><\/p>\n<p>Umjetnu inteligenciju ve\u0107 koristimo svakodnevno, iako mo\u017eda toga nismo ni svjesni, a algoritmi su postali sastavni dio na\u0161ih \u017eivota. Primjer su aplikacije na na\u0161im pametnim telefonima koje nam prepoznaju glas ili lice, izbor i rangiranje proizvoda na internetskim stranicama ili na dru\u0161tvenim mre\u017eama (news feed), stranice i aplikacije za prevo\u0111enje na druge jezike, dok se u bankarstvu umjetna inteligencija koristi u komunikaciji s klijentima.<\/p>\n<p>Zato je iznimno <strong>va\u017eno \u010dim prije kreirati \u201epravila igre\u201c koja \u0107e \u0161tititi ljudska prava i prevenirati diskriminaciju<\/strong>. Kad je u pitanju Hrvatska, temelji za ova pravila bit \u0107e propisi koje pripremaju Europska komisija i Vije\u0107e Europe.<\/p>\n<p><strong>Europska komisija<\/strong> objavila je 21. travnja 2021. prijedlog <em>Uredbe o europskom pristupu umjetnoj inteligenciji<\/em>, koja se nastavlja na rad stru\u010dne skupine na visokoj razini (AI HLEG), Bijelu knjigu o umjetnoj inteligenciji i brojne rezolucije Europskog parlamenta usvojene u listopadu 2020. (rezolucija o etici, odgovornosti, autorskom pravu, umjetnoj inteligenciji u kaznenim stvarima, obrazovanju, kulturi i audiovizualnom sektoru).<\/p>\n<p>Istovremeno se na razini <strong>Vije\u0107a Europe<\/strong> raspravlja o budu\u0107em pravnom okviru za za\u0161titu ljudskih prava, demokraciju i vladavinu prava u svjetlu novih izazova koje donosi umjetna inteligencija i \u010dija se objava tek o\u010dekuje. Naime, trenuta\u010dno su u tijeku konzultacije koje provodi CAHAI (Ad hoc odbor za umjetnu inteligenciju), u \u010dijem radu sudjeluje i pu\u010dka pravobraniteljica Tena \u0160imonovi\u0107 Einwalter kao su-predstavnica Europske komisije protiv rasizma i netolerancije (ECRI).<\/p>\n<p>U prosincu pro\u0161le godine, objavljena je Studija provedivosti (Feasibility Study) u kojoj je CAHAI razmotrio budu\u0107i pravni okvir za razvoj sustava umjetne inteligencije utemeljen na standardima Vije\u0107a Europe i postoje\u0107im pravno obvezuju\u0107im instrumentima, kao \u0161to je (Europska) Konvencija za za\u0161titu ljudskih prava i temeljnih sloboda. Te se konzultacije nastavljaju na glavne elemente Studije s ciljem popunjavanja pravnih praznina u pravnom okviru te otklanjanju potencijalnih negativnih u\u010dinaka umjetne inteligencije na ljudska prava, demokraciju i vladavinu prava. Razmotrit \u0107e se i najprikladniji pravni instrument koji \u0107e uzeti u obzir rodnu perspektivu te promociju i za\u0161titu prava najranjivijih skupina, uklju\u010duju\u0107i osobe s invaliditetom i maloljetnike.<\/p>\n<p><strong>Europska komisija: Povjerenje i odgovornost su klju\u010dni izazovi <\/strong><\/p>\n<p>Kako se navodi u Uredbi koju je objavila Komisija, umjetna inteligencija brzo se razvija i mo\u017ee donijeti niz ekonomskih i dru\u0161tvenih koristi, no potrebno ju je koristiti u skladu s pravnim okvirom, na\u010delima i vrijednostima EU te iskoristiti za <strong>doprinos visokoj razini za\u0161tite zdravlja, sigurnosti i temeljnih prava i sloboda gra\u0111ana<\/strong>. Pobolj\u0161avanjem predvi\u0111anja, optimizacijom operacija, raspodjelom resursa i personalizacijom pru\u017eanja usluga, uporaba umjetne inteligencije <strong>mo\u017ee unaprijediti usluge<\/strong> u zdravstvu, poljoprivredi, obrazovanju, javnim uslugama, sigurnosti, borbi s klimatskim promjenama i drugim podru\u010djima. Tako, primjerice, sustavi umjetne inteligencije mogu imati ulogu i u <a href=\"https:\/\/www.ombudsman.hr\/hr\/umjetna-inteligencija-i-suzbijanje-pandemije\/\">suzbijanju pandemije koronavirusa<\/a> s obzirom da kroz pra\u0107enje kontakata mogu pru\u017eiti zna\u010dajnu potporu epidemiolo\u0161kim slu\u017ebama.<\/p>\n<p>Klju\u010dni <strong>izazovi<\/strong> u njezinom kori\u0161tenju bit \u0107e <strong>izgradnja povjerenja gra\u0111ana i pitanje preuzimanja odgovornosti<\/strong> za \u0161tetu koju moderna tehnologija mo\u017ee prouzro\u010diti. To je posebno va\u017eno u podru\u010djima u kojima bi prava gra\u0111ana mogla biti najizravnije pogo\u0111ena, kao \u0161to su pravosu\u0111e ili <a href=\"https:\/\/www.ombudsman.hr\/hr\/predstavlja-li-primjena-umjetne-inteligencije-u-zdravstvu-posebnu-opasnost-od-diskriminacije\/\">zdravstvo, \u0161to smo ve\u0107 isticali<\/a>.<\/p>\n<p>Zato se Komisija opredijelila za <strong>tzv. humano-centri\u010dni pristup<\/strong>, u \u010dijem je sredi\u0161tu <strong>za\u0161tita ljudskih prava<\/strong> pa se Uredba temelji na na\u010delima sigurnosti, transparentnosti i odgovornosti, ljudskog djelovanja i nadzora, za\u0161tite od pristranosti i diskriminacije, prava na pravnu za\u0161titu, dru\u0161tvene odgovornosti i odgovornosti za okoli\u0161, na po\u0161tivanju privatnosti i za\u0161titi osobnih podataka. Primjerice, \u010dlankom 5. Uredbe <strong>zabranjuju se pojedina postupanja koja mogu ugroziti temeljna prava<\/strong>, kao \u0161to su aplikacije masovnog nadzora i sustavi socijalnog bodovanja, te sustavi koji koriste osobne podatke u svrhu predvi\u0111anja koja bi mogla imati \u0161tetne posljedice, osobito na ranjive skupine stanovni\u0161tva. Iznimno, sustave masovnog nadzora tijela javne vlasti mogu koristiti u svrhu za\u0161tite javne sigurnosti. Me\u0111utim, ova iznimka bi trebala biti pa\u017eljivo implementirana i kori\u0161tena isklju\u010divo u opravdanim slu\u010dajevima, kako ne bi dovela do prekomjernog prikupljanja osobnih podataka gra\u0111ana i kr\u0161enja prava na privatnost te ugroze ostalih temeljnih prava, kao \u0161to su pravo na javno okupljanje i sloboda izra\u017eavanja.<\/p>\n<p><strong>U posebnom fokusu su oni s najve\u0107im utjecajem na ljudska prava i diskriminaciju<\/strong><\/p>\n<p>Uredbom se u prvom redu propisuju obveze koje treba po\u0161tivati pri razvoju, uvo\u0111enju i upotrebi umjetne inteligencije, a poseban je fokus stavljen na visokorizi\u010dne sustave te kriterije koje takvi sustavi moraju zadovoljiti prije stavljanja na tr\u017ei\u0161te, budu\u0107i <strong>da takvi sustavi imaju i najvi\u0161e utjecaja na ljudska prava i potencijalne diskriminiraju\u0107e u\u010dinke<\/strong>. Naime, podaci koje koriste sustavi umjetne inteligencije nikada nisu neutralni i algoritmi ne mogu predvidjeti kontekst odre\u0111ene situacije, zbog \u010dega postoji opasnost od socijalne nejednakosti.<\/p>\n<p>Komisija kao visokorizi\u010dne navodi:<\/p>\n<ul>\n<li>sustave namijenjene za rad hitnih slu\u017ebi, uklju\u010duju\u0107i vatrogasce i medicinsku pomo\u0107<\/li>\n<li>sustave koji imaju ulogu prilikom zapo\u0161ljavanja, provo\u0111enja intervjua ili analize radne u\u010dinkovitosti i pona\u0161anja radnika<\/li>\n<li>sustave koji omogu\u0107uju pristup obrazovnim ustanovama ili ustanovama za strukovno obrazovanje<\/li>\n<li>sustave kojima se procjenjuje kreditna sposobnost<\/li>\n<li>sustave kojima se utvr\u0111uju socijalne naknade<\/li>\n<li>sustave odlu\u010divanja koji se primjenjuju u spre\u010davanju, otkrivanju i progonu kaznenih djela, odlu\u010divanja kod dodjele viza ili azila te sustave odlu\u010divanja koji se koriste za pomo\u0107 sucima.<\/li>\n<\/ul>\n<p>Nadalje, sustavi namijenjeni interakciji s fizi\u010dkim osobama i oni koji obra\u0111uju osobne podatke prepoznavanjem emocija ili kategorizacijom, moraju biti dizajnirani i razvijeni na na\u010din da <strong>osobe koje su s njima u interakciji o tome budu obavije\u0161tene<\/strong>. Ukoliko se sustav koristi za generiranje ili obradu slike, zvuka ili video sadr\u017eaja koji znatno podsje\u0107a na postoje\u0107e osobe, predmete, mjesta ili druge doga\u0111aje, <strong>mora biti istaknuto da se radi o umjetno stvorenom ili obra\u0111enom sadr\u017eaju<\/strong>, osim kod sustava koji se upotrebljavaju u svrhu za\u0161tite javne sigurnosti ili drugih javnih interesa.<\/p>\n<p><strong>Visokorizi\u010dnima obaveze, ostalima poticaj da ih dobrovoljno po\u0161tuju<\/strong><\/p>\n<p>Specifi\u010dnosti mnogih tehnologija umjetne inteligencije, uklju\u010duju\u0107i netransparentnost (\u201eu\u010dinak crne kutije\u201d), slo\u017eenost, nepredvidivost i djelomi\u010dno autonomno pona\u0161anje, mogu dovesti do nepo\u0161tivanja pravila EU za za\u0161titu temeljnih prava i ote\u017eati njihovu u\u010dinkovitu provedbu. Zato \u0107e se i operatere koji razvijaju ove sustave, a ne smatraju se visokorizi\u010dnima, <strong>poticati na dono\u0161enje kodeksa postupanja <\/strong>radi dobrovoljne primjene obveznih kriterija primjenjivih na visokorizi\u010dne sustave. Time se ujedno poti\u010de prihva\u0107anje pouzdane i na \u010dovjeka usmjerene umjetne inteligencije.<\/p>\n<p>Kako bi se autorima sustava umjetne inteligencije pomoglo da zadobiju <strong>povjerenje korisnika<\/strong>, predvi\u0111ena je i obveza isticanja \u201eCE\u201d oznake, pogotovo u zdravstvu, koja potvr\u0111uje da proizvod ispunjava zahtjeve EU u podru\u010dju sigurnosti, zdravlja i okoli\u0161a. U istu svrhu bit \u0107e uspostavljen i registar visokorizi\u010dnih aplikacija na razini EU, koji \u0107e voditi Komisija. Tako\u0111er, propisana je i <strong>obveza osiguravanja transparentnosti sustava<\/strong> na na\u010din da se osim opisa tehni\u010dke dokumentacije, algoritama te glavnih karakteristika i tehnika \u201etreniranja\u201c podataka, objave i informacije o funkcioniranju sustava te upute za kori\u0161tenje tehnologije. Pri tome je potrebno osigurati da sve va\u017ene informacije budu <strong>jednostavne i jasne kako bi gra\u0111ani mogli adekvatno i pravovremeno razumjeti na\u010din funkcioniranja konkretnih odluka<\/strong> donesenih uz potporu sustava umjetne inteligencije, koje se odnose na njih. Va\u017ean preduvjet za to su mehanizmi preispitivanja, ali i poja\u0161njavanja kriterija koji se primjenjuju pri dono\u0161enju takvih odluka.<\/p>\n<p><strong>Odgovornost za \u0161tetu pojedincu ili dru\u0161tvu, nepo\u0161tivanje Povelje EU o temeljnim pravima<\/strong><\/p>\n<p>Iako umjetna inteligencija mo\u017ee biti od velike koristi, izme\u0111u ostalog jer proizvode i procese \u010dini sigurnijima, isto tako mo\u017ee nanijeti \u0161tetu. Zato Uredba <strong>propisuje odgovornost za \u0161tetu nastalu kori\u0161tenjem sustava visokorizi\u010dnog sustava umjetne inteligencije<\/strong>, bilo da je rije\u010d o <strong>sigurnosti ili zdravlju pojedinaca<\/strong>, uklju\u010duju\u0107i gubitak \u017eivota, o\u0161te\u0107enje imovine, ili da je rije\u010d o <strong>negativnom utjecaju na dru\u0161tvo u cjelini<\/strong>, kao \u0161to su financijske, obrazovne ili profesionalne mogu\u0107nosti, pristup javnim uslugama. Isto se odnosi i na <strong>temeljna prava sadr\u017eana u Povelji EU o temeljnim pravima<\/strong>, poput povrede prava na privatnost ili na za\u0161titu osobnih podataka, prava osobe da ne bude diskriminirana, ograni\u010davanje prava na slobodu izra\u017eavanja, okupljanja i udru\u017eivanja, na u\u010dinkovit pravni lijek i pravi\u010dno su\u0111enje te na me\u0111unarodnu za\u0161titu.<\/p>\n<p>Kako se pravilima EU o za\u0161titi podataka u na\u010delu zabranjuje obrada biometrijskih podataka u svrhu jedinstvene identifikacije pojedinaca, osim u posebnim uvjetima, Komisija je propisala uporabu biometrijskih podataka na javnim mjestima kori\u0161tenjem sustava umjetne inteligencije samo u odre\u0111enim slu\u010dajevima i to uz posebnu autorizaciju sustava. Tako\u0111er se mora voditi posebna briga vezano uz sustave koji koriste osobne podatke za generiranje predvi\u0111anja, a koji bi mogli dovesti rasnog profiliranja ili drugih \u0161tetnih posljedica za pojedince, odnosno posebno ranjive skupine. Stoga je <strong>potrebno osigurati da podatci koji se koriste u tehnologijama koje se smatraju visokorizi\u010dnim nisu pristrani te ne dovode do diskriminiraju\u0107ih u\u010dinaka. <\/strong>Detalje o mogu\u0107em utjecaju umjetne inteligencije na jednakost pripremila je Europska mre\u017ea tijela za jednakost, u publikaciji <a href=\"https:\/\/equineteurope.org\/wp-content\/uploads\/2020\/06\/ai_report_digital.pdf\">\u201eRegulating for an Equal AI: a New Role for Equality Bodies\u201c<\/a> (na engleskom).<\/p>\n<p>Kad je u pitanju obuhvat Uredbe, pozitivno je i \u0161to \u0107e se, ako bude prihva\u0107ena u predlo\u017eenom obliku, primjenjivati ne samo na sustave umjetne inteligencije koji se koriste i rade na razini EU, ve\u0107 i na one razvijene u tre\u0107im zemljama, a koji su uvezeni u EU, s obzirom da postavlja posebne obveze za ovla\u0161tene predstavnike, uvoznike i distributere.<\/p>\n<p><strong>Klju\u010dnu ulogu u provedbi Uredbe imat \u0107e dr\u017eave \u010dlanice<\/strong><\/p>\n<p>Uzimaju\u0107i u obzir sve navedene potrebe, Komisija je predlo\u017eila osnivanje Europskog odbora za umjetnu inteligenciju. Njegov cilj bio bi olak\u0161ati u\u010dinkovitu i uskla\u0111enu provedbu Uredbe, no klju\u010dnu ulogu imale bi dr\u017eave \u010dlanice. Svaka bi tako trebala odrediti jedno ili vi\u0161e nacionalnih tijela koje bi nadziralo primjenu i provedbu Uredbe, bilo odgovorno za koordinaciju aktivnosti i djelovalo kao jedinstvena nacionalna kontaktna to\u010dka za Komisiju i Europski odbor za umjetnu inteligenciju.<\/p>\n<p>Da bi u potpunosti iskoristili prednosti umjetne inteligencije i u\u010dinili ih \u0161iroko dostupnim, potrebno je donijeti u\u010dinkovit regulatorni okvir, kao i pokrenuti niz drugih aktivnosti ne samo zbog razvoja i rasta poslovnog sektora i rje\u0161enja umjetne inteligencije, ve\u0107 i za\u0161tite temeljnih prava. Umjetna inteligencija mo\u017ee itekako doprinijeti br\u017eem i kvalitetnijem dono\u0161enju odluka, \u0161to je od izuzetne va\u017enosti za velika i mala trgova\u010dka dru\u0161tva, ali i za javnu upravu.<\/p>\n<p><strong>Hrvatska malim koracima prema koristima umjetne inteligencije<\/strong><\/p>\n<p>Primjena umjetne inteligencije u javnoj upravi u Hrvatskoj tek je u po\u010decima, iako se pojavljuju projekti u kojima se istra\u017euju mogu\u0107nosti primjene umjetne inteligencije, primjerice u podru\u010dju zdravstva. Primjena ovih tehnologija prvenstveno <strong>zahtjeva op\u0107e dru\u0161tveno razumijevanje, a potom i stalno istra\u017eivanje tehnologija i njihov utjecaj na dru\u0161tveni razvoj, ljudska prava i diskriminaciju<\/strong>.<\/p>\n<p>Javnim kampanjama usmjerenima na krajnje korisnike treba <strong>ja\u010dati razumijevanje funkcioniranja sustava umjetne inteligencije te korist koju dru\u0161tvo mo\u017ee imati<\/strong> od takvih sustava, a kako Uredba i propisuje, nacionalna tijela koja \u0107e biti nadle\u017ena za umjetnu inteligenciju trebala bi imati <strong>dovoljan broj stru\u010dnog osoblja<\/strong> koje \u0107e se kontinuirano usavr\u0161avati za pravilno obavljanje svojih zada\u0107a. Njihove kompetencije moraju uklju\u010divati <strong>razumijevanje tehnologija umjetne inteligencije, podataka i ra\u010dunalstva u oblaku, ali isto tako i znanja o temeljnim pravima te postoje\u0107im standardima i pravnim zahtjevima<\/strong>, kako bi se negativni utjecaj novih tehnologija na ljudska prava i diskriminaciju sveo na minimum.<\/p>\n<p>Me\u0111utim, uz neophodnu edukaciju stru\u010dnog osoblja, bit \u0107e potrebno <strong>educirati i in\u017eenjere i programere sustava umjetne inteligencije o pravnom aspektu te utjecaju odluka na jednakost gra\u0111ana i eventualnim posljedicama takvih sustava na ljudska prava<\/strong>. U tom smislu formiranje multidisciplinarnih timova koji uklju\u010duju znanstvenike, programere\/in\u017eenjere i pravobraniteljske institucije doprinijele bi prevladavanju prepreka i <strong>sprije\u010dilo dono\u0161enje odluka s diskriminiraju\u0107im ishodom<\/strong>. Naime, pojedini algoritmi otkrivaju obrasce pona\u0161anja i predvi\u0111aju odre\u0111ene rezultate na temelju povezivanja razli\u010ditih ulaznih podataka, a koji mogu biti potpuno druga\u010diji s aspekta ljudskog gledi\u0161ta. Odre\u0111ene karakteristike ljudi, kao \u0161to su etnicitet ili dob kao potencijalna diskriminatorna osnova, ukoliko bi se izostavila iz skupa ulaznih podataka, ipak bi se mogla koristiti kao povezani (proxy) podatak u svrhu predvi\u0111anja, \u0161to bi pak neizravno dovelo do diskriminiraju\u0107ih u\u010dinaka.<\/p>\n<p>Stoga \u0107e i <strong>sudove<\/strong> trebati adekvatno opremiti stru\u010dnim kadrovima i infrastrukturom, koji su <strong>klju\u010dni faktor nadzora i za\u0161tite prava gra\u0111ana<\/strong> kod primjene sustava umjetne inteligencije, dok \u0107e <strong>zada\u0107a pravobraniteljskih institucija biti<\/strong><strong> va\u017ena <\/strong><strong>u podizanju svijesti<\/strong> <strong>gra\u0111ana<\/strong> o utjecaju na ljudska prava i potencijalnim diskriminatornim u\u010dincima, <strong>nadziranju rada javne uprave<\/strong> u uvo\u0111enju i primjeni umjetne inteligencije te <strong>osiguravanju \u0161to ve\u0107e transparentnosti<\/strong>.<\/p>\n<p>Kona\u010dno, <strong>va\u017eno je i da Hrvatska donese Strategiju razvoja umjetne inteligencije<\/strong>, koju je prema Koordiniranom planu za razvoj umjetne inteligencije u EU trebala donijeti do kraja 2019. Upravo \u0107e taj dokument, kao i popratni pravilnici koji \u0107e propisivati eti\u010dke smjernice za kori\u0161tenje umjetne inteligencije, biti klju\u010dni za razumijevanje na\u010dina na koji se Uredba primjenjuje u odnosu na na\u0161u zemlju, posebice na javnu upravu, ali i na tijela za jednakost i za\u0161titu ljudskih prava. Nu\u017eno je da se u dokument uvrste mjere kojima \u0107e osigurati uskla\u0111enost s nacionalnim antidiskriminacijskim zakonodavstvom, eti\u010dka na\u010dela, kao i obvezna procjena u\u010dinka sustava\/aplikacije na ljudska prava i diskriminaciju, ali i propisati u\u010dinkovita pravna sredstva i jasnu odgovornost pojedinih svih koji razvijaju ili stavljaju na tr\u017ei\u0161te takve sustave, s naglaskom na njihovu transparentnost.<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Umjetna inteligencija na\u0161a je sada\u0161njost, a njezino \u0161iroko kori\u0161tenje u svim podru\u010djima \u017eivota na\u0161a je neupitna i ne tako daleka budu\u0107nost. Umjetnu inteligenciju ve\u0107 koristimo svakodnevno, iako mo\u017eda toga nismo ni svjesni, a algoritmi su postali sastavni dio na\u0161ih \u017eivota. Primjer su aplikacije na na\u0161im pametnim telefonima koje nam prepoznaju glas ili lice, izbor i [&hellip;]<\/p>\n","protected":false},"author":9,"featured_media":11474,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[2090],"tags":[299,629,2012,1861,1959],"class_list":["post-11482","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-novosti","tag-europska-komisija","tag-suzbijanje-diskriminacije","tag-analiza","tag-europske-direktive","tag-umjetna-inteligencija"],"_links":{"self":[{"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/posts\/11482","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/comments?post=11482"}],"version-history":[{"count":3,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/posts\/11482\/revisions"}],"predecessor-version":[{"id":11485,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/posts\/11482\/revisions\/11485"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/media\/11474"}],"wp:attachment":[{"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/media?parent=11482"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/categories?post=11482"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ombudsman.hr\/hr\/wp-json\/wp\/v2\/tags?post=11482"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}