{"id":3135,"date":"2019-05-10T18:05:58","date_gmt":"2019-05-10T16:05:58","guid":{"rendered":"https:\/\/bdvlegal.com\/?p=3135"},"modified":"2025-10-29T03:35:07","modified_gmt":"2025-10-29T02:35:07","slug":"regulacija-umjetne-inteligencije","status":"publish","type":"post","link":"https:\/\/www.bdvlegal.com\/hr\/regulacija-umjetne-inteligencije\/","title":{"rendered":"Regulacija umjetne inteligencije"},"content":{"rendered":"<h2>\u0160to je AI?<\/h2>\n<p>Vjerojatno ve\u0107 svatko ima neku osnovnu ideju o tome \u0161to bi umjetna inteligencija trebala biti. Postoje mnoge definicije, no mi \u0107emo bez kompliciranja i ulaska u prijeporna pitanja re\u0107i da je umjetna inteligencija (AI) inteligencija koju pokazuju ure\u0111aji pri obavljanju odre\u0111ene zada\u0107e. Idealni inteligentni ure\u0111aj je prilagodljiv i ujedno poduzima radnje kako bi pove\u0107ao vjerojatnost da ispuni neku zada\u0107u.<\/p>\n<p>Glavne zna\u010dajke umjetne inteligencije su:<\/p>\n<ol>\n<li>sposobnost pohranjivanja velike koli\u010dine podataka i prikupljanja novih podataka iz okoline;<\/li>\n<li>sposobnost da samostalno donosi odluke i zatim djeluje na temelju tih odluka.<\/li>\n<\/ol>\n<p>Ra\u0161irenost i primjena AI tehnologije raste iz minute u minutu. Vrlo zna\u010dajan udio novih proizvoda na tr\u017ei\u0161tu oslanja se na tu tehnologiju. S obzirom na jednu od njezinih glavnih karakteristika da prikuplja i pohranjuje veliku koli\u010dinu podataka, ve\u0107 mo\u017eemo naslutiti da se name\u0107u razna pravna i eti\u010dka pitanja.<\/p>\n<h2>AI i za\u0161tita podataka<\/h2>\n<p>Moglo bi se re\u0107i da se pitanje za\u0161tite podataka isti\u010de pred svim drugim pitanjima kada raspravljamo o AI. Upotreba AI sustava zahtjeva svakodnevnu obradu podataka velikih razmjera. Naime, potrebna je velika koli\u010dina podataka da bi slo\u017eeni algoritmi AI-a mogli samostalno u\u010diti i analizirati. Tu o\u010dekivano nastupaju izazovi uskla\u0111ivanja s Op\u0107om uredbom o za\u0161titi podataka (GDPR).<\/p>\n<p>Jedan od op\u0107ih principa koje GDPR propisuje je i ograni\u010davanje svrhe. Ograni\u010davanje svrhe zna\u010di da osobni podaci moraju biti prikupljeni u posebne, izri\u010dite i zakonite svrhe te se dalje ne smiju obra\u0111ivati na na\u010din koji nije u skladu s tim svrhama. GDPR tako\u0111er odre\u0111uje du\u017enost jam\u010denja transparentnosti obrade prema pojedincu \u010diji podaci se obra\u0111uju. Me\u0111u pravima koje daje ispitanicima je i pravo da se na njih ne odnosi odluka koja se temelji isklju\u010divo na automatiziranoj obradi. AI obra\u0111uje velike koli\u010dine podataka te se ta obrada uglavnom vr\u0161i automatski, bez utjecaja \u010dovjeka, a sam proces obrade niti nije neposredno dostupan \u010dovjeku (odvija se \u201eiza kulisa, u pozadini\u201c). Zbog takve prirode umjetne inteligencije, granice koje postavlja GDPR lako je prekora\u010diti. Va\u017eno je spomenuti i da se u postupku obrade moraju provoditi odgovaraju\u0107e tehni\u010dke i organizacijske mjere za omogu\u0107avanje u\u010dinkovite primjene na\u010dela za\u0161tite podataka. Pri tome se trebaju uzeti u obzir i priroda, opseg, kontekst i svrhe obrade.<\/p>\n<p>Od gore navedenih zahtjeva GDPR-a koji se ti\u010du obrade osobnih podataka, va\u017eno je istaknuti pravo pojedinca da se na njega \u201ene odnosi odluka koja se temelji isklju\u010divo na automatiziranoj obradi, uklju\u010duju\u0107i izradu profila, koja proizvodi pravne u\u010dinke koji se na njega odnose ili na sli\u010dan na\u010din zna\u010dajno na njega utje\u010du\u201c. Spomenuto pravo ispitanika postoji ako se odluka donosi isklju\u010divo na automatiziranoj obradi, \u0161to zna\u010di da to pravo ne postoji ako je odluka donesena kombinacijom automatizirane i \u201eru\u010dne\u201c obrade osobnih podataka. \u0160to se ti\u010de u\u010dinaka automatizirane obrade, oni moraju biti pravni ili moraju na sli\u010dan na\u010din zna\u010dajno utjecati na pojedinca. Pravni u\u010dinci \u0107e biti oni koji utje\u010du na prava pojedinaca, npr. ako se pojedincu na temelju takve obrade zabrani prelazak preko granice ili mu se uskrati socijalna skrb. U\u010dinci koji na sli\u010dan na\u010din zna\u010dajno utje\u010du na pojedinca su oni koji imaju jednak u\u010dinak kao i pravni u\u010dinci ili su im zna\u010dajno sli\u010dni. Utjecaj takvih u\u010dinaka ne smije biti bezna\u010dajan i mora postojati mogu\u0107nost da zna\u010dajno utje\u010du na okolnosti, pona\u0161anje ili odluke pojedinca, npr. automatsko odbijanje e-zahtjeva za kredit ili recimo praksa dono\u0161enja odluke o zapo\u0161ljavanju bez ljudskog utjecaja.<\/p>\n<p>Za ovu temu tako\u0111er je od posebne va\u017enosti izrada profila o odre\u0111enoj fizi\u010dkoj osobi. Postoje mnogi sustavi koji vr\u0161e automatsku obradu podataka, me\u0111utim, veoma \u010desto AI izvr\u0161ava profiliranje kao posebnu vrstu automatske obrade. \u0160to je profiliranje? GDPR iznosi sljede\u0107u definiciju:<\/p>\n<blockquote><p>\u201eIzrada profila\u201c zna\u010di svaki oblik automatizirane obrade osobnih podataka koji se sastoji od uporabe osobnih podataka za ocjenu odre\u0111enih osobnih aspekata povezanih s pojedincem, posebno za analizu ili predvi\u0111anje aspekata u vezi s radnim u\u010dinkom, ekonomskim stanjem, zdravljem, osobnim sklonostima, interesima, pouzdano\u0161\u0107u, pona\u0161anjem, lokacijom ili kretanjem tog pojedinca.\u201c<\/p><\/blockquote>\n<p>AI je sposobna na temelju osobnih podataka donijeti zaklju\u010dke u vezi pojedinca i to zovemo profiliranjem. Tako su organizacije koje usvoje AI sustav obrade podataka sposobne otkriti \u0161to pojedinac voli jesti te koje je spolne orijentacije ili npr. pretpostaviti dijagnozu o odnosu na navike odre\u0111ene osobe. Takva obrada podataka predstavlja znatno zadiranje u pravo privatnosti pojedinca.<\/p>\n<p>Zbog svega navedenog, postoji vjerojatnost da \u0107e automatska obrada osobnih podataka prouzro\u010diti visok rizik za prava i slobode pojedinca te du\u017enost organizacije, koja je voditelj obrade za obradu osobnih podataka koji su u pitanju, provesti procjenu u\u010dinka na za\u0161titu podataka. Ta procjena, uzimaju\u0107i u obzir prirodu, opseg, kontekst i svrhe obrade, predvi\u0111a na koji na\u010din \u0107e obrada utjecati na pojedinca te tako\u0111er daje mogu\u0107a rje\u0161enja, odnosno predla\u017ee mjere predvi\u0111ene za rje\u0161avanje problema rizika uzimaju\u0107i u obzir prava i legitimne interese.<\/p>\n<p>AI tako\u0111er obra\u0111uje niz podataka koji nisu osobni. Obrada i prijenos takvih podataka ure\u0111uje Uredba Europskog parlamenta i vije\u0107a od 14. studenoga 2018. o okviru za slobodan protok neosobnih podataka u Europskoj uniji (EU) 2018\/1807. Ta uredba odre\u0111uje na\u010delo slobodnog protoka podataka koji nisu osobni podaci unutar Europske unije, osim kad je ograni\u010denje ili zabrana opravdana razlozima javne sigurnosti.<br \/>\nUnutar AI sustava obrada podataka (osobnih i neosobnih) odvija se na na\u010din da se prikupljaju podaci iz cijeloga svijeta te se oni pohranjuju i prenose kroz mnogo razli\u010ditih lokacija unutar i izvan Europske unije. Stoga je potrebno razmotriti obje navedene uredbe prilikom implementacije AI tehnologija.<\/p>\n<p>U sije\u010dnju 2019. Vije\u0107e Europe izdalo je Smjernice o umjetnoj inteligenciji i za\u0161titi podataka. Smjernice mo\u017eemo sa\u017eeti na sljede\u0107e:<\/p>\n<ol>\n<li>Za\u0161tita ljudskog dostojanstva, prava i temeljnih sloboda, a posebice prava na za\u0161titu osobnih podataka, je nu\u017ena pri razvoju i usvajanju AI aplikacija.<\/li>\n<li>Razvoj AI tehnologija, koji se oslanja na obradu osobnih podataka, trebao bi biti temeljen na zakonitosti, po\u0161tenosti, odre\u0111ivanju svrhe, proporcionalnosti obrade podataka, tehni\u010dkoj i integriranoj za\u0161titi podataka, odgovornosti, transparentnosti, sigurnosti podataka i upravljanju rizicima.<\/li>\n<li>Pristup usmjeren na izbjegavanje i ubla\u017eavanje potencijalnih rizika obrade osobnih podataka je nu\u017ean dio odgovornosti za inovaciju u podru\u010dju AI.<\/li>\n<li>AI aplikacije moraju u svako doba potpuno po\u0161tovati prava ispitanika.<\/li>\n<\/ol>\n<h2>Cybersigurnost<\/h2>\n<p>Sve \u0161ira primjena AI donosi sa sobom razne rizike po pitanju informacijske sigurnosti. AI sustav je sposoban samostalno zaklju\u010divati i donositi odluke automatskim putem, \u0161to zna\u010di bez prekida i bez ljudskog uplitanja, stoga vanjski napad i uplitanje u rad AI-a mo\u017ee pro\u0107i neotkriveno. Napada\u010d na taj na\u010din mo\u017ee koristiti rad AI sustava za svoje svrhe, a mo\u017ee i ukrasti podatke koje AI prikuplja i obra\u0111uje za svoj rad. Tako\u0111er, i sam napada\u010d mo\u017ee koristiti AI da napadne slabe i ranjive sustave. Takvi napadi su \u010desto brzi, malih su tro\u0161kova i ne privla\u010de pozornost na sebe te zato dugo ostaju neotkriveni.<\/p>\n<p>Kori\u0161tenje AI-a u zlonamjerne svrhe ve\u0107 poprima \u0161iroke razmjere i napada\u010du zna\u010dajno olak\u0161ava posao. AI se mo\u017ee koristiti da istra\u017ei slabosti razli\u010ditih sustava i da onda osmisli efikasnu metodu napada na te sustave. Zanimljivo je da rje\u0161enje protiv takvih napada le\u017ei upravo u AI tehnologiji. Specijalizirani AI sustav mogao bi predvi\u0111ati takve napade i biti korak ispred napada\u010da. Novi AI mogu biti izra\u0111eni ne samo radi svoje posebne svrhe, ve\u0107 i da budu otporni na napade, da u\u010de od napada\u010da i adekvatno se za\u0161tite.<\/p>\n<h2>Eti\u010dka pravila<\/h2>\n<p>AI se ne bi smio koristiti bez razmatranja i primjena mjera \u010dija svrha je izbjegavanje ne\u017eeljenih posljedica. S tim na umu, neovisna Grupa stru\u010dnjaka visoke razine za umjetnu inteligenciju (<em>High Level Expert Group on Artificial Intelligence &#8211; AI HLEG<\/em>) je 8. travnja 2019. izdala kona\u010dnu verziju Eti\u010dkih smjernica za pouzdan AI. Cilj tih smjernica jest primijeniti antropocentri\u010dki pristup pri razvoju AI-a, odnosno pristup koji osigurava da stvaranje i razvoj AI-a ne budu svrha samima sebi, ve\u0107 da cilj bude pove\u0107anje ljudskog blagostanja.<\/p>\n<p>Pouzdan AI bi uz va\u017ee\u0107e pravo trebao po\u0161tivati i niz klju\u010dnih zahtjeva koji trebaju biti zadovoljeni da bi se konkretan AI mogao smatrati pouzdanim:<\/p>\n<p>\u2022 Ljudsko djelovanje i nadzor: AI sustavi bi trebali omogu\u0107iti pravedno dru\u0161tvo podupiru\u0107i ljudsko djelovanje i temeljna prava, a ne smanjiti, ograni\u010diti ili obmanjivati ljudsku autonomiju.<br \/>\n\u2022 Robusnost i sigurnost: pouzdan AI zahtjeva algoritme koji osiguravaju sigurnost, vjerodostojnost i robusnost u rukovanju s gre\u0161kama i nedosljednostima tijekom svih faza \u017eivotnog ciklusa AI sustava.<br \/>\n\u2022 Privatnost i upravljanje podacima: gra\u0111ani moraju imati potpunu kontrolu nad vlastitim podacima, dok podaci koji se ti\u010du njih ne smiju biti kori\u0161teni da bi im se naudilo ili da bi ih se diskriminiralo.<br \/>\n\u2022 Transparentnost: trebala bi biti osigurana mogu\u0107nost utvr\u0111ivanja podrijetla.<br \/>\n\u2022 Raznolikost, nediskriminacija i po\u0161tenost: AI sistemi bi trebali razmotriti \u010ditav spektar ljudskih sposobnosti, vje\u0161tina i potreba te osigurati pristupa\u010dnost.<br \/>\n\u2022 Dobrobit dru\u0161tva i okoli\u0161a: AI sustavi bi trebali biti kori\u0161teni kako bi se unaprijedile pozitivne dru\u0161tvene promjene i kako bi se poja\u010dala odr\u017eivost i ekolo\u0161ka odgovornost.<br \/>\n\u2022 Odgovornost: trebali bi se ugraditi mehanizmi koji bi osigurali odgovornost za AI sustave i njihove u\u010dinke.<\/p>\n<p>Ove smjernice su namijenjene za sve developere ili korisnike AI-a, me\u0111utim, i vlade \u0107e tako\u0111er imati klju\u010dnu ulogu u tom kontekstu. \u0160tovi\u0161e, zakonodavci se pozivaju da osiguraju ispravno upravljanje ekonomskim i socijalnim u\u010dincima AI-a i da se eti\u010dka pitanja ispravno uzimaju u obzir sa zakonodavnog stanovi\u0161ta.<\/p>\n<p>Navedene smjernice neodoljivo podsje\u0107aju na \u201eTri zakona robotike\u201c kultnog pisca znanstvene fantastike Isaaca Asimova:<\/p>\n<ol>\n<li>Robot ne smije na\u0161koditi \u010dovjeku ili svojom pasivno\u0161\u0107u dopustiti da se \u010dovjeku na\u0161kodi.<\/li>\n<li>Robot mora slu\u0161ati ljudske naredbe, osim kad su one u suprotnosti s prvim zakonom.<\/li>\n<li>Robot treba \u0161tititi svoj integritet, osim kad je to u suprotnosti s prvim ili drugim zakonom.<\/li>\n<\/ol>\n<p>Na kraju mo\u017eemo zaklju\u010diti da je pri razvoju AI tehnologija potrebno uzeti u obzir navedene rizike za prava i slobode pojedinaca te razvijati sustav koji po\u0161tuje ljudska prava i eti\u010dke smjernice, ne samo radi mogu\u0107ih kazni regulatora, ve\u0107 i radi \u0161ire prihva\u0107ene primjene takvih sustava.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u0160to je AI? Vjerojatno ve\u0107 svatko ima neku osnovnu ideju o tome \u0161to bi umjetna inteligencija trebala biti. Postoje mnoge definicije, no mi \u0107emo bez kompliciranja i ulaska u prijeporna pitanja re\u0107i da je umjetna inteligencija (AI) inteligencija koju pokazuju ure\u0111aji pri obavljanju odre\u0111ene zada\u0107e. Idealni inteligentni ure\u0111aj je prilagodljiv i ujedno poduzima radnje kako bi pove\u0107ao vjerojatnost da ispuni neku zada\u0107u. Glavne zna\u010dajke umjetne inteligencije su: sposobnost pohranjivanja velike koli\u010dine podataka i prikupljanja novih podataka iz okoline; sposobnost da samostalno donosi odluke i zatim djeluje na temelju tih odluka. Ra\u0161irenost i primjena AI tehnologije raste iz minute u minutu. [&hellip;]<\/p>\n","protected":false},"author":6,"featured_media":3136,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[267],"tags":[],"admin_cats":[],"class_list":["post-3135","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-vijesti"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/posts\/3135","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/comments?post=3135"}],"version-history":[{"count":0,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/posts\/3135\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/media\/3136"}],"wp:attachment":[{"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/media?parent=3135"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/categories?post=3135"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/tags?post=3135"},{"taxonomy":"admin_cat","embeddable":true,"href":"https:\/\/www.bdvlegal.com\/hr\/wp-json\/wp\/v2\/admin_cats?post=3135"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}