Diljem svijeta u zamahu su napori da se regulira umjetna inteligencija, pa se tako u više od 60 zemalja, uključujući i članice Europske unije, razmatra preko 800 različitih mjera regulacije.
I nije čudo da je tako, ocjenjuju stručnjaci za primjenu umjetne inteligencije u The Boston Consulting Group. Umjetna inteligencija moćan je alat koji pojedincima i društvima može donijeti znatne koristi, ali može biti i tzv. “crna kutija”.
Načine na koje umjetna inteligencija funkcionira, kao i rezultate koje proizvodi, često je teško razumijeti u cijelosti. Jasno je kako je vladama država u interesu da društvo zaštite od promašaja umjetne inteligencije kao što su pristranost u algoritmima ili netočni rezultati upita i naloga umjetnoj inteligenciji. Dobar su primjer za to pogrešne medicinske dijagnoze.
Zbog potencijala rasta poslovanja potaknutog korištenjem umjetne inteligencije, očito je kako tvrtke također imaju velik interes za nju, no velika je opasnost od poslovnih promašaja zbog pogrešnih ishoda koje umjetna inteligencija može proizvesti.
Baš zbog toga, iznenađujući su rezultati velike globalne ankete BCG-a, prikazane kroz indeks digitalne akceleracije (Digital Acceleration Index - DAI), koji su pokazali da je samo 28 posto od 2700 anketiranih tvrtki spremno za novu regulaciju umjetne inteligencije.
"Hrvatska ima više kompanija koje su regionalni lideri digitalne transformacije, posebice u telekomunikacijskom i tehnološkom sektoru. Upravo su to i tvrtke koje će biti najspremnije na uvođenje regulative korištenja umjetne inteligencije, kad ona stupi na snagu u Europskoj uniji i zatim bude transponirana u Hrvatskoj. Za hrvatske je tvrtke važno osvijestiti da umjetna inteligencija dolazi i da treba pokrenuti vlastite inicijative odgovornog korištenja umjetne inteligecije upravo sada kako ne bi zaostali u gospodarskom razvoju koji će se izgledno ubrzati upravo zahvaljujući umjetnoj inteligenciji. Sigurno je kako je nužno da se načini primjene umjetne inteligencije reguliraju kako bi se spriječili nepovoljni ishodi koji bi mogli nastati zbog nesavjesne i neodgovorne primjene. S druge strane, odgovorno korištenje umjetne inteligencije stvara goleme prilike za ubrzani rast kompanijama. Važno je reći kako je prije gotovo dvije godine na razini Ministarstava gospodarstva i znanosti i obrazovanja bila osnovana radna skupina kojoj je cilj bio upravo artikulirati korištenje umjetne inteligencije radi ubrzanja digitalne transformacije u gospodarstvu, obrazovanju, znanosti, turizmu i javnoj upravi te stvaranja preduvjeta za pozicioniranje Hrvatske kao središta razvoja umjetne inteligencije u EU. U BCG-u se nadamo da će ove smjernice koje smo razvili kao pomoć kompanijama u odgovornom korištenju umjetne inteligencije biti skroman doprinos i radnoj skupini Ministarstava gospdarstva i znanosti i obrazovanja, da Hrvatska uhvati korak u odgovornoj primjeni umjetne inteligencije i iskoristi njene potencijale za razvoj hrvatskog gospodarstva”, ocijenio je Tomislav Čorak, hrvatski partner u BCG-u.
U BCG-u su odlučili istražiti načine na koje se kompanije već sada mogu pripremiti na regulativu koja tek dolazi, i koja će izgledno različito izgledati u različitim dijelovima svijeta.
Najbolji je način pripreme unutar kompanije pokrenuti tzv. Inicijativu za odgovornu umjetnu inteligenciju (Responsible Artificial Intelligence - RAI). U središtu svake takve inicijative trebaju biti načela koja naglašavaju odgovornost, transparentnost, zaštitu privatnosti i sigurnost, kao i pravednost i uključivost pri razvoju i primjeni algoritama.
Riječ je o okviru kojeg bi se pridržavati trebali oni koji razvijaju, kao i oni koji umjetnu inteligenciju primjenjuju. Primjenom tih načela i jedni i drugi će biti spremni za bilo koji oblik regulative umjetne inteligencije koja će biti u primjeni.
Već sada, mnoge kompanije vide inicijative za odgovornu umjetnu inteligenciju kao pitanje korporativne usklađenosti, onog što kolokvijalno nazivamo compliance, tumače u Boston Consulting Groupu, no riječ je o nečem puno moćnijem - mehanizmu koji omogućava inovacije: poboljšava performanse umjetne inteligencije i ubrzava feedback cikluse.
Tvrtke koje to razumiju i dolazeću regulaciju vide kao priliku umjesto kao teret zadovoljit će i zakonodavce i svoje dioničare. Inicijative za odgovornu umjetnu inteligenciju su posebno važne zbog činjenice da će nova regulativa korištenje umjetne inteligencije u poslovanju učiniti kompleksnijim: primjerice, kad će kompanije morati objasniti kako je umjetna inteligencija koju koriste donijela neku odluku.
Uz anketu koju je BCG proveo za DAI indeks, u suradnji s MIT-jevom Sloan Management revijom proveli su i anketu o primjeni RAI inicijativa u kompanijama.
Jedna od glavnih informacija koju su doznali bila je da kompanijama trebaju oko tri godine da postignu napredak u odgovornom korištenju umjetne inteligencije. Iako je u Europskoj uniji regulativa umjetne inteligencije (EU Artificial Intelligence Act) još u fazi prijedloga, kompanije ne smiju čekati njezino stupanje na snagu kako bi počele primjenjivati vlastite inicijative za odgovorno korištenje umjetne inteligencije.
Zbog konkurencije i mogućih propuštenih prilika, pritisak na poduzeća raste. Odgovorno korištenje umjetne inteligencije kompanijama pomaže da dizajniraju i upravljaju sustavima koji su u skladu s kompanijskim vrijednostima i uvaženim i prihvaćenim shvaćanjima ispravnog i pogrešnog. Ali, RAI pomaže potaknuti i transformativne procese unutar kompanija, jer im pomaže skalirati korištenje umjetne inteligencije, pomaže im rano prepoznati i riješiti probleme, te na kraju, ulakšati prihvaćanje korištenja umjetne inteligencije od strane zaposlenika, kupaca i drugih dionika. Pridržavanjem RAI načela, kompanije minimiziraju negativne posljedice korištenja umjetne inteligencije, dok u isto vrijeme kroz inovacije stvaraju korist sebi i društvu u cjelini. No, neke su kompanije u tome već odmakle dalje od drugih.
Pripremljenost na odgovorno korištenje umjetne inteligencije korespondira s digitalnom zrelošću, odnosno s time koliko daleko su kompanije odmakle u digitalnoj transformaciji poslovanja. Kompanije koje su po rezultatima bile u gornjem kvartilu rezultata DAI indeksa čak su šest puta bolje pripremljene za odgovorno korištenje umjetne inteligencije od onih u donjem kvartilu.
Nije čudo da su upravo kompanije iz sektora telekomunikacija, tehnološke tvrtke i tvrtke koje se bave potrošačkom robom najbolje pripremljene, dok najviše zaostaju energetske kompanije i javni sektor.
To bi moralo biti ozbiljno upozorenje zakonodavcima, jer promašaji u korištenju umjetne inteligencije mogu naštetiti povjerenju u vlast, što je upravo suprotno tome što svaka odgovorna vlast želi.
Nadalje, pripremljenost na odgovorno korištenje umjetne inteligencije razlikuje se i među regijama. Veća je vjerojatnost da će kompanije iz regije Azija-Pacifik imati zaposlenike odgovorne za etično korištenje umjetne inteligencije nego europske, ili kompanije iz SAD-a i Kanade. Baš je zato zanimljivo da europski menadžeri svoje kompanije smatraju najspremnijima za uvođenje regulative umjetne inteligencije u poslovanju.
Moguće je, smatraju u BCG-u, da je to posljedica snažne ambicije EU da stvori tzv. briselski efekt. Riječ je o procesu u kojem EU jednostrano regulira neko područje i zatim tu regulativu putem tržišnih mehanizama izvozi van svojih granica, pa tako radi i u smjeru regulacije umjetne inteligencije, slično kako je uspjela s GDPR-om.
Primjena regulative puna je neizvjesnosti, a čak 82 posto ispitanika u anketi BCG-a odgovorilo je kako im politike i alati regulative nisu jasni. Tu uskaču inicijative za odgovorno korištenje umjetne inteligencije, ali vodeći ljudi kompanija moraju aktivno biti uključeni u njihovu primjenu. Tako mogu pokazati zakonodavcu, regulatornim tijelima i ostali dionicima kako se ponašaju odgovorno.
U isto vrijeme, ako odgovorno primjenjuju umjetnu inteligenciju u svojim kompanijama, stvaraju kompanije koje odgovorno primjenjuju umjetnu inteligenciju u svojem okruženju.
Pet ključnih smjernica za odgovorno korištenje umjetne inteligencije
Kako bi trebale izgledati strategija i primjena načela odgovorne umjetne inteligencije? Kako se razlikuju poslovni ciljevi i tržišta, izgledno je da će se razlikovati i regulativa umjetne inteligencije. U Singapuru je još 2019. uspostavljen okvir odgovornog upravljanja umjetnom inteligencijom uspostavljanjem načela, a ne propisivanjem kazni, za privatni sektor. S druge strane, EU je agresivnija. Predložena zakonska rješenja predviđaju zabranu biometrijskog nadzora kao što je korištenje tehnologija prepoznavanja lica u javnom prostoru, kao i zabranu stvaranja osobnog kreditnog rejtinga kroz sustav ocjenjivanja aktivnosti na društvenim mrežama. EU predviđa kazne u visini šest posto ukupnih godišnjih prihoda kompanija u slučaju korištenja zabranjenih tehnologija.
Pravila, uvjeti na tržištima, potrebe kompanija, kao i vizije primjena umjetne inteligencije se razlikuju, tako da je teško propisati udžbenički pristup korištenju odgovorne umjetne inteligencije. No, kompanije koje usvoje sljedećih pet ključnih načela bit će bolje pripremljene na bilo koji oblik regulative umjetne inteligencije i korištenje svih mogućnosti te moćne tehnologije.
Osnažite lidere odgovorno korištenje umjetne inteligencije
Imenovanje osobe odgovorne za primjenu načela odgovornog korištenja umjetne inteligencije ključno je za kontinuiranu primjenu inicijative. Najbolji RAI lideri su multitalentirani: razumiju proces stvaranja politika, tehničke zahtjeve i potrebe kompanije. Oni te elemente mogu integrirati u koherentnu strategiju koja stvara koristi od umjetne inteligencije, pridržava se širih kompanijskih vrijednosti i osigurava da se kompanija pridržava regulative u nastajanju. Također, stvaraju timove koji predstavljaju različite dijelove kompanije, od pravnog, preko ljudskih resursa, IT-a do marketinga, a zajedno dizajniraju i vode RAI programe. Ti im odnosi omogućavaju da RAI inicijative provedu u cijeloj kompaniji.
Izradite i usvojite okvir za etičnu umjetnu inteligenciju
U srcu svake odgovorne umjetne inteligencije su načela i pravila etičnog korištenja umjetne inteligencije koje kompanije stvaraju i usvajaju u svoju kompanijsku kulturu. To stvara robusne temelje za prihvaćanje novih regulatornih zahtjeva u bilo kojem obliku bez da otežavaju realizaciju poslovnih ciljeva i ulaganja. Uzmite za primjer pravila kojima se regulira korištenje tehnologija prepoznavanja lica. Zahtjevi američkog Zakona o biometričkoj informacijskoj privatnosti i predložena regulativa u EU se razlikuju. No, kompanija koja posluje na oba ta tržišta treba se pridržavati okvira etične primjene umjetne inteligencije putem ulaganja u i korištenje tehnologija za mitigaciju pristranosti (bias), snažno štititi privatnost, strogo dokumentirati sve primjene i koristiti sve moguće mjere potrebne da se poštuju regulatorni zahtjevi bilo SAD-a, bilo EU-a. U srcu svake regulative je jedan cilj, odgovoran pristup korištenju umjetne inteligencije, a načela etičnog korištenja UI će njezino korištenje učiniti odgovornim. Čak dvije trećine kompanija koje je BCG anektirao za DAI indeks već sad stvaraju okvir za etično korištenje UI. To uključuje svrhom vođen pristup stvaranju primjena UI: osiguravanjem da dizajneri aplikacija od početka razumiju ciljeve sistema umjetne inteligencije i ishode koje može generirati. Druga je mjera transparentnost: informiranje korisnika o tome kako UI koristi njihove podatke, te objašnjavanje načela rada algoritama. Kad kompanije znaju pojasniti kako njihova UI funkcionira, tad grade povjerenje. Također, tako pomažu usvajanje UI od strane zaposlenika i kupaca. Učinkovita obuka kroz promociju praksi i ciljeva RAI u kompaniji, kao i komunikacija glavnih poruka o odgovornom korištenju umjetne inteligencije u kompaniji i izvan nje dodatno povećavaju transparentnost.
Formalizirajte mehanizam povratne veze za alarmiranje nepredviđenih rezultata
Većina postojeće i predložene regulative zaziva snažno i odgovorno upravljanje (governance) i ljudsku odgovornost. To je u skladu s temeljnim pravilom odgovornog korištenja UI: uključenost ljudi u sve AI procese i platforme. Gotovo sve kompanije suglasne su kako je svrha umjetne inteligencije ojačati ljudske kapacitete, a ne zamijeniti ih, te već koriste to načelo. No, razlika je u tome kako ga primjenjuju.
Svaki RAI program trebao bi imati povratnu vezu (feedback loop), mehanizme revizije i jasna pravila za alarmiranje u slučaju nepredviđenih rezultata. I ovdje su digitalno najzrelije kompanije već u vodstvu: dvostruko je veća vjerojatnost da će primjenjivati ove elemente RAI programa i shvaćati njihovu važnost, nego manje zreli konkurenti.
Stvorite sustave revizije RAI programa, integrirajte alate i metode
RAI produljuje životni vijek sustava umjetne inteligencije. Cilj im je prepoznati i riješiti probleme u što ranijoj fazi razvoja, te ostati na oprezu nakon lansiranja aplikacija. Organizacije koje su u stanju nadzirati efekte UI tijekom cijelog uporabnog ciklusa uspijevaju zadobiti povjerenje kako vlasti, tako i kupaca. To započinje primjenom središnjih načela RAI poput transparentnosti i uključivosti u izgradnji i primjeni algoritama. Nadalje, kompanije bi trebale izgraditi ili usvojiti alate za provedbu cjelovite revizije ne samo algoritama, nego i poslovnih procesa i ishoda. Te bi revizije treble biti kontinuirane, kroz razvoj, izradu prototipa i skaliranu primjenu.
Sudjelujte u ekosustavu odgovorne primjene umjetne inteligencije
Gotovo 90 posto kompanija koje su sudjelovale u BCG-ovoj DAI anketi aktivno doprinose RAI konzorcijima i radnim grupama. To je smislena strategija jer njeguje suradnju i dijeljenje iskustava najboljih praksi primjene RAI načela, što vam može omogućiti da se bolje pripremite za regulaciju UI i poboljšate performanse svojih UI sustava. Za vješte igrače, uključiti se znači steći prednost. Ekosustav odgovornih korisnika umjetne inteligencije raste, i postaje prirodno mjesto za pronalaženje partnera, kupaca, organizacija koje mogu pomoći razvoj i skaliranje primjena UI, kao i sprječavanje rizika u korištenju UI, te prepoznavanje društvenih problema koji mogu nastati zbog primjene UI.
Odgovorno korištenje umjetne inteligencije i stvaranje nove vrijednosti neraskidivo su povezani, što i prepoznaju mnoge kompanije. No, postoji velika razlika između želja i primjene, a nesigurnost zbog nadolazeće regulative ne smije biti isprika za odgodu primjene RAI načela. Da bi se umjetna inteligencija odgovorno koristila potrebno je vrijeme, ali kompanije koje ranije počnu mogu utjecati i na regulatorni okvir, umjesto da ih pravila preplave. Tim putem će unaprijediti primjene UI u svojem poslovanju i smanjiti mogućnost grešaka, čime će izgraditi povjerenje kod dionika i nastaviti rasti.