Algoritamski ili automatizovani sistemi za donošenje odluka zasnovani na veštačkoj inteligenciji se već koriste u svakom aspektu našeg privatnog i javnog života, kod virtuelnih asistenata, za personalizaciju sadržaja na mreži, zapošljavanja, upisa na fakultete, za prediktivi rad policije, kod određivanja uslova za socijalna davanja, odlučivanja u krivičnom pravosuđu, za vojne primene ili kontrole granica.
Kako je upotreba sistema veštačke inteligencije postala znatno rasprostranjenija poslednjih godina, porasla je i zabrinutost o tome kako ovi sistemi prikupljaju, koriste i obrađuju velike količine podataka. Da bi se pozabavili ovim problemima i založili se za etički i odgovoran razvoj i implementaciju veštačke inteligencije, nevladine organizacije (NVO), istraživački centri, privatne kompanije i vladine agencije objavile su više od 100 etičkih principa i smernica za veštačku inteligenciju.
Razlozi za zabrinutost
Od prodaje knjiga iz garaže Džefa Bezosa do globalnog konglomerata sa godišnjim prihodom koji prelazi 400 milijardi dolara (290 milijardi funti), veliki deo monstruoznog rasta Amazona podstaknut je podacima njegovih kupaca. Kontinuirana analiza podataka o kupcima određuje, između ostalog, cene, predložene kupovine i profitabilne proizvode sopstvene etikete koje Amazon bira da proizvodi. 200 miliona korisnika koji su članovi Amazon Prime ne samo da su najvredniji kupci korporacije već i njihov najbogatiji izvor korisničkih podataka. Što više Amazona i usluga koristite, bilo da je u pitanju aplikacija za kupovinu, Kindle e-čitač, zvono na vratima, Echo pametni zvučnik ili Prime striming servis – to više njihovi algoritmi mogu zaključiti kakva ste osoba i šta je najviše verovatno da ćete sledeće kupiti. Softver kompanije je toliko ostvaren u predviđanju da treće strane mogu angažovati njegove algoritme kao uslugu pod nazivom Forecast.

Slika 1: Način kako Amazon koristi podatke
Međutim, nisu svi zadovoljni ovim nivoom nadzora. Oni koji su zatražili svoje podatke od Amazona zapanjeni su ogromnom količinom informacija koje korisnici pružaju Amazonu, uključujući audio datoteke svaki put kada razgovaraju sa glasovnim asistentom, Alex-om.
Google, Facebook, Amazon su pod lupom regulatora. Prošle godine Amazon je kažnjen sa 886,6 miliona dolara (636 miliona funti) zbog obrade ličnih podataka kršenjem pravila EU o zaštiti podataka, na šta je naravno uputio žalbu. Nedavna istraga pokazala je probleme u privatnosti i bezbednosti kod ovog tehnološkog giganta.
Šta je zapravo pravičnost ili nepravičnost u veštačkoj inteligenciji?
Kada model veštačke inteligencije proizvede odgovor koji je odraz ljudske pristrasnosti, dešava se pristrasnost veštačke inteligencije. Naime, za treniranje modela veštačke inteligencije koriste se uobičajeno veliki skupovi podataka. Ako su podaci netačni, model postaje pristrasan jer on odlučuje na osnovu onoga što je naučio, a učio je na takvim podacima. Ako analiziramo situaciju malo dublje, alati veštačke inteligencije mogu imati tendenciju da pokazuju predrasude ili naklonost prema grupi ili grupama ljudi samo na osnovu pola, rase, roda ili godina starosti ako su im takvi podaci servirani.
Takođe, primena netačnih ili nepotpunih podataka će za rezultat imati pogrešna predviđanja modela veštačke inteligencije. Ove činjenice izazivaju ozbiljnu zabrinutost u okviru zajednice veštačke inteligencije i nameću pitanja koja se tiču etike. Koliko možemo da se oslonimo na takve sisteme? Podrazumeva se da netačnost podataka nije namerna ali time se ne smanjuje uticaj koji ovi podaci imaju na rezultate koje pruža veštačka inteligencija. Podaci koji se koriste za trening modela ne treba da diskriminišu nijednu grupu ili zajednicu pa je od velike važnosti izbor skupa podataka.
Jedan primer pristrasnog mašinskog učenja može biti softver istreniran da lakše prepozna belca ili belkinju nego pripadnike drugih etničkih grupa. Drugi primer pristrasnosti bilo bi korišćenje neispravnih podataka za treniranje bota za selekciju kandidata pa kao rezultat te greške bot favorizuje muškarce naspram žena pri selekciji savršenog kandidata za posao.
Google-ovi principi veštačke inteligencije
Google-ovi inženjeri su kreirali veliki broj okvira i biblioteka za veštačku inteligenciju kao rezultat mnogih postojećih projekata koje je kompanija izgradila za svoje proizvode i interne sisteme. Pošto su oni otvorenog koda, dalje je radila armija stručnjaka mašinskog učenja pa je otkriveno mnogo novih trendova za mašinsko učenje. Generalno, tempo inovacija u oblastima mašinskog učenja i veštačke inteligencije je zapanjujući. Imajući ovo na umu, Google je odlučio da objavi javno principe u vezi sa načinom na koji modeli veštačke inteligencije treba da se kreiraju i koriste. Oni su odlična smernica za odgovorno ponašanje i vredi ih istražiti. Ukratko, principi su:
Budite društveno korisni
Napredak u veštačkoj inteligenciji je transformativan i, kako se ta promena dešava, cilj je da se uzmu u obzir svi društveni i ekonomski faktori, i da se nastavi sa primenom veštačke inteligencije samo tamo gde ukupne verovatne koristi nadmašuju predvidive rizike i nedostatke.
Izbegavajte stvaranje ili jačanje nepravedne pristrasnosti
Pristrasnost se lako može uvući u bilo koji sistem. Veštačka inteligencija, posebno u slučajevima kada transformiše industriju, predstavlja priliku da se uklone postojeće pristrasnosti, kao i da se osigura da se nove ne pojave.
Pravite bezbedne modele i testirajte modele na bezbednost
Google nastavlja da razvija snažne bezbednosne prakse kako bi izbegao nenamernu štetu od veštačke inteligencije. Ovo uključuje razvoj tehnologija veštačke inteligencije u ograničenim okruženjima i kontinuirano praćenje njihovog rada nakon primene.
Budite odgovorni prema ljudima
Cilj je da se izgrade sistemi veštačke inteligencije koji su podložni odgovarajućem ljudskom upravljanju i kontroli. To znači da se uvek moraju obezbediti odgovarajuće mogućnosti za povratne informacije, žalbe i relevantna objašnjenja. Alati koji će ovo omogućiti biće vitalni deo ekosistema.
Uključite principe privatnosti u dizajn
Sistemi veštačke inteligencije moraju da sadrže mere zaštite koje obezbeđuju adekvatnu privatnost i informišu korisnike o tome kako će se njihovi podaci koristiti. Mogućnosti za obaveštenje i saglasnost treba da budu očigledne.
Podržavajte visoke standarde naučne izvrsnosti
Tehnološke inovacije su u svom najboljem izdanju kada se rade sa naučnom strogošću i posvećenošću, otvorenom istraživanju i saradnji. Ako veštačka inteligencija treba da pomogne u otključavanju znanja u kritičnim naučnim domenima, ona treba da teži visokim standardima naučne izvrsnosti koji se očekuju u tim oblastima.
Budite dostupni za upotrebu u skladu sa predloženim principima
Iako ova tačka može izgledati mali cilj, važno je naglasiti da principi ne stoje sami, niti su samo za ljude koji grade sisteme. Oni takođe imaju za cilj da daju smernice o tome kako se sistemi koji su izgrađeni mogu koristiti. Dobro je imati na umu da neko može da koristi vaše sisteme na način na koji vi niste nameravali, i zato, je dobro imati skup principa i za korisnike!

Slika 2: ChatGPT je jedna od aplikacija veštačke inteligencije sa vrlo brzim napredkom
Prihvatajući ove principe kreiraćemo i koristiti etički prihvatljive modele veštačke inteligencije i biti svesni ako neki model to nije.
Za kraj ovog bloga, razmislimo zajedno, da li je ChatGPT, vrlo popularan među studentima, primer pristrasnosti u svetu veštačke inteligencije? Isprobajte ga na pristrasnost!
Autor teksta:
dr Miroslava Jordović Pavlović, prof.str.studija
Akademija strukovnih studija Zapadna Srbija-Odsek Užice