Izvor: Umjetna inteligencija u obrazovanju – edukativni priručnik o primjeni umjetne inteligencije u učenju i poučavanju za učitelje, nastavnike i stručne suradnike u školama (Udruga Suradnici u učenju, Agencija za elektroničke medije i Ured UNICEF-a za Hrvatsku, Zagreb, 2024.)
Korišćenje veštačke inteligencije u obrazovanju praćeno je nizom etičkih problema, kao što su pitanja privatnosti i bezbijednosti, potencijalne pristrasnosti u algoritmima, kao i mogućnost zamjene nastavnika automatizacijom procesa podučavanja. Stoga je važno obezbijediti da se vještačka inteligencija koristi na odgovoran i etički način u obrazovnim okruženjima.
Ovim poglavljem [iz gore pomenutog priručnika, op. ur.] želimo podići nivo svijesti o rizicima povezanim sa vještačkom inteligencijom, podstaći kritičke poglede na vještačku inteligenciju i podstaći uravnoteženo razmišljanje o konkretnim prednostima i mogućnostima koje donosi vještačka inteligencija, kao što je predloženo u UNICEF-ovom izvještaju “Perspektive adolescenata o vještačkoj inteligenciji” (Adolescent Perspectives on Artificial Intelligence). UNESCO u “Preporukama za vještačku inteligenciju” (UNESCO Recommendation on the Ethics of Artificial Intelligence, 2021) ističe da vještačka inteligencija pokreće nove vrste etičkih pitanja, uključujući uticaj vještačke inteligencije na obrazovanje, čime se stvaraju novi etički izazovi zbog potencijala algoritama vještačke inteligencije da pogoršaju već postojeće pristrasnosti i diskriminaciju. Prepoznavanje obrazaca i automatizacija odluka karakteristične su aktivnosti vještačke inteligencije koje u procesu razvoja sistema vještačke inteligencije mogu dovesti do pristrasnosti u načinu na koji se obrasci prepoznaju i nepravednosti u načinu na koji se odluke automatizuju.
Nekoliko primjera etičkih izazova
Pojasnimo neke od etičkih izazova vještačke inteligencije koji su već primijećeni i dokumentovani u raznim istraživanjima i člancima, a prepoznati su i kao rizici u UNICEF-ovom izvještaju. Vještačka inteligencija nije čovjek. Iako odgovori koje dobijamo ili razgovori koje vodimo sa sistemima vještačke inteligencije mogu stvoriti iluziju komunikacije sa živom osobom, sa druge strane je računar koji ne može da osjeća, nije empatičan i nema inteligenciju kao što je imaju ljudi.
Pristrasnost (bias) je tendencija ka određenom stavu ili mišljenju, često bez obzira na dokaze ili argumente. Može biti inherentna predispozicija algoritma ili modela da donosi pogrešne ili neobjektivne zaključke. Na primjer, odbacivanje ženskih kandidatkinja za neki posao jer su prethodni zaposleni bili većinom muškarci, pa baza podataka koja je korišćena za obučavanje vještačke inteligencije sadrži uglavnom podatke o muškim zaposlenima. Pristrasnost je primjećena i u programima koji pomoću vještačke inteligencije stvaraju slike – direktori su uvek prikazani kao muške osobe, a čistači kao ženske osobe.
Zaštita podataka je proces obezbjeđivanja da se podaci čuvaju na siguran način kako bi se spriječilo neovlašćeno pristupanje ili zloupotreba. Prilikom stvaranja programa vještačke inteligencije koriste se velike baze podataka iz različitih izvora, tako da postoji mogućnost zloupotrebe ličnih podataka dobijenih na nelegalan način (prikupljeni su i korišćeni bez znanja i saglasnosti osoba na koje se odnose). Na primjer, dijeljenjem učeničkih radova ili podataka prikupljenih istraživanjem, tj. stavljanjem tuđih podataka i informacija u sisteme vještačke inteligencije, možemo prekršiti zakon o zaštiti ličnih podataka. Takođe, postoji mogućnost da bez dozvole dijelimo podatke koje sistem vještačke inteligencije može iskoristiti za dalji razvoj, pa se tako ti sadržaji mogu pojaviti u odgovorima koje sistem daje potpuno nevezano za naš rad. Uspješnost sistema vještačke inteligencije u analiziranju i vizualizaciji podataka može nas podstaći da nesmotreno u sistem unesemo podatke koje ne bismo smjeli, na primer prepoznatljive karakteristike naših učenika, poslovne tajne ili podatke koje smo prikupili uz dozvolu koja ne obuhvata korišćenje vještačke inteligencije.
Podatkovizacija (datification) se odnosi na način na koji se sve više aspekata naših života, aktivnosti i okruženja pretvara u digitalne podatke, te na proces preoblikovanja podataka u format pogodan za dalju analizu. Računarski sistemi rade sa podacima u digitalnom obliku, pa je pitanje mogu li se svi aspekti naših života preoblikovati u podatke i na koji način se ti podaci dalje koriste za donošenje odluka u sistemima vještačke inteligencije. Na primjer, način na koji vještačka inteligencija prepoznaje emocije.
Sistemi vještačke inteligencije često se koriste za predviđanja (predictions) budućih rezultata ili događaja, kao što su uspjeh na ispitima, napuštanje školovanja, rizik od oboljenja, itd. Pouzdanost i tačnost takvih predviđanja zavisi od algoritama i skupova podataka na kojima su sistemi vještačke inteligencije trenirani. Na primjer, ako su predviđanja osmišljena na osnovu podataka o učenicima iz američkih škola, vjerovatno taj sistem neće davati dobra predviđanja za učenike iz škola u Srbiji ili Hrvatskoj.
Personalizacija i prilagođavanje (adaptivity) su učestali pojmovi kojima se opisuju mogućnosti sistema vještačke inteligencije, a odnose se na sposobnost sistema da prati korisničke podatke i postupke (npr. izbor sadržaja, tačnost rešavanja zadataka i sl.) i na osnovu prikupljenih podataka predlaže obrazovne sadržaje i prilagođava nivo složenosti zadataka. Na taj način se stvara rizik zatvaranja u informacijski balon, gdje nam sistem servira samo one sadržaje koji su u skladu sa našim dotadašnjim postupcima, što ograničava slobodan izbor i istraživanje. Prilagođavanje složenosti zadataka koje učenici dobijaju može dovesti do blokade napredovanja, jer učenici ne dobijaju priliku da rješavaju teže zadatke koji su van okvira koji sistem vještačke inteligencije prepoznaje.
Vještačka inteligencija griješi (halucinira). Sistemi vještačke inteligencije su osmišljeni na modelima vjerovatnoće i statistike, pa kao takvi daju odgovore koji su najvjerovatniji za dati kontekst. Stoga se može desiti da, u nedostatku tačnog odgovora, sistem ponudi potpuno netačan odgovor, čak tvrdeći da je upravo taj odgovor tačan. Na primjer, često se dešavaju greške u matematici, srpskoj ili hrvatskoj istoriji, itd. Ako neko područje nije pokriveno skupom podataka na kojem je sistem treniran, greške će biti učestalije. Treba imati na umu da je većina današnjih sistema vještačke inteligencije trenirana na sadržajima sa engleskog govornog područja, pa sistemi češće griješe kada je reč o sadržajima dostupnim na drugim jezicima.
Vještački stvorene lažne slike i videozapisi su digitalno manipulirani medijski sadržaji koji su namjerno stvoreni kako bi prevarili ili obmanuli gledaoce da vjeruju kako su stvarni. Vještačka inteligencija se pokazala kao dobar alat za stvaranje uvjerljivih falsifikata, koji se sve češće koriste za dovođenje ljudi u zabludu. Na primjer, korišćenje slika sa društvenih mreža za kreiranje slika razodene osobe ili seksualno eksplicitnih sadržaja, koji se koriste za elektronsko nasilje i ucjenjivanje. Sistemi vještačke inteligencije vrlo brzo su našli primjenu u stvaranju lažnih profila i objava na društvenim mrežama, sa ciljem zavođenja i iskorišćavanja djece i mladih.
Većina sistema vještačke inteligencije koji su trenutno dostupni nije osmišljena za djecu i mlade. Starosna granica za njihovo korišćenje je najčešće 18 godina, u nekim zemljama 16, a u posebnim slučajevima, uz pisanu saglasnost roditelja, 13 godina. Međutim, sigurnosni mehanizmi tih programa nisu dovoljno dobro postavljeni, tako da maloljetnici često imaju pristup sistemima vještačke inteligencije bez adekvatne zaštite ili informacija, izlažući se tako raznim rizicima i neprimjerenim sadržajima. Još uvijek nisu postavljene jasne granice i ograničenja koja bi omogućila sigurno korišćenje sistema vještačke inteligencije od strane djece i mladih.
Izvor: Medijskapismenost.hr