Close Menu
Čitaj između redova
    What's Hot

    Premijera podkasta “Digitalni trougao”: AI – dobar sluga ili zao gospodar?

    18/05/2025

    Albanska vlada na godinu zabranila pristup TikToku

    07/03/2025

    Pogrešne odluke Marka Z. i kakve to veze ima sa nama?

    04/02/2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) YouTube
    Čitaj između redova
    • Početna
    • Aktuelnosti
    • Aktivnosti
    • Biblioteka
    • Crnogorski
      • English
      • Crnogorski
    • MEDIJSKA PISMENOST
      • Aktuelnosti
      • Edukativni materijal
      • Blog
      • Zagovaranje
    Čitaj između redova
    Home»Medijska pismenost»Blog»Etički izazovi vještačke inteligencije
    Blog

    Etički izazovi vještačke inteligencije

    adminBy admin19/07/2024No Comments6 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr WhatsApp VKontakte Email
    Foto: Freepik

    Izvor: Umjetna inteligencija u obrazovanju – edukativni priručnik o primjeni umjetne inteligencije u učenju i poučavanju za učitelje, nastavnike i stručne suradnike u školama (Udruga Suradnici u učenju, Agencija za elektroničke medije i Ured UNICEF-a za Hrvatsku, Zagreb, 2024.)

    Korišćenje veštačke inteligencije u obrazovanju praćeno je nizom etičkih problema, kao što su pitanja privatnosti i bezbijednosti, potencijalne pristrasnosti u algoritmima, kao i mogućnost zamjene nastavnika automatizacijom procesa podučavanja. Stoga je važno obezbijediti da se vještačka inteligencija koristi na odgovoran i etički način u obrazovnim okruženjima.

    Ovim poglavljem [iz gore pomenutog priručnika, op. ur.] želimo podići nivo svijesti o rizicima povezanim sa vještačkom inteligencijom, podstaći kritičke poglede na vještačku inteligenciju i podstaći uravnoteženo razmišljanje o konkretnim prednostima i mogućnostima koje donosi vještačka inteligencija, kao što je predloženo u UNICEF-ovom izvještaju “Perspektive adolescenata o vještačkoj inteligenciji” (Adolescent Perspectives on Artificial Intelligence). UNESCO u “Preporukama za vještačku inteligenciju” (UNESCO Recommendation on the Ethics of Artificial Intelligence, 2021) ističe da vještačka inteligencija pokreće nove vrste etičkih pitanja, uključujući uticaj vještačke inteligencije na obrazovanje, čime se stvaraju novi etički izazovi zbog potencijala algoritama vještačke inteligencije da pogoršaju već postojeće pristrasnosti i diskriminaciju. Prepoznavanje obrazaca i automatizacija odluka karakteristične su aktivnosti vještačke inteligencije koje u procesu razvoja sistema vještačke inteligencije mogu dovesti do pristrasnosti u načinu na koji se obrasci prepoznaju i nepravednosti u načinu na koji se odluke automatizuju.

    Nekoliko primjera etičkih izazova 

    Pojasnimo neke od etičkih izazova vještačke inteligencije koji su već primijećeni i dokumentovani u raznim istraživanjima i člancima, a prepoznati su i kao rizici u UNICEF-ovom izvještaju. Vještačka inteligencija nije čovjek. Iako odgovori koje dobijamo ili razgovori koje vodimo sa sistemima vještačke inteligencije mogu stvoriti iluziju komunikacije sa živom osobom, sa druge strane je računar koji ne može da osjeća, nije empatičan i nema inteligenciju kao što je imaju ljudi.

    Pristrasnost (bias) je tendencija ka određenom stavu ili mišljenju, često bez obzira na dokaze ili argumente. Može biti inherentna predispozicija algoritma ili modela da donosi pogrešne ili neobjektivne zaključke. Na primjer, odbacivanje ženskih kandidatkinja za neki posao jer su prethodni zaposleni bili većinom muškarci, pa baza podataka koja je korišćena za obučavanje vještačke inteligencije sadrži uglavnom podatke o muškim zaposlenima. Pristrasnost je primjećena i u programima koji pomoću vještačke inteligencije stvaraju slike – direktori su uvek prikazani kao muške osobe, a čistači kao ženske osobe.

    Zaštita podataka je proces obezbjeđivanja da se podaci čuvaju na siguran način kako bi se spriječilo neovlašćeno pristupanje ili zloupotreba. Prilikom stvaranja programa vještačke inteligencije koriste se velike baze podataka iz različitih izvora, tako da postoji mogućnost zloupotrebe ličnih podataka dobijenih na nelegalan način (prikupljeni su i korišćeni bez znanja i saglasnosti osoba na koje se odnose). Na primjer, dijeljenjem učeničkih radova ili podataka prikupljenih istraživanjem, tj. stavljanjem tuđih podataka i informacija u sisteme vještačke inteligencije, možemo prekršiti zakon o zaštiti ličnih podataka. Takođe, postoji mogućnost da bez dozvole dijelimo podatke koje sistem vještačke inteligencije može iskoristiti za dalji razvoj, pa se tako ti sadržaji mogu pojaviti u odgovorima koje sistem daje potpuno nevezano za naš rad. Uspješnost sistema vještačke inteligencije u analiziranju i vizualizaciji podataka može nas podstaći da nesmotreno u sistem unesemo podatke koje ne bismo smjeli, na primer prepoznatljive karakteristike naših učenika, poslovne tajne ili podatke koje smo prikupili uz dozvolu koja ne obuhvata korišćenje vještačke inteligencije.

    Podatkovizacija (datification) se odnosi na način na koji se sve više aspekata naših života, aktivnosti i okruženja pretvara u digitalne podatke, te na proces preoblikovanja podataka u format pogodan za dalju analizu. Računarski sistemi rade sa podacima u digitalnom obliku, pa je pitanje mogu li se svi aspekti naših života preoblikovati u podatke i na koji način se ti podaci dalje koriste za donošenje odluka u sistemima vještačke inteligencije. Na primjer, način na koji vještačka inteligencija prepoznaje emocije.

    Sistemi vještačke inteligencije često se koriste za predviđanja (predictions) budućih rezultata ili događaja, kao što su uspjeh na ispitima, napuštanje školovanja, rizik od oboljenja, itd. Pouzdanost i tačnost takvih predviđanja zavisi od algoritama i skupova podataka na kojima su sistemi vještačke inteligencije trenirani. Na primjer, ako su predviđanja osmišljena na osnovu podataka o učenicima iz američkih škola, vjerovatno taj sistem neće davati dobra predviđanja za učenike iz škola u Srbiji ili Hrvatskoj.

    Personalizacija i prilagođavanje (adaptivity) su učestali pojmovi kojima se opisuju mogućnosti sistema vještačke inteligencije, a odnose se na sposobnost sistema da prati korisničke podatke i postupke (npr. izbor sadržaja, tačnost rešavanja zadataka i sl.) i na osnovu prikupljenih podataka predlaže obrazovne sadržaje i prilagođava nivo složenosti zadataka. Na taj način se stvara rizik zatvaranja u informacijski balon, gdje nam sistem servira samo one sadržaje koji su u skladu sa našim dotadašnjim postupcima, što ograničava slobodan izbor i istraživanje. Prilagođavanje složenosti zadataka koje učenici dobijaju može dovesti do blokade napredovanja, jer učenici ne dobijaju priliku da rješavaju teže zadatke koji su van okvira koji sistem vještačke inteligencije prepoznaje.

    Vještačka inteligencija griješi (halucinira). Sistemi vještačke inteligencije su osmišljeni na modelima vjerovatnoće i statistike, pa kao takvi daju odgovore koji su najvjerovatniji za dati kontekst. Stoga se može desiti da, u nedostatku tačnog odgovora, sistem ponudi potpuno netačan odgovor, čak tvrdeći da je upravo taj odgovor tačan. Na primjer, često se dešavaju greške u matematici, srpskoj ili hrvatskoj istoriji, itd. Ako neko područje nije pokriveno skupom podataka na kojem je sistem treniran, greške će biti učestalije. Treba imati na umu da je većina današnjih sistema vještačke inteligencije trenirana na sadržajima sa engleskog govornog područja, pa sistemi češće griješe kada je reč o sadržajima dostupnim na drugim jezicima.

    Vještački stvorene lažne slike i videozapisi su digitalno manipulirani medijski sadržaji koji su namjerno stvoreni kako bi prevarili ili obmanuli gledaoce da vjeruju kako su stvarni. Vještačka inteligencija se pokazala kao dobar alat za stvaranje uvjerljivih falsifikata, koji se sve češće koriste za dovođenje ljudi u zabludu. Na primjer, korišćenje slika sa društvenih mreža za kreiranje slika razodene osobe ili seksualno eksplicitnih sadržaja, koji se koriste za elektronsko nasilje i ucjenjivanje. Sistemi vještačke inteligencije vrlo brzo su našli primjenu u stvaranju lažnih profila i objava na društvenim mrežama, sa ciljem zavođenja i iskorišćavanja djece i mladih.

    Većina sistema vještačke inteligencije koji su trenutno dostupni nije osmišljena za djecu i mlade. Starosna granica za njihovo korišćenje je najčešće 18 godina, u nekim zemljama 16, a u posebnim slučajevima, uz pisanu saglasnost roditelja, 13 godina. Međutim, sigurnosni mehanizmi tih programa nisu dovoljno dobro postavljeni, tako da maloljetnici često imaju pristup sistemima vještačke inteligencije bez adekvatne zaštite ili informacija, izlažući se tako raznim rizicima i neprimjerenim sadržajima. Još uvijek nisu postavljene jasne granice i ograničenja koja bi omogućila sigurno korišćenje sistema vještačke inteligencije od strane djece i mladih.

    Izvor: Medijskapismenost.hr

    Previous ArticleBorba sa uticajima u novinarstvu: Održana regionalna konferencija u Sarajevu
    Next Article Jlian Assange je slobodan– Šta to znači za slobodu medija
    admin
    • Website

    Related Posts

    Premijera podkasta “Digitalni trougao”: AI – dobar sluga ili zao gospodar?

    18/05/2025

    ChatGPT i dalje pokreće debatu: Šta nam donosi era AI-ja?

    26/12/2024

    KAKO POLAKO OKREĆEMO LEĐA VIJESTIMA?

    23/12/2024

    Kome ostaju tradicionalni mediji?

    29/09/2024
    Najnovije
    Aktuelnosti
    By Vesna Rajkovic18/05/2025

    Premijera podkasta “Digitalni trougao”: AI – dobar sluga ili zao gospodar?

    By Vesna Rajkovic18/05/2025

    Lansiranje ChatGPT aplikacije zasnovane na vještačkoj inteligenciji (AI) u opštu upotrebu omogućilo nam je neposredno…

    Albanska vlada na godinu zabranila pristup TikToku

    07/03/2025

    Pogrešne odluke Marka Z. i kakve to veze ima sa nama?

    04/02/2025

    Napad na novinarku Anu Raičković – Kako do pravde

    30/12/2024

    Impressum
    Čitaj između redova
    www.citajizmedjuredova.me

    Glavna urednica: Vesna Rajković Nenadić
    Osnivač: Nevladino udruženje Institut za medije Crne Gore

    Adresa: Bulevar Svetog Petra Cetinjskog br.9, 81.000 Podgorica

    mejl: imcg@mminstitute.org
    telefon:+382 20 202 175
    PIB:02321416

    Type above and press Enter to search. Press Esc to cancel.