REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Vol. 16, No. 2, pp. 221–237, June 2023 ETIKA UMETNE INTELIGENCE V IZOBRAŽEVANJU Potrjeno/Accepted 10. 10. 2022 Objavljeno/Published 15. 6. 2023 SMILJANA GARTNER & MARJAN KRAŠNA Univerza v Mariboru, Filozofska fakulteta, Maribor, Slovenija KORESPONDENČNI AVTOR/CORRESPONDING AUTHOR smiljana.gartner@um.si Ključne besede: etika, umetna inteligenca, izobraževanje, kodeksi, odnos Keywords: ethics, artificial intelligence, education, codes, attitude UDK/UDC: [17:004.89]:37 Izvleček/Abstract Pokovidno obdobje je razvoj in uporabo umetne inteligence (UI) pospešilo v različnih oblikah in na različne načine. Spremembe se ne dogajajo samo v industriji, temveč je vse večja želja ali zahteva, da se vpelje tudi v izobraževanje. Toda digitalna pismenost vseh deležnikov v izobraževanju mora vključevati zraven vedenja in veščin tudi etiko. V članku predstavimo etične kodekse, povezane z umetno inteligenco, nato analiziramo štiri osnovne gradnike področja etike UI v izobraževanju (avtonomnost, zasebnost, zaupanje in odgovornost), saj je razumevanje konceptov pogoj za delovanje v skladu z njimi in za njihovo uporabo UI v izobraževanju. Ethics of Artificial Intelligence in Education The post-COVID period drastically accelerated the development and increased use of artificial intelligence. These changes have not been limited to industry but have begun to be introduced into education. The digital literacy of all involved in education must also incorporate ethical considerations related to the application of AI in education. The article presents the ethical codes of AI and analyse the four basic building blocks of an ethical attitude towards AI in education (autonomy, privacy, trust and responsibility). Understanding the concepts of AI and their ethical implications is a condition for acting in accordance with them and for their introduction in education. DOI https://doi.org/10.18690/rei.16.2.2864 Besedilo / Text © 2022 Avtor(ji) / The Author(s) To delo je objavljeno pod licenco Creative Commons CC BY Priznanje avtorstva 4.0 Mednarodna. Uporabnikom je dovoljeno tako nekomercialno kot tudi komercialno reproduciranje, distribuiranje, dajanje v najem, javna priobčitev in predelava avtorskega dela, pod pogojem, da navedejo avtorja izvirnega dela. (https://creativecommons.org/licenses/by/4.0/). 222 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Uvod Individuum, ki ima dostop do informacij, razumevanje, zmožnost ocenitve informacij ter zmožnost delovanja v skladu z oceno, je največkrat v prednosti pred ostalimi člani družbe. V Evropi srednjega veka je latinščina kot lingua franca omogočala eliti in cerkvi pridobivanje in ohranjanje moči, saj so imeli dostop do informacij. V 19. stoletju je tehnološki razvoj in »osvajanje« sveta omogočalo pridobivanje in ohranjanje moči. Posledica globalizacije je, med drugim, tudi vpeljevanje angleščine kot lingue franca sveta, kar pomeni, da je za pridobivanje in ohranjanje moči v sodobnem svetu znanje in razumevanje angleščine nujno. Zavedanje tega se kaže v vpeljavi angleščine kot prvega tujega jezika že v prvo triado osnovne šole. Kaj pa prihodnost? Post-COVID obdobje nam je prineslo razrast umetne inteligence (UI) v vse pore našega življenja, tudi na področje izobraževanja. Zato, če spekuliramo, bodo posamezniki z dostopom do informacij o UI, s poznavanjem delovanja UI, z zmožnostjo ustvarjanja UI, z razumevanjem in zmožnostjo ocenitve teh informacij ter delovanjem v skladu z oceno, v prednosti oziroma bodo nosilci aktivne vloge pri oblikovanju družbe. Raziskava Saliu idr. je pokazala, da skoraj polovica otrok meni, da vedo o tehnologiji več kot njihovi starši; staršev, ki menijo enako, je več kot tretjina. Prav toliko staršev meni “da niso sposobni uporabljati programske opreme, s katero bi zaščitili otroka pred krmarjenjem po njemu škodljivih spletnih straneh”. (Saliu H., 2022, str. 158) Preoblikovanje družbe je kompleksni proces, ki se prične pri mladostnikih, ki niso indoktrinirano zavrti in so sposobni sprejemati nove ideje in jih ponotranjiti. Kar stari ne poznajo, starejši gledajo z velikim nezaupanjem in celo strahom, mladina uporablja v vsakdanjem življenju, otroci pa sprejemajo kot dejstvo življenja. Uporabe UI ne bomo mogli odstraniti iz našega življenja, lahko pa jo odpremo in razgalimo že v osnovni šoli in tako ozavestimo otroke na njene prednosti in potencialne slabosti. V prvem delu članka se tako dotaknemo prednosti vpeljave UI v izobraževanje, v drugem delu predstavimo in problematiziramo osnovna etična vodila, ki nam omilijo zlorabo UI. V tretjem, zadnjem, delu analiziramo in upravičujemo štiri osnovne gradnike, ki bi jih morali nujno ponotranjiti, da bi bila zloraba UI minimalna. Ugotavljamo, da je omenjeno mogoče doseči zgolj z učinkovitim pristopom v izobraževanju. S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 223 Umetna inteligenca in izobraževanje Če sprejmemo opredelitev po OECD, je sistem umetne inteligence zasnovan na strojni opremi, ki omogoča, za nabor prehodno definiranih ciljev, zasnovo napovedi, priporočil ali sprejemanje odločitev z vplivom na realna ali virtualna okolja. Sistemi UI (algoritmi in podatki) so zasnovani z variabilno stopnjo samostojnega delovanja (OECD AI Principles, 2019). Sistem na podlagi UI se ukvarja s simulacijo inteligentnega obnašanja v računalnikih in njihovo zmožnostjo, da posnema in (v idealnih pogojih oz. razmerah) izboljšuje človeško vedenje. Ali je odlika UI izboljševanje človeškega vedenja in lajšanje človeškega delovanja? Glede na zgoraj zapisane zmožnosti vpeljave in uporabe UI v izobraževanju, prav gotovo. Tudi R. Carpenter (Cellan-Jones, 2014) ustvarjalec Cleverbot-a, je v to prepričan, saj meni, da bo človek obdržal kontrolo nad tehnologijo primerno dolgo in da bodo ljudje dojeli potencial UI za reševanje svetovnih problemov. Apliciranje UI v izobraževanje lahko podpre vse deležnike. Akgun in Greenhow (2022) navajata: (i) da je UI lahko podpora pri navodilih, pri vodenju skupine z različnimi sposobnostmi; (ii) osebni sistemi učenja lahko pomagajo učečim, saj nudijo takojšnjo povratno informacijo o pisnih izdelkih, ugotovijo, kje ima učeči primanjkljaj ter mu ponudijo dodatne vsebine za razlago; (iii) avtomatski sistemi ocenjevanja lahko razbremenijo profesorje, pri čemer ne gre zgolj za preverjanje odgovorov resnično neresnično, temveč so vključena vodila za izboljšanje, za ponovno pisanje (EdX, Gradescope itd.); (iv) prepoznavanje obrazov, lahko v izobraževanju razumemo kot na učečega osredotočen pedagoški proces (spremljanje obrazne mimike nakazuje padec koncentracije, zmedenost, nerazumevanje; obveščeni učitelj lahko intervenira, popravi razpoloženje in izboljša motivacijo); (v) napovedna analitika nudi učitelju informacije glede učenčevega »gibanja« ocen oz. podatke, če kje prežijo nevarnosti glede (ne)uspeha učenca ter mu pomaga; (vi) družbena oz. družabna omrežja lahko povežejo vse deležnike ter tako pospešijo aktivno učenje in pomagajo pri razvoju socialno emocionalnih veščin. 224 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Našteli smo šest primerov, ki vključujejo na učečega osredinjen pouk, motivacijo učitelja, da individualizira pouk ter tako pomaga učečemu, ki potrebuje dodatno motivacijo, dodatno razlago ali pomoč. Ker je razbremenjen nekaterih dejavnosti, ki jih lahko opravi podporni sistem UI, mu tako ostane čas za primarno opravilo. V izobraževanju lahko prilagodi učenje, poveže in ustvari inovativna učna gradiva, izvaja tutorstvo, pomaga učečim s posebnimi potrebami, pomaga učitelju pri ovrednotenju učečih, učečim nudi dostop do učnih vsebin in s pomočjo prevajanja med jeziki premosti jezikovne prepreke (Pesek, Nosović, & Krašna, 2022). Ali omenjeni elementi uporabe UI v izobraževanju predstavljajo kakršnokoli prednost pri dejanskem izvajanju učnega procesa? Kaj je naloga umetne inteligence? Ali je objektivna, nevtralna, nepristranska, poštena, glede na to, da je tehnologija? Vzemimo primer noža, ostrina je njegova odlika (uporabnost) in hiba (zloraba). Tako je tudi z UI. Znanstveniki in podjetniki svarijo že pred samo človeško zlorabo UI, nekateri pa gredo še dlje. S. Hawking je svaril, da lahko razvoj splošne UI pomeni konec človeštva, saj se bo osamosvojila in samo-preoblikovala. Človeštvo, ki je omejeno s počasno biološko evolucijo temu ne bo moglo več parirat. E. Musk trdi, da večina ljudi nima predstave, kako hitro se razvija in napreduje UI, kar pomeni veliko nevarnost v naslednjih petih, največ desetih letih. Pa vendar, če je UI še vedno orodje, ki ga ustvarja, kontrolira in uporablja človek in ni nevarnost sama po sebi (Brooks, 2014) (Lanier, 2014), pomeni, da v primeru škodovanja UI človeštvu izhaja dvoje: a.) da potrebujemo omejitve in zamejitve ter vodila tudi za etično uporabo UI in b.) da je potrebno ljudi izobraziti. V nadaljevanju se bomo dotaknili obojega. Umetna inteligenca, etični kodeksi in smernice Zgoraj omenjenih šest načinov uporabe UI v izobraževanju je lahko prednost in uspešna uporaba sistema UI v izobraževanju, a zgolj v primeru klinično-sterilnega okolja, kjer je le-ta nevtralen, objektiven, popoln ter predstavlja prednost pred učiteljem, ki je lahko pri odločanju subjektiven in pristranski. V korist strojnega odločanja se običajno navaja argument, da se s tem iz postopka sprejemanja odločitev izloči predsodke, ki pri človeškem odločanju pomembno vplivajo na rezultat. Toda, iz tega, da je nekaj neodvisno od človeka, nujno ne sledi, da je objektivno in nevtralno, saj »algoritem je dober le toliko, koliko so dobri podatki, ki jih obdeluje, pri čemer lahko predsodke, ki se zrcalijo v zbranih podatkih posvoji do te mere, da postane obstoječi problem še večji« (Bregant, 2020, str. 6). S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 225 Izkazalo se je, da sistem UI, ki posamezniku presodi izbiro primernega poklica, odločitve sprejema na podlagi spola, pa tudi rase in regije. (Sijing & Lan, 2018) Predsodki, ki so zakoreninjeni v nas, vplivajo na (i) razvijanje, oblikovanje in odziv sistemov UI (algoritme), posledično (ii) odzivi sistemov UI vplivajo na njeno (samo- učenje UI) interpretacijo našega sveta, (iii) ponujena interpretacija je v naslednjem koraku sprejeta kot objektivno in nevtralno dejstvo, ki vpliva na (iv) zadnje korake uporabnika, tj. na njegov odziv, interpretacijo, odločanje in delovanje. Po Ogoli (2019) se ti, v naši družbi globoko zakoreninjeni predsodki, v slovarju UI imenujejo predsodki strojnega učenja, naloga razvijalcev in uporabnikov sistemov UI pa je, da jih prepoznajo in njihov vpliv čim bolj omejijo. (Bregant, 2020) Prvi korak za dobro in pravično družbo, ki vključuje UI, je lahko vzpostavitev kodeksov, načel, smernic, pravil in vodil, saj Grün poudarja, da ljudje za svoje etično ravnanje le-te potrebujemo. Pravo in zakon nista isto kot etika. Samo zakoni ne morejo jamčiti etičnega ravnanja in zakoni tudi ne pokrivajo celotnega spektra moralnih odločitev, ki jih morajo ljudje sprejemati. (Grün & Zeitz, 2011) Omejitve, vodila na področju etike in UI so že zapisana in zagotavljala naj bi etično ravnanje in vodila za dobro vseh vpletenih. To so tako dokumenti multinacionalk (Google, IBM; UNICEF, Facebook), kodeksi različnih družbenih skupin, aktivistov (Kampanja za ustavitev ubijalskih robotov), družbe ali zaprte skupine (Inštitut za prihodnje življenje). (Boddington, 2020) Prav tako so se regulacije lotile oblasti. Na ravni Evropske unije so sprejeti številni dokumenti: Krepitev zaupanja v UI, osredotočeno na človeka (COM, 2019 (168)) Etične smernice za zaupanja vredno UI (COM, 2019). Bela knjiga o umetni inteligenci – evropski pristop k odličnosti in zaupanju (Evropska komisija, 2020) in OECD načela UI. V Združenih državah Amerike je Ministrstvo za obrambo sprejelo Etična načela Umetne inteligence (DOD Adopts Ethical Principles for Artificial Intelligence, 2020) na Kitajskem pa so podporo Ministrstva za industrijo in informacijsko tehnologijo Belo knjigo o umetni inteligenci (CAICT The China Academy of Information and Communi, 2022) Tisto, kar bode v oči, je, da je vsem dokumentom skupno intenzivno izpostavljanje, izrazit trud nosilcev moči, da pri ljudeh vzpostavijo zaupanje v umetno inteligenco in v ohranjanje varnosti. Pri tem pa umanjka predstavitev, ali je vključitev dobra za družbo, za človeštvo, ali pa je dobra zgolj za nosilce moči? 226 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Podoba vprašanja si je zastavil Hagendorff (2020), ki je analiziral etične kodekse UI in ugotovil, da se skoraj v vseh kodeksih pojavljajo načela: odgovornosti, zasebnosti, poštenosti, transparentnosti in varnosti. V nobenem ne najdemo: skrbnosti, družbene odgovornosti, dobrobiti in pomoči. Še več, kodeksi ne pridejo niti blizu razmišljanju temam o: (ne)varnosti eksistence človeštva, v nobenem se ne dotaknemo vprašanja politične zlorabe sistemov UI, pa tudi o zlonamernosti splošne UI ni besede. Kodeksi (Hagendorff, 2020), se hitro spreminjajo in nakazuje na hitro spreminjanje področja, na nedoslednosti in včasih tudi na nerazumevanje družbe ali na nerazumevanje UI. Zato se vedno znova vzpostavlja vprašanje učinkovitosti kodeksov, ki se navezujejo na etiške vidike uporabe in vpeljave UI. Zakaj jih potem sprejemamo, zakaj bi jih morali sprejeti v izobraževalnih sistemih in zakaj bi morali biti pri sprejemanju previdni? Na splošno, sprejemamo jih, ker vsebujejo norme in pravila, vodila, smernice, včasih so celo razširjena na etično ravnanje in obnašanje članov skupnosti, ki sprejmejo etični kodeks, tako da posamezniku podajajo smernice za etično ravnanje in odločanje, saj so med zakonom in prostem odločanju. Na področju izobraževanja se kodeksi oblikujejo in uporabljajo na več nivojih: - Imamo deklaracijo Izobraževalne internacionale o poklicni etiki, ki ga je sprejel Sindikat vzgoje, izobraževanja, znanosti in kulture Slovenije leta 2002, ki deklarativno opredeljuje osebno in kolektivno poklicno odgovornost učiteljev in drugih zaposlenih v izobraževanju. - Imamo različne individualne kodekse etike in kodekse ravnanj, ki so jih pripravile šole in vrtci sami ali v okviru društev (npr. Kodeks etičnega ravnanja v vrtcih (Domicelj, Ferjančič, & Pavlovič, 1996), Kodeks sožitja (SMM-SCC, 2013)) - Imamo kodekse etike in kodekse ravnanj, ki so v uporabi na univerzah. Večina pregledanih in navedenih kodeksov se ne spreminja in ne prilagaja spremembam v družbi, nekateri so stari več kot dvajset let, kar pomeni, da nimajo vključene niti odgovorne rabe in uporabe osnovne informacijske-komunikacijske tehnologije. A vendarle postaja uporaba sistemov UI naš vsakdanjik. Zakaj potem kodeksi? V primeru UI je razlog ravno v hitrem razvijanju področja, s čimer se odpira veliko polje možnih zlorab in povzročanju namerne ali nenamerne škode živim bitjem in okolju. Pri tem je potrebno izpostaviti, da so kodeksi namenjeni ljudem, ne UI kot samostojni in avtonomni entiteti. S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 227 Pravice živali, etične kodekse za ohranitev okolja ipd. smo sprejeli, da zaščitimo živali, bitja, okolje, tudi ljudi pred zlorabami ljudi. Zato tudi v tem primeru govorimo predvsem o (samo)omejevanju človeka in ne tehnologije ter o zaščiti človeka pred človekom. Zakaj moramo biti pri sprejemanju le-teh previdni? Prvič, če so zapisana zelo podrobno, si lahko zaradi kontekstualne občutljivosti, nasprotujejo. Drugič, če so zapisana zelo ohlapno in splošno, je možnost interpretacij tako velika, da je vsako ravnanje mogoče upravičiti kot etično Tretjič, kodeks je sprejet zaradi zunanjih pritiskov, a je zgolj mrtva črka na papirju, ki je deležniki ne bi spoštovali ali pa niti poznali. Četrtič, lahko ga sprejemajo nosilci moči ali strokovnjaki, ki se ukvarjajo z določenim področjem, a niso strokovnjaki na področju etike. Na primer, če skupina tehnoloških milijarderjev iz Silikonske doline, ki so ozko specializirani strokovnjaki, sestavi kodeks, kjer je zapisano, da je potrebno delovati v dobro človeštva, ali imajo vedenje in občutek za pomen tega? (Boddington, 2020) Če strnemo, priprava kodeksov in delovanje v skladu z njimi ni najlažja naloga. Zraven tega, sami kodeksi, vodila, smernice, niso dovolj. Deontološki pristop (kodeksi z načeli, dolžnostmi, prepovedmi) ima težavo s ponotranjanjem vodil. McNamara, Smith in Murphy Hill so raziskovali vpliv etičnih načel zapisanih v kodeksu na etično odločanje inženirjev informatike in računalništva. Izkazalo se je, da je vpliv skoraj ničen. (Hagendorff, 2020) Rezultati raziskave o uporabi digitalnih medijev in spletne varnosti med osnovnošolci so pokazali, da učenci nujno potrebujejo ustrezno izobraževanje (Blažević I., 2022, str. 141). Če torej, želimo slediti razvoju UI in njene uporabe, se moramo samoomejiti podati moramo smernice z vrednotami, ki ohranjajo človeštvo in zavedati se moramo, da se bodo načela in vrednote spreminjale skupaj z razvojem UI ter posledično razvojem družbe. Če želimo, da bodo imeli kodeksi vsaj minimalni vpliv, da bomo UI pismeni ter tako izkoristili pozitivne elemente, ki nam jih UI ponuja, hkrati pa se bomo zavedali vseh nevarnosti, moramo po sprejetju etičnega kodeksa pričeti z UI opismenjevanjem. Etika umetne inteligence in izobraževanje UI v izobraževanju je v Sloveniji na začetku razvoja. Razumevanje, kako univerze pripravljajo študente, da bodo postali profesionalci UI ali pa da bodo vsaj razumeli delovanje UI je tako ključno za bodoče aktivne uporabnike UI. 228 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Zato je izobraževanje o UI in kritičnem mišljenju (razumevanje in ocenitev pridobljenih informacij) zelo pomembno. Žal, zastavljanje specifičnih etiških vprašanj in razprave o etičnih vidikih, ki se nanašajo na ustvarjanje UI za izobraževanje in uporabo UI v izobraževanju, capljajo daleč za drugimi področji. (Holmes, 2021) Glede na raziskave (Garrett, Beard, & Fiesler, 2020) so najpogostejše teme v učnih načrtih, ki so namenjeni etiki v UI (ali so zgolj del drugih učnih načrtov), zasebnost (podatki, ekonomija) ter predsodki in pristranskost (diskriminacija, poštenost, neenakost, seksizem). Predsodki in diskriminacija, nepravičnost, rasizem, seksizem, ksenofobija, zasebnost, avtonomnost in nadzor so etiški koncepti, kateri se neposredno ali posredno pojavljajo na področju razprave etike UI. V prispevku se bomo lotili konceptualne analize nekaterih, saj je razumevanje pojmov ključno za razumevanje zaščite oziroma za prepoznavanje nevarnosti izgube načel. Slika 1: Načela etike UI v izobraževanju Umetna inteligenca v izobraževanju in načelo zasebnosti Zasebnost je ena temeljnih človekovih pravic, ki razmeji posameznika od kolektiva. Mill (2003) je poskušal ločiti zasebno od javnega. Država sme posegati s prepovedmi in z zapovedmi dejanjem posameznikom v javni sferi zgolj in samo tedaj ko dejanja posameznika škodijo drugim v skupnosti. Zasebnost (informacij, prostora, odločitev) tako reguliramo s pravnimi normami, zakoni in etičnimi načeli, s tem pa razmejimo posameznika od kolektiva, tako da lahko razvije lasten Jaz, da se zaščiti pred zasmehovanjem ter kontrolira svoj ugled. Zasebnost postavi družbo napram moči države oziroma nosilcev moči in tako omogoči, v primeru zlorabe oblasti, možnost upora. S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 229 Načelo zasebnosti se pojavlja v vseh kodeksih, v pravnih aktih in predpisih podjetij, društev, institucij. Je načelo s katerim se uporabnik dandanes pogosto sreča (npr. v vrtcu in šoli starši oziroma skrbniki podpišejo izjavo, soglasje, o dovoljenem fotografiranju in o objavljanju fotografij otroka na različnih javno dostopnih družbenih omrežjih). Tudi če želimo uporabljati Google (Youtube,), Meta (Facebook), Instagram, WhatsApp odkljukamo soglasje s pravili tega podjetja, kjer je vključeno tudi načelo zasebnosti. Zaznane so naslednje težave: a) Z UI se meje zasebnim in javnim premikajo. Že pri osebnem partnerstvu bi se zdelo, če bi ji/mu morali posredovati informacije, kje smo bili vsako minuto, kaj smo delali, kaj vse smo pregledovali na spletnih straneh, kaj vse smo označili, da nam je/ni všeč, itd., da je to nedopustno poseganje v zasebnost in nespoštovanje. Če bi nam povsod namestili kamere, sledilnik na telefonu, bi se morda uprli, saj bi se nam zdel prevelik poseg v zasebnost in nespoštovanje ter nezaupanje. V primeru, da bi v izobraževanju vse te podatke zahtevalo vodstvo ali da bi učitelji zahtevali te podatke od učencev, bi se nam skoraj zagotovo zdelo nesprejemljivo, nespoštljivo in poseganje v zasebnost. Ali bi tujca povabili v svoje zasebne prostore, da se sprehodi po stanovanju kot smo v Covid času, pri delu na domu, naredili z vklapljanjem kamer? Na vse to pristanemo, ko dovolimo zbiranje podatkov oziroma t. i. rudarjenje podatkov. Pa vendar nismo odgovorni zgolj uporabniki, temveč tudi oblasti, zasebna podjetja, ki nam dajejo lažni občutek zasebnosti in varnosti, kar je Peter Swerle imenoval Zlata doba nadzora (Zuboff, 2019). V primeru, da učitelji uporabljajo družbena omrežja za komunikacijo z učenci, se lahko meje med zasebnim in javnim premikajo. Pogovor lahko poteka skozi ves dan, tudi zvečer, komunikacija je lahko manj formalna kot v izobraževalni instituciji, podatke, ki jih pridobi učitelj lahko vplivajo na njegov odnos, vrednotenje učencev in vice versa. Takšna zameglitev meje in hkrati možnost slednja zapisanemu in poslanemu, pa lahko pri tistih, ki se tega zavedajo, povzroči nerazkrivanje misli, idej, občutkov. Povzroči torej nezaupanje med učenci in učitelji, s čimer se izgublja dragocen odnos in možnost uspešnega dela ter osebnega razvoja obojih. 230 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION b) Vzemimo primer vpisa otroka na dejavnost. To storimo le preko aplikacije, ki zahteva številne podatke in nujno strinjanje s fotografiranjem in snemanjem otroka ter objavljanjem na družbenih omrežjih. Če tega ne storimo, aplikacija ne dovoli nadaljevanja in prijave. Vrtci, šole, društva (lahko) sprejmejo obvezno uporabo določenih aplikacij, s čimer formalno ali neformalno prisilijo učence in starše, da se odrečejo zasebnosti. c) Dokumenti o varovanju zasebnosti, ki jih podpišemo oz. odkljukamo, pomenijo prenos odgovornost uporabe in posredovanja podatkov na uporabnika (starše, skrbnike, zaposlene). Ni mogoče vedeti, da se posameznik zaveda, kaj pomeni strinjanje. Nekatera podjetja imajo toliko pravil, da jih redkokdo prebere, razume in deluje v skladu s svojim premislekom (npr. Google (Privacy Policy, 2022), spet druga imajo (npr. TokTok (Privacy Policy, 2021)) jasno zapisano, katere informacije, ki bi jih lahko razumeli kot zasebne, se zbirajo, pa to ne odvrne množice ljudi od uporabe. Morda je razlog ravno v nepoznavanju pomena načela zasebnosti in nepoznavanju načela avtonomnosti razlog za na videz nujno uporabo umetne inteligence v zahodnem sodobnem svetu. d) Z zbiranjem, analiziranjem in primerjanjem podatkov se gradijo dnevne rutine posameznika, predvidevanja o njegovem političnem, verskem in svetovnem nazoru. Še več, posameznike razvrščajo po določenih skupinah (npr. na zaupanja vredne državljane, na nezaupanja vredne državljane, na povprečne). Na področju zdravstva in zavarovanja razdeljevanje na podlagi prostočasnih dejavnosti, razvad in navad, na podlagi rase, četudi so imeli podobno diagnozo, spola ipd. (Borenstein & Howard, 2020) Na področju izobraževanja, bi tako lahko vodstvo ali učitelj z uporabo sistema UI in pridobljenimi podatki, učence in zaposlene razdelil na tiste, ki obetajo, na povprečne in na tiste, ki so pod povprečju. Pravzaprav to z nivojskim poukom že počnemo, kje je torej težava? Sistemi UI so sestavljeni iz algoritmov (interna logika delovanja) in podatkov (zelo velik učni vzorec za globoko učenje). V obeh se lahko pojavijo neželeni zapleti; algoritmi so lahko napačni, podatki pa so lahko pristransko izbrani. Tako pri vsaki uporabi UI lahko nastanejo napake. Prav tako nimamo nadzora, da se podatki, ki jih uporabimo za interakcijo s sistemi UI v resnici ne shranjujejo in nas klasificirajo. S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 231 Vemo, da korporacije na podlagi pridobljenih podatkov predvidevajo tudi politično usmeritev, svetovne nazore ipd. posameznikov, kar daje moč lastnikom teh informacij, da manipulirajo z ljudmi ter jim odrekajo neodvisno razmišljanje in samostojno odločanje. Zato Su in Zhong priporočata čim večjo uporabo problemskega pouka pri skupinskem projektnem delu, s čimer izboljšamo veščine kritičnega mišljenja, veščine reševanja problemov in razvoj socialnih kompetenc. (Zhong & Su, 2022) S tem pa prehajamo na naslednja koncepta, tj. načelo avtonomnosti in spoštovanja človekovega dostojanstva. Umetna inteligenca v izobraževanju in načelo avtonomnosti Po Kantu (2020) avtonomnost ne pomeni, da lahko delaš kar hočeš, pomeni biti razumen in v presojo vključiti druge moralne subjekte ter izključiti pristranskost. Avtonomna oseba izbira oz. sprejema odločitve o ravnanju (ima svobodo izbire) premišljeno, na podlagi samostojnega tehtanja razlogov za in proti (je neodvisna pri razmišljanju) in v svojem ravnanju uresničuje zgolj in samo premišljene odločitve (je razumna oziroma “se odloča in deluje v skladu z načeli ali na podlagi razlogov, ki bi prepričali vsako razumno bitje.”) (Klampfer, 2003). Njene želje in hotenja morajo biti avtentične, pristne, resnično naše in imamo za to dovolj dobre ter upravičene razloge, moramo imeti tudi zmožnost izpeljave in razumnost ter odsotnost pritiskov pri izbiri in delovanju. Predpogoj za navedeno pa so: dostopnost informacij, razumevanje informacij in sprejetje informacij. Zato sta že pred več kot dvajsetimi leti Aiken in Epstein (2000) zapisala, da je za zaščito skupnosti in človečnosti, za vsako ceno potrebno zaščititi človeško sposobnost reševanja problemov in razumnega razmišljanja. Tako sledi, da v primeru UI neosveščenosti ali v primeru manipuliranja in zavajanja uporabnikov, njihove želje in hotenja niso več avtentične, pristne in resnično njihove. Torej tudi odločitve niso avtonomne in jim ne moremo pripisati moralne odgovornosti, ki izhajajo iz avtonomnega odločanja. Umetna inteligenca v izobraževanju in spoštovanje človekovega dostojanstva Po Kantovi (2005) drugi formulaciji kategoričnega imperativa smo ljudje dolžni drug drugemu, da: 1.) Vedno ravnamo z drugimi kot s ciljem (zaključkom, koncem) na oz. po sebi. in 2.) Nikoli ne ravnamo z drugimi zgolj kot s sredstvom. 232 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Če nekdo ni podal prostovoljnega pristanka, ki bi bil sprejet po premisleku na podlagi njemu razumljivih informacij oziroma kot posledica avtonomnega odločanja, temveč je prostovoljni pristanek podan, ker je nekdo na nas namerno vplival, nas popredmetil, instrumentaliziral, z nami manipuliral in nas zavajal, potem je kršeno načelo spoštovanja človekovega dostojanstva ter načela avtonomije. »Nekateri raziskovalci menijo, da smo ljudje v dobi digitalnih tehnologij, ki jih s pridom uporabljamo, postali surovina, iz katere tehnološka podjetja naredijo konc ̌ni izdelek, to je napovedi o nas: kaj bomo kupili, kam bomo s ̌li, s kom se bomo druz ̌ili, kaj bomo delali, koga bomo volili itn.« (Bregant, 2020, str. 9) Postali smo torej sredstvo, kar pa ni nič neobičajnega in spornega. Učitelj je sredstvo učencem, da pridobijo vedenje, učenci so učitelju, da opravlja svoj poklic in pridobi plačilo. Težava nastane, če nas uporabijo zgolj kot sredstvo. V primeru, da se zbrani podatki prodajajo in uporabljajo tudi z namenom vplivanja na naše navade, običaje in želje ali celo spreminjanja, nas s tem uporabljajo zgolj kot sredstva, odvzamejo nam avtonomnost, kar pomeni, da ne spoštujejo človekovega dostojanstva, sočloveku ne priznavajo intrinzične vrednosti, tj. vrednosti same po sebi, temveč zgolj instrumentalno vrednost. S tem ustvarjajo monopol ne zgolj nad sedanjostjo človeštva, ampak tudi nad prihodnostjo, saj lahko s ciljnimi izdelki poljubno vplivajo na njihovo obnašanje in ga usmerjajo skladno in zgolj z lastnimi interesi. Umetna inteligenca v izobraževanju in načelo zaupanja Lepilo družbe, lepilo partnerske zveze je zaupanje in spoštovanje. Oboje pa je povezano z resnicoljubnostjo. Učenci in starši zaupajo informacijam, ki jim jih posredujejo učitelji, zaupajo trenerjem, da jim ne bodo škodovali ter da bodo delali v njihovo dobro. Učitelji zaupajo, da je oddano nalogo pripravil učenec sam, zaupa, da je korektno navajal vire, zaupa, da mu učenci ali starši ne bodo namerno škodovali. Vodstvo šole zaupa učitelju, da je pošten in nediskriminatoren ter skrben. V situaciji, ko temu ni tako, je zaupanje ogroženo. Brez omenjenih temeljev, zaupanja in spoštovanja, pa družba razpada. Zato je zaupanje v UI osrednja težnja nosilcev moči, o čemer smo govorili v prvem delu tega prispevka. Tudi zato, ker je bilo napak, diskriminacij, nepoštenosti, ki izhajajo iz uporabe umetne inteligence, veliko. Možnosti zlorab pa je še toliko več. Na primer, sistem UI je pri obdelavi naravnega jezika že tako napredoval, da ga ne razlikujemo od osebnega asistenta. S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 233 Če ne moremo ločiti, kdo nas kliče, sistem UI ali dejanska oseba, se polje možnih zlorab samo še odpira. Če sistem UI lahko sam napiše recenzijo knjige, kako naj učitelj loči med učenčevim izdelkom in izdelkom sistema UI? Zadnje obravnavano načelo je ključno za vsa ostala načela ter za vse deležnike. Zaupanje pri uporabi sistemov UI pa je zelo kompleksno. Zaupamo, da je sistem UI (produkt človeka) razvit na način, da so odzivi in interpretacije pravični in nediskriminatorni. Zaupamo, da se zbirajo in obdelujejo zgolj podatki, ki smo jih dovolili. Zaupamo, da ne bo oblikovan, da bi škodoval posamezniku. Zaupamo, da bo spoštoval avtonomnost individuumov. Zaupamo, da so naročniki, razvijalci in uporabniki pravični, nediskriminatorni, da sledijo načelu neškodovanja in dobronamernosti ter da spoštujejo človekovo dostojanstvo in avtonomnost. Če je temu tako, lahko imamo zaupanje v UI. Pa vendar: ''Kako je sploh možno misliti, da bo nekdo kupil sredstvo (medij), s katerim je mogoče vplivati, in se hkrati odrekel temu, da bi vplival na njegovo usmeritev?'' (Halimi, 2003) Analiza konceptov zasebnosti, avtonomije, človekovega dostojanstva in zaupanja je pokazala, da je dobro razumevanje, ponotranjanje in posledično delovanje v skladu z njimi nujno za uspešno ustvarjanje in uporabljanje sistemov UI. Zaključek Prenehati si moramo predstavljati UI kot objektivno in vrednostno-nevtralno. Sistemi UI temeljijo na algoritmih, ki odražajo vrednote ustvarjalcev in tistih, ki delujejo s pozicije moči. Predvsem pa je pomembno, da prevzamejo odgovornost vsi deležniki, od programerjev do uporabnikov. Samo tako bo nastala simbioza vseh in ne vzpostavitev dveh nasprotujočih si polov; peščice bogatih nosilcev moči in velike večine UI neosveščenih in neveščih revežev. Začeti se mora v vseh nivojih izobraževalnega sistema: z zapisi v kurikul, z izvajanjem zapisanega, s treningi razvijanja občutka (občutljivosti) na etične izzive, prepoznavanjem dilem, razvijanjem odločanja in razvijanjem vrlin in vrednot vseh deležnikov v izobraževanju, ki bodo omogočile kvalitetno prihodnost človeštva. Zraven etiških veščin in etičnega zavedanja, pa je potrebno krepiti njihovo kritično razmišljanje, krepiti kognitivne in socialne veščine, saj bomo zgolj in samo tako ubranili zlorabo sistemov UI pred nosilci moči. 234 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION Summary An individual who has access to information, an understanding of and ability to evaluate information, and the capacity to act in accordance with the evaluation is most often at an advantage over other members of society. The post-COVID period has brought a rise in and growth of artificial intelligence in all areas of our lives, including in the field of education. Therefore, if we speculate, individuals with access to information about artificial intelligence (AI), with knowledge of how artificial intelligence works, with the ability to create artificial intelligence, and with the understanding of and ability to evaluate this information and act according to the evaluation, will be at an advantage, or will take an active role in those companies creating AI. Codes of ethics (advantages and disadvantages) are presented in the context of a formal framework for AI in education and the current failure to include these in educational curricula. We also point out that creating codes of ethics is not the final goal; it is the process of implementing them into the educational process that needs to be achieved. By understanding ethical concepts, by internalizing them, there is a possibility that people will also act ethically, so we need to educate people, familiarize them with the advantages and disadvantages of AI. One effective way is to offer workshops and training with problem-based project teaching, where students can strengthen their problem-solving skills, critical thinking skills and ethical skills. The article analyses the four principles underlying the ethics of AI in education: privacy, autonomy, respect for human dignity, and trust. First, we discuss contemporary data gathering from the perspective of privacy invasion; mandatory software submission of data that people may not want to reveal but which is obligatory for the enrolment process. Software designers should work with ethical committees when preparing web services. Second, we discuss the influence of AI on autonomous decisions that can be impaired without a thorough information overview. Learners today (especially children) do not question the credibility of the information provided by AI. We need to put effort into education leading to an understanding of the workings of AI and the decision processes. Third, because of a lack of autonomous choices, people could be manipulated by various interest groups (political parties, multinational companies, and other bearers of power). S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 235 People can be used only as a means to achieve certain specific goals, and this violates the principles of respect for human dignity. Fourth, trust is the glue of every society; unethical actions during the introduction of AI into education could lead to general distrust of all AI, even the benevolent and useful varieties. AI in education must therefore be transparent and non-biased. The transformation of society is a complex process that begins with young people who are not indoctrinated and are capable of accepting new ideas and internalizing them. We will not be able to remove artificial intelligence from our lives, but we can open it to explanation and scrutiny even in elementary school and thus make children aware of its advantages and potential disadvantages. Literatura Saliu H., R. Z. (2022). Experiences with and Risks of Internet Use Among Children in Kosovo. Journal of Elementary Education, 145–164. OECD AI Principles, O. (2019). Prodobjeno s: https://oecd.ai/en/ai-principles. Pridobljeno s https://oe- cd.ai/en/. (Dostopno: 13. 7. 2022) Cellan-Jones, R. (2014, 12 2). Stephen Hawking warns artificial intelligence could end mankind. Pridobljeno s: https://www.bbc.com/news/technology-30290540. (Dostopno: 10. 8. 2022) Akgun, S., in Greenhow, C. (2022). Artifical intelligence in education: Addressing ethical challenges in K -12 settings. AI and Ethics, 2, 431–440. Pesek, I., Nosović, N., in Krašna, M. (2022). The Role of AI in the Education and for the Education. 10th MEDITERRANEAN CONFERENCE ON EMBEDDED COMPUTING. Budva, Montenegro: IEEE. Brooks, R. (2014, 11 11). Artificial intelligence is a tool, not a threat. Pridobljeno s https://robohub.org/ar- tificial-intelligence-is-a-tool-not-a-threat/. (Dostopno: 15. 8. 2022) Lanier, J. (2014, 11 14). The Myth Of AI. Pridobljeno s: https://www.edge.org/conversation/j- aron_lanier-the-myth-of-ai. (Dostopno: 15. 8. 2023) Bregant, J. (2020). Umetna inteligenca v praksi (2. del): nekaj etičnih pomislekov. Analiza: časopis za kritično misel, 5–21. Sijing, L., & Lan, W. (2018). Artifical Inteligence Education Ethical Problems and Solutions. The 13th International Conference on Computer Science & Education, (pp. 155–158). Colombo, Sri Lanka. Ogola, S. (2019). Verantwortung, Erklärbarkeit und Transparenzalgorithmischer Entscheidungen. V A. S. Dengel, Künstliche Intelligenz: Die Zukunft von Mensch und Maschine. Hamburg (pp. 93–101). Hamburg: ZEIT Akademie. Grün , A., & Zeitz, J. (2011). Bog, vest in denar. Ljubljana: Družina. Boddington, P. (2020). In M. D. Dubber, F. Pasquale, & S. Das, The Oxford Handbook of Ethics of AI (pp. 125–140). New York: Oxford University Press. COM. (2019 (168)). Krepitev zaupanja v umetno inteligenco, osredotočeno na človeka. COM. (2019). Etične smernice za zaupanja vredno umetno inteligenco. Pridobljeno s https://ec.europa.e- u/futurium/en/ai-alliance-consultation.1.html.(Dostopno: 5. 8. 2022) Evropska komisija. (2020). Bela knjiga o umetni inteligenci - evropski pristop k odličnosti in zaupanju. Bruselj: COM. DOD Adopts Ethical Principles for Artificial Intelligence. (2020, 2 24). Pridobljeno s: https://www.defen- se.gov/News/Releases/Release/Article/2091996/dod-adopts-ethical-principles-for-artifi- cial-intelligence/. (Dostopno: 5. 8. 2022) 236 REVIJA ZA ELEMENTARNO IZOBRAŽEVANJE JOURNAL OF ELEMENTARY EDUCATION CAICT The China Academy of Information and Communi. (2022, 4 12). Artificial Intelligence White Paper (2022). Pridobljeno s: https://cset.georgetown.edu/wp-content/uploads/t0442_AI_whit- e_paper_2022_EN.pdf (Dostopno: 5. 8. 2023) Hagendorff, T. (2020). The Ethics of AI Ethics: An Evaluation of Guidelines. Minds and Machines, 99– 120. Domicelj, M., Ferjančič, J., & Pavlovič, Z. (1996). Kodeks etičnega ravnanja v vrtcih. Pridobljeno s: https://drive.google.com/file/d/14x051Bov4nMJMkW9vQoRexubzM32hAm4/view. SMM-SCC. (2013). Kodeks sožitja. Pridobljeno s: https://smm.sc-celje.si/kodeks-sozitja/.(Dostopno: 5. 8. 2022) Blažević I., &. K. (2022). Digital Media and Internet Safty Among primary School Students During the Covid-19 Pandemic. Journal of Elementary Educaton, 127–144. Holmes, W. e. (2021). Ethics of AI in Education: Towards a Community-Wide Framework. International Journal of Artifical Inteligence in Education, 504–526. Garrett, N., Beard, N., & Fiesler, C. (2020). More Than "If Time Allows": The Role of Ethics in AI Education. AIES. Mill, J. S. (2003). Utilitarizem ali O svobodi. Ljubljana: Krtina. Zuboff, S. (2019). We Make Them Dance”: Surveillance Capitalism, the Rise of Instrumentarian Power, and the Threat to Human Rights. In S. Braman, Human Rights in the Age of Platforms (pp. 3– 51). Cambridge, MA: The MIT Press. Privacy Policy. (2022, 2 10). Pridobljeno s: https://policies.google.com/privacy?hl=en-US#infodelete. (Dostopno: 29. 7. 2022) Privacy Policy. (2021, 10 5). Pridobljeno s: https://www.tiktok.com/legal/privacy-policy-for-younger- users?lang=en. (Dostopno: 29. 7. 2022) Borenstein, J., & Howard, A. (2020). Emeging challenges in AI and the need for AI ethics education. AI and Ethics, 61–65. Zhong, Y., & Su, J. (2022). Artifical I ntelligence (AI) in early childhood education: Surriculum design and future directions. Computers and Education: artifical Intelilgence. Kant, I. (2020). Kritika praktičnega uma. Ljubljana: Analecta. Klampfer, F. (2003). Etiški pojmovnik. Maribor: Aristej. Aiken, R. M., & Epstein, R. G. (2000). Ethical Guidelines for AI in Education: Starting a Conversation. International Journal of Artifical Inteligence in Education, 163–176. Kant, I. (2005). Utemeljitev metafizike nravi. Ljubljana: Založba ZRC. Halimi, S. (2003). Novi psi čuvaji. Ljubljana: Mirovni inštitut in inštitut za sodobne družbene in politične študije. Priznanje – acknowledgement Članek je nastal v okviru projekta Podporna okolja za spodbujanje prečnih kompetenc v vzgoji in izobraževanju (akronim: SETCOM), financiranega s sredstev Norveškega finančnega mehanizma 2014-2021 (Programa Izobraževanje – krepitev človeških virov UL RS (74/2021, z dne 14. 5. 2021)). Avtorja: Dr. Smiljana Gartner Docentka, Univerza v Mariboru, Filozofska fakulteta, Koroška cesta 160, 2000 Maribor, e- pošta: smiljana.gartner@um.si A s s i s t a n t P r o f e s s o r , U n i v e r s i t y o f M a r i b o r , F a c u l t y o f A r t s , K o r o š k a c e s t a 1 6 0 , 2 0 0 0 Maribor, e-mail: smiljana.gartner@um.si S. Gartner & M. Krašna: Etika umetne inteligence v izobraževanju 235 Dr. Marjan Krašna Redni profesor, Univerza v Mariboru, Filozofska fakulteta, Koroška cesta 160, 2000 Maribor, e-pošta: marjan.krasna@um.si Full Professor, University of Maribor, Faculty of Arts, Koroška cesta 160, 2000 Maribor, e- mail: marjan.krasna@um.si