454 ■ Proteus 85/10 • Junij 2023 455Nobelove nagrade • Nobelova nagrada za fiziko za leto 2022 Nobelova nagrada za fiziko za leto 2022 • Nobelove nagrade Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligenca kot pri neenačbi CHSH in dobil vrednost, večjo od meje, ki bi jo dale skrite spremen- ljivke. Kvantna fizika je torej pravi opis sve- ta in Einstein ni imel prav. Clauserjev poskus je imel nekaj pomanj- kljivosti. Najpomembnejša je bila, da so bile smeri polarizatorjev nastavljene pred meritvijo, kar bi lahko na nepoznani način vplivalo na rezultat. To vrzel je nekaj let pozneje zapolnil Alain Aspect. Tudi on je meril polarizacijo prepletenih fotonov. Me- rilni mesti sta bili šest metrov od izvora in sta imeli po dva različno orientirana pola- rizatorja, pred njima pa sta bila električna preklopnika, ki sta usmerila fotona na enega od polarizatorjev. Čas preklopa je bil do- volj kratek, da se je zgodil med tem, ko sta fotona potovala od izvora, tako da ni bilo mogoče, da bi položaj polarizatorjev vplival na stanje fotonov. Tudi Aspect je z veliko stopnjo zanesljivosti potrdil, da je Bellova neenakost kršena in da torej ni skritih spre- menljivk. Anton Zeilinger je nadaljeval poskuse s pre- pletenimi stanji. Pokazal je, da jih je moč uporabiti v nove, presenetljive namene. Iz osnov kvantne fizike sledi, da nekega kvan- tnega stanja ni mogoče kopirati niti ni mo- goče z meritvami dobiti dovolj informacij za verno poustvaritev. Zeilinger je uporabil prepleteno stanje para fotonov, da je prenesel kvantno stanje tretjega delca (fotona) od A do B. Postopek je približno tak. A in B si delita prepleteni par. Poleg tega ima A tre- tji delec v neznanem stanju, ki ga želi pre- nesti k B. Zato ga z uporabo polprepustnih zrcal preplete s svojo polovico prepletenega stanja v vsoto štirih možnih Bellovih stanj in napravi meritev, ki da eno od teh Bello- vih stanj. S tem stanje, ki ga ima B, ni več prepleteno s stanjem pri A, temveč preide v stanje, ki ga B lahko pretvori v prvotno neznano stanje. A po običajni zvezi sporoči B, katero Bellovo stanje je izmerila, kar B omogoči, da s še eno preprosto operacijo do- bi verno preneseno stanje. Tega A po meritvi nima več in ga tudi ne more rekonstruirati, skladno z nemožnostjo kopiranja kvantnih stanj. Ker mora A sporočiti rezultat svoje meritve po običajni zvezi, postopek ne omo- goča prenosa informacije hitreje kot s hitro- stjo svetlobe. Prenos kvantnega stanja ime- nujejo kvantna teleportacija in bo pomem- ben pri kvantnem računalništvu in prenosu informacij. Ime naj nas ne zavede, postopek je daleč od tega, da bi lahko prenesli makro- skopski objekt ali celo živo bitje. Podobno deluje zamenjava prepletenosti, ki jo je prav tako razvil Zeilinger. Naj imata A in B na začetku vsak svoj prepleteni par fotonov, ki med A in B nista povezana. A in B pošljeta po en foton Ceciliji, ki ju z Bellovo meritvijo preplete. S tem postaneta tudi preostala fotona pri A in B prepletena, čeprav nikoli nista bila v stiku. Tudi zame- njava prepletenosti je pomembna v kvan- tnem računalništvu. Zeilinger je izpopolnil tudi osnovni poskus EPR in zapolnil vse preostale vrzeli. Da je na primer zagotovil neodvisnost nastavitve polarizatorjev, je za signal izrabil slučajno detekcijo fotonov svetlobe zvezd, ki se je gotovo izsevala daleč pred poskusom. Po- večal je tudi razdaljo med merilnimi mesti. Prvi merilnik je bil na Tenerifeju, drugi pa na sto štiriinštirideset kilometrov oddaljeni La Palmi. Prepletena stanja lahko služijo tudi pri var- nem prenosu ključev za kodiranje. V posku- su EPR naj imata A in B izvor prepletenih parov fotonov. Pri različnih kotih merita polarizacijo. Na koncu si po običajni zvezi sporočita položaje polarizatorjev ob določe- nem času. Uporabita tiste rezultate, pri ka- terih sta imela enake položaje polarizatorjev in so zaradi prepletenosti nasprotni. Doblje- no slučajno zaporedje uporabita kot kodirni ključ. Če preverita Bellovo neenačbo, lahko tudi ugotovita, ali je kdo skušal prisluško- vati. To bi namreč uničilo kvantno preple- tenost in zmanjšalo korelacije pod klasično mejo. Velja pripomniti, da na tak način ni mogoče prenašati sporočil, saj je rezultat posamezne meritve povsem slučajen. Clauserjevi, Aspectovi in Zeilingerjevi po- skusi s prepletenimi stanji so tako najprej pokazali, da so napovedi kvantne fizike tudi tedaj, kadar se zdijo v nasprotju s klasičnimi predstavami in intuicijo, pravilne. Lokalna teorija skritih spremenljivk, ki naj bi dala določene napovedi za izide meritev, ne le verjetnosti, ni možna. Kvantna fizika je ne- lokalna, napove v splošnem le verjetnosti za izide poskusov in ne dovoljuje hkratne meri- tve parov nekaterih količin, na primer polo- žaja in hitrosti. Prepletena stanja, v katerih so lahko tudi oddaljeni deli sistema med seboj povezani, so pomembna značilnost kvantne fizike. So eden bistvenih elementov v kvantnem računalništvu, kodiranju in pre- nosu informacij. Shema poskusa, ki ga je leta 1976 predlagal, leta 1982 pa s sodelavci izvedel A. Aspect. Fotona iz kalcijevega kaskadnega izvora najprej padeta na optična preklopnika CI in CII, kje sta lahko ali prepuščena na par polarizatorjev in detektorjev PM1 in PM2 ali odbita na drugi par detektorjev PM1’ in PM2’. Knala se preklopita vsakih deset nanosekund. Razdalja med polarizatorji je dvanajst metrov. Ali je ChatGPT bolj empatičen kot zdravnik? Amadej Šenk V digitalni dobi, ko je dostop do informacij le nekaj klikov stran, pacienti vse pogosteje iščejo na spletu zdravstvene nasvete ter informacije o simptomih, diagnozah in zdravljenju. V zadnjih nekaj letih, še bolj natančno v zadnjem letu, je prišlo do burnega razvoja ume- tne inteligence. Napredek v razvoju je posegel tudi v osrčje zdravstva in medicine, kjer se je postopoma začel uveljavljati tudi ChatGPT, trenutno najbolj napreden jezikovni model umetne inteligence. Razvilo ga je podjetje OpenAI in je prišel v splošno javno uporabo 30. novembra leta 2022. V manj kot dveh mesecih je dosegel kar sto milijonov mesečnih uporabnikov, kar je najhitreje za katero koli aplikacijo na svetu do sedaj. Zakaj je tako po- pularen? ChatGPT je zmožen razumeti kontekst vprašanj, se prilagajati komunikacijskim slogom in tudi »izražati« empatijo (vživljanje v drugega). V veliki večini primerov naj bi pomenil zanesljiv vir informacij in podpore za paciente, ki iščejo zdravstvene nasvete na spletu. Vendar pa se poraja vprašanje, ali je strokovno povsem zanesljiv ter kakšna je oblika empatije, ki jo premore. 456 ■ Proteus 85/10 • Junij 2023 457Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligencaMedicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? izidu model ustvari odgovor, ki je neresni- čen ali zlonameren (glej sliko 4). Točkovni izid je zelo pogosto le vsota vseh delnih vre- dnosti vozlišč nevronske mreže (glej sliko 1), ki ni zapisana kot delež. Torej vrednosti ne segajo od 0 do 1, temveč so vrednosti, ki so lahko poljubno velike in imajo poljubni predznak (pozitivni ali negativni). V takem primeru uporabimo metodo, ki ji pravimo natančno prilagajanje (angleško fi- ne-tuning). S to metodo zgladimo vse take nevšečnosti, kot so slogovno zaznamovane besedne zveze (žaljivke, narečni in pogo- vorni izrazi, sleng, redkeje poznani žargon), nepravilno sosledje stavčnih struktur, nepra- vilna vrsta povedi (vzklična namesto pripo- vedna). Prav tako obstaja filter, ki cenzurira občutljive trditve, kot so rasne in ksenofob- ne izjave. Natančno prilagajanje velikega jezikovne- ga modela vzpostavimo s spodbujevanim učenjem s človekovo povratno informacijo (angleško Reinforcement learning from human feedback, RLHF): model za vsak neprimer- ni odgovor »programsko« kaznujejo, za vsak ustrezni odgovor pa »programsko« nagradijo – s ciljem, da bi model bil čim večkrat na- grajen. Na tak način se model nauči najbolj verjetnega in vljudnega odgovora, zmanjša oziroma popolnoma izniči pa se verjetnost, da bi bil odgovor neprimeren. Poleg tega pa ChatGPT najverjetneje uporablja še druge filtre, s katerimi še dodatno zmanjša mo- žnost takih nevšečnosti. Slika 2: Prepisovanje skupine besed v tokene. Narisal: Amadej Šenk. Slika 3: Primer stavka, ki bi ga ustvaril ChatGPT in je ustrezen. Narisal: Amadej Šenk. Arhitektura ChatGPT Preden načnemo tematiko, kaj pomeni ChatGPT za vsakdanje sporazumevanje in odnos med zdravnikom in pacientom, je pomembno razumeti, kako ta jezikovni model deluje in kako je sestavljen. Gre za interdisciplinarno področje lingvistike in ra- čunalništva. Središče tega modela je veliki jezikovni model (angleško Large Langua- ge Model, LLM). Model je vrsta nevronske mreže, ki je naučena na obsežnem korpusu besedil, vključno tudi z medicinsko literatu- ro, da razume in ustvarja človeški »narav- ni« jezik. Model uporablja naučene podatke - zbirke besedil, da se nauči povezav med besedami v jeziku, in nato uporabi to na- učeno znanje, da s podobnim slogovnim in vsebinskim vzorcem izpiše odgovor na dano poizvedbo uporabnika (vprašanje ali trditev). Zgolj za občutek si lahko morebiti predsta- vljajmo, da je ta nevronska mreža sestavljena iz šestindevetdesetih plasti (angleško neural network layers) in vsebuje stopetinsedemde- set milijard prilagodljivih spremenljivk, kar jo uvršča v enega izmed največjih modelov globokega učenja (angleško deep learning), ki je bil kadarkoli ustvarjen v zgodovini. V osnovi je treba nevronsko mrežo najprej »naučiti« na podatkih oziroma slikah - te- mu pravimo razvoj -, nato pa lahko z novo pridobljeno nevronsko mrežo naredimo po- izvedbe, bodisi v obliki slik, kjer moramo prepoznati neki predmet na tej sliki, bodisi v obliki vprašanja, kjer pričakujemo odgo- vor – kot v našem primeru. Vhodnemu in izhodnemu besedilu, ki vsto- pa v »naučene« nevronske mreže oziroma izstopa iz njih, se dodeljujejo številčne pred- stavitve besed – številke, ki jih imenujemo tokeni (glej sliko 2). Namesto besed upo- rabljamo naključne tokene, saj računalnik številke hitreje in lažje obdeluje kot besede. Pogosto so sestavljene besede, kot je denimo drevored, sestavljene iz več tokenov, saj se besedi drevo in red lahko pojavljata tudi sa- mostojno ter v drugačnih kontekstih. Novejši model ChatGPT-ja (GPT-3.5) po- zna petsto milijard tokenov, kar pomeni, da je to tudi približno število besed, ki jih po- zna in jih lahko povezuje z ostalimi beseda- mi. Model so »učili« na tak način, da zna na podlagi zaporedja vhodnih tokenov predvide- ti naslednji token (glej sliko 3). Sposoben je ustvariti besedilo, ki je slovnično pravilno in pomensko podobno podatkom na spletu, na katerih se je model učil. Kljub temu pa se je treba zavedati, da izbira naslednjo besedo na podlagi verjetnosti oziroma točkovnega izida (angleško score): če začnemo na primer z be- sedo potem, lahko v navedenem primeru pri- čakujemo, da bo model kot naslednjo besedo izbral bodisi besedo vzemi bodisi besedo po- kaži bodisi besedo spij. Ker ima beseda vze- mi največjo statistično verjetnost (na primer sedemdesetodstotno), izbere besedo vzemi in ne besedo pokaži (katere verjetnost je na pri- mer manjša, dvajsetodstotna) ali spij (ki ima na primer zgolj desetodstotno verjetnost). A vendarle se lahko zgodi, da pri drugačnih statističnih verjetnostih oziroma točkovnem Slika 1: Shema nevronske mreže. Narisal: Amadej Šenk. 456 ■ Proteus 85/10 • Junij 2023 457Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligencaMedicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? izidu model ustvari odgovor, ki je neresni- čen ali zlonameren (glej sliko 4). Točkovni izid je zelo pogosto le vsota vseh delnih vre- dnosti vozlišč nevronske mreže (glej sliko 1), ki ni zapisana kot delež. Torej vrednosti ne segajo od 0 do 1, temveč so vrednosti, ki so lahko poljubno velike in imajo poljubni predznak (pozitivni ali negativni). V takem primeru uporabimo metodo, ki ji pravimo natančno prilagajanje (angleško fi- ne-tuning). S to metodo zgladimo vse take nevšečnosti, kot so slogovno zaznamovane besedne zveze (žaljivke, narečni in pogo- vorni izrazi, sleng, redkeje poznani žargon), nepravilno sosledje stavčnih struktur, nepra- vilna vrsta povedi (vzklična namesto pripo- vedna). Prav tako obstaja filter, ki cenzurira občutljive trditve, kot so rasne in ksenofob- ne izjave. Natančno prilagajanje velikega jezikovne- ga modela vzpostavimo s spodbujevanim učenjem s človekovo povratno informacijo (angleško Reinforcement learning from human feedback, RLHF): model za vsak neprimer- ni odgovor »programsko« kaznujejo, za vsak ustrezni odgovor pa »programsko« nagradijo – s ciljem, da bi model bil čim večkrat na- grajen. Na tak način se model nauči najbolj verjetnega in vljudnega odgovora, zmanjša oziroma popolnoma izniči pa se verjetnost, da bi bil odgovor neprimeren. Poleg tega pa ChatGPT najverjetneje uporablja še druge filtre, s katerimi še dodatno zmanjša mo- žnost takih nevšečnosti. Slika 2: Prepisovanje skupine besed v tokene. Narisal: Amadej Šenk. Slika 3: Primer stavka, ki bi ga ustvaril ChatGPT in je ustrezen. Narisal: Amadej Šenk. Arhitektura ChatGPT Preden načnemo tematiko, kaj pomeni ChatGPT za vsakdanje sporazumevanje in odnos med zdravnikom in pacientom, je pomembno razumeti, kako ta jezikovni model deluje in kako je sestavljen. Gre za interdisciplinarno področje lingvistike in ra- čunalništva. Središče tega modela je veliki jezikovni model (angleško Large Langua- ge Model, LLM). Model je vrsta nevronske mreže, ki je naučena na obsežnem korpusu besedil, vključno tudi z medicinsko literatu- ro, da razume in ustvarja človeški »narav- ni« jezik. Model uporablja naučene podatke - zbirke besedil, da se nauči povezav med besedami v jeziku, in nato uporabi to na- učeno znanje, da s podobnim slogovnim in vsebinskim vzorcem izpiše odgovor na dano poizvedbo uporabnika (vprašanje ali trditev). Zgolj za občutek si lahko morebiti predsta- vljajmo, da je ta nevronska mreža sestavljena iz šestindevetdesetih plasti (angleško neural network layers) in vsebuje stopetinsedemde- set milijard prilagodljivih spremenljivk, kar jo uvršča v enega izmed največjih modelov globokega učenja (angleško deep learning), ki je bil kadarkoli ustvarjen v zgodovini. V osnovi je treba nevronsko mrežo najprej »naučiti« na podatkih oziroma slikah - te- mu pravimo razvoj -, nato pa lahko z novo pridobljeno nevronsko mrežo naredimo po- izvedbe, bodisi v obliki slik, kjer moramo prepoznati neki predmet na tej sliki, bodisi v obliki vprašanja, kjer pričakujemo odgo- vor – kot v našem primeru. Vhodnemu in izhodnemu besedilu, ki vsto- pa v »naučene« nevronske mreže oziroma izstopa iz njih, se dodeljujejo številčne pred- stavitve besed – številke, ki jih imenujemo tokeni (glej sliko 2). Namesto besed upo- rabljamo naključne tokene, saj računalnik številke hitreje in lažje obdeluje kot besede. Pogosto so sestavljene besede, kot je denimo drevored, sestavljene iz več tokenov, saj se besedi drevo in red lahko pojavljata tudi sa- mostojno ter v drugačnih kontekstih. Novejši model ChatGPT-ja (GPT-3.5) po- zna petsto milijard tokenov, kar pomeni, da je to tudi približno število besed, ki jih po- zna in jih lahko povezuje z ostalimi beseda- mi. Model so »učili« na tak način, da zna na podlagi zaporedja vhodnih tokenov predvide- ti naslednji token (glej sliko 3). Sposoben je ustvariti besedilo, ki je slovnično pravilno in pomensko podobno podatkom na spletu, na katerih se je model učil. Kljub temu pa se je treba zavedati, da izbira naslednjo besedo na podlagi verjetnosti oziroma točkovnega izida (angleško score): če začnemo na primer z be- sedo potem, lahko v navedenem primeru pri- čakujemo, da bo model kot naslednjo besedo izbral bodisi besedo vzemi bodisi besedo po- kaži bodisi besedo spij. Ker ima beseda vze- mi največjo statistično verjetnost (na primer sedemdesetodstotno), izbere besedo vzemi in ne besedo pokaži (katere verjetnost je na pri- mer manjša, dvajsetodstotna) ali spij (ki ima na primer zgolj desetodstotno verjetnost). A vendarle se lahko zgodi, da pri drugačnih statističnih verjetnostih oziroma točkovnem Slika 1: Shema nevronske mreže. Narisal: Amadej Šenk. 458 ■ Proteus 85/10 • Junij 2023 459Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligencaMedicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? Obsežna zbirka znanj V času, ko je vsako sekundo ustvarjena ve- dno večja količina podatkov, je uporaba umetne inteligence postala ključna za ob- vladovanje, analiziranje in razumevanje te poplave informacij. ChatGPT je zasnovan tako, da se obnaša kot sogovornik, ki lah- ko odgovori na zelo različna vprašanja in se vključuje v pogovor z uporabniki. To je mo- goče zaradi širokega podatkovnega nabora, na katerem je bil model izurjen. Vsebuje več milijard besednih zvez, ki so bile pridoblje- ne iz številnih virov na spletu, kot so spletna mesta, članki, knjige in druga besedila v slo- venščini kot tudi v drugih jezikih. Natančne podatkovne zbirke, ki so bile uporabljene za učenje ChatGPT v medicini in zdravstvu, ustvarjalec modela OpenAI ni javno razkril. Možne podatkovne zbirke, ki bi jih lahko uporabili za učenje, so znanstveni članki iz medicinskih revij, klinične raziskave, bolni- šnični zapisi, medicinski podatki o pacientih, zdravstvene podatkovne zbirke, vprašanja in odgovori na zdravstvenih forumih ter drugi viri, ki vsebujejo medicinske informacije. Po- membno je razumeti, da je kakovost podat- kov ključna pri učenju modela za medicinsko oziroma zdravstveno področje. Zato je treba pri izbiri podatkovnih virov in podatkovnih zbirk zagotoviti zanesljive in verodostojne vire, ki temeljijo na strokovnem znanju in usmeritvah medicinske stroke, teh pa kljub porastu podatkov primanjkuje, saj podatki zaradi morebitne kršitve zasebnosti posame- znih pacientov niso v celoti javno dostopni.  Naravna empatija in modeliranje umetne empatije Empatija je sposobnost razumevanja in de- ljenja občutkov in pogledov drugih ljudi. Vključuje prepoznavanje njihovih čustev, iz- kušenj in potreb, povezovanje z njimi, od- zivanje na sočuten način in pripravljenost na nesebično pomoč. Empatija sega dlje od zgolj priznavanja čustev nekoga; zahteva, da se postavimo v kožo sočloveka in si posku- šamo predstavljati, kako se počutijo. Pogo- sto jo povezujemo z občutljivostjo, sočutjem in sposobnostjo nudenja tolažbe in podpore drugim. Tako je videti empatija med dvema človekoma. Kako pa je videti empatija med človekom in ChatGPT-jem? ChatGPT ima posebno programsko enoto, ki zagotavlja, da izraža vljudnost in tudi ne- ko stopnjo »empatije«. Ta empatija pa je v večini primerov zgolj matematično povprečje vseh odgovorov in medsebojnih povezav med ljudmi na spletu, pri čemer se slabi in neem- patični odgovori po prej opisanem postopku odstranijo iz nabora možnih odgovorov. Že sam model opozarja, da nima razvite dejan- ske empatije in ne more razumeti čustvenega položaja, razen v primeru, ko se je model s takim položajem že prej srečal. Do zelo za- nimivega položaja pride, ko primerjamo sto- pnjo empatičnosti med zdravnikom in paci- entom ter med ChatGPT-jem in pacientom. Če na hitro analiziramo zgornji odgovor, je moč opaziti nerodne izraze in besedne zve- ze, ki jih uporabi. Odgovor se s prvimi po- vedmi začne zelo empatično, v nadaljevanju pa so zelo togo našteti koraki in navodilo, kako se soočiti z izgubo hišnega ljubljenč- ka. Gre za zelo zapleten čustveni položaj, ki zahteva primerno prilagajanje in ustrezno ravnanje. ChatGPT je zagotovo zmogljiv, toda samo do neke stopnje. Tu pa se pojavi še naslednja ovira. ChatGPT namreč nima neomejenega spomina in nima lastnih izku- stev iz preteklosti. Če mu pacient napiše, da se danes (naslednji dan) že počuti nekoliko bolje, se bo ChatGPT odzval z odgovorom, ki ne ve nič o preteklosti – to je o njegovi izgubi psa. Odgovor bo zvenel zelo nevtral- no. Vsaka empatična oseba bi zagotovo pov- prašala, kako se počuti ali če se že kaj bolje počuti kot včeraj. Z napredkom storitve se to seveda lahko izboljša tako, da se poveča spomin pogovorov, ki ga ima model na vo- ljo, vendar pa ta model še vedno nima neke čustvene osnove, s katero bi lahko izražal pravo empatijo. Trenutno potekajo številne raziskave in štu- dije, kako modelirati empatijo in zagotoviti bolj sočutne odgovore na vprašanja pacien- tov. Zakaj so odgovori ChatGPT-ja na vpra- šanja pacientov ocenjeni kot bolj empatični, pa je treba še preučiti. Primerjava ocen empatičnosti odgovorov ChatGPT-ja in drugih akterjev Primerjava ocen empatičnosti odgovorov ChatGPT-ja in drugih akterjev je pomemb- na za oceno uspešnosti modela pri zagota- vljanju empatičnih odgovorov pacientom. Številne raziskovalke in raziskovalci po sve- tu preučujejo empatičnost odgovorov Chat- GPT-ja in drugih zdravstvenih strokovnja- kov. Ena izmed teh raziskav, ki jo je objavila Univerza San Diego iz Kalifornije v reviji JAMA Internal Medicine 28. aprila letos, je primerjala odgovore ChatGPT-ja z odgovori pravih zdravnikov na portalu Reddit na ena- ka vprašanja pacientov. V tem eksperimentu so bili odgovori anonimizirani (osebni po- datki vprašanih so bili izbrisani), pacienti pa so jih ocenili glede na stopnjo empatič- nosti, ki so jo izkusili. Presenetljivo je bi- lo, da so bili odgovori ChatGPT-ja pogosto ocenjeni kot bolj empatični (78,6 odstotka) kot odgovori zdravstvenih strokovnjakov (21,4 odstotka). To daje slutiti, da model lahko ustvari sočutne odgovore na vpraša- nja pacientov. Raziskovalci, ki so se lotili te raziskave, so poudarili, da namen študije ni bil preučiti možnost zamenjave medicin- skega osebja s sistemi umetne inteligence, temveč kako bi lahko vključili take sisteme v zdravstvene sisteme, da bi bili odgovori zdravnikov na vprašanja pacientov boljši in da bi zdravnikom bilo olajšano vedno večje Slika 4: Primer stavka, ki ga bi generiral ChatGPT in ki ni ustrezen. Narisal: Amadej Šenk. Slika 5: Primer odgovora, kjer ChatGPT »izraža« navidezno empatijo (z belo označene slogovno zaznamovane besede in besedne zveze). Narisal: Amadej Šenk. 458 ■ Proteus 85/10 • Junij 2023 459Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligencaMedicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? Obsežna zbirka znanj V času, ko je vsako sekundo ustvarjena ve- dno večja količina podatkov, je uporaba umetne inteligence postala ključna za ob- vladovanje, analiziranje in razumevanje te poplave informacij. ChatGPT je zasnovan tako, da se obnaša kot sogovornik, ki lah- ko odgovori na zelo različna vprašanja in se vključuje v pogovor z uporabniki. To je mo- goče zaradi širokega podatkovnega nabora, na katerem je bil model izurjen. Vsebuje več milijard besednih zvez, ki so bile pridoblje- ne iz številnih virov na spletu, kot so spletna mesta, članki, knjige in druga besedila v slo- venščini kot tudi v drugih jezikih. Natančne podatkovne zbirke, ki so bile uporabljene za učenje ChatGPT v medicini in zdravstvu, ustvarjalec modela OpenAI ni javno razkril. Možne podatkovne zbirke, ki bi jih lahko uporabili za učenje, so znanstveni članki iz medicinskih revij, klinične raziskave, bolni- šnični zapisi, medicinski podatki o pacientih, zdravstvene podatkovne zbirke, vprašanja in odgovori na zdravstvenih forumih ter drugi viri, ki vsebujejo medicinske informacije. Po- membno je razumeti, da je kakovost podat- kov ključna pri učenju modela za medicinsko oziroma zdravstveno področje. Zato je treba pri izbiri podatkovnih virov in podatkovnih zbirk zagotoviti zanesljive in verodostojne vire, ki temeljijo na strokovnem znanju in usmeritvah medicinske stroke, teh pa kljub porastu podatkov primanjkuje, saj podatki zaradi morebitne kršitve zasebnosti posame- znih pacientov niso v celoti javno dostopni.  Naravna empatija in modeliranje umetne empatije Empatija je sposobnost razumevanja in de- ljenja občutkov in pogledov drugih ljudi. Vključuje prepoznavanje njihovih čustev, iz- kušenj in potreb, povezovanje z njimi, od- zivanje na sočuten način in pripravljenost na nesebično pomoč. Empatija sega dlje od zgolj priznavanja čustev nekoga; zahteva, da se postavimo v kožo sočloveka in si posku- šamo predstavljati, kako se počutijo. Pogo- sto jo povezujemo z občutljivostjo, sočutjem in sposobnostjo nudenja tolažbe in podpore drugim. Tako je videti empatija med dvema človekoma. Kako pa je videti empatija med človekom in ChatGPT-jem? ChatGPT ima posebno programsko enoto, ki zagotavlja, da izraža vljudnost in tudi ne- ko stopnjo »empatije«. Ta empatija pa je v večini primerov zgolj matematično povprečje vseh odgovorov in medsebojnih povezav med ljudmi na spletu, pri čemer se slabi in neem- patični odgovori po prej opisanem postopku odstranijo iz nabora možnih odgovorov. Že sam model opozarja, da nima razvite dejan- ske empatije in ne more razumeti čustvenega položaja, razen v primeru, ko se je model s takim položajem že prej srečal. Do zelo za- nimivega položaja pride, ko primerjamo sto- pnjo empatičnosti med zdravnikom in paci- entom ter med ChatGPT-jem in pacientom. Če na hitro analiziramo zgornji odgovor, je moč opaziti nerodne izraze in besedne zve- ze, ki jih uporabi. Odgovor se s prvimi po- vedmi začne zelo empatično, v nadaljevanju pa so zelo togo našteti koraki in navodilo, kako se soočiti z izgubo hišnega ljubljenč- ka. Gre za zelo zapleten čustveni položaj, ki zahteva primerno prilagajanje in ustrezno ravnanje. ChatGPT je zagotovo zmogljiv, toda samo do neke stopnje. Tu pa se pojavi še naslednja ovira. ChatGPT namreč nima neomejenega spomina in nima lastnih izku- stev iz preteklosti. Če mu pacient napiše, da se danes (naslednji dan) že počuti nekoliko bolje, se bo ChatGPT odzval z odgovorom, ki ne ve nič o preteklosti – to je o njegovi izgubi psa. Odgovor bo zvenel zelo nevtral- no. Vsaka empatična oseba bi zagotovo pov- prašala, kako se počuti ali če se že kaj bolje počuti kot včeraj. Z napredkom storitve se to seveda lahko izboljša tako, da se poveča spomin pogovorov, ki ga ima model na vo- ljo, vendar pa ta model še vedno nima neke čustvene osnove, s katero bi lahko izražal pravo empatijo. Trenutno potekajo številne raziskave in štu- dije, kako modelirati empatijo in zagotoviti bolj sočutne odgovore na vprašanja pacien- tov. Zakaj so odgovori ChatGPT-ja na vpra- šanja pacientov ocenjeni kot bolj empatični, pa je treba še preučiti. Primerjava ocen empatičnosti odgovorov ChatGPT-ja in drugih akterjev Primerjava ocen empatičnosti odgovorov ChatGPT-ja in drugih akterjev je pomemb- na za oceno uspešnosti modela pri zagota- vljanju empatičnih odgovorov pacientom. Številne raziskovalke in raziskovalci po sve- tu preučujejo empatičnost odgovorov Chat- GPT-ja in drugih zdravstvenih strokovnja- kov. Ena izmed teh raziskav, ki jo je objavila Univerza San Diego iz Kalifornije v reviji JAMA Internal Medicine 28. aprila letos, je primerjala odgovore ChatGPT-ja z odgovori pravih zdravnikov na portalu Reddit na ena- ka vprašanja pacientov. V tem eksperimentu so bili odgovori anonimizirani (osebni po- datki vprašanih so bili izbrisani), pacienti pa so jih ocenili glede na stopnjo empatič- nosti, ki so jo izkusili. Presenetljivo je bi- lo, da so bili odgovori ChatGPT-ja pogosto ocenjeni kot bolj empatični (78,6 odstotka) kot odgovori zdravstvenih strokovnjakov (21,4 odstotka). To daje slutiti, da model lahko ustvari sočutne odgovore na vpraša- nja pacientov. Raziskovalci, ki so se lotili te raziskave, so poudarili, da namen študije ni bil preučiti možnost zamenjave medicin- skega osebja s sistemi umetne inteligence, temveč kako bi lahko vključili take sisteme v zdravstvene sisteme, da bi bili odgovori zdravnikov na vprašanja pacientov boljši in da bi zdravnikom bilo olajšano vedno večje Slika 4: Primer stavka, ki ga bi generiral ChatGPT in ki ni ustrezen. Narisal: Amadej Šenk. Slika 5: Primer odgovora, kjer ChatGPT »izraža« navidezno empatijo (z belo označene slogovno zaznamovane besede in besedne zveze). Narisal: Amadej Šenk. 460 ■ Proteus 85/10 • Junij 2023 461Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligencaMedicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? breme, s katerim se srečujejo pri svojem de- lu. Pri zdravnikih namreč pogosto pride do pojava, ki mu pravimo utrujenost zaradi so- čutja (angleško compassion fatigue). Izgorelost zaradi sočutja je ena izmed najbolj kritičnih težav pri zdravnikih in je posledica čustve- ne in fizične izčrpanosti, ki nastane zaradi stalnega zagotavljanja empatične oskrbe pa- cientom. Zahtevnost zdravniškega poklica, dolgi delovni urniki, visoko število pacien- tov in nenehno soočanje s trpljenjem lahko privedejo do izčrpanosti zaradi sočutja in zmanjšanja sposobnosti empatije do paci- entov. Ta pojav ima lahko škodljive učinke na dobro počutje in zadovoljstvo zaposle- nih v zdravniški stroki ter vpliva na kako- vost oskrbe. V prej omenjeni študiji naj bi to bil tudi eden izmed glavnih dejavnikov, zakaj so pacientom zveneli odgovori zdrav- nikov manj empatični. Vedeti je treba, da je na koncu koncev ChatGPT le program, ki se ne utrudi in ustvarja vsakič znova zelo podobne »empatične« odzive in še ni sposo- ben tako različnih, barvitih odgovorov kot ljudje. Poleg tega so v študiji ugotovili, da ChatGPT kaže nekatere omejitve pri pre- poznavanju subtilnih čustvenih odtenkov in dajanju pravilnih odgovorov v posebnih zdravstvenih primerih. Omejitve in izzivi pri modeliranju empatije pri ChatGPT-ju Omejitve in izzivi pri modeliranju empati- je pri ChatGPT-ju so ključni vidiki, ki jih je treba upoštevati pri razvoju in uporabi umetne inteligence v zdravstvenem sektorju. Čeprav ChatGPT lahko ponudi empatične odgovore, obstaja več omejitev, ki jih je tre- ba preučiti. Prvi in najpomembnejši vidik je pomen zdravniškega osebja in osebnega stika pri zagotavljanju zdravstvene oskrbe. Empatija je kompleksen in večplasten vidik zdravstve- nega odnosa, ki vsebuje ne le sposobnost ra- zumevanja čustev pacienta, temveč tudi ne- izmerni obseg strokovnega znanja, izkušenj in etičnih smernic, ki jih zdravniki prido- bijo v letih izobraževanja in prakse. Zdrav- niki poleg tega uporabljajo tudi nebesedno sporazumevanje, kot so telesna govorica in izrazi obraza, ki prispevajo k empatični iz- kušnji pacienta. Drugi izziv je povezan z zavedanjem omeji- tev modela ChatGPT. Čeprav model lahko ustvari empatične odgovore, je treba razu- meti, da je to posledica učenja iz obsežnih podatkov in ne dejanskega občutka empati- je, kot ga izkuša človek. ChatGPT ne more empatično odgovarjati na način, kot bi to storil usposobljeni zdravnik, ki ima čustve- no inteligenco in znanje, podprto z bogati- mi praktičnimi izkušnjami. Zato je nujno, da uporabniki razumejo, da ChatGPT ni nadomestek za strokovnjake in da je njegova vloga omejena na zagotavljanje osnovnih in- formacij in podpore pacientom. Empatija v zdravstvu zahteva razumevanje pacientovega osebnega položaja, ki ga lahko težko prepozna in obravnava avtomatizirani model. ChatGPT je odvisen od podatkov, ki so jih uporabili pri njegovem učenju in lahko vsebuje nezanesljive ali nepopolne in- formacije. To se ponavadi kaže v nesmisel- nem ali nerodnem odgovoru.  Poleg teh tehničnih omejitev je pomembno upoštevati tudi etična vprašanja. ChatGPT se na primer ne more zavedati, kdaj mora preusmeriti pacienta na nujno zdravstveno oskrbo ali ga opozoriti na nevarnost ži- vljenja in smrti. V takšnih primerih, ko je potreben hitri in specializirani zdravstveni poseg, sta zanesljivost in pravočasnost infor- macij ključni. Zato mora biti vedno navzoč človeški zdravstveni delavec, ki je sposoben prepoznati nujnost položaja in zagotoviti ustrezno ukrepanje. Kljub omejitvam in izzivom pa lahko mode- liranje empatije pri ChatGPT-ja prinese tu- di pomembne prednosti. Model lahko zago- tovi lažji dostop do osnovnih zdravstvenih informacij, podpore in nasvetov, kar lahko koristi pacientom v oddaljenih ali manj do- stopnih območjih. Integriteta zdravnika in ChatGPT-ja Izraz »zdravnikova integriteta« se nanaša na visoko raven iskrenosti in moralnih načel, ki jih pričakujemo od zdravnikov in tudi dru- gih zdravstvenih delavcev. Zdravnikova in- tegriteta je ključna za vzpostavitev zaupanja med zdravnikom in pacientom. Ko se bolni- ki obrnejo na zdravnika, pričakujejo, da bo zdravnik vedno deloval v njihov prid, da bo ravnal pošteno in da bo strokovno in odgo- vorno opravljal svoje delo. Poleg tega zdrav- nik ne sme sprejemati podkupnin ali prido- bivati kakšnih drugih koristi, ki bi lahko vplivale na njegovo strokovno presojo ali ravnanje. Velikokrat pravimo, da zdravniki razumejo svoj poklic ne kot službo, temveč kot poslanstvo. Zdravnik in ChatGPT se pri tem v veliki meri razlikujeta, saj prvi ima integriteto, drugi pa ne. Zakaj je temu tako? ChatGPT je program, za katerega vemo, da dela na- pake in da v nekaterih okoliščinah odgo- varja nezanesljivo – to je znanje, ki nam je že vnaprej poznano, zato ne pričakuje- mo stoodstotne zanesljivosti in veljavnosti. Uporabljamo ga kot dodatek pri delu, ne pa kot nekaj samostojnega. Po drugi strani pa je zdravnik samostojen, saj se je najmanj šest let pripravljal na svoje poslanstvo. Če- tudi zdravnik dela napake in morebiti celo več napak kot sam ChatGPT, vemo, da je zelo malo verjetno, da bi storil tako veliko neumnost, kot bi jo morebiti lahko Chat- GPT. Napake zdravnika se ponavadi poja- vljajo pri malenkostih, redkeje pri temeljnih stvareh. Pri modelu, kot je ChatGPT, pa se vse napake pojavljajo v podobni frekven- ci na vseh ravneh zahtevnosti znanja, tako pri pri osnovnih (na primer, kaj je pljučnica) kot pri zahtevnejših (na primer, kakšen je ustrezen odmerek zdravila pri kompleksni diagnozi) primerih, saj nima pravega zdrav- niškega znanja in zavedanja o njem. Gre za model, ki ne gradi temeljnega znanja, am- pak je le povzetek najverjetnejših besed, ka- terih kontekst niti najmanj ne pozna in se ga niti ne zaveda. Zahvala Za pomoč pri pripravi zapisa v okviru pred- meta Zgodovina medicine z medicinsko hu- manistiko na Medicinski fakulteti Univerze v Ljubljani se zahvaljujem prof. dr. Zvonki Zupanič Slavec, dr. med., in asist. Ani Ja- kopin, dr. med., mag. dietet. Viri in literatura: Ayers, J. W., Poliak, A., Dredze, M., in sod., 2023: Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine, 183 (6): 589-596, doi: 10.1001/jamainternmed.2023.1838. Dostopno na: https://jamanetwork.com/journals/ jamainternalmedicine/article-abstract/2804309. (Citirano 17. 5. 2023.) Eysenbach, G., 2023: The Role of ChatGPT, Generative Language Models, and Artificial Intelligence in Medical Education: A Conversation With ChatGPT and a Call for Papers. JMIR Medical Education. 2023 Mar 6;9:e46885, doi: 10.2196/46885. PMID: 36863937; PMCID: PMC10028514. Hurwitz, B., Vass, A., 2002: What‘s a good doctor, and how can you make one? By marrying the applied scientist to the medical humanist. BMJ, 325(7366): 667–668, doi: 10.1136/bmj.325.7366.667. Masa, T., 2023: Experts Claim ChatGPT Demonstrates Higher Empathy Levels Than Real Doctors. AutoGPT [internet]. 7. 5. 2023.(Citirano 17. 5. 2023.); Dostopno na: https://autogpt.net/experts-claim-chatgpt- demonstrates-higher-empathy-levels-than-real-doctors/. McPhillips, D., 2023: ChatGPT provides valuable patient advice, study finds (internet). CNN. (Citirano 17. 5. 2023.) Dostopno na: https://edition.cnn. com/2023/04/28/health/chatgpt-patient-advice-study- wellness/index.html. Mok, A., Brueck, H., 2023: ChatGPT is more empathetic than real doctors, experts say (internet). Business Insider. Dostopno na: https://www.businessinsider.in/tech/news/ chatgpt-is-more-empathetic-than-real-doctors-experts- say/articleshow/99931086.cms. (Citirano 17. 5. 2023.) Sarraju, A., Bruemmer, D., Van Iterson, E., Cho, L., Rodriguez, F., Laffin, L., 2023: Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA Internal Medicine, 329 (10): 842–844. Dostopno na: doi:10.1001/jama.2023.1044. 460 ■ Proteus 85/10 • Junij 2023 461Ali je ChatGPT bolj empatičen kot zdravnik? • Medicina in umetna inteligencaMedicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? breme, s katerim se srečujejo pri svojem de- lu. Pri zdravnikih namreč pogosto pride do pojava, ki mu pravimo utrujenost zaradi so- čutja (angleško compassion fatigue). Izgorelost zaradi sočutja je ena izmed najbolj kritičnih težav pri zdravnikih in je posledica čustve- ne in fizične izčrpanosti, ki nastane zaradi stalnega zagotavljanja empatične oskrbe pa- cientom. Zahtevnost zdravniškega poklica, dolgi delovni urniki, visoko število pacien- tov in nenehno soočanje s trpljenjem lahko privedejo do izčrpanosti zaradi sočutja in zmanjšanja sposobnosti empatije do paci- entov. Ta pojav ima lahko škodljive učinke na dobro počutje in zadovoljstvo zaposle- nih v zdravniški stroki ter vpliva na kako- vost oskrbe. V prej omenjeni študiji naj bi to bil tudi eden izmed glavnih dejavnikov, zakaj so pacientom zveneli odgovori zdrav- nikov manj empatični. Vedeti je treba, da je na koncu koncev ChatGPT le program, ki se ne utrudi in ustvarja vsakič znova zelo podobne »empatične« odzive in še ni sposo- ben tako različnih, barvitih odgovorov kot ljudje. Poleg tega so v študiji ugotovili, da ChatGPT kaže nekatere omejitve pri pre- poznavanju subtilnih čustvenih odtenkov in dajanju pravilnih odgovorov v posebnih zdravstvenih primerih. Omejitve in izzivi pri modeliranju empatije pri ChatGPT-ju Omejitve in izzivi pri modeliranju empati- je pri ChatGPT-ju so ključni vidiki, ki jih je treba upoštevati pri razvoju in uporabi umetne inteligence v zdravstvenem sektorju. Čeprav ChatGPT lahko ponudi empatične odgovore, obstaja več omejitev, ki jih je tre- ba preučiti. Prvi in najpomembnejši vidik je pomen zdravniškega osebja in osebnega stika pri zagotavljanju zdravstvene oskrbe. Empatija je kompleksen in večplasten vidik zdravstve- nega odnosa, ki vsebuje ne le sposobnost ra- zumevanja čustev pacienta, temveč tudi ne- izmerni obseg strokovnega znanja, izkušenj in etičnih smernic, ki jih zdravniki prido- bijo v letih izobraževanja in prakse. Zdrav- niki poleg tega uporabljajo tudi nebesedno sporazumevanje, kot so telesna govorica in izrazi obraza, ki prispevajo k empatični iz- kušnji pacienta. Drugi izziv je povezan z zavedanjem omeji- tev modela ChatGPT. Čeprav model lahko ustvari empatične odgovore, je treba razu- meti, da je to posledica učenja iz obsežnih podatkov in ne dejanskega občutka empati- je, kot ga izkuša človek. ChatGPT ne more empatično odgovarjati na način, kot bi to storil usposobljeni zdravnik, ki ima čustve- no inteligenco in znanje, podprto z bogati- mi praktičnimi izkušnjami. Zato je nujno, da uporabniki razumejo, da ChatGPT ni nadomestek za strokovnjake in da je njegova vloga omejena na zagotavljanje osnovnih in- formacij in podpore pacientom. Empatija v zdravstvu zahteva razumevanje pacientovega osebnega položaja, ki ga lahko težko prepozna in obravnava avtomatizirani model. ChatGPT je odvisen od podatkov, ki so jih uporabili pri njegovem učenju in lahko vsebuje nezanesljive ali nepopolne in- formacije. To se ponavadi kaže v nesmisel- nem ali nerodnem odgovoru.  Poleg teh tehničnih omejitev je pomembno upoštevati tudi etična vprašanja. ChatGPT se na primer ne more zavedati, kdaj mora preusmeriti pacienta na nujno zdravstveno oskrbo ali ga opozoriti na nevarnost ži- vljenja in smrti. V takšnih primerih, ko je potreben hitri in specializirani zdravstveni poseg, sta zanesljivost in pravočasnost infor- macij ključni. Zato mora biti vedno navzoč človeški zdravstveni delavec, ki je sposoben prepoznati nujnost položaja in zagotoviti ustrezno ukrepanje. Kljub omejitvam in izzivom pa lahko mode- liranje empatije pri ChatGPT-ja prinese tu- di pomembne prednosti. Model lahko zago- tovi lažji dostop do osnovnih zdravstvenih informacij, podpore in nasvetov, kar lahko koristi pacientom v oddaljenih ali manj do- stopnih območjih. Integriteta zdravnika in ChatGPT-ja Izraz »zdravnikova integriteta« se nanaša na visoko raven iskrenosti in moralnih načel, ki jih pričakujemo od zdravnikov in tudi dru- gih zdravstvenih delavcev. Zdravnikova in- tegriteta je ključna za vzpostavitev zaupanja med zdravnikom in pacientom. Ko se bolni- ki obrnejo na zdravnika, pričakujejo, da bo zdravnik vedno deloval v njihov prid, da bo ravnal pošteno in da bo strokovno in odgo- vorno opravljal svoje delo. Poleg tega zdrav- nik ne sme sprejemati podkupnin ali prido- bivati kakšnih drugih koristi, ki bi lahko vplivale na njegovo strokovno presojo ali ravnanje. Velikokrat pravimo, da zdravniki razumejo svoj poklic ne kot službo, temveč kot poslanstvo. Zdravnik in ChatGPT se pri tem v veliki meri razlikujeta, saj prvi ima integriteto, drugi pa ne. Zakaj je temu tako? ChatGPT je program, za katerega vemo, da dela na- pake in da v nekaterih okoliščinah odgo- varja nezanesljivo – to je znanje, ki nam je že vnaprej poznano, zato ne pričakuje- mo stoodstotne zanesljivosti in veljavnosti. Uporabljamo ga kot dodatek pri delu, ne pa kot nekaj samostojnega. Po drugi strani pa je zdravnik samostojen, saj se je najmanj šest let pripravljal na svoje poslanstvo. Če- tudi zdravnik dela napake in morebiti celo več napak kot sam ChatGPT, vemo, da je zelo malo verjetno, da bi storil tako veliko neumnost, kot bi jo morebiti lahko Chat- GPT. Napake zdravnika se ponavadi poja- vljajo pri malenkostih, redkeje pri temeljnih stvareh. Pri modelu, kot je ChatGPT, pa se vse napake pojavljajo v podobni frekven- ci na vseh ravneh zahtevnosti znanja, tako pri pri osnovnih (na primer, kaj je pljučnica) kot pri zahtevnejših (na primer, kakšen je ustrezen odmerek zdravila pri kompleksni diagnozi) primerih, saj nima pravega zdrav- niškega znanja in zavedanja o njem. Gre za model, ki ne gradi temeljnega znanja, am- pak je le povzetek najverjetnejših besed, ka- terih kontekst niti najmanj ne pozna in se ga niti ne zaveda. Zahvala Za pomoč pri pripravi zapisa v okviru pred- meta Zgodovina medicine z medicinsko hu- manistiko na Medicinski fakulteti Univerze v Ljubljani se zahvaljujem prof. dr. Zvonki Zupanič Slavec, dr. med., in asist. Ani Ja- kopin, dr. med., mag. dietet. Viri in literatura: Ayers, J. W., Poliak, A., Dredze, M., in sod., 2023: Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine, 183 (6): 589-596, doi: 10.1001/jamainternmed.2023.1838. Dostopno na: https://jamanetwork.com/journals/ jamainternalmedicine/article-abstract/2804309. (Citirano 17. 5. 2023.) Eysenbach, G., 2023: The Role of ChatGPT, Generative Language Models, and Artificial Intelligence in Medical Education: A Conversation With ChatGPT and a Call for Papers. JMIR Medical Education. 2023 Mar 6;9:e46885, doi: 10.2196/46885. PMID: 36863937; PMCID: PMC10028514. Hurwitz, B., Vass, A., 2002: What‘s a good doctor, and how can you make one? By marrying the applied scientist to the medical humanist. BMJ, 325(7366): 667–668, doi: 10.1136/bmj.325.7366.667. Masa, T., 2023: Experts Claim ChatGPT Demonstrates Higher Empathy Levels Than Real Doctors. AutoGPT [internet]. 7. 5. 2023.(Citirano 17. 5. 2023.); Dostopno na: https://autogpt.net/experts-claim-chatgpt- demonstrates-higher-empathy-levels-than-real-doctors/. McPhillips, D., 2023: ChatGPT provides valuable patient advice, study finds (internet). CNN. (Citirano 17. 5. 2023.) Dostopno na: https://edition.cnn. com/2023/04/28/health/chatgpt-patient-advice-study- wellness/index.html. Mok, A., Brueck, H., 2023: ChatGPT is more empathetic than real doctors, experts say (internet). Business Insider. Dostopno na: https://www.businessinsider.in/tech/news/ chatgpt-is-more-empathetic-than-real-doctors-experts- say/articleshow/99931086.cms. (Citirano 17. 5. 2023.) Sarraju, A., Bruemmer, D., Van Iterson, E., Cho, L., Rodriguez, F., Laffin, L., 2023: Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA Internal Medicine, 329 (10): 842–844. Dostopno na: doi:10.1001/jama.2023.1044. 462 ■ Proteus 85/10 • Junij 2023 463Medicina in umetna inteligenca • Ali je ChatGPT bolj empatičen kot zdravnik? Mikrobiologija • Vloga ocetnokislinskih bakterij v medonosni čebeli Vloga ocetnokislinskih bakterij v medonosni čebeli • Mikrobiologija Vloga ocetnokislinskih bakterij v medonosni čebeli Metka Vrečko, Janja Trček Ocetnokislinske bakterije kolonizirajo prebavila številnih žuželk, med drugim komarjev (Anopheles, Aedes), vinske mušice (Drosophila melanogaster) in tudi medonosne čebele (Apis mellifera). Medonosne čebele so gospodarsko pomembni opraševalci, katerih populacija se je v zadnjih letih zaradi različnih okoljskih dejavnikov zelo zmanjšala. Ocetnokislinska bak- terija Bombella apis je ena izmed prevladujočih simbiontov črevesne mikrobiote pripadnikov čebeljega panja, zato lahko domnevamo, da ima pomembno biološko vlogo v tem organiz- mu. S poznavanjem bakterijskih genomskih zaporedij in njihovo analizo s sodobnimi bio- informacijskimi orodji so bile pridobljene nove informacije o možni vlogi ocetnokislinskih bakterij v samem čebeljem panju in njegovi okolici. Članek bo predstavil najnovejša dogna- nja o zaščitni vlogi teh bakterij v medonosni čebeli. Mikroorganizme srečamo v vseh organiz- mih in njihovem okolju. Z vzpostavitvijo simbiotskega odnosa gostitelju lahko omo- gočijo razvoj, zaščito pred patogenimi orga- nizmi in paraziti ali celo dostop do ključ- nih hranil, ki jih v prehrani gostitelja ni oziroma ne dovolj, kar gostitelju omogoča zasedbo nekaterih negostoljubnih prehranje- valnih niš. Zanimiv primer je simbioza me- donosne čebele (Apis mellifera) z mikroor- ganizmi njene črevesne mikrobiote. Zaradi svoje specifične prehranske diete se morajo čebele namreč velikokrat zanašati na bakte- rijske partnerje, s katerimi lahko dopolnijo manjkajoče hranilne snovi in tako izboljšajo zdravstveno stanje celotnih kolonij (Parish s sod., 2022). Z vidika zaščite gospodarsko pomembnih opraševalcev, kot je medonosna čebela (A. mellifera), je v zadnjih letih deležna poseb- ne pozornosti njena simbiotska bakterija Bombella apis, ki predstavlja velik delež nje- ne črevesne mikrobiote. Bakterija B. apis je del skupine ocetnokislinskih bakterij znotraj družine Acetobacteraceae, ki vsebuje tako pro- stoživeče predstavnike kot tudi takšne, ki živijo v simbiozi z žuželkami. Najpogosteje jo najdemo v črevesju matice ter hipofarin- Amadej Šenk se je rodil leta 1999 v Postojni. Obiskoval je gimnazijo Bežigrad, leta 2022 pa je diplomiral na Fakulteti za računalništvo in informatiko. Trenutno je študent prvega letnika Medicinske fakultete v Ljubljani. V prostem času rad tekmuje na različnih programerskih tekmovanjih in se ukvarja z vpeljavo umetne inteligence v medicinsko okolje pri različnih univerzitetnih projektih. gealnih žlezah, ki proizvajajo in izločajo se- stavine matičnega mlečka, zato so bakterije tudi v samem pridelku čebel dojilj (Yun s sod., 2017). Na podlagi preiskanih bakte- rijskih genomskih zaporedij so ugotovili, da te bakterije lahko vplivajo na zdravje in fi- ziologijo matic ter varovanje razvijajočih se ličink in čebel delavk pred patogenimi gli- vami (Smith in Newton, 2020). Analiza genomskih zaporedij simbiotskih ocetnokislinskih bakterij iz čebel Medonosne čebele so nenadomestljive zara- di opraševanja kmetijskih rastlin, pomemb- nih za človeka. V preteklih letih se je zato močno povečalo zanimanje za preučevanje raznolikih obrambnih mehanizmov čebel, vključno z njihovimi simbiotskimi mikro- organizmi, kot so ocetnokislinske bakterije. Bakterija Bombella apis ni edina predstavnica tega rodu iz skupine ocetnokislinskih bakte- rij, v tem rodu so še vrste Bombella intestini, Bombella favorum in Bombella mellum, ki so bile tudi prepoznane v črevesni mikrobioti medonosnih čebel (Härer s sod., 2022). Primerjalna genomika nam je omogočila vpogled v genomske spremembe, ki so zno- traj družine bakterij Acetobacteraceae omogo- čile prehod v simbiozo s čebelami. Pomaga nam tudi razjasniti, kaj vrsto B. apis loči od sorodnih vrst in vlog, ki jih ta bakterijska vrsta lahko opravlja v samem čebeljem panju in njegovi okolici. Glavne ugotovitve tovr- stnih analiz avtorjev Smitha in Newtona (2020) ter Härerja in sodelavcev (2022) so povzete spodaj. Pri vseh vrstah iz rodu Bombella so ugotovili odsotnost genetskega zapisa za sintezo glav- Slika 1: Presnova ogljikovih hidratov pri bakterijah iz rodu Bombella, konstruirana iz genomskih sekvenc. Rdeče puščice prikazujejo manjkajoče gene, črtkane pa tiste, ki niso prisotni v vseh genomih tega rodu. Vir: https://www.ncbi. nlm.nih.gov/pmc/articles/PMC9147383/. EMP metabolna pot D-glukoza D-glukoza-6-P D-manitol D-fruktoza D-fruktoza-6-P D-fruktoza-1,6-BP dihidroksiaceton-P D-gliceraldehid-3-P D-gliceraldehid-3-P D-glicerat-3-P D-glicerat-2-P piruvat piruvat D-glukonat D-glukononat- 6-P D-ksiluloza-5-P D-riboza-5-P D-sedoheptuloza-7-P D-fruktoza-6-PD-eritroza-4-P D-ribuloza-5-P D-glukono- 1,5-lakton D-glukono- 1,5-lakton- 6-P 2-dehidro- 3-deoksi-D- glukonat-6-P Pentoza fosfatna pot fosfoenol-piruvat acetaldehid acetil-CoA oksaloacetat malat fumarat sukcinat sukcinil-CoA 2-oksoglutarat izocitrat citrat Cikel TCA D-glicerat-1,3-BP Tilley, C., 2023: ChatGPT provides higher quality and empathetic answers than real doctors 80% of the time. Daily Mail (internet). 29. 4. 2023. Dostopno na: https://www.dailymail.co.uk/health/article-12025345/ ChatGPT-provides-higher-quality-empathetic-answers- real-doctors-80-time.html. (Citirano 17. 5. 2023.)