i i “Toman” — 2018/5/3 — 8:24 — page 1 — #1 i i i i i i OCENJEVANJE PARAMETROV V BAYESOVI STATISTIKI ALEŠ TOMAN Ekonomska fakulteta Univerza v Ljubljani Math. Subj. Class. (2010): 62F15, 62F10 Čeprav začetki Bayesove statistike segajo v drugo polovico 18. stoletja, je svoj razcvet doživela šele z razvojem računalnikov ob koncu 20. stoletja. V članku bomo na enostavnem zgledu prikazali ključne korake in lastnosti Bayesovega pristopa k ocenjevanju parametrov. BAYESIAN PARAMETER ESTIMATION Although the beginnings of Bayesian statistics date back to the second half of the 18th century, it started to flourish at the end of the 20th century when computers became widely available. In this paper we go through some basic steps and properties of Bayesian parameter estimation. Uvod Statistika je veda, ki razvija in proučuje metode zbiranja podatkov ter nji- hove analize in predstavitve. Statistiki pri svojem delu lahko le redkokdaj razpolagamo s podatki za celotno populacijo ali poznamo natančne lastnosti opazovanega pojava. Pogosteje imamo na voljo le informacije za nekaj na slepo izbranih enot, ki sestavljajo slučajni vzorec. Osrednja naloga sklepne statistike je opisovanje lastnosti populacije ali pojava na osnovi lastnosti, ki jih opazimo oziroma izmerimo na vzorcu [7]. Obstaja več pristopov k statističnemu sklepanju. Danes je bolj znan frekventistični pristop, ki so ga v prvi polovici 20. stoletja utemeljili R. A. Fisher (1890–1962), E. S. Pearson (1895–1980) in J. Neyman (1894–1981). Za ta pristop so značilne cenilke največjega verjetja, intervali zaupanja ter preizkušanje domnev [7]. Manj znan, a vse pomembneǰsi je Bayesov pristop. Za njegov začetek štejemo zapiske T. Bayesa (1702–1761), ki jih je leta 1763 objavil R. Price. V njih je nakazana znamenita Bayesova formula in razprava o tem, kako se ob opazovanju pojavov spreminjajo naša prepričanja [6]. Ob koncu 18. stoletja je P.-S. de Laplace (1749–1827) podrobneje (neodvisno od Bayesa) predstavil, kako Bayesovo formulo uporabimo v različnih statističnih proble- mih. Med drugim je iz podatkov o rojstvih v parǐskih porodnǐsnicah ocenil verjetnost za rojstvo deklice [4]. V nadaljevanju si bomo ogledali podoben primer. Obzornik mat. fiz. 65 (2018) 1 1 i i “Toman” — 2018/5/3 — 8:24 — page 2 — #2 i i i i i i Aleš Toman Bayesov pristop je prevladoval v statistiki 19. stoletja. Čeprav je v teoriji omogočal enostavno analizo zapletenih modelov, je bil v praksi zaradi ra- čunskih zahtev manj uporaben. Razvoj učinkovitih simulacijskih algoritmov ter široka dostopnost računalnikov ob koncu 20. stoletja pa sta Bayesovemu pristopu vrnila mesto v statistični znanosti. Bayesova formula Bayesovo formulo pogosto povezujemo z dvofaznimi poskusi, kjer v prvi fazi nastopi natanko eden od dogodkov iz popolnega sistema dogodkov (hi- potez) H1, . . . ,Hn in so od tega, kateri se je pripetil, odvisni pogoji poskusa v drugi fazi, v katerem opazujemo dogodek A [3]. Privzemimo, da poznamo verjetnosti P (H1), . . . , P (Hn) vseh hipotez ter pogojne verjetnosti P (A|H1), . . . , P (A|Hn) dogodka A glede na posamezne hipoteze. Formula za popolno verjetnost nam pove, kako izračunati brezpogojno verjetnost dogodka A v drugi fazi: P (A) = n∑ i=1 P (Hi) · P (A|Hi). Postavimo si še obratno vprašanje: Če vemo, da se je dogodek A v drugi fazi zgodil, kolikšna je pogojna verjetnost, da se je v prvi fazi zgodila hipoteza Hi? Odgovor nam da Bayesova formula P (Hi|A) = P (Hi) · P (A|Hi) P (A) . Verjetnosti P (Hi) pravimo apriorna, verjetnosti P (Hi|A) pa aposteri- orna verjetnost hipoteze Hi. Opazimo, da imenovalec v Bayesovi formuli ni odvisen od i in je pri vseh hipotezah enak. Potrebujemo ga za to, da se aposteriorne verjetnosti vseh n hipotez seštejejo v 1. Zato v Bayesovi statistiki pogosto zapǐsemo samo sorazmerje P (Hi|A) ∝ P (Hi) · P (A|Hi). Zgled 1. V prvem kozarcu so dobro premešane 4 črne in 4 bele kroglice, v drugem pa 3 črne in 5 belih. Iz prvega kozarca na slepo izvlečemo eno kroglico in jo preložimo v drugi kozarec. Tega pretresemo in nato iz njega na slepo izvlečemo eno kroglico. Kolikšne so verjetnosti dogodkov A, da iz prvega kozarca izvlečemo belo kroglico, B, da iz drugega kozarca izvlečemo belo kroglico, in C, da smo iz prvega kozarca izvlekli belo kroglico, če vemo, da smo iz drugega kozarca izvlekli belo kroglico? 2 Obzornik mat. fiz. 65 (2018) 1 i i “Toman” — 2018/5/3 — 8:24 — page 3 — #3 i i i i i i Ocenjevanje parametrov v Bayesovi statistiki ? ? Slika 1. Shema dvofaznega poskusa s kroglicami. Naloga opisuje dvofazni poskus, njegova shema je prikazana na sliki 1. V prvi fazi iz prvega kozarca izvlečemo kroglico in jo preložimo v drugi kozarec. Pri tem sta možni dve hipotezi: H1, da izvlečemo črno kroglico, in H2, da izvlečemo belo kroglico. Ker so v prvem kozarcu 4 črne in 4 bele kroglice, sta apriorni verjetnosti hipotez P (H1) = P (H2) = 4 8 = 1 2 . V drugi fazi poskusa izvlečemo kroglico iz drugega kozarca. Možna sta dva dogodka (je črna ali bela); v nalogi nas zanima dogodek B, da izvlečemo belo kroglico. Po formuli za popolno verjetnost izračunamo P (B) = P (H1) · P (B|H1) + P (H2) · P (B|H2) = 1 2 · 5 9 + 1 2 · 6 9 = 11 18 . Pri računanju P (B|H1) smo si pomagali z vsebinsko interpretacijo do- godkov. Če v prvi fazi izvlečemo črno kroglico (pogoj H1), imamo nato v drugem kozarcu 4 črne in 5 belih kroglic. Verjetnost, da iz njega izvlečemo belo kroglico (dogodek B), je zato P (B|H1) = 59 . Podobno izračunamo še P (B|H2) = 69 . Z Bayesovo formulo izračunamo še aposteriorni verjetnosti hipotez P (H1|B) = P (H1) · P (B|H1) P (B) = (1/2) · (5/9) 11/18 = 5 11 < 1 2 , P (H2|B) = P (H2) · P (B|H2) P (B) = (1/2) · (6/9) 11/18 = 6 11 > 1 2 . Ob tem opazimo: 1–11 3 i i “Toman” — 2018/5/3 — 8:24 — page 4 — #4 i i i i i i Aleš Toman • Aposteriorni verjetnosti hipotez se razlikujeta od apriornih. Razlog za razliko je informacija o dogodku, ki se je zgodil v drugi fazi poskusa. • Razmerje aposteriornih verjetnosti hipotez (5 : 6) je enako razmerju pogojnih verjetnosti dogodka B v drugi fazi. To je posledica enakih apriornih verjetnosti hipotez. Za končno rešitev zapǐsimo še verjetnosti dogodkov A in C. Ker je A = H2, je P (A) = 1 2 , in ker je C = H2|B, velja P (C) = 6 11 . Evrski kovanec in neznani parameter p Opǐsimo enostaven statistični problem, na katerem bomo prikazali vse ko- rake Bayesovega pristopa k ocenjevanju neznanih parametrov ter ga na kratko primerjali s frekventističnim pristopom. Zamislimo si stavo z ne nujno poštenim evrskim kovancem. Kovanec bomo vrgli enkrat, dobitek pa prejmemo, če smo pred tem napovedali pravi izid. Na kaj bomo stavili? Splača se staviti na izid, ki je bolj verjeten. Pri metu kovanca sta možna dva dogodka: dogodek C, da pade cifra, ter dogodek G, da pade grb. Ker drugih možnosti ni, je P (C) + P (G) = 1. Ker ne vemo, ali je kovanec pošten, označimo P (C) = p ter P (G) = 1−p. Število p je neznani populacijski parameter (neznana verjetnost) oziroma lastnost kovanca. Od njega bo odvisna naša stava. Naloga statistike je zanj podati čim bolǰso oceno. Privzemimo, da smemo pred stavo z nekaj meti preizkusiti kovanec. Ko- vanec smo vrgli n = 10-krat in pri tem je cifra padla x = 7-krat. Zaporedje 10 črk, med katerimi se 7-krat pojavi C in 3-krat G, je slučajni vzorec, s katerim bomo ocenili neznani parameter p. Pri tem bomo uporabili frekven- tistični ter Bayesov pristop. V obeh pristopih je pomembna funkcija verjetja fX|P (x|p). Ta po- daja verjetnost na danem vzorcu izmerjenih vrednosti (x cifer v n metih) v odvisnosti od neznanega parametra p. V našem primeru je verjetnost, da v 10 metih kovanca opazimo 7 cifer, enaka fX|P (x|p) = ( 10 7 ) p7(1− p)3. To je binomsko verjetje. Graf funkcije verjetja je na sliki 2. V frekventistični statistiki lahko oceno p̂ parametra p določimo z metodo največjega verjetja. Ta za p̂ izbere tisto vrednost p, pri kateri funkcija verjetja fX|P (x|p) doseže najvǐsjo vrednost. Zlahka preverimo, da je to pri p̂ = xn = 0,7. Vrednost prikazuje črtkana navpičnica na grafu na sliki 2. 4 Obzornik mat. fiz. 65 (2018) 1 i i “Toman” — 2018/5/3 — 8:24 — page 5 — #5 i i i i i i Ocenjevanje parametrov v Bayesovi statistiki 0.0 0.2 0.4 0.6 0.8 1.0 0. 00 0. 10 0. 20 p , , , , , , f X |P (x |p ) 0, 0 0, 1 0, 2 Slika 2. Graf funkcije verjetja. Dobljena točkovna ocena parametra p je korektna, a je navedba zgolj točkovne ocene lahko zavajajoča. Če bi pri samo enem izmed metov ko- vanca opazili drugačen izid, bi se naša ocena parametra p spremenila za 0,1. Več informacij (natančnost naše ocene) o neznanem parametru p predsta- vimo z intervalom zaupanja. Konstrukcij intervalov zaupanja za neznano verjetnost je več. Tu bomo uporabili le dve, ki ju zaradi njunih lastnosti najpogosteje priporočajo za uporabo v praksi [1, 2]. Wilsonov1 95 % interval zaupanja za p je [0,397; 0,892], Clopper-Pearsonov2 95 % interval zaupanja pa [0,348; 0,933]. Bayesov pristop Bayesova statistika neznane parametre obravnava kot (zvezne) slučajne spre- menljivke, naše védenje o njihovih vrednostih pa opǐse s porazdelitvami, najlažje z gostoto verjetnosti te slučajne spremenljivke. Bayesov pristop k ocenjevanju parametrov idejno sledi Bayesovi formuli. Najprej privzamemo neko apriorno gostoto verjetnosti fP (p) za neznani parameter p in izra- čunamo verjetje fX|P (x|p) na danem vzorcu izmerjenih vrednosti v odvisno- sti od parametra p. Pri tem lahko apriorno gostoto verjetnosti izberemo na osnovi preteklih analiz ali splošnih dognanj. Nato določimo aposteriorno 1Wilsonov 100(1 − α) % interval zaupanja omejujeta vrednosti x+z 2/2 n+z2 ± z √ n n+z2 √ p̂(1 − p̂) + z2 4n , kjer z označuje (1 − α/2)-kvantil standardne normalne po- razdelitve. 2Spodnja meja Clopper-Pearsonovega 100(1 − α) % intervala zaupanja je α/2-kvantil porazdelitve Beta(x, n− x+ 1), zgornja meja pa (1 − α/2)-kvantil porazdelitve Beta(x+ 1, n− x). 1–11 5 i i “Toman” — 2018/5/3 — 8:24 — page 6 — #6 i i i i i i Aleš Toman gostoto verjetnosti fP |X(p|x) parametra p po Bayesovi formuli fP |X(p|x) = fP (p) · fX|P (x|p) fX(x) . Imenovalec fX(x) predstavlja robno (brezpogojno) porazdelitev vzorčnih vrednosti in ni odvisen od p, zagotovi pa, da je integral aposteriorne gostote verjetnosti enak 1. Poenostavljeno lahko zapǐsemo samo sorazmerje fP |X(p|x) ∝ fP (p) · fX|P (x|p) in nato določimo ustrezno normirno konstanto. Aposteriorna gostota ver- jetnosti predstavlja naše védenje o neznanem parametru p, potem ko smo združili naše apriorno znanje in informacije iz podatkov. Vrnimo se k našemu kovancu. Funkcijo verjetja smo že spoznali. Ker bomo normirno konstanto v aposteriorni gostoti verjetnosti določili na koncu, zapǐsemo samo funkcijski del funkcije verjetja fX|P (x|p) ∝ p7(1− p)3. Izbrati moramo še apriorno porazdelitev parametra p. Jasno je, da p leži med 0 in 1, zato je smiselna izbira gostote verjetnosti iz družine porazdelitev beta [4]. Ta ima dva parametra, označimo ju z α in β. Oglejmo si njene lastnosti. Naj bo p ∼ Beta(α, β). Gostota verjetnosti spremenljivke p je tedaj fP (p) = 1 B(α, β) pα−1(1− p)β−1 za p ∈ [0, 1], upanje E(p) = αα+β ter varianca var(p) = αβ (α+β)2(α+β+1) . Tu smo z B(α, β) označili vrednost funkcije beta. Tudi pri apriorni porazdelitvi lahko ohra- nimo samo njen funkcijski del, zato zapǐsemo fP (p) ∝ pα−1(1− p)β−1. Določiti moramo še parametra α in β; parametrom apriorne porazdelitve pravimo hiperparametri. Privzemimo, da iz izkušenj vemo, da naj bi bil kovanec pošten, zato α in β določimo tako, da bo E(p) = 12 . Torej mora biti α = β. Varianca je tedaj enaka var(p) = 14(2α+1) , standardni odklon pa σ(p) = 1 2 √ 2α+1 . Z njim povemo, kako prepričani smo v poštenost kovanca. Zaradi enostavnosti izberimo α = 4, kjer dobimo σ(p) = 16 . Graf apriorne gostote verjetnosti parametra p je na sliki 3. Z uporabo Bayesove formule ugotovimo, da je aposteriorna gostota ver- jetnosti parametra p sorazmerna fP |X(p|x) ∝ p4−1(1− p)4−1︸ ︷︷ ︸ apriorna · p7(1− p)3︸ ︷︷ ︸ verjetje = p10(1− p)6. 6 Obzornik mat. fiz. 65 (2018) 1 i i “Toman” — 2018/5/3 — 8:24 — page 7 — #7 i i i i i i Ocenjevanje parametrov v Bayesovi statistiki 0.0 0.2 0.4 0.6 0.8 1.0 0. 0 0. 5 1. 0 1. 5 2. 0 Porazdelitev Beta(4, 4) p , , , , , , f P (p ) 0, 0 0, 5 1, 0 1, 5 2, 0 Slika 3. Apriorna gostota verjetnosti parametra p. 0.0 0.2 0.4 0.6 0.8 1.0 0. 0 1. 0 2. 0 3. 0 ● Porazdelitev Beta(11, 7) p , , , , , , f P |X (p |x ) 0, 0 1, 0 2, 0 3, 0 Slika 4. Aposteriorna gostota verjetnosti parametra p. V zadnjem izrazu prepoznamo obliko gostote porazdelite beta, zato velja p|x ∼ Beta(11, 7) = Beta(α′, β′). Graf njene gostote verjetnosti je na sliki 4. Za točkovno oceno parametra najpogosteje izberemo matematično upanje aposteriorne gostote verjetnosti; to znaša α ′ α′+β′ = 0,611 in ga prikazuje črtkana navpičnica na grafu na sliki 4. Natančnost točkovne ocene lahko podamo s standardnim odklonom aposte- riorne gostote; ta je √ α′β′ (α′+β′)2(α′+β′+1) = 0,012 in ga prikazujeta vodoravni puščici na grafu; še pogosteje pa s centralnim intervalom aposteriorne gostote verjetnosti. 95 % centralni interval dobimo tako, da na levem in desnem repu porazdelitve odrežemo po 2,5 % verjetnosti [4]. Ustrezna repa sta na grafu označena s sivo, med njima (med kvantiloma) pa nam ostane intervalna ocena [0,383; 0,816]. 1–11 7 i i “Toman” — 2018/5/3 — 8:24 — page 8 — #8 i i i i i i Aleš Toman Lastnosti Bayesovega pristopa Konjugirane apriorne porazdelitve. V primeru s kovancem smo opazili, kako prikladna je bila izbira apriorne gostote verjetnosti iz družine porazdelitev beta. Tudi aposteriorna porazdelitev je pripadala isti družini porazdeli- tev. Temu rečemo, da je družina porazdelitev beta konjugirana k binomski funkciji verjetja. Normirne konstante v aposteriorni gostoti verjetnosti sploh nismo eksplicitno zapisali, upanje in standardni odklon te porazdelitve pa smo določili brez uporabe računalnika. Pri izbiri drugačne apriorne porazdelitve analiza ne bi bila več tako eno- stavna. Ker moramo integrirati funkcijo fP (p) · fX|P (x|p), lahko račun ana- litično sploh ni mogoč. To nas privede do uporabe računalnǐskih simulacij in pojasni, zakaj je Bayesova statistika svoj razcvet doživela šele dve stoletji po svojem nastanku. Aposteriorna porazdelitev je kompromis med apriorno porazdelitvijo in informacijami iz podatkov. Pri apriorni gostoti verjetnosti Beta(α, β) in na vzorcu opaženih 7 cifrah in 3 grbih, je aposteriorna gostota verjetnosti oblike f(p|x) ∝ pα−1(1− p)β−1 · p7(1− p)3. Pri majhnih α in β imata v aposteriorni porazdelitvi vodilno vlogo vrednosti 7 in 3 iz vzorca, pri velikih α in β pa ima vodilno vlogo apriorna porazdelitev neznanega parametra. V Bayesovi statistiki so aposteriorne porazdelitve vselej kompromis med apriornimi porazdelitvami in podatki. Pri tem z rastočo velikostjo vzorca čedalje večji pomen pridobivajo podatki. Bayesova statistika je subjektivna. Z izbiro hiperparametrov v Bayesovo analizo vnesemo naše apriorno znanje o proučevanem pojavu, kar je vsekakor lahko subjektivno, ni pa nujno. Če smo v preteklosti že analizirali drug evrski kovanec in ugotovili, da je bil pošten, lahko podobno pričakujemo tudi od kovanca, ki ga proučujemo sedaj, in to izrazimo z izbiro hiperparametrov apriorne porazdelitve. Kadar vsebinsko podobnih raziskav ne poznamo, lahko uporabimo neinformativne apriorne porazdelitve. Statistično analizo lahko ponovimo z različnimi apriornimi porazdelitvami in tako natančno analiziramo njihov vpliv na končne rezultate [4]. Informativne in neinformativne apriorne porazdelitve Da bi zmanǰsali očitke subjektivnosti, so v Bayesovi statistiki vpeljali nein- formativne apriorne porazdelitve. Vrnimo se k družini porazdelitev beta. Z različnimi izbirami hiperparametrov α in β lahko opǐsemo zelo različna apriorna znanja. Simetrične porazdelitve dobimo pri izbiri α = β. Grafe go- stot verjetnosti pri različnih parametrih prikazuje slika 5. Opazimo, da pri 8 Obzornik mat. fiz. 65 (2018) 1 i i “Toman” — 2018/5/3 — 8:24 — page 9 — #9 i i i i i i Ocenjevanje parametrov v Bayesovi statistiki 0.0 0.2 0.4 0.6 0.8 1.0 0 2 4 6 8 p , , , 0, 0, 1, f P (p ) 0, 0 2, 0 4 , 0 6 , 0 8 ,0 Informativne α = β = 50 α = β = 20 α = β = 10 Neinformativna α = β = 1 Slika 5. Družina simetričnih porazdelitev beta. 0.0 0.2 0.4 0.6 0.8 1.0 0 5 10 15 p , , , 0, 0, 1, f P (p ) 0 5 10 15 α = 10, β = 60 α = 20, β = 30 α = 30, β = 20 α = 60, β = 10 Slika 6. Družina nesimetričnih porazdelitev beta. izbiri α = β = 1 dobimo zvezno enakomerno porazdelitev na intervalu [0, 1]. Uporaba te porazdelitve pomeni, da nimamo nikakršnih apriornih znanj o možnih vrednostih parametra p. Taka porazdelitev je neinformativna. Če sta parametra α in β različna, porazdelitve beta postanejo nesime- trične. S takšno izbiro hiperparametrov lahko izrazimo apriorno znanje, da kovanec ni pošten. Grafe gostot verjetnosti pri različnih parametrih prika- zuje slika 6. 1–11 9 i i “Toman” — 2018/5/3 — 8:24 — page 10 — #10 i i i i i i Aleš Toman 0.0 0.2 0.4 0.6 0.8 1.0 0. 0 1. 0 2. 0 3. 0 ● Porazdelitev Beta(8, 4) p , , , , 0, 1, f P |X (p |x ) 0, 0 1 ,0 2, 0 3, 0 Slika 7. Aposteriorna gostota verjetnosti parametra p pri neinformativni apriorni poraz- delitvi. Analiza kovanca z neinformativno apriorno porazdelitvijo Če je apriorna porazdelitev zvezno enakomerna na intervalu [0, 1] oziroma Beta(1, 1), je aposteriorna gostota verjetnosti fP |X(p|x) ∝ fP (p)︸ ︷︷ ︸ =1 ·fX|P (x|p) = fX|P (x|p) sorazmerna funkciji verjetja [7]. V našem primeru dobimo p|x ∼ Beta(8, 4). Njeno upanje je 0,667, standardni odklon 0,131 in 95 % centralni interval aposteriorne verjetnosti [0,390; 0,891]. Njen graf je prikazan na sliki 7. Bayes in Laplace sta v svojih delih uporabila neinformativne apriorne porazdelitve. Laplace jo je utemeljil s principom nezadostnega razloga. Ta pravi, da moramo, kadar odločamo v popolni negotovosti, vse možne vrednosti neznanega parametra obravnavati kot enako verjetne [4]. Posodabljanje ocen v Bayesovem pristopu Denimo, da smo isti evrski kovanec vrgli še 5-krat ter pri tem dobili 2 cifri in 3 grbe. Skupaj smo torej v 15 metih dobili 9 cifer in 6 grbov. Oglejmo si, kako v statistično analizo vključimo dodatne podatke. Naša informativna apriorna porazdelitev je bila Beta(4, 4). Z upoštevanjem 7 cifer in 3 grbov v desetih metih smo v preǰsnjih razdelkih prǐsli do aposteriorne porazdelitve Beta(4 + 7, 4 + 3) = Beta(11, 7). Podobno lahko sklepamo z razširjenimi podatki (skupaj 15 metov) in dobimo aposteriorno porazdelitev Beta(4 + 9, 4 + 6) = Beta(13, 10). 10 Obzornik mat. fiz. 65 (2018) 1 i i “Toman” — 2018/5/3 — 8:24 — page 11 — #11 i i i i i i Ocenjevanje parametrov v Bayesovi statistiki Obstaja še druga pot. Namesto da analizo začnemo od začetka in zdru- žimo stare in nove podatke, lahko nove podatke le dodamo zaključkom stare analize. Pri tem aposteriorno porazdelitev Beta(11, 7) na osnovi začetnega vzorca uporabimo kot apriorno porazdelitev pri analizi dodatnih podatkov. Ko upoštevamo 2 cifri in 3 grbe, pridemo do iste končne aposteriorne po- razdelitve Beta(11+ 2, 7+3) = Beta(13, 10). Zaradi enostavnega dodajanja novih podatkov v že obstoječo analizo je Bayesova statistika uporabna v aplikacijah, za katere je značilen avtomatski zajem podatkov. Sklepne misli V članku smo predstavili glavne korake Bayesovega pristopa k ocenjeva- nju neznanih parametrov. Obravnavali smo neinformativne in informativne apriorne porazdelitve, s katerimi lahko v statistično analizo vključimo naše predhodno (ne)védenje o neznanem parametru. Na vzorcu zbrane informa- cije predstavlja funkcija verjetja, ki ima pomembno vlogo tudi v frekven- tistični statistiki. Z Bayesovo formulo nato predhodno znanje in vzorčne informacije združimo v aposteriorno porazdelitev, ki opisuje naše védenje o neznanem parametru po končani raziskavi. Tega najpogosteje povzamemo z matematičnim upanjem in centralnim intervalom aposteriorne verjetnosti. Postopek smo si ogledali na primeru ocenjevanja neznane verjetnosti. Izbira primernih apriornih porazdelitev je v praksi težka naloga in zahteva sode- lovanje med statistiki in drugimi znanstveniki. Pravi potencial Bayesovega pristopa zato lahko izkoristimo le z interdisciplinarnim sodelovanjem. LITERATURA [1] A. Agresti in B. A. Coull, Approximate is better than »exact« for interval estimation of binomial proportions, The American Statistician 52 (1998), 119–126. [2] L. D. Brown, T. T. Cai in A. DasGupta, Interval estimation for a binomial proportion, Statistical Science 16 (2001), 101–133. [3] J. A. Čibej, Matematika. Kombinatorika, verjetnostni račun, statistika, DZS, Lju- bljana, 1994. [4] A. B. Gelman, J. B. Carlin, H. S. Stern in D. B. Rubin, Bayesian data analysis, 2. izdaja, Chapman & Hall/CRC, 2004. [5] H. Hoijtink, Bayesian data analysis, v: The SAGE handbook of quantitative methods in psychology (R. E. Millsap in A. Maydeu-Olivares), The SAGE, 2009. [6] S. B. McGrayne, The theory that would not die, Yale University Press, New Haven & London, 2011. [7] J. A. Rice, Mathematical statistics and data analysis, 3. izdaja, Thomson Bro- oks/Cole, 2007. 1–11 11