Tadej Praprotnik ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH: PROBLEMI ALGORITMIČNE PERSONALIZACIJE 143-164 fakulteta za humanistične študije univerza na primorskem tadej.praprotnik@fhs.upr.si ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK izvirni znanstveni članek udk: 519.254:17.023.31:316.621 : : POVZETEK Članek predstavi algoritme kot tehnološko infrastrukturo in družbeno dejstvo vsakdanjega življenja, ki omogoča in določa verzije sodobne družbenosti. Predstavi družbeno konstruiranost algoritmov in njihovo zgodovinsko genezo. Problematizira algoritmično personalizacijo, upodatkovljenje vsakdanjega življenja in hkrati izpostavi subjektivno percepcijo algoritemskih priporočil. Obstoječe interpretacije algoritemske prihodnosti ter algoritmov kot družbenih dejstev (Durkheim) dopolnjuje s subjektivnega vidika uporabnika, zlasti skozi teorijo performativnosti. Pri interpretaciji algoritemskih priporočil izhaja iz filozofske teorije interpasivnosti (Žižek, Dolar, Pfaller). Za celovitejše razumevanje vsakdanjega življenja je nujno obravnavati algoritme kot sestavino in infrastrukturo vsakdanjega življenja ter razumeti algoritme kot družbeno-tehnično možnost, ki struk-turira in oblikuje vsakdanje življenje. V zaključku nakaže možne problematične sklepe in predstave o moči algoritmov in o moči posameznika. Ključni pojmi: algoritmi, personalizacija, nadzorovalni kapitalizem, veliko podatkovje, performativnost, umetna inteligenca, interpasivnost ABSTRACT ALGORITHMS MAY IMPOSE THEMSELVES UPON US, BUT WE CLING TO THEM: PROBLEMS OF ALGORITHMIC PERSONALIZATION The article presents algorithms as technological infrastructure and social fact ofeveryday life, which enables and defines versions of modern sociality. It presents the social constructivity of algorithms and their historical genesis. The article problemmatizes algorithmic personalization, the dataficatition ofeveryday life and exposes the subjective perception of algorithmic recommendations. Existing interpretations of the algorithmic future and algorithms as social facts (Durkheim) are complemented from a subjective point of view of the user, especially through the theory of performativity. In the interpretation of algorithmic recommendations, it is derived from the philosophical theory of interpassivity (Žižek, Dolar, Pfaller). In order to understand everyday life more fully, it is essential to consider algorithms as an ingredient and infrastructure ofeveryday life and to understand algorithms as a socio-technical option that structures and shapes everyday life. In conclusion, it indicates possible problematic conclusions and ideas about the power of algorithms and the power of the individual. Key words: algorithms, personalization, surveillance capitalism, big data, performativity, artificial intelligence, interpassivity 144 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH : :UVOD: ALGORITEMSKO PRIPOROČANJE KOT OMEJEVANJE Ko sem pred dobrim letom kupil nov računalnik in se prvič znova pojavil na spletni platformi za izmenjavo videoposnetkov YouTube sem presenečeno zaznal, da mi on - torej YouTube — na izbiro ponuja precej neznane videoposnetke: meni neznane glasbene videospote, čudne tutoriale, izseke iz računalniških igric. Ker platformo YouTube večinoma uporabljam kot skladišče glasbenih videoposnetkov, sem hčerko vprašal, če pozna ponujeno glasbo. Potrdila je, da gre za neko danes uveljavljeno glasbeno skupino. V redu, naj mu bo. Toda vse moje priljubljene vsebine na YouTubu so izginile. Le kje so? Moj YouTubu je bilo potrebno spet vsega naučiti. Potreboval je nekaj kvalitetnih podatkov, nekaj mojih iskalnih vnosov in nekaj mojih klikov na ponujene videovsebine, da se je YouTube spet privadil na moj okus in je pričel ponujati »pravilne« predloge. Od takrat sva nerazdružljiva prijatelja. Navedena prigoda sicer govori o YouTubu, a resnična prigoda se v resnici dogaja v drobovju YouTuba, govor je o algoritmih. Naše vsakdanje življenje je vse bolj posredovano, pa tudi dopolnjeno in regulirano z najrazličnejšimi digitalnimi, pametnimi napravami. Po Kitchinu te digitalne naprave in omrežene sisteme podpira programska oprema (angl. software), ki je v osnovi sestavljena iz algoritmov: gre za »nize opredeljenih korakov, strukturiranih za procesiranje navodil/podatkov, ki proizvedejo izid« (Kitchin 2017, 14). Splošneje rečeno smo na algoritme delegirali različne vsakdanje prakse, kot je iskanje in vrednotenje informacij, komuniciranje, sprejemanje odločitev, navigacijo in predlaganje optimalne poti vožnje. Najlepši primer delegacije je glagol »googlati«, ki ne aludira le na korporacijo Google, temveč pomeni združevanje algoritemske storitve in same aktivnosti (Willson 2017, 139-140). V konkretnem primeru se je pokazalo, da so algoritmi kot pomočniki in usmerjevalci »neuporabni«, če jih ne oskrbimo s kvalitetnimi podatki: »Algoritmi so iner-tne, nesmiselne naprave, dokler niso povezani z zbirkami podatkov, na katerih delujejo« (Gillespie 2014, 169). Da sva se z YouTubom ponovno »spoprijateljila«, sem mu moral posredovati podatke o sebi, o svojem »okusu«, potreboval je nekaj mojih klikov in poizvedovalnih vnosov, torej nekaj vstopnih podatkov, zato tudi analiza »ne sme razumeti algoritmov kot abstraktnih, tehničnih dosežkov, ampak mora od-pakirati in raziskati vroče človeške in institucionalne izbire, ki se nahajajo izza teh hladnih mehanizmov« (Gillespie 2014, 169). Izhodišče članka je algoritmična personalizacija, ki jo potrošniki v večini primerov doživljajo kot dobrodošlo novost. Študija o personaliziranem oglaševanja (Statista 2017) navaja, da večina potrošnikov ocenjuje, da personalizirane sugestije, ki jih prejemajo, ustrezajo njihovim nakupovalnim navadam, tovrstno oglaševanje pa zlasti med mlajšimi potrošniki pogosto rezultira v nakupu (Statista 2017). Algoritmi postajajo tehnološka infrastruktura vsakdanjega življenja, dostavljajo nam vse bolj optimizirane podatke, vse bolj profilirane in prilagojene produkte, popravljajo jezikovne napake. Kot ugotavljajo Mittelstadt in dr. (2016, 1) se vse več operacij, odločitev 145 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK in izbir delegira na algoritme, ki namesto ljudi svetujejo ali celo odločajo, kako naj interpretiramo podatke in za kakšna dejanja naj se odločamo. Sistemi priporočil uporabnikom posredujejo usmeritve za različna delovanja, denimo na ravni izbire artiklov, izbire optimalne potovalne poti, priporočajo življenjske partnerje. Ob pravkar navedenih sposobnostih je očitna njihova vrednostna nabitost, ki jo specificirajo razvijalci algoritmov, dokončno »optimizirajo« pa uporabniki s svojimi motivacijami, ki privilegirajo določene vrednote. Algoritmi niso tehnološki dodatek, ampak v temelju določajo in oblikujejo naše razumevanje sveta in ga tudi osmišljajo, zato so per-formativni, saj povzročajo in usmerjajo potek dogodkov. Čeprav naj bi algoritmi zmanjšali pristranost in subjektivnost, pa njihova vpisana vrednostna dimenzija celo krepi tradicionalne patologije in družbene neenakosti (Kitchin 2017, 18—19). Vlogo algoritmov prevprašujejo tudi slovenski znanstveniki, zanimajo jih možni scenariji razvoja novinarstva v vse bolj algoritmizirani prihodnosti (Amon Prodnik 2019, 23— 40), problematizirajo vidike algoritmične avtomatizacije novinarske prakse (Vobič, Robnik Šikonja, Kalin Golob 2019, 41—61), preučujejo genezo raziskovanja javnega mnenja v luči aktualnega obdobja velikega podatkovja (Splichal 2019, 1—22), raziskujejo možnosti analize in podatkovnega rudarjenja s pomočjo umetne inteligence (Pretnar, Podjed, Bajec, Žitnik 2020, 121—130; Robnik Šikonja, Pretnar 2019, 49— 57), osredinijo se na razmerje med analogno in digitalno percepcijo vsakdanjega življenja skozi vidik algoritmov (Muršič 2019, 17—26). Namen članka je širša problematizacija algoritmične personalizacije, algoritmizi-rano vsakdanjost skušamo razumeti skozi okvir družbenosti; v naslovu članka smo uporabili parafrazo zgoščene opombe iz klasičnega sociološkega dela, Pravila sociološke metode, v kateri Durkheim v predgovoru k drugi izdaji pojasnjuje pojem družbenega dejstva, zlasti pa ambivalentni odnos do inštitucij: »Institucije se nam resda vsiljujejo, a hkrati nam je tudi veliko do njih; obvezujejo nas, mi pa jih ljubimo, postavljajo nam omejitve, mi pa v upoštevanju njihovih omejitev in v samem omejevanju najdemo celo zadovoljstvo.« (Durkheim 1966, opomba 5, liv). Algoritme predstavljamo v njihovem dvojnem značaju; skozi raven objektivnosti družbenih dejstev in skozi doživljajsko neposredno raven posameznika, torej kot nekakšno brezšivno polje, kjer »'objektivna prisila' in ,subjektivna želja', največja odtujenost in najtesnejša pristnost koincidiraj.« (Močnik 1994, 211). Čeprav so algoritmi kot drobovje materialna oziroma artefaktna realnost, ki strukturira načine družbenosti, postaja algoritmična »prisilna moč« zaradi učinkovitega upodatkovljenja uporabnikovih preferenc posamezniku tudi nenavadno »domača«, posameznikom je veliko do nje; navkljub prisilnemu značaju zagotavlja specifičen human touch. Algoritme obravnavamo kot specifične družbene konstrukcije, ki se nahajajo »zunaj posameznika«, ki posameznika omejujejo in »strukturirajo«, slednji pa v njihovem personaliziranem funkcioniranju najde tudi določeno zadoščenje. Po Splichalu algoritmična personalizacija postaja posredni cilj algoritmov, saj optimizira »uporabniško izkušnjo«, vse večja avtomatizacija priporočil in optimizirano »prileganje« na posameznika pa sokreira prihodnje delovanje posamezni- 146 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH kov (Splichal 2019, 15). Algoritmi ne računajo le »za nazaj«, temveč vse bolj računajo »za naprej«, anticipirajo posameznikova prihodnja delovanja. Zdi se, kot da nas naša lastna prihodnost že nestrpno čaka, da se snidemo. Teza članka je, da so algoritmi vsakdanji in zato specifična tehnološka ekstenzija obstoječih družbenih praks, hkrati pa tudi specifična nadgradnja družbenega reguliranja in reafirmiranja homogenosti, vprašanje visoko vrednotene ideje (inter)aktivnosti pa v sklepu soočimo skozi delovanje algoritemskih priporočil kot specifičnih verzij (inter)pasivnosti. : : ALGORITMI KOT MATERIALNA KULTURA IN DRUŽBENO-TEHNIČNA MOŽNOST Problem algoritmizacije in upodatkovljenja se je pričel pred dobrim desetletjem, s procesi vse bolj sistematičnega zbiranja podatkov. Shoshana Zuboff poimenuje to novo obdobje z terminom nadzorovalni kapitalizem (angl. surveillance capitalism), njegova implicitna logika pa se reproducira skozi različne mehanizme kvantifikacije in upodatkovljenja. Če se posameznikove digitalne sledi po eni strani nenehno beležijo in se na podlagi zbranih podatkov modificirajo in optimizirajo profili sedanjega in prihodnjega obnašanja potrošnika, pa sama individualnost posameznika zgineva (Zuboff 2015, 75). Teh procesov se je javnost prvič močneje zavedla leta 2009, ko je predstavnik korporacije Google Eric Schmidt v intervjuju prvič jasneje izpostavil, da Google hrani posameznikovo zgodovino poizvedb, ki so lahko na voljo drugim inštitucijam: »Če nočeš, da ljudje izvedo nekaj o tebi ... morda tega sploh ne bi smel početi. A če res potrebuješ takšno zasebnost, se moraš zavedati, da iskalniki z Googlom vred te informacije ohranijo za nekaj časa.« (Newman 2009). Postalo je jasno, da je naše spletno življenje lahko predmet načrtnega beleženja. V izjavi so zakriti tudi dejanski akterji; omenja se le iskalnik. Problemi ostajajo zakriti tudi zaradi zgolj načelnega zavedanja posameznikov o pomenu zasebnosti; raziskave (Taddicken 2014, 250) ugotavljajo, da se posameznikova skrb za zasebnost ne odraža v dejanskih rabah. Podobno diskrepanco zaznava obširna mednarodna raziskava o rabi družbenih medijev kot viru novic: velik del uporabnikov priznava, da ne zaupajo platformam družbenih medijev kot virom novic, vseeno pa še naprej dnevno dostopajo do teh platform (Statista, 2021).1 Podobno zaskrbljujoče so ugotovitve druge raziskave glede zavedanja o obstoju algoritmov. Tako se 61% Norvežanov slabo ali pa se sploh ne zaveda obstoja algoritmov, kar je tudi grožnja za demokratično participacijo. Algoritmi niso običajna infrastruktura v smislu transporta: »algoritmi ne samo omogočajo informacijski tok, ampak aktivno intervenirajo in oblikujejo ta isti informacijski tok« (Gran in dr. 2020, 13). Skorajda povsem neraziskano je tudi področje razumevanja algoritmov med širšo svetovno populacijo: 1 V obsežni infografiki študije Social media usage worldwide (Statista 2021, 35) se nahaja tudi pregled izbranih držav glede na delež odraslih, ki uporabljajo družbene medije kot vir novic. Najvišji delež ima Kenija (77%), JAR in Čile (73%), Bolgarija (71%), najmanj pa Nizozemska (39%), Nemčija (37%) in Japonska (25%). 147 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK ali se različne skupine ljudi zavedajo koncepta algoritmov, ali razumejo kdaj in kako lahko algoritmi vplivajo na njihovo delovanje, ali prepoznavajo obstoj in vlogo algoritmov in kako se ob tem počutijo, ter če so že poskusili prek svojega delovanja vplivati na algoritme, da bi ti zadovoljili njihove preference in potrebe (Hargittai in dr. 2020: 764-765). Pametna in vse bolj uporabniško odzivna infrastruktura v obliki algoritmov bi zahtevala vse bolj pametnega državljana, ki bi se zavedal, da skozi lastno konzumi-ranje informacij hkrati tudi producira svojo lastno prihodnost. Toda vseprisotnost algoritmizacije in upodatkovljenja kreira učinek nevidnosti; tudi naše življenje v medijih je precej nevidno. Skozi uporabo komunikacijskih tehnologij in zaradi specifičnega razumevanja medijev kot osrednjih inštitucij, ki nam dostavljajo informacije (angl. the myth of the mediated centre; Couldry 2014, 882—885), in ker skozi medijske institucije in procese, ki so »v medijih«, določamo življenjske prioritete, smo postali slepi za tisto, kar nas bistveno oblikuje — mediji namreč (Deuze 2011, 137). Algoritmi kot akterji materialne kulture so tudi posredniki komunikacijskih razmerij. Vsaka infrastruktura, tudi papir za ljubezensko pismo, določa obseg komunikacijskih možnosti in v »navodilih za uporabo« anticipira določene kompetence, spretnosti, vednosti za tistega, ki tehnologijo uporablja. Izhajamo iz inspirativne ideje, da »medijske tehnologije vsekakor lahko obstajajo tudi brez ljubezni, nikakor pa ne obstaja ljubezen brez medijskih tehnologij« (Kittler 2010, 106). Platforme in aplikacije vplivajo na razumevanje intimnosti in na naše »upravljanje« z intimnostjo, opredeljujejo prakseologijo intimnosti. V kulturi povezljivosti so povezave določene tako s tehnologijo (algoritmi in arhitektura platform določajo prakse), kot tudi z uporabniki. Razumevanje družbenosti vključuje človeško povezanost kot avtomatizirano povezljivost (Nebeling Petersen in dr. 2017, 3), nove podatkovne kulture (angl. data cultures; Albury in dr., 2017), vse bolj obsežne vsakdanje podatke, ki so vezani na posameznikov življenjski stil, denimo na področju športnih aktivnosti (angl. mundane data; Pink in dr., 2017) kot tudi politično ekonomijo komuniciranja, saj so zmenkarske aplikacije (Grindr, Tinder, Bumble) zaradi svoje popularnosti tudi pomembni agregatorji intimnih osebnih podatkov (Wilken in dr. 2019, 1). Omrežena povezljivost postaja infrastruktura intimnosti, zato se intimnost ne »dogaja« neposredno med posamezniki; intimnost razumemo kot omreženo okolje povezav, gre za družbeno-tehnično možnost, ki sooblikuje intimnost (Paasonen 2017). : : IZZIVI IN PROBLEMI ALGORITMIZACIJE Razumevanje delovanja algoritmov je kljub definicijam za povprečnega uporabnika nejasno. Uporabniki običajno razumejo algoritme in podatke kot nerazdružlji-vo enoto, kot delovni aparat, dejansko pa ju je potrebno analitično razločevati; preden sploh lahko rezultate algoritmično omogočimo ali ponudimo, moramo najprej sploh zbrati podatke (Gillespie 2014, 169). Za analitične namene ločujemo med algoritmi kot »navodili za računanje« (pravila, nevronske mreže) ter tistim, kar je 148 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH vhod v algoritem, torej samimi podatki. Ker algoritmi procesirajo podatke, imajo tako kot drugi tipi procesiranja podatkov omejitve: izhodni podatki (angl. output) ne morejo nikoli preseči vhodnih podatkov (angl. input). S slabimi podatki bo algoritem kreiral tudi slabe izhodne podatke (angl. garbage in, garbage out), algori-temski zaključki so lahko zato le v tolikšni meri zanesljivi (in nevtralni) kot so zanesljivi podatki, na katerih temeljijo zaključki (Mittelstadt in dr. 2016, 4-5). Ker kot družba živimo v obdobju »kulta informacij«, se posledično osredotočamo zlasti na obseg informacij, ne pa na moč in raznovrstnost informacij. Temeljni organizacijski principi so namreč ideje, denimo ideja »Vsi ljudje smo enakopravni«, ki že več stoletij poganja družbene spremembe (Roszak 1986). Težavno razumevanje algoritmov je tudi posledica netransparentnosti. Dostopnost do informacij o delovanju algoritmov je včasih načrtno omejeno (Mittelstadt in dr. 2016). Številni uveljavljeni algoritmi, ki (pre)oblikujejo posameznikovo delovanje ali razne storitve za potrošnike, se običajno razvijajo v razvojnih okoljih, ki ne omogočajo vpogleda v razvijanje algoritmov. To ni presenetljivo, saj so algoritmi pogosto edina strukturna prednost pred konkurenco, lastniki algoritmov zato ostajajo zadržani glede razkrivanja svoje intelektualne lastnine, tudi če zavezo o molčečnosti potrdimo s sporazumom o nerazkrivanju informacij (Kitchin 2017, 20). Razkrivanje strukture algoritmov bi lahko omogočilo njihovo zlorabo in manipulacijo (ang. gaming the system), tehnološko neizkušenim uporabnikov pa to ne bi prineslo nobene koristi (Mittelstadt in dr. 2016, 6). Na področju zmenkarskih aplikacij so denimo nekateri uporabniki razvozlali ključne družbeno-tehnične operacije in obšli pričakovane rabe, ki so jih predpostavljale aplikacije.2 Kljub vsemu bi veljalo ozaveščati javnost, kako algoritmi določajo potrošniške prakse; poznamo skupinsko filtriranje (ang. collaborative filtering), ko algoritem podatke o predhodnih nakupih in poizvedovanjih uporabi za oblikovanje primernih priporočil za prihodnje nakupovanje. Algoritem si pomaga s statistično metodo za primerjavo množic (Jaccardov indeks); na podlagi izmerjenih razlik oziroma podobnosti med strankami glede nakupovalnih navad in na podlagi stopnje podobnosti »okusa« priporoča nadaljnje nakupe (Holmes 2019, 98—100). Razvpit je tudi Googlov algoritem PageRank, ki rangira prikazane spletne strani glede na njihovo ustreznost, s preračunavanjem določa verjetnostno porazdelitev za celoten splet (Holmes 2019, 67—68). Ozaveščenost javnosti lahko krepijo študije o načinih Googlovega zbiranja podatkov, ki si je s svojo večletno »prijazno« strategijo ponujanja zastonjskih storitev (YouTube, Google Docs, Google Maps) zagotovil sistem za zbiranje natančnih informacij o obnašanju posameznikov, kjer je manj očiten in poznan zlasti »pasivni« način zbiranje (po možnosti brez vednosti uporabnika, metode zbiranja izhajajo iz samih platform, aplikacij,..) (Schmidt 2018, 2—3). 2 V knjigi Optimal Cupid: Mastering the Hidden Logic of OK Cupid (McKinley, 2014; Albury in dr. 2017, 5) nekdanji uporabnik platforme Cupid predstavi strategije, kako optimizirati svoj zmenkarski profil in ujemanje, oziroma, kako postaviti internetno zmenkovanje na glavo, pri čemer ni nepomembno, da je bil avtor študent uporabne matematike na kalifornijski univerzi UCLA. 149 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK : : ALGORITMIČNA PERSONALIZACIJA: KO ZNAČILNOSTI POPULACIJE POSTANEJO ZNAČILNOSTI POSAMEZNIKA V zadnjih desetletjih se je pričelo »trgovati« z razumevanjem pojma zasebnost, ki je v sodobni družbi prenehala obstajati kot absolutna pravica. Če je zasebnost v klasičnem smislu besede služila za opredeljevanje meje, ki jo denimo država v razmerju do posameznika ne sme preseči, pa se je danes status zasebnosti zrelativiziral: zasebnost se je preobrazila v prilagodljivo kvantiteto z različnimi relativnimi vrednostmi za posameznike, države in podjetja. Zasebnost je postala menjalna dobrina, svojevrsten kapital. Zasebnost se lahko zamenja za določen obseg drugih storitev ali stopnje udobnosti uporabe storitev in dobrin. »Trgovalni« značaj zasebnosti pomeni, da državljan oziroma potrošnik v zameno za udobje ali priročnost žrtvuje nekaj svoje zasebnosti (Leman-Langlois 2008, 112). Svoje podatke »prodaja« prek bančnih in potrošniških kartic, na potrošniških karticah zbira »pike«, kartica tudi omogoča popuste in nagrade, v zameno za te ugodnosti pa dovoli trgovcem zbirati podatke o svojem potrošniškem obnašanju za nadaljnje profiliranje in personalizacijo. Čeprav se v javnem diskurzu veliko govori o zasebnosti, pa se z razvojem tehnologij praviloma pojavljajo le bolj raznolike verzije nadzorovanja. Platforme družbenih medijev, namenjene uporabi s pomočjo mobilnih pametnih telefonov, običajno temeljijo tudi na tem, da uporabniki delijo z drugimi uporabniki informacije o svoji lokaciji in druge osebne informacije, to pa postavlja tudi vprašanje, kako uporabniki upravljajo z normami in razumevanjem zasebnosti in nadzora, kadar oddajajo svoje osebne informacije. Humphreys izpostavlja tri vrste nadzorovanja: prostovoljno oziroma »participatorno« nadzorovanje se razlikuje od starejših sistemov nadzorovanje, ker je prostovoljno. Posamezniki zavestno sodelujejo v procesu spremljanju lastnega obnašanja, ta tip nadzorovanja pa bazira na potrošniški družbi, kjer informacijska tehnologija omogoča razsrediščeno nadzorovanje potrošniškega obnašanja. V tem primeru posamezniki prostovoljno sodelujejo, ker menijo, da imajo od tega korist (Humphreys 2011, 577). Kadar se denimo uporabniki prek platforme dogovarjajo za določeno aktivnost, svojih informacij ne posredujejo le svojim prijateljem, temveč tudi tržnikom, a ta vidik zasebnosti v zavesti uporabnikov skorajda ni prisoten, oziroma se ga razume kot sprejemljiva škoda. Humphreys izpostavi še dva tipa nadzorovanja in sicer lateralno nadzorovanje (vzajemno spremljanje oziroma nadzorovanje uporabnikov družbenega omrežja) in samo nadzorovanje (ko uporabniki zabeležijo svoje lastne aktivnosti za kasnejšo uporabo ali kot evidenco lastnih aktivnosti) (Humphreys 2011, 590—591). Potrošnikovo zanimanje za produkt, morebitni pomisleki ali odpori ter zabeležene digitalne sledi skozi algoritem-ske modele tako kreirajo napovedi, izračunane korelacije določajo verjetnosti in prognoze prihodnjega obnašanja potrošnika. Takšno napovedno trženje (angl. predictive marketing) temelji na njihovi obljubi vse boljšega individualiziranega poznavanja potrošnika, vsekakor boljšega od tradicionalnih tržnih raziskav (Kotras 2020, 2; Kuehn 2020, 23). Če so bile tržne raziskave nekoč omejene na identifikacijo 150 algoritmi se nam resda vsiljujejo, a hkrati nam je tudi veliko do njih družbenih skupin in njihovih potrošniških vzorcev, »novo fazo kvantifikacije odlikuje časovna in prostorska razširitev na nepretrgano in vsepovsodno avtomatizirano spremljanje posameznikove internetne dejavnosti, ki omogoča korporacijam izdelavo individualnih uporabniških profilov, ,digitalnih dvojnikov' in upravljanje z njimi.« (Splichal 2019, 7). V pogojih sodobne »razosebljenosti« se torej krepi marketinško motiviran ideološki mehanizem kreiranja »pristnosti« in »domačnosti«; tudi če nam algoritem ne ponudi povsem ustreznih priporočil, se nam vseeno skuša »približati«. Artefaktna objektivnost in njegova hrbtna »pristnost« nekako konvergirata. Algoritmi nam sicer resda določajo, razvrščajo in omejujejo izbire, toda te slabosti so zakamuflirane v izraz priporočila, ki so namenjena »prav nam«. Če bi algoritmi zgolj omejevali, vsekakor ne bi bili tako uspešni in tu lahko iščemo analogije z razumevanjem oblasti: »Če bi bila oblast zgolj represivna, če ne bi nikoli počela ničesar drugega razen tega, da reče ne, mar zares mislite, da bi jo tedaj sploh kdo ubogal?« (Foucault 2008, 121). Priporočila so namenjena »prav nam« in skozi to interpelacijo-prepoznavanje (Althusser 1980, 81—82), skozi ta klic, v katerem se prepoznamo kot naslovniki priporočila, postanemo tudi nosilci priporočila, postanemo nosilci v algoritem vpisane ideologije. Prepoznavanje v priporočilu je ključno in nujno, s tem se vzpostavi tudi »pristnost«. Izpostavljamo torej performativni značaj konstruiranja posameznikov, ki ne postajamo tisto, kar smo od nekdaj že bili, ampak postajamo tisto, za kar se sami (in z izdatno pomočjo »prav nam« namenjenih priporočil) prepoznavamo. In mesto, kamor s pomočjo nam namenjenih priporočil pridemo, nam je vselej »nenavadno domače«: »Ko se prepoznam v pozivu kot njegov naslovnik, ko ta poziv v meni doseže svoj naslov, takorekoč samodejno spregledam, da šele skozi to prepoznanje' postanem tisto, za kar se ,prepoznam'.« (Žižek 1990, 156). Personalizacija nikoli ni zares personalna, namenjena posamezniku, ampak vključuje generalizacijo (Lury in Day 2019, 2). Kvantifikacija kot proces preoblikovanja digitalnih sledi v številke in kategorije je določena posplošitev, zato je tudi personalizacija vselej zgolj delna. Personalizacija je tako obljuba emancipacije od statističnih kategorij kot tudi grožnja naši zasebnosti, saj pogosto implicira nadzor (Kotras 2020, 3), zato jo razumejo kot »algoritmično manipulacijo potrošnikov« (Darmody in Zwick 2020, 2). Statistična logika je namreč logika raziskovanja značilnosti populacije, ni namenjena raziskovanju značilnosti posameznika. Če v (množičnih) podatkih najdemo visoko korelacijo (ali celo vzročnost), tak podatek opisuje populacijo. Kljub temu pa so algoritemska priporočila usmerjena prav k posamezniku. (Mittelstadt in dr. 2016, 5). Ananny (2016, 100) tako izpostavlja algo-ritemsko etiko, in se zato kritično sprašuje kdaj, kako in za koga delujejo omreženi informacijski algoritmi? Posameznike se namreč prek upodatkovljenja razvršča v statistične kategorije, ki signalizirajo določeno kvantitativno zanesljivost, ta pa povratno odvrača posameznika k raziskovanju alternativnih rešitev in posledično kreira navidezno koherentnost med sicer raznolikimi objekti in raznolikimi posamezniki. Ilustrativen primer je algoritem Google Autocomplete, ki zaključuje posame- 151 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK znikove iskalne poizvedbe, pomaga pa si na podlagi primerjave posameznikov z vsebino in posamezniki, ki jih statistično »vidi« kot podobne. Taka algoritemska logika seveda »krepi kulturne stereotipe in posameznike odvrača stran od nepopularnih iskanj« (Ananny 2016, 103). Z upodatkovljenjem »obogaten« digitalni dvojnik je tako oropan individualnosti. Čeprav naj bi personalizacija zaradi informacijskega (pre)obilja izboljšala proces sprejemanja odločitev in posamezniku ponudila relevantne informacije (Mittelstadt 2016, 9), se ta relevantnost bolj navezuje na statistično pripadnost posameznika kategoriji, in ni odraz njegovih lastnih preferenc. Algoritmična personalizacija s celovitim beleženjem posameznikovega življenja se tako uporablja za usmerjanje posameznikove pozornosti in za napovedovanje njegovega vedenja (Splichal 2019, 7). Ne gre le za evidentiranje uporabniških preferenc, klikov in všečkov, ki jih uporabnik pušča »za seboj«, temveč za hkratno oblikovanje prihodnjih uporabnikovih »zadovoljstev«, ki jih uporabnik naknadno zgolj potrdi in »reificira«. Posamezniki skozi družbeno delovanje torej ne razkrivajo, »kar so«, ampak, nasprotno, skozi lastno družbeno delovanje šele postajajo to, »kar so«. Per-formativna konstitucija skozi delovanje je tipična althusserovska, oziroma, natančneje, austinovska (Austin 1990) pozicija. Posameznikove prakse so v veliki meri per-formativne; vzpostavljajo realnost, o kateri govorijo in na katero se v svojih praksah »sklicujejo«. S statistično izračunano in optimizirano ponudbo priporočil algoritmi sokreirajo uporabnikove prihodnje potrebe, za katere naknadno lahko ugotovi, da so povsem njegove. Analogijo najdemo pri konstituciji identitet, ki ne izvirajo v naših genih, ampak se vzpostavljajo šele skozi komunikacijo. Identitete občasno neustrezno razumemo kot odraz, odsev, kot refleksijo posameznikove obstoječe »realnosti«, dejansko pa šele z našim lastnim delovanjem in komuniciranjem vzpostavljamo realnost (denimo moškost, ženstvenost), na katero se sklicujemo. Komunikacija je temeljno mesto, kjer se naše identitete šele vzpostavljajo, gre za prihajajoče, razvijajoče manifestacije v interakciji: »Identiteto lahko vidimo kot šele razvijajoč produkt in ne kot predhodno že obstoječ vir jezikovnih ali drugih semio-tičnih praks in potemtakem v temelju družbeni in kulturni fenomen« (Bucholtz in Hall 2005, 588). Večja moč izbiranja uporabnika (kaj bo kupil, gledal...) je ključna za tržno obvladovanje posameznika, saj nenehno beleženje in ocenjevanje uporabnikovih dejavnosti ustvarja celovito podatkovno realnost za napovedovanje in modificiranje človeškega delovanja. Potrošniki pričakujejo relevantnost in tržniki jo skušajo omogočiti, zato intenzivno komunicirajo s potrošniki, saj »bližina« omogoča boljši vpogled v potrošnike, bolj relevantne rezultate. Algoritmična manipulacija potrošnikov in potrošniška avtonomija in opolnomočenje se tako zlijeta v eno (Zuboff 2015, 75; Darmody in Zwick 2020, 2). Skozi ponujene algoritemske izbire uporabnik ohranja podobo avtonomije, hkrati pa vse avtomatizirane ponudbe in sugestije delujejo »nenavadno domače«. Kam torej prispe na koncu uporabnik? Ker podatkovno rudarjenje zabeleži celovito »uporabniško izkušnjo« tako na ravni strukturiranih podatkov (kliki, všečki, deljenja), vse bolj pa tudi na ravni nestrukturiranih podatkov 152 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH (občutki, in strahovi v okviru analize sentimentov), je oblikovanja prihodnjega potrošnika vse bolj optimizirano; krilatica »algoritem nas pozna bolje od nas samih« postane relevantna. Algoritem nikoli ne pozabi naših opravljenih klikov in iskanj, in je v tej celovitosti izdatnejši kot naš lasten spomin. S personalizirano omreženo tehnologijo kot specifičnim »telesnim delom« (pametni telefon) se krepi podoba in-teraktivnosti in dopolnjuje vtis večje svobode delovanja, kar je hkrati strategija sodobnega nadzorovanja in usmerjanja posameznikov: »Ker lahko ljudem ravno z aktiviranjem zlahka vzbujamo varljivi občutek, da gre pri tem za svobodno aktivnost, družbe aktiviranja učinkoviteje nadzirajo svoje subjekte kot represivne družbe, ki hromijo sleherno aktivnost ali jo preprečujejo s policijo.« (Pfaller 2019, 72). Tehnologija nadzora polaga moč izbiranja v roke uporabniku, zlasti pa platformam, ki spričo algoritemske logike nagrajujejo najpopularnejše vsebine. Stranski produkt algoritemske personalizacije vsebin (ki so vse bolj »po meri posameznika«) je tudi polarizacija in krepitev (skrajnih) stališč. Pri načrtovanju platform kot prostora javnega diskurza smo po prepričanju Gillespieja naredili faustovski pakt; skratka, nič ni zastonj. V paketu z prosto dostopnimi informacijami smo prejeli tudi brezplačno oglaševanje, prosti participaciji se je kot nasprotje pridružilo spletno nadlegovanje, deljenju vsebine se je pridružilo piratstvo, brezplačne vsebine pa so dobile ustrezen odmev v brezplačni delovni sili (Gillespie 2018, 204—206). Ker rabe tehnologije določajo centri politične in ekonomske moči, je potrebno raziskati družbene motivacije, ki poganjajo procese. Če se osredotočimo na vprašanje »kaj povzroča tehnologija?« razumemo tehnologijo kot avtonomno zunanjo silo, ki pre-obraža družbo. Iz takega ločevanja tehnologije in družbe se porajajo mitologije: obstaja tehnooptimizem (=kaj dobrega povzročajo tehnologije) ali tehnopesimizem (=kaj slabega povzročajo tehnologije). V obeh primerih napačno izhajamo iz same tehnologije in predpostavljamo, da je tehnologija ključna transformativna moč: tehnologijo bodisi razumemo kot zdravilo, bodisi kot vzrok (sprožilec) družbenih problemov. Algoritmi niso vzrok, ki spreminja družbenost, ampak jih je ustrezneje obravnavati kot posledico. Algoritmizacija se pogosto motivirano predstavlja kot »naravna katastrofa«, na katero nimamo (več) vpliva, s tem pa se zlasti zakrivajo družbene motivacije, ki še kako poganjajo sodobne procese: posamezniki ne izgubljajo služb zaradi algoritmizacije, ampak postane algoritmizacija vselej molčeč in prikladen izgovor ali pojasnilo delodajalcev. : : ALGORITMIČNOST VSAKDANJEGA ŽIVLJENJA Algoritmi v resnici niso zadnji modni krik: najrazličnejša »navodila za uporabo«, torej postopke ali nize določenih korakov, uporabljamo v številnih situacijah (kako vstopati v komunikacijo, kako podeliti kompliment). Družbene skupine so za raznolike situacije razvile družbeno regulirane scenarije. Družbene prakse izvajamo posamezniki s pomočjo družbeno reguliranih pravil, od katerih so te prakse odvisne. Praksa zaljubljanja denimo vključuje določene vidike emocionalnosti, ki so ti- 153 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK pične za to prakso, gre za specifičen know-how, specifičen rutiniziran način intenci-onalnosti, kako si nekaj želeti. Posledično emocije niso zgolj stvar posameznika, ampak so kot oblika védenja stvar specifične prakse. Prakse niso zgolj določeno vedenje, ampak se moramo zavedati kulturnih kodov, ki določajo prakse. Prek poznavanja specifičnih kulturnih kodov določeno obnašanje tudi šele zares postane nosilec določene prakse (Reckwitz 2002, 253—254). Tudi rituali kot ponavljajoča, navidezno nesmiselna, a hkrati konstitutivna družbena praksa, je prepredena z algoritmi, torej »z ravnanji, ki za izvajanje posameznih korakov oziroma dejanj upoštevajo pravila. Kaj pa je ritual drugega kot občasno ponavljanje točno določenih gibov in ravnanj?« (Muršič 2019, 17). V postopkih se utelešajo navodila, ki določajo načine ustreznega in priporočljivega delovanja posameznikov. Z izražanjem reguliranih gest ali formulskih izrazov pokažemo, da vemo, da smo na prvem zmenku, ne pa na formalnem banketu. Čeprav so preferenčna, torej družbeno zaželena dejanja, z vidika posameznikove intencionalnosti pogosto »prazna« (posameznik ne misli »iskreno« tistega, kar izjavi), pa ravno z upoštevanjem družbene preferenčnosti3 sogo-vorcu pokažemo, da vemo, za kakšen tip igre gre. Nenavadno, a resnično; s »praznimi« formulami postanemo kompetentni nosilci praks, postanemo ustrezni, primerni, skratka eligible. Če se ta moč zunanje prisile tako jasno potrjuje v situacijah odpora, je to zato, ker ta moč obstaja, čeprav se je ne zavedamo, tudi v nasprotnih situacijah, torej v situacijah, ko to prisilno moč prikriva »subjektivna želja« (Durkheim 1966, 4-5). Algoritmi za upravljanje družbenih praks so navzoči povsod, analogne verzije smo v sodobnem času dopolnili z digitalnimi, zato smo jih pričeli razumeti kot strogo tehnološki pojav. Ta vtis se le utrjuje; če uporabimo teorijo akter-mreža (Latour 2005; Lievrouw 2014, 29—30) postajajo algoritmi na ravni odločanja, priporočanja, klasificiranja, filtriranja, zbiranja podatkov vse bolj samostojni in samodejni aktanti, algoritmi z učnimi sposobnostmi pa tudi zavračajo tradicionalno koncepcijo odgovornosti oblikovalcev. Strojno učeči se algoritmi, ki se sami programirajo in posodabljajo, so ključen izziv, kjer klasične domneve o odgovornosti ne delujejo več (Mittelstadt 2016, 11). : : KO ŠTEVILKE NAVIDEZNO GOVORIJO SAME ZASE: KAJ UPODATKOVIMO IN KAJ IŠČEMO V PODATKIH Upodatkovljenje pospešuje predhodno uveljavljen proces kvantifikacije, namreč »v številkah izraziti tisto, kar je bilo prej izraženo z besedami« (Desrosières 2016, 184). Proces je od sredine 19. stoletja močno prisoten v družboslovju, ki je s tem tudi simbolno skušalo doseči status znanstvenosti, ki je značilna za naravoslovje 3 V komuniciranju obstajajo zaželeni in nezaželeni odgovori (ne v smislu, da jih imamo osebno raje, temveč glede na veljavni, socialno dogovorjeni status, ki usmerja produkcijo in interpretacijo (Verschueren 2000, 64). Preferira-ni odgovor (angl. preferred second) je tisti, ki se ga predpostavlja kot družbeno zaželen način reakcije na izjavo. Preferiran odgovor na pozdrav je odzdravljanje, povabilo predpostavlja sprejetje vabila. Družbena reguliranost se denimo brutalno začuti, kadar se povsem formulsko »ne zahvalimo«. 154 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH (Desrosières 2016, 183). Kvantifikacija postaja sredstvo in končni cilj, ob tem pa se spreminja tudi pogled, kaj iskati in »videti« v upodatkovljenih podatkih. Ce je klasična statistična analiza iskala vzročno-posledične odnose med neodvisno in odvisno spremenljivko, se sodobno upodatkovljenje pogosto omeji na evidentiranje informacij in na iskanje korelacij, na računanje verjetnostnih napovedi, ki pa nikakor ne zagotavljajo zanesljive vednosti. Visoka korelacija ne pomeni avtomatično tudi vzročne povezanosti, toda algoritmi pogosto izvajajo svoje predloge zgolj na podlagi korelacij (Mittelstadt in dr. 2016, 4). Korelacija ne pove, zakaj se nekaj dogaja, ampak le ugotavlja, da se nekaj dogaja; namesto iskanja vzročnih relacij določa trende, računa verjetnost določenih procesov. Andrejevic upravičeno opozarja, da se pojasnjevanje in vzročnost nadomešča z korelacijo in napovedjo. Z upodatkovljenjem in računanjem korelacije ne ugotovimo vzrok (in pojasnilo) za proces, temveč izračunamo niz verjetnostnih napovedi (Andrejevic 2014, 1679). Napovedna analitika z izračunavanjem verjetnosti dogodka lahko povzroči resne težave, denimo aretira ljudi na podlagi izračunane verjetnosti dejanja, ki ga dejansko niso izvršili. Chris Anderson je probleme napovedne analitike izpostavil že leta 2008 v zvezi Googlom: Google si ne domišlja, da pozna kulturo in oglaševalske konvencije, le predpostavlja, da boljši podatki z boljšimi analitičnimi orodji lahko pomenijo zmagovalno kombinacijo. In Google je imel prav (Anderson 2008). Ceprav obstajajo možnosti odkrivanja kompleksnih vzorcev v velikih podatkovnih zbirkah, denimo na področju medicine, na področju razumevanja trendov širjenja gripe4, pa je povsem mitološko trditi, da lahko veliko podatkovje in izračunane korelacije bistveno pripomorejo k celovitemu razumevanju sveta (Couldry 2014, 880—897).5 Ceprav se nekateri podatki zares uporabljajo za namen izboljšanja produktov in storitev, pa Shoshana Zuboff v svoji odmevni knjigi Doba nadzorovalnega kapitalizma (2019) opozarja na vzporedne procese; gre za kreiranje napovednih procesov, ki anticipira-jo, kaj počneš danes, kaj boš počel kmalu, in kaj kasneje. Avtomatizirani napovedni procesi ne poznajo zgolj našega obnašanja, ampak do določene mere tudi oblikujejo naše obnašanje, zato korporacijam ne zadošča, da avtomatizirajo ponudbo, potrošnjo, pozornost, temveč je cilj, da avtomatizirajo posameznike (Zuboff 2019, 3-26). Shoshana Zuboff trdi, da smo posamezniki zgolj surovi material, neskončen 4 Projekt Goggle Flu Trends je temeljil na dejstvu, da obstaja močna povezava med številom z gripo povezanih spletnih poizvedb in obiski zdravniških ordinacij. Google je izbral 45 najpogostejših z gripo povezanih poizvedbenih izrazov in jim sledil v iskalnih poizvedbah uporabnikov svojega iskalnika. Čeprav je ta Googlov algoritem, uporabljen med ameriškima sezonama gripe 2011/2012 in 2012/2013 propadel (algoritem je napovedal za vsaj 50 odstotkov večje število primerov gripe od dejanskih), pa ta zgodnji poskus uporabe velikega podatkovja za napovedovanje epidemij raziskovalcem ponuja koristne uvide, kako razvijati tehnike modeliranja in kako uresničiti potencial velikega podatkovja za sledenje epidemijam (Holmes 2019, 78—82). 5 Obstajajo resnični primeri, kako aplikacije napovedujejo prihodnje dogodke. Ženska je ob nenadni neželeni prekinitvi nosečnosti dezaktivirala aplikacijo za spremljanje nosečnosti, kljub temu pa so ji marketinška podjetja, katerim je snovalec aplikacije prodal njene podatke, še naprej vztrajno pošiljala informacije o izdelkih. Ker torej snovalec aplikacije ni podjetjem posredoval informacije o prenehanju uporabe aplikacije, je sedem mesecev po spontanem splavu prejela paket s spodbudnim sporočilom o lepotah in veselju starševstva (Pittman 2016). 155 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK vir informacij za prihodnje načrtovanje operacij. Dejanski potrošniki nadzorovalne-ga kapitalizma so korporacije, ki trgujejo na svojih tržiščih za prihodnje obnašanje. V podatkih aktualne korporacije zlasti vidijo optimizacijo potrošništva in posledično maksimizacijo dobičkov. Seveda bi družba lahko krepila drugačne prakse, prakse, ki bi skozi uporabo algoritmov naslavljale in krepile vlogo posameznikov kot državljanov, ne pa vlogo potrošnikov. Algoritmi, pogosto opredeljeni kot novi vladarji, so seveda zlasti priročen izgovor, da se (nam) ni treba ukvarjati z družbenimi problemi. Podatkovno in mnenjsko rudarjenje (angl. data and opinion minning) bi namesto ugotavljanja tržnih trendov lahko uporabljali na področju zaznavanja trendov neenakosti, na področju odkrivanja ranljivih skupin, itd. Ker korporacije razumejo posameznike kot potrošnike, se algoritmi uporabljajo za profiliranje potrošnikov in za optimizacijo »uporabniške izkušnje«, ne pa na področju evidentiranja in profiliranja družbenih problemov, na področje »državljanske izkušnje«. Podatkovno rudarjenje bi lahko tu zaznalo obstoječe, zlasti pa prihajajoče konfliktne družbene procese. Namesto potrošniške bi se lahko usmerilo v evidentiranje državljanske izkušnje, v prepoznavanje obstoječih in prihajajočih družbenih problemov in naslovilo vprašanje, kako konsenzualno načrtovati (tehnološke) rešitve za probleme. Judy Wajcman upravičeno trdi, da bi lahko postali zahtevnejši glede tega, kakšno tehnologijo želimo in katerim vrednotam in ciljem naj služi tehnologija. Lahko bi torej pričeli najprej razmišljati o družbenih problemih, nato pa o tehničnih rešitvah (za te probleme) (Wajcman 2016, 197). Ključno družbeno vprašanje je torej: kaj upodatkoviti in kaj iskati/videti v zajetih podatkih? Izpostavljeno idejo prepoznavanja »državljanske izkušnje« lahko seveda označimo kot »naivno« ali (pre)optimistič-no.6 Čeprav ideja predpostavlja virtualno, nikoli še uresničeno verzijo skupnega državljanskega dogovarjanja o reševanju problemov, je potrebna in koristna, ker ohranja možnost misliti tako družbo. Če idejo odpravimo z argumentom, da ni »realna«, je to zgolj pristajanje na aktualna »družbena dejstva«. Algoritmizacija kot del umetne inteligence je zaradi svoje družbene pogojenosti potencialno večsmeren proces. Na vprašanje, ali bo vse bolj robotska prihodnost povzročila odvečnost ljudi ali razbremenitev ljudi, lahko torej odgovori le družba; pri načrtovanju praktične uporabe tehnologij mora aktivno sodelovati družba, ker lahko tako preprečimo najslabše možne scenarije (Harari 2017, 1); tisto, kar je v fazi razvoja zgolj anticipirano kot možnost, kasneje nosilci ekonomske in politične moči pogosto spremenijo v »uradno verzijo« tehnološke rabe: »Delegiranje različnih odločitev strojem je torej povezano z razširitvijo domene človeškega v tehnične naprave« (Muršič 2019, 18), zato jih spremljajo različni premisleki celotnega človeškega etičnega ravnanja. Pozitivna pričakovanja glede uporabnosti umetne inteligence 6 Renata Salecl utemeljeno izpostavlja optimističnost tistih raziskovalcev velikega podatkovja, ki »poudarjajo, da na te podatke ne bi smeli gledati zgolj negativno. Ljudi lahko opolnomočimo, da podatke uporabljajo v svojo korist, ter jih ozavestimo, da odprtodostopni podatki ogromno pripomorejo k znanstvenemu raziskovanju in družbenim spremembam« (Salecl 2020,186—187). 156 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH izražajo vlade, raziskovalni inštituti, razvijalci informacijske tehnologije, negativna pričakovanja pa zlasti različni delavci. Raziskava, opravljena v času razstave umetnostnih in raziskovalnih inštalacij umetne inteligence v Dublinu leta 2017, je prek intervjujev z udeleženci razstave ugotavljala njihova pričakovanja glede umetne inteligence. Kot pozitivni vidik so anketiranci izpostavili avtomatizacijo in učinkovitost, pomoč pri napornih, dolgočasnih, ponavljajočih opravilih. Umetna inteligenca naj bi presegla tudi človeške napake, postala bi zanesljiv pomočnik človeka, po njihovi presoji bi imela pozitivni vpliv na področju medicine, znanosti, okolja. Negativna pričakovanja izpostavljajo širši vpliv na skupino (nezaposlenost, vpliv na človekovo kreativnost). Nekatera pozitivna pričakovanja (umetna inteligenca kot pomočnik) so bila direktno povezana z negativnimi pričakovanji (nezaposlenost). (Kerr in dr. 2020, 6-7). Pri načrtovanju prihodnosti nosilci moči predstavljajo izbrane tehnološke verzije (veliko podatkovje) kot nujno posledico razvoja tehnologije, kot da gre za izbire, ki jih opravlja tehnologija, posamezniki pa smo v tem procesu le opazovalci. Veliko podatkovje tudi neustrezno razumemo kot tehnološki objekt, učinek ali kot določeno tehnološko sposobnost (Zuboff 2015, 75), razloge za družbene probleme nenehno iščemo pri tehnologiji in spregledujemo družbeni izvor tehnologij. Krepi se prepričanje, da procesi izvirajo »pri tehnologiji« ali »v tehnologiji«, prepričanje pa širijo korporacije ali delodajalci, ki kot razloge za družbene spremembe (odpuščanje delavcev) običajno navajajo tehnologije. Posamezniki tako sprejmejo razumevanje, da se tehnologije in spremembe kar »zgodijo«, s tem pa se zakrijejo družbeni akterji, ki so aktivno vključeni v proces implementacije tehnologije. Posamezniki smo skozi uporabo digitalnih servisev Googla, Facebooka itd. postali nosilci človeških izkušenj, ki jih veliko podatkovje kot infrastruktura nadzorovalnega kapitalizma kvantificira v vedenjske podatke, ti pa so uporabljeni za izboljšavo in kreiranje novih digitalnih produktov ali storitev (Zuboff 2019, 8). Ker boljši podatki pomenijo višje dobičke, so sodobni kapitalisti zato zavezani k stalnemu in vse bolj celovitemu zajemu in nadzoru podatkov; vsak najmanjši detajl in proces je postal področje opazovanja, kalkulacije, modifikacije in napovedovanja (Zuboff 2019, 399). Nadzoro-valni kapitalizem zato ni povsem »novi red«, prej lahko govorimo o novi manifestaciji kapitalizma, ki se obnavlja in deluje skozi asimetrije v vednosti in moči: sodobni kapitalizem prek procesa upodatkovljenja ve vse o nas, medtem ko so same operacije za posameznike večinoma nevidne in netransparentne (varstvo intelektualne lastnine). Zbira različne vpoglede v procese od nas, toda ne za nas, prav tako napoveduje našo prihodnost za cilje (in dobičke) drugih, in ne za naše lastne cilje (Zuboff, 2019, 3-26). Z besedami Marka Andrejevica, gre za razkorak velikega po-datkovja (angl. big data divide), med tistimi, ki »sortirajo« in tistimi, ki »so sortirani«, med prvimi, ki zbirajo podatke in drugimi, o katerih take podatke zbirajo, in na katere izdatno vplivajo odločitve prvih (Andrejevic 2014, 1683). 157 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK : : SKLEP: JE REŠITEV ALGORITEMSKI DETOX, IGNORANCA, NEKAJ VMES? Predstavljeni problemi niso argument za manj algoritmizacije, za algoritemski detox. Če se ne soočimo z algoritmizacijo, imamo na voljo le nehvaležne izbire: bodisi afektirano pljuvamo čez njo (ker jo je preveč) in jo zgolj povezujemo z neko črnogledo prihodnostjo, kjer se vloga zasebnosti in avtonomnosti posameznikov postavlja pod vprašaj, iz tovrstne nemoči pa se posamezniki skušajo izviti bodisi z znano strategijo racionalizacije in precejšnjo dozo resigniranega cinizma, bodisi se zatekamo v obrambne mehanizme, v zavestno nevednost (Salecl 2020, 177), po načelu »nimam kaj skrivati, če bo koga doletelo, bo doletelo le malopridne«. Poznamo reklo »manj ko vem, manj se sekiram« ali pa »nevednost je blagoslov«; gre za uveljavljene vsakdanje izjave, s katerimi se posamezniki zaščitijo pred neprijetno resnico (McGoey 2019, 10). Dostop do informacij o delovanju algoritmov je po Kitchinu (2017, 20) dejansko omejen, netransparentnost in pripisana vsemogočnost algoritmov je hkrati »nejasna cona«, kamor se lahko naselijo posameznikove implicitne strategije. Čeprav posamezniki že dokaj dobro vedo, čemu so namenjeni algoritmi, je vseeno blagodejno na algoritme preložiti kakšno krivdo in se rešiti bremena, da smo za vse sami odgovorni. Odgovornost, povezana z ideologijo izbire (Salecl 2010) pomembno določa okvir vsakdanjega življenja: »Različni mediji zdaj veliko pišejo o problemu nadzora, zato ne moremo govoriti, da ljudje s svojimi osebnimi podatki tako ravnajo zaradi pomanjkanja vedenja, temveč z njimi tako ravnajo predvsem zaradi zanikanja tega vedenja.« (Salecl 2020, 176). Če krepimo prepričanje, da so se algoritmi kar »zgodili« (podobno kot naravna nesreča), to postane za posameznika izgovor, slepilni manever. Navidezno odpade nekaj krivde in odgovornosti, kajti algoritmi so se zgodili mimo nas. Na koncu se nam zato zastavlja vprašanje, kakšno dodatno »korist« bi lahko imel posameznik od sodobnih priporočilnih algoritmov? Smo na algoritme zares delegirali zgolj delo, denimo težavno in mučno izbiranje videoposnetkov, počitniških destinacij, prihodnjih življenjskih partnerjev? Ali smo na algoritme prenesli nemara užitek? Z razvojem vse bolj na posameznika usmerjenih platform družbenih medijev naj bi se namreč odločilno krepila posameznikova interaktivnost, moč izbiranja vsebin. (Inter) aktivnost in hitrost sta družbeni vrednoti, toda mar lahko za vse posameznike kar predpostavimo, da uživajo v tem? Ali smo zares strastni akterji interaktivnosti, ali uživamo v tem, da prek zavestnega odločanja in izbiranja soustvarjamo svojo prihodnost? Na deklarativni ravni se bo vsak posameznik strinjal, da je rad akter lastnega življenja, saj kakšna druga verzija odgovora skorajda ne pride v poštev. Pa vendar; nam je res veliko do tega, da povsem sami (kar zaradi družbene določenosti itak ni možno) pretehtamo vse okoliščine, opravimo analizo tveganj in priložnosti, ter se avtonomno in brez priporočil odločimo za neko izbiro? Avtonomija odločanja je naporna in zahtevna, prav tako se težko zanašamo na lasten spomin in zgodovino (napačnih) izbir. Algoritemska priporočila uporabljamo, čeprav nam ta znatno 158 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH omejijo izbiro. V ta vzporedni proces algoritemskega priporočanja in omejevanja se namestijo posameznikove motivacije in drobni umazani užitki. Algoritmi za posameznike lahko opravljajo delo (izbiranje in odločanje) ali pa namesto njih opravljajo užitek. Sodobno »povelje« interaktivnosti in nenehnega izbiranja predpostavlja posameznika, ki uživa v tem, da se mu stalno »dogaja«, ki v vsaki situaciji samozavestno udari nazaj itd. Uveljavilo se je instantno pošiljanje fotografij prek pametnih telefonov kot avtentičnih dokazov »dogajanja«, ta praksa pa pospešuje vtis, da se posameznikom danes stalno dogaja.7 Ker se nam empirično preverljivo stalno »ne dogaja«, pogosto obstaja nasproten vtis: posamezniki prek pametnega telefona pošljejo fotografijo, s katero izpričujejo »dogajanje«. Tu gre njihovo prelaganje užitka še naprej: prek poslane fotografije si tako rekoč zagotovijo, da se jim ni več treba ukvarjati z resničnim »dogajanjem«, kaj šele uživati. Odzvanja lahko drobna »umazana« misel: še dobro, da prek mobilnih telefonov lahko sporočamo, da nam je zabavno in se nam zato v resnici ni potrebno (več) ukvarjati z zabavo, ni se nam potrebno imeti zabavno. Kajti imeti se zabavno je nemara tudi naporno. Obstajajo situacije, ko posamezniki svoj užitek bolj ali manj načrtno delegirajo na druge. Na vprašanje, kako torej misliti aktivnost oziroma pasivnost, ki nam jo omogočajo algoritmi, bomo poskušali odgovoriti s pomočjo teorije interpasivnosti. Čeprav velja interaktivnost za sodobno vrednoto, moč, užitek delovanja, pa ta skoraj zapovedani užitek lahko posameznike tudi obremenjuje. Posledično prelaganje užitka na druge deluje nekoliko nenavadno, saj »največkrat domnevamo, da poskušamo kar največ aktivnosti (dela) delegirati na druge (ljudi ali stroje), da bi na ta način imeli zase kar največ pasivnosti (užitka)« (Pfaller 2019, 70). Obstajajo tudi nasprotni primeri, ko na stvari ali ljudi prenesemo lastno pasivnost, torej užitek in ugodje. Klasično interpasivno situacijo, kjer na druge preložimo ugodje, najdemo v primeru »konzerviranega smeha« (angl. canned laughter), ki spremlja zlasti britanske televizijske situacijske komedije (angl. sitcom), kjer se televizija »smeje namesto nas«. To navidezno čudno prakso, v kateri svoja občutja delegiramo na predmet ali drugo osebo, so poimenovali interpasivnost (Žižek 1989, 31—34, Dolar 1997, 9—10; Pfaller 2019). Posamezniki lahko v tem tudi uživajo, kar pa velja za umazan užitek, ki ga v dobi interaktivnosti ne smemo preveč (na glas) razglašati. Podoben užitek lahko predstavljajo priporočilni sistemi, saj se nam ni treba več ukvarjati z lastnim užitkom izbiranja videoposnetkov. Naj YouTube to počne namesto nas. Ker pa so algoritmi objektivna prisila, tega prelaganja užitka na algoritme ni potrebno (več) 7 Mnoštvo življenjskih izbir ter hkratna nenehna dostopnost do vpogleda v življenja drugih sokreira precej pogost strah, da bomo kaj zamudili, da bi nemara lahko izbrali nekaj drugega (kraj, partnerja, aktivnost); v angleškem govornem področju se je uveljavil termin FOMO (fear of missing out). Navzoča je negotovost, ali je posameznik resnično izbral »najboljšo« možnost, ter posledično obžalovanje za »izgubljenimi« oziroma »zamujenimi« priložnostmi. Občutek, da nekaj zamujamo, se pojavlja navkljub prepričanju, da je posameznik naredil »najboljšo možno izbiro« v danem trenutku. Kot primer lahko navedemo študenta, ki se odloči, da gre na zmenek (in ne na fantovski žur) in na zmenku še vedno ugiba, kaj je zamudil, ko ni šel na žur, čeprav je na zmenku užival in bi ga v prihodnosti z veseljem ponovil. (Milyavskaya in dr. 2018, 726). 159 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK skrivati. Algoritmi so nujna infrastruktura, družbeno dejstvo, ta prisilni značaj je za tiste, ki z veseljem prenesejo na algoritme užitek (odločanje in izbiranje) celo dobrodošla novost. Če so algoritmi postali »inštitucije«, posameznikom ni potrebno skrivati teh »prepovedanih« užitkov. Posamezniki lahko uveljavijo idejo, da jih algoritmi »omejujejo«, da se algoritmom pač ne moremo upreti. V algoritemskih omejevalnih priporočilih lahko torej javno in docela uživajo. Če torej posameznike izbiranje in odločanje frustrira, če tovrstno interaktivnost razumejo kot »delo«, lahko slednje prenesejo na algoritme. Soočimo se s podobno situacijo kot v primeru gledanja situacijskih komedij, kjer se televizija smeje namesto nas. Interpasivneži bi skratka dejali: »Kakšna sreča, resnično hvala televiziji, ki se smeje namesto mene, torej sem razrešen frustracije, da se moram sam smejati.« Podobno odrešilna so lahko algoritemska priporočila: »naj se algoritem odloča namesto mene, izbiranje mi je naporno in povsem odveč.« Lepota algoritmov kot vsiljenih inštitucij je tudi v tem, da odpade kakršnokoli »obsojanje« ali začudeni pogledi. V primeru objektivno vsiljenih algoritemskih priporočil posameznikom ni potrebno razlagati, pojasnjevati ali se opravičevati, zakaj uživajo v algoritmih. Posamezniki so razrešeni odgovornosti (umazanega užitka), zakaj so izbrali algoritme. Tehnologiji lahko naprtijo razloge, zakaj ne morejo sami izbirati. Celo več; kakšne druge možnosti kot prelaganje užitka na algoritme skorajda nimajo. Soočimo se torej z odsotnostjo užitka, ki pa ga lahko, če sledimo Pfaller-ju, tudi postavimo na glavo in ugibamo, če ne gre hkrati tudi za užitek odsotnosti.8 Kaj meni o tem Pfaller: »Interpasivni značaji, ki se nagibajo k temu, da televizijskim komedijam puščajo, da se s konzerviranim smehom smejejo same sebi, se očitno ravno s tem počutijo svobodne in vesele, bolj kot če bi se morali smejati sami. Očitno so srečni, če jim je sodelovanje pri tem v kar največji možni meri prihranjeno, in sicer ne le aktivno sodelovanje v sooblikovanju, temveč po možnosti tudi pasivno sodelovanje pri zabavi.« (Pfaller 2019, 71). Nenazadnje, algoritemska priporočila so lahko tudi podlaga za specifično (samo) zaslepitev. V besedilu predstavljeno stališče, da smo z tehnološkimi algoritmi izgubili interaktivnost, moč izbiranja in svobodo delovanja, je lahko podlaga za kreiranje ideje, da je bil svet pred tehnološkimi algoritmi bistveno boljši. Posameznik si namreč lahko prične domišljati, da je bilo življenje pred algoritmi manj posredovano, bolj svobodno in »avtentično«, da si svobodo in interaktivnost lahko povrnemo, če algoritmov ne uporabljamo. Vzpostavi se lahko prepričanje, da smo nekaj izgubili, toda tisto, kar naj bi z algoritmi izgubili, nikoli sploh nismo imeli. 8 Avtor besedila je v sodobnem času podivjanega potrošništva nemalokrat pred izzivom v trgovinah s prehrano, kjer je na policah deset vrst mleka, in zato ob nepregledni izbiri težje najde »svoje« mleko. Ob tem se nekoliko nostal-gično spominja socialističnih časov, ko je bilo na voljo le »navadno mleko v vrečki« in »alpsko mleko« in ko so posamezniki lahko kljub javnemu zmrdovanju nad »skromno izbiro« vendarle tudi uživali v odsotnosti izbire. 160 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH : : LITERATURA Albury, Kath, Jean Burgess, Ben Light, Kane Race in Rowan Wilken. 2017. »Data cultures of mobile dating and hook-up apps: Emerging issues for critical social science research.« V Big Data & Society 4/2: 1—11. https://doi.org/10.1177/2053951717720950 Althusser, Louis. 1980 »Ideologija in ideološki aparati države«, V: Ideologija in estetski učinek, uredila Zoja Skušek—Močnik, 35—100. Ljubljana: Cankarjeva založba. Amon Prodnik. Jernej. 2019. »Družbeno pospeševanje in vloga novinarstva v algoritemski prihodnosti.« V Javnost:The Public 26/Suplement: 23-40. https://doi.org/10.1080/ 13183222.2019.1696599 Anderson, Chris. 2008. »The End of Theory: The Data Deluge Makes the Scientific Method Obsolete.« Wired, 23 junij 2008. https://www.wired.com/2008/06/pb-theory/ Andrejevic, Mark. 2014. »The Big Data Divide.« V International Journal of Communication 8: 1673-1689. https://ijoc.org/index.php/ijoc/article/view/2161 Ananny Mike. 2016. »Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness.« V Science, Technology, & Human Values 41/1: 93—117. https://doi. org/10.1177/0162243915606523 Austin, John Langshaw. 1990. Kako napravimo kaj z besedami. Ljubljana: Studia humanitatis. Bucholtz, Mary, in Kira Hall. 2005. »Identity and Interaction: A Sociocultural Linguistic Approach.« V Discourse Studies 7/4—5: 585—614. Couldry, Nick. 2014. »Inaugural: A necessary disenchantment: myth, agency and injustice in a digital world.« V The Sociological Review 62/4: 880—897. https://doi.org/10.1111/1467-954X.12158 Darmody, Aron, in Detlev Zwick, 2020. »Manipulate to empower: Hyper-relevance and the contradictions of marketing in the age of surveillance capitalism.« V Big Data & Society 7/1: 1—12. https://doi.org/10.1177/2053951720904112 Desrosières, Alain. 2016. »The quantification of the Social Sciences: An Historical Comparison.« V: The Social Sciences of Quantification. From Politics of Large Numbers to Target-Driven Policies, uredili Bruno, Isabelle, Florence Jany-Catrice in Béatrice Touchelay, 183—204. (Logic, Argumentation & Reasoning 13). Cham: Springer. https://doi.org/10.1007/978-3-319-44000-2 Deuze, Mark. 2011. »Media life.« V Media, Culture, and Society 33/1: 137—148. https://doi.org/10.1177/0163443710386518 Dolar, Mladen. 1997. »Interpasivnost.« V Filozofski vestnik 18/3: 9—30. Durkheim, Emile. 1966. The Rules of Sociological Method. New York: The Free Press. Foucault, Michel. 2008. Vednost — oblast — subjekt. Ljubljana: Krtina. Gillespie, Tarleton. 2014. »The Relevance of Algorithms.« V Media Technologies: Essays on Communication, Materiality, and Society, uredili Tarleton Gillespie, Pablo J. Boczkowski in Kirsten A. Foot, 167—193. Cambridge, Massachusetts, London: The MIT Press. Gillespie, Tarleton. 2018. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven in London: Yale University Press. Gran, Anne-Britt, Peter Booth, Taina Bucher. 2020. »To be or not to be algorithm aware: a question of a new digital divide?« V Information, Communication & Society 23: 1—18. https://doi.org/10.1080/1369118X.2020.1736124 Harari, Yuval Noah. 2017. »Reboot for the AI revolution.« Nature. International weekly journal of science, 19. oktober 2017. https://www.nature.com/news/reboot-for-the-ai-revolution-1.22826 Hargittai, Eszter, Jonathan Gruber, Teodora Djukaric, Jaelle Fuchs, Lisa Brombach. 2020. »Black box measures? How to study people's algorithm skills« V Information, Communication & Society 23/5: 764—775. https://doi.org/10.1080/1369118X.2020.1713846 Holmes, Dawn E. 2019. Velikopodatkovje. Zelo kratek uvod. Ljubljana: Krtina. 161 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK Humphreys, Lee. 2011. »Who's Watching Whom? A Studyof Interactive Technology and Surveillance.« V Journal of Communication 61: 575—595. https://doi. org/i0.iiii/j.i460-2466.20ii.0i570.x Kerr, Aphra, Marguerite Barry in John D. Kelleher. 2020. »Expectations of artificial intelligence and the performativity of ethics: Implications for communication governance.« V Big Data & Society 7/i: i-i2. https://doi.org/i0.ii77/205395i7209i5939 Kitchin, Rob. 20i7. »Thinking Critically about and Researching Algorithms.« V Information, Communication & Society 20/i: i4-29. https://doi.org/i0.i080/i369ii8X.20i6.ii54087 Kittler, Friedrich. 20i0. Optical media: Berlin Lectures 1999. Cambridge: Polity Press. Kotras, Baptiste. 2020. »Mass personalization: Predictive marketing algorithms and the reshaping of consumer knowledge.« V Big Data & Society 7/2: i—i4. https://doi. org/i0.ii77/20 5395i72095i58i Kuehn, Katharina Sophie. 2020. »Personalization 3.0: How Personality Can Predict Consumer Behavior.« V: Anthropological Approaches to Understanding Consumption Patterns and Consumer Behavior, uredili Valentina Chkoniya, Ana Oliveira Madsen in Paata Bukhrashvili, 22—50. Hershey, PA: IGI Global. http://doi:i0.40i8/978-i-7998-3ii5-0.ch002 Latour, Bruno. 2005. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press. Leman-Langlois, Stéphane. 2008. »Privacy as currency: crime, information and control in cyberspace.«, V Technocrime; Technology, Crime and Social Control, uredil Stéphane Leman-Langlois, ii2-i38. London: Willan. Lievrouw, A. Leah. 20i4. »Materiality and Media in Communication and Technology Studies: An Unfinished Project.« V Media Technologies: Essays on Communication, Materiality, and Society, uredili Tarleton Gillespie, Pablo J. Boczkowski in Kirsten A. Foot, 2i-5i. Cambridge, Massachusetts, London: The MIT Press. Lury Celia in Sophie Day. 20i9. »Algorithmic Personalization as a Mode of Individuation.« V Theory, Culture & Society 36/2: i7-37. https://doi.org/i0.ii77/02632764i88i8888 McGoey, Linsey. 20i9. The Unknowers: How Strategic Ignorance Rules the World. London: Zed Books. McKinley, Christopher. 20i4. Optimal Cupid: Mastering the Hidden Logic of OkCupid. England: CreateSpace. Milyavskaya, Marina, Mark Saffran, Nora Hope, Richard Koestner (20i8) »Fear of missing out: prevalence, dynamics, and consequences of experiencing FOMO«. V Motivation and Emotion 42/5: 725-737, https://doi.org/i0.i007/sii03i-0i8-9683-5 Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, Luciano Floridi. 20i6. »The ethics of algorithms: Mapping the debate.« V Big Data & Society 3/2: i-2i. https://doi. org/i0.ii77/205395i7i6679679 Močnik, Rastko. i994. »Lévi-Strauss med paradoksi antropologije.« V Rasa in zgodovina; Totemizem danes, Claude Lévi-Strauss (avtor), i48-228. Ljubljana: Studia humanitatis. Muršič, Rajko. 20i9. »Izkušnja improvizacije v objemu algoritmov: Digitalna vmesnost in preddigitalna trirazsežnost vsakdanjega življenja.« V Glasnik Slovenskega etnološkega društva 59/1: i7-26. Nebeling Petersen, Michael, Katherine Harrison, Tobias Raun in Rikke Andreassen. 20i7. »Introduction; Mediated intimacies.« V Mediated Intimacies; Connectivities, Relationalities and Proximities, uredili Michael Nebeling Petersen, Katherine Harrison, Tobias Raun in Rikke Andreassen, i-i6. London in New York: Routledge. Newman Jared. 2009. »Google's Schmidt Roasted for Privacy Comments.« PCWorld, ii. december 2009. https://www.pcworld.com/article/ i84446/googles_schmidt_roasted_for_privacy_ comments.html Paasonen, Susanna. 20i7. Infrastructures of intimacy. V Mediated Intimacies; Connectivities, 162 ALGORITMI SE NAM RESDA VSILJUJEJO, A HKRATI NAM JE TUDI VELIKO DO NJIH Relationalities and Proximities, uredili Michael Nebeling Petersen, Katherine Harrison, Tobias Raun in Rikke Andreassen, 103-116. London in New York: Routledge. Pfaller, Robert. 2019. Interpasivnost: Radosti delegiranega uživanja. Ljubljana: Maska. Pink, Sarah, Shanti Sumartojo, Deborah Lupton in Christine Heyes La Bond. 2017. »Mundane data: The routines, contingencies and accomplishments of digital living.« V Big Data & Society 4/1: 1-12. https://doi.org/10.1177/2053951717700924 Pittman, Amy. 2016. »The Internet Thinks I'm Still Pregnant.« The New York Times, 2 September 2016. https://www.nytimes.com/20i6/09/04/fashion/modern-love-pregnancy- miscarriage-app-technology.html Pretnar, Ajda in Marko Robnik Šikonja. 2019. »Analiza slik in besedil s pristopi umetne inteligence; Priložnosti in dileme.« V Glasnik Slovenskega etnološkega društva 59/1: 49—57. Pretnar, Ajda, Dan Podjed, Marko Bajec, Slavko Žitnik. 2020. »Sentimeter: Interdisciplinarni pristop k izdelavi medijskega portala.« V Uporabna informatika 28/3: 121—130. https://uporabna- informatika.si/index.php/ui/article/view/98/88 Reckwitz, Andreas. 2002. »Toward a Theory of Social Practices: A Development in Culturalist Theorizing.« V European Journal of Social Theory 5/2: 243—263. Roszak, Theodore. 1986. The cult of information: The Folklore of Computers and the True Art of Thinking. New York: Pantheon Books. Salecl, Renata. 2010. Izbira. Ljubljana: Cankarjeva založba. Salecl, Renata. 2020. Strast do nevednosti: Kdaj in zakaj ne želimo vedeti. Ljubljana: Mladinska knjiga. Schmidt, Douglas C. 2018. Google Data Collection. Digital Content Next, https://digitalcontentnext.org/wp-content/uploads/2018/08/DCN-Google-Data-Collection-Paper. pdf Splichal, Slavko. 2019. »Upodatkovljenje javnega mnenja: od normativne utopije do algoritemske distopije.« V Javnost: The Public 26/Suplement: 1—22. https://doi.org/10.1080/131832 22.2019.1696598 Taddicken, Monika. 2014. »The 'Privacy Paradox' in the Social Web: The Impact of Privacy Concerns, Individual Characteristics, and the Perceived Social Relevance on Different Forms of Self-Disclosure.« V Journal of Computer-Mediated Communication 19/2: 248—273. https://doi. org/i0.iiii/jcc4.i20 52 Verschueren, Jef. 2000. Razumetipragmatiko. Ljubljana: Založba/*cf. Vobič, Igor, Marko Robnik Šikonja, Monika Kalin Golob. 20i9. »Nazaj v prihodnost: avtomatizacija in preobrazba novinarske epistemologije.« V Javnost: The Public 26/Suplement: 4i— 6i. https://doi.org/i0.i080/i3i83222.20i9.i696600 Wajcman, Judy. 20i6. »Anforande: Pressed for time; The digital transformation of everyday life.« V Sociologisk Forskning 53/2: i93—i99. https://sociologiskforskning.se/sf/issue/view/2662 Wilken, Rowan, Jean Burgess in Kath Albury. 20i9. »Dating apps and data markets: A political economy of communication approach.« V Computational Culture 7: i—26. http://computationalculture.net/dating-apps-and-data-markets-a-political-economy-of- communication-approach Willson, Michele. 20i7. »Algorithms (and the) everyday.« V Information, Communication & Society 20/i: i37—i50. https://doi.org/i0.i080/i369ii8X.20i6.i200645 Zuboff, Shoshana. 20i5. »Big Other: Surveillance Capitalism and the Prospects of an Information Civilization.« V Journal of Information Technology 30: 75—89. doi:i0.i057/jit.20i5.5 Zuboff, Shoshana. 20i9. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs. Žižek, Slavoj. i989. The Sublime Object of Ideology. London in New York: Verso. Žižek, Slavoj. i990. »Pripombe k neki razpravi o Heglu.« Ukradeni Poe (izredna številka), Problemi: i24—i80. 163 ANTHRopos 1-2 (261-262) 2021, sTR. 143-164 TADEJ pRAPROTNIK : :VIRI Statista. 2017. Personalized Advertising in the U.S. 2017 report, https://www.statista.com/ study/49088/personalized-advertising/ Statista. 2021. Social media usage worldwide, https://www.statista.com/study/12393/social-networks-statista-dossier/ 164