Datafisering af menneskeliv risikerer at marginalisere aspekter af livet, der ikke kan gøres op i tal
Af Nanna Würtz Kristiansen, medlem af Kritik Digital og Ph.d.-studerende ved Institut for Kommunikation og Humanistisk Videnskab, Roskilde Universitet
Efter jeg den 18. februar 2020 havde set Netflix dokumentaren The Great Hack, forsøgte jeg at beskrive de tanker og følelser, filmens fortælling om Facebook-Cambridge Analytica-skandalen gav mig:
Jeg har en følelse af at blive kvalt indefra
Mit hjerte banker hurtigt
har formået at trænge ind i os
Ind i mig
Mit indre, mine tanker, mine drømme, mine følelser
er ikke længere kun mine.
Facebook kan forudse,
hvad jeg vil føle i morgen.
Dét føles som et ekstremt overgreb.
Som et tyveri af det, der før var min unikke livsverden.
Og kun min.
Jeg føler mig reduceret til en matematisk formel.
Som mit liv langsomt går ud på at løse.
Men som Mark Zuckerberg for længst har regnet ud
og tjener styrtende på.
Det er forfærdeligt at blive konfronteret med magtforholdet mellem os og dem!
Er det for sent?
Det er så uretfærdigt og pisse tarveligt,
at vi er så indviklet i og afhængige af de platforme, som bruges til at udnytte os.
Vi er afhængige af dem, fordi vi er afhængige af hinanden!
Vi prøver desperat at opretholde forbindelsen til hinanden
på en måde, der bare gør os mere alene.
Foran vores individuelle skærm.
Fyldt med individualiseret indhold.
To år og en madpakke senere har jeg mere teoretisk lært den uretfærdighed, jeg følte, at kende som en form for kognitiv eller videnskabsteoretisk uretfærdighed. Datafiseringen af menneskeliv risikerer at marginalisere de mange former for viden, der ikke kan konverteres til tal og dermed data.
Det er det der foregår, når Facebook (nu Meta) anvender viden om vores adfærd til at regne ud, hvornår vi er mest modtagelige for manipulation. Det er blandt andet vores kropslige sansninger af verden, vores intuition og kreativitet. En dominerende datafiseringsideologi – nogle kalder den dataisme, andre overvågningskapitalisme eller datakolonialisme – insisterer på algoritmiske beslutningers objektivitet.
På den måde skabes et videnshierarki, hvor den bedste, mest værdifulde viden om menneskeliv, er den, der kan gøres til data. Jeg tror, at vi må finde måder hvorpå algoritmisk viden og kropslige erfaringer kan sameksistere. Det kræver, at vi gør op med videnshierarkier, hvor tal trumfer stemmer, at vi designer teknologier, der tager højde for menneskekroppen og giver plads til, at vi kan påvirke dem med vores unikke livserfaringer, og som ikke er designet til at undertrykke det tænkende, talende, følende menneske for profit.