Du er ikke din egen længere

af Anette Lerche

Vi går mod et overvåget samfund, der er styret af algoritmer, mener Klavs Birkholm, der er medforfatter til bogen De skjulte algoritmer, som udkom i juni 2018. Han mener, at politikerne har givet op i stedet for at genvinde kontrollen med samfundets udvikling.

Algoritme-menneske

På et kinesisk gymnasium hænger der kameraer i klasselokalet. Hver 30. sekund tager de billeder af elevernes ansigter og en algoritme baseret på ansigtsgenkendelse deler eleverne ind i kategorier. Døsig, glad, arbejdsom og så videre, og læreren får besked om hver elevs status på sin skærm. Det er ikke fremtid. Det er nutid. Og bare et af mange eksempler på en algoritmestyret verden, hvor algoritmer, som hverken du, myndighederne eller politikerne kan gennemskue, beslutter, hvad der skal ske med dine data og dermed dig. Det er budskabet i bogen De skjulte algoritmer, redigeret af Klavs Birkholm og Niels Frølich. Et andet eksempel fra bogen er en amerikansk langtidschauffør, der får et brev om, at hans køretilladelse er inddraget. Han har kørt lastbil i mange år og har ikke nogle trafikforseelser. Men det viser sig, at en algoritme har vurderet, at han ligner en anden registreret chauffør så meget, at han må være en falsk identiet, og derfor er tilladelsen inddraget – vel at mærke uden at et menneske var involveret i den afgørelse. 

JEG HAR IKKE NOGET AT SKJULE 

Klavs Birkholm er forhenværende medlem af Etisk Råd og underviser i Teknoantropologi på Aalborg Universitet. Han har sammen med it- og telekommunikationskonsulent Niels Frølich samlet en række danske og udenlandske eksperters bidrag om algoritmernes betydning og udbredelse i bogen De skjulte algoritmer. Klavs Birkholm er bekymret over, at det store flertal stiltiende accepterer, at algoritmer spiller en større og større rolle i deres liv. - Mange har den holdning, at de ikke har gjort noget, så de har ikke noget problem med, at nogen kan se, hvem de er, og hvad de laver. Men det er et perspektiv på vores samfund, som ikke går an. Grundlaget for vores demokrati er, at det ikke kun betyder noget, om man selv bliver overvåget, men også om andre bliver overvåget – om samfundet er overvåget, siger Klavs Birkholm. Derfor denne bog. For at bevidstgøre os. Hans bekymring over overvågningen, og hvordan internetgiganterne bruger vores data betyder, at han eksempelvis ikke selv har nogen profil på Facebook. Men han er teknologinørd og bestemt ikke imod teknologi, og han brugte som journalist internettet fra 1985 (før det reelt eksisterede, red). I hans optik må vi derfor se hver eneste algoritme og ny teknologi særskilt. For det er eksempelvis meget smart, at der er installeret software i en bil, der gør den mere sikker. Mens det er en trussel mod vores demokrati, hvis Facebook overtager kontrollen med vores newsfeed, fordi Facebook fra den ene dag til den anden kan ændre i den algoritme, der styrer hvilke nyheder, vi får at se. 


Facebooks eksperimenter
Facebook eksperimenterer med deres algoritmer. Og du kan ikke kontrollere, om du bliver en del af et eksperiment. 689.000 Facebook-brugere blev udvalgt og delt op i to grupper. I den ene gruppe fjernede man alle negative ord og udtryk fra det, de så i deres newsfeed. I den anden gruppe fjernede man alle positive ord. Konklusionen på forsøget var, at forsøgspersonernes egne posts blev ekkoer af den stemning, der prægede deres newsfeed, så det negative fremelskede mere negativt og det positive mere positivt.

ET DEMOKRATISK PROBLEM 

- De færreste er opmærksomme på de store ændringer, der sker i strukturerne for vores demokrati. En dansk politiker har sagt til mig: »Det er godt, at du skriver det Klavs, men jeg bliver jo nødt til at bruge Facebook. Ellers har jeg ikke nogen politisk platform.« Politikerne er ikke længere interesserede i at undersøge årsagerne til udfordringerne i vores samfund. De er mere interesserede i at regulere i første led – altså symptombehandle. På Filippinerne har man installeret et system, der får en alarm til at bippe, når folk har været på toilettet. Og den stopper først, når de har brugt sæbe til at vaske hænder. I stedet for at myndighederne tænkte, at nu må vi gøre noget ved opfattelsen af hygiejne. Det er det, jeg frygter, at politik er på vej imod. At vi får så mange sensorer, at vi ikke behøver at lovgive eller diskutere, hvad der er godt og dårligt. Vi kan bare regulere on location, siger Klavs Birkholm. Samme symptombehandling går igen i kampen mod terror, hvor vi for at føle os sikre accepterer overvågning i håbet om at fange den næste terrorist. En anden tilgang kunne være at se på årsagerne til terror og forsøge at gøre noget ved dem, påpeger Klavs Birkholm. 

ALGORITMER ER IKKE NEUTRALE 

Vi er selv med til at invitere algoritmerne ind i vores liv. Blandt andet via det, der kaldes Tingenes Internet. Under den kategori hører teknik, der kan overvåge vores sundhed, eksempelvis skridttællere eller Google Watch, der producerer data om vores kroppe og sundhed, som vi så deler med firmaet bag. Andre eksempler på tingenes internet er Smart TV eller Google Home, som for eksempel kan hjælpe med at finde en restaurant, hvis vi har lyst til italiensk mad og endda reservere bord for os. Men problemet er igen, at de indsamler vores data og påvirker vores adfærd gennem algoritmer, som vi ikke har kontrol over. Og pludselig er det Google, der styrer, hvor vi spiser, og hvilke restauranter, der har fuldt hus. Ligesom det er Google, der styrer vores søgeresultater. Journalisten Carole Cadwalladr beskriver i bogen, hvordan hun har testet Googles søgeresultat ved at skrive »er jøder…?« for at se Googles bud på, hvilket spørgsmål, hun ville stille. Søgemaskinen foreslog »Er jøder en race?«, »Er jøder hvide?« »Er jøder kristne?« og til sidst »Er jøder onde?«. Og da hun trykkede enter til det sidste forslag, dukkede en række hadefulde hits op. 


”I Kina synes regeringen, at befolkningen har det godt, fordi der er styr på kriminalitet og ingen terror, men befolkningen betaler en meget høj pris.”


Googles søgeresultat er fundet via en algoritme, der blandt andet ranker det, andre brugere foretrækker, og især grupper fra den yderste politiske højrefløj bruger derfor aktivt Google til at udbrede fake news ved at udnytte, at man kan lade sider besøge hinanden og derved få bestemte sider højere op i søgeresultatet. Tingenes Internet spiller også en stor rolle i byplanlægningen, hvor mange storbyer ønsker at blive en såkaldt smart city. - I en by vil man kunne opsætte sensorer, der indsamler data om forurening. Det kan man let se som en neutral ting. Men resultaterne er jo afhængige af, hvor højt eller lavt, man sætter sensorerne, så målingerne vil kunne påvirkes, siger Klavs Birkholm. Et andet eksempel på, hvordan data ikke er neutrale er, når der indsamles statistik omkring kriminalitet. For jo mere massivt politiet er til stede i bestemte bydele, jo mere kriminalitet vil de registrere. Og dermed opstår der mere data om, hvor kriminelle befolkningen er i bestemte områder, som typisk vil være fattige kvarterer. - Men mon ikke også man ville opleve en stigning i kriminaliteten i Rungsted, hvis man overvågede lige så massivt der?, spørger Klavs Birkholm, der advarer mod, at vi hopper med på vognen med såkaldte smart cities. - At vi forvandler vores byer til en slags tingenes internet, hvor du ikke kan bevæge dig en meter uden at blive registreret. I Kina synes regeringen, at befolkningen har det godt, fordi der er styr på kriminalitet og ingen terror, men befolkningen betaler en meget høj pris. 

ALGORITMEFORORDNING 

I Danmark er der p.t. en debat om, hvorvidt vi har brug for et dataetisk råd. En god ide, mener Klavs Birkholm. - Det skal ikke bare være et ekspertråd. Vi har brug for et folkeligt råd, der oplyser og fremlægger dilemmaer og peger på mulige forslag. Lige som det nuværende etiske råd. Et andet bud på at øge samfundets kontrol med algoritmerne er en algoritmeforordning i stil med den nye persondataforordning. Hvor firmaer, der bruger algoritmer er forpligtigede til at være åbne om deres algoritmer. Ikke kun på kodesprog, men også i en læsbar fremstilling, så alle kan forstå, hvad der sker i de 50 siders kodesprog, der eksempelvis styrer Facebooks algoritmer. Det er dog et tiltag, som techgiganterne i Silicon Valley ikke er indstillede på. Og derfor er det problematisk, at de har så stor magt. For de etiske spørgsmål er mange. For eksempel, hvem skal regulere de selvkørende biler? Myndighederne eller private producenter? I Klavs Birkholms optik kan teknologien langt fra overtage det, vi i dag lader den menneskelige hjerne klare. For kunstig intelligens er reelt set kun stor datakraft, mens den menneskelige hjerne er meget mere kompleks og registrerer det, der sker, når vi mødes ansigt til ansigt. 


”Vi må konstatere, at algoritmerne ikke er neutrale. Derfor er det problematisk, at politikere har givet op over for algoritmernes skjulte magt. For i sidste ende udgør de en reel trussel for vores demokrati.”

NOGET ER GODT, ANDET ER SKIDT 

Netop Klavs Birkholms forbehold har givet ham rollen som den, der er skeptisk i debatten om kunstig intelligens. En moderne maskinstormer. Og medierne har en klar tendens til at ville hype ny teknologi og fravælger ham som kilde. - Men jeg holder fast i, at vi skal diskutere hver teknologi for sig. Noget er godt og noget er dårligt. Og det er vigtigt, at vi holder fast i, at en algoritme helt konkret kun er en regneforskrift, og at den ikke er neutral, men gør det, som regneforskriften siger, at den skal, siger Klavs Birkholm. Derfor er det så vigtigt, at der diskuteres etik i algoritmerne. For it-programmørne bag algoritmerne har en stor magt. Eksempelvis er den kandidattest som mange danskere brugte til sidste kommunalvalg for at få hjælp til, hvem de skulle stemme på, ikke var så neutral, som man troede. Aske Mottelson fra Datalogisk Institut ved Københavns Universitet testede kandidattesten 60.000 gange og kunne konstatere, at modellen gav partierne Venstre, Dansk Folkeparti, og Nye Borgerlige en klar fordel, så der var dobbelt så stor chance for at få en venstre-kandidat frem for en socialdemokrat, når man tog testen. Algoritmen bag testen er ikke offentlig, men tydeligvis udformet, så den favoriserer bestemte kandidater. - Vi må konstatere, at algoritmerne ikke er neutrale. Derfor er det problematisk, at politikerne har givet op over for algoritmernes skjulte magt. For i sidste ende udgør de en reel trussel for vores demokrati, mener Klavs Birkholm.

Klavs Birkholm (tv) var medlem af Det Etiske Råd fra 2003-2011, hvor han blandt andet var formand for en arbejdsgruppe om intelligente teknologier.

Skriv en kommentar