Dr. Kogan eller: Hvordan jeg lærte at holde op med at bekymre mig og at elske Skynet

En af de ting der optager min kollegaer og mig i øjeblikket, er hvilke moralkodeks, der gælder for os udviklere. Vi arbejder med AI og som alle andre indenfor det felt, diskuterer vi hvor den moralske grænse egentlig går.

Måske skal jeg begynde med at fortælle om mit arbejde. Virksomheden laver primært 2 ting: Online surveys og kampagnemåling.

Den del der har med online surveys at gøre, giver sites mulighed for lave spørgeskemaundersøgelser, rettet mod deres brugere. Gennem disse spørgeskemaer, indsamler de information om deres brugere. Oplysningerne om brugerne er værdifulde for det enkelte site, da de gennem disse får et nøjagtigt billede af hvem deres brugere er. Det er f.eks. vigtig information for online aviser, at de ved hvem deres læserskare er.

Den anden del, den der har med kampagnemåling at gøre, trækker på denne information. Hvis f.eks. Sundhedstyrelsen laver en kampagne rettet mod unge kvinder i alderen 18-24, er det vigtigt for Sundhedsstyrelsen at vide, om kampagnen også er blevet set af de 18-24 årige kvinder eller om de har annonceret på sites, der primært er besøgt af f.eks. mænd. Det er vi så gode til, at dette er en service som blandt andet Google og Facebook køber af os.

En af de store udfordringer, når man skal måle om man har ramt sin målgruppe er, at de fleste efterhånden har 2-3 devices eller mere. Tre visninger på hhv. desktop, mobil og tablet kan derfor være 3 forskellige individer, men det kan også være det samme individ med 3 forskellige devices. Det betyder, at det reelle antal som har set en kampagne, ikke er det samme som det antal gange, kampagne er blevet vist. Der er her mit arbejde kommer ind i billedet. En af de ting vi har lavet, er nemlig et system der kan genkende adfærden hos brugere og koble deres devices sammen. På den måde kan vi tælle hvor mange personer der er eksponeret og ikke blot hvor mange devices kampagnen er blevet vist på. Vi kigger ikke på hvem der ejer hvilke devices, kun hvilke devices er ejet af et enkelt individ. Der har vi trukket en benhård grænse: intet må være personhenførbart, hverken i det data vi producerer eller i det data vi indsamler. Men vi kan alligevel ikke lade være med at spekulere, for det er jo ikke teknologien der sætter grænsen – det er os.

En af de ting der adskiller en privat virksomhed fra en forskningsinstitution er, at en forskningsinstitution lever af at publicere sin forskning og en privat virksomhed af at lade være. Vi kan se fra det der bliver publiceret, at det vi laver ville være et væsentlig bidrag til forskningen, men i og med vi er en privat virksomhed, skal den kommercielle værdi udnyttes først og publiceringer er sekundært. Min pointe med dette er, at vores arbejde er med til at flytte grænserne for hvad der er muligt med AI, men med det følger også et moralsk ansvar og her er det op til os – nørderne – selv at sætte grænserne for hvor langt vi vil gå.

Spørgsmålet er, om vi overhovedet er i stand til at overskue konsekvenserne af vores handlinger. Ser man f.eks. på en af de historier der har være oppe og vende for nylig, har en Ph.D.-studerende trænet en maskinlæringsalgoritme til genkende ansigter, også selvom ansigterne er tildækkede. Efter eget udsagn havde han genkendelse af kriminelle i tankerne, men det kan også bruges til at identificere aktivister og til at forfølge og undertrykke politisk opposition. Mulighederne for misbrug er mange og f.eks. kan homoseksuelle pludselig få trange kår.

Når jeg kigger på hvad der sker fra politisk side på dette område, kan jeg kun grine og ryste på hovedet. Politikerne aner desværre ikke hvad de taler om. Når Bjarne Corydon, i ramme alvor og på landsdækkende TV, kan påstå at det er umuligt at tage en “digital kopi” uden at efterlade sig spor, er det så meget uden for skiven, at det ikke længere giver mening at tale om at han tager fejl. Det er som at høre børnehavebørn lege “far-mor-og-børn”: et vindue ind i et naivt forsøg på at imitere en verden de på ingen måde har kompetencer til at begå sig i.

Vi har en cookie-lovgivning som er noget makværk og ingen forskel gør. Den er lige så tåbelig, som da der blev fremstillet et lovforslag om, at det skulle være ulovligt at slå ihjel med kniv. Det var allerede ulovligt at slå ihjel, men et eller andet fjols, syntes det var vigtig at specificere, at det heller ikke var lovlig med en kniv.

Det er når man begynder at fokusere på det tekniske (kniven) og ikke på resultat (drab), at kæden falder af. I stedet for at lovgive om hvordan man må indsamle data (via cookies), savner jeg at vores politikere begynder at tage en snak om hvad data må bruges til.

Apples seneste event er et meget godt eksempel på hvor jeg vil hen: Vi er ikke blot bundet af cookies for at kunne identificere brugere. Dels er der det med at vores online adfærd er ca den samme uanset device og unik nok til at kunne genkendes, men vores fysiske fremtoning – Apple bruger ansigtet – kan også bruges til at identificere os. Der er i dag så mange muligheder for at indsamle data uden cookies, at cookie-lovgivningen er håbløst forældet. Når vi anvender en computer, sender operativsystem brugsdata til producenten. Det samme gør mange applikationer i øvrigt. Intet af dette er dækket af lovgivningen.

Det jeg savner er, at man fra politisk hold begynder at bekymre sig om hvad man må bruge data til. Samtidig er jeg også bange for, at man i bedste Erasmus Montanus-stil, begynder på den sædvanlige inkompetente regulering og derved får dræbt samtlige Europæiske AI-initiativer. Derudover kan det være profitabelt for staten at kunne sælge noget at al den information den selv ligger inde med om borgerne, så der er nok ikke rigtig noget incitament til at tag hul på det fra hverken nationalstaten eller EU.

Egentlig tror jeg det ville være bedre om branchen selv kunne udarbejde et moralsk værdisæt, der kunne regulere forskning og anvendelse. Desværre ser det heller ikke ud til at være lige om hjørnet. Det seneste jeg kunne finde, som berører etik og moral i branchen ved en hurtig google-søgning, var “ACM Code of Ethics and Professional Conduct” og det er fra 1992.

Til gengæld har jeg bemærket at året goto;-konference har et helt spor dedikeret til maskinindlæring. Det bliver super spændende at se om det bliver rent teknisk eller om nogle af talerne også kommer ind på de moralske og etiske spørgsmål som naturligt følger området.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *