Merete Smiths blogg

Som generalsekretær i Advokatforeningen er jeg opptatt av rettssikkerhet, rettspolitikk og rettsstatlige spørsmål.

Når maskinen tar feil

Merete Smith foran en burgunder vegg

Hva bør vi som advokater tenke på når jus og teknologi møtes?

En januardag i 2020 ble Robert Julian-Borchak Williams arrestert i oppkjørselen utenfor sitt eget hjem. Bakgrunnen for arrestasjonen var at en ansiktsgjenkjenningsprogram politiet i Michigan brukte, hadde sammenlignet et overvåkningsbilde fra en butikk og bildet på Williams’ førerkort. Programmet hadde kommet fram til at det var sannsynlig at det var snakk om samme person, og dermed bestemte det lokale politiet seg for å arrestere Williams. For et ansiktsgjenkjenningsprogram tar vel ikke feil?

I saken til Williams viste det seg at ansiktsgjenkjenningsprogrammet tok feil. Bildet av butikktyven var en helt annen og Williams hadde aldri vært i den omtalte butikken. Programmet kom med en advarsel om at resultatet ikke var en «positive identification». Det var nemlig ikke programmert til å gi deg det riktige svaret, bare det mest sannsynlige. Som jurister er vi vant til å forholde oss til små nyanser i språket, og den evnen er viktig å ta med seg når vi vurderer elektroniske bevis.

Amerikanske menneskerettighetsaktivister og teknologer peker på flere problematiske sider av bruken. En ting er at teknologien ofte tar feil, spesielt når det gjelder minoriteter. Flere undersøkelser har vist at programmene er bedre på å kjenne igjen hvite menn – fordi de er laget av og testet på hvite menn. Teknologiselskapene har svart med å utføre testing på en mer mangfoldig gruppe mennesker. Samtidig kommer det stadig anklager om forutinntatt teknologi og manglende mangfold i teknologibedriftene, så det er åpenbart et stykke igjen før vi er der vi bør være. For meg er dette en tankevekkende påminnelse om at en maskin aldri vi gi deg et sikrere svar enn den er programmert til å produsere. 

En annen utfordring er at teknologien brukes uten at du er klar over det. Ta for eksempel den klassiske lineupen man ser i amerikanske politiserier. I en lineup du er mistenkt, men ansiktsgjenkjenningsprogrammer kan sette deg i en virtuell lineup når som helst. I verste fall kan det være et demokratisk problem hvis folk ikke lenger våger å demonstrere i gatene i frykt for å bli gjenkjent av ansiktsgjenkjenningsalgoritmene. Det ser vi allerede skjer i Kina.

Vi som forbrukere ikke spesielt bevisst på dataene vi gir fra oss. Mobiltelefonene våre bruker allerede ansiktsgjenkjenning til å låse opp mobilene – noe som betyr at du frivillig har latt et teknologiselskap scanne ansiktet ditt og lagre det i sine systemer. Det er uproblematisk når bruken bare er for å sikre at ingen andre enn du kan låse opp mobilen. Men har du kontroll på hva dataene brukes til?  

I Norge er vi heldigvis beskyttet av GDPR og andre lover, samt at vi har Datatilsynet som følger opp etterlevelsen av disse lovene. Dessverre er veien er kort fra nyttig teknologi til uregulert bruk av data. Utfordringen for lovgivende forsamlinger er at de ofte havner på etterskudd. Årsakene til det er flere: Manglende kunnskap om teknologien, rask teknologiutvikling og trege lovgivningsprosesser. I USA ser man at enkeltstater har vedtatt lover som for eksempel krever at politiet informerer om bruken av ansiktsgjenkjenning – men det løser egentlig bare en liten den av problemet.

Også i Europa ser vi at debatten har blusset opp. Council of Bars and Law Societies of Europe (CCBE) har også skrevet om kunstig intelligens og ansiktsgjenkjenning. De skriver i sin rapport:

In many situations, anonymity is the most important safeguard of freedom, and facial recognition techniques that cover major areas in the public space endanger this freedom.

I oktober 2021 stemte EU-parlamentet for en resolusjon som forbyr bruken av ansiktsgjenkjenning i politiarbeid i offentlige rom som en del av Artificial Intelligene Act.  Dessverre er det et stykke igjen til vi sitter med en endelig vedtatt lov. Og teknologien er allerede i bruk og utvikles raskt.  

Hvis du tenker at dette bare er et problem i USA og land som Kina, så tar du feil. Det finnes flere tilfeller av uheldig bruk av biometri og ansiktsgjenkjenning i Europa også.  Universitetet i Milano fikk nylig en bot på 200 000 euro for å bruke biometri for å oppdage mistenkelig oppførsel på hjemmeeksamen. Det svenske Datatilsynet ga en bot til en svensk skole som brukte ansiktsgjenkjenningsteknologi for å sjekke hvilke elever som var til stede. Dette er tilsynelatende uskyldig teknologi, men når man vet hva biometriske data kan brukes til, føles bruk ansiktsgjenkjenningsverktøy der man før brukte navneopprop som å skyte spurv med kanon.

Som advokater mener jeg at vi har flere oppgaver i denne sammenhengen: Vi må følge med på utviklingen av lovgivningen på området. Vi må også forsikre oss om at teknologiske bevis er innhentet på lovlig måte og via lovlig bruk av teknologi. Og ikke minst må vi holde oss oppdaterte på teknologi. I Advokatforeningen har vi en gruppe ivrige teknologientusiaster som møtes noen ganger i året for å dele hva som skjer på teknologifronten og tilhørende lovgivning. Det gjør oss ikke til eksperter, men hjelper oss med å ha et kritisk blikk. Bare slik tror jeg vi kan unngå at flere som Williams blir arrestert på feilaktig grunnlag.