På kort tid har ChatGPT gjort kunstig intelligens (KI) til allment samtaleemne. Anvendeligheten er blitt åpenbar, så også de store effektene. Pessimister ser risiko for samfunnets undergang, mens entusiaster gleder seg over innovasjonskraft og effektiviseringsmuligheter. Samtidig etterlyses politisk initiativ for å regulere KI. Spørsmålet er i så fall hva det er ved KI som bør reguleres og hvilken rolle norsk lovgiver bør og reelt sett kan ha i dette. Dessuten, hvis man først skal regulere, hvorfor begrense seg til KI? KI er jo bare en gren av et fagområde som kombinerer datateknologi og statistikk, og statistikk kan som kjent også utnyttes av datateknologi som ikke regnes som KI.

EU er i sluttfasen med sitt arbeid for en KI-forordning (the AI Act (AIA)). Om AIA vedtas blir den en del av norsk lov, på samme måte som GDPR. Her ønsker jeg å ta opp et problem med AIA som jeg mener er nokså grunnleggende. Problemet gjelder at AIA lar teknologien som brukes (KI) være avgjørende for om formålet skal anses å være lovlig. Spørsmålet er om man heller burde diskutere formålene som teknologi kan brukes til, og regulere disse mer generelt.

AIA kombinerer regulering av formål med krav til teknologiens kvalitet. Av størst interesse er listene over forbudt bruk og «høyrisiko» bruk av KI. Listen over forbudt bruk er ikke endelig bestemt, men man er i hvert fall enige om å unngå «kinesiske tilstander» («social scoring», hvor KI f.eks. kan redusere dine trygderettigheter om du går på rødt lys). Høyrisiko KI er lovlig forutsatt at omfattende vilkår oppfylles. AIA inneholder en lang liste over høyrisiko KI, fordelt på ulike samfunnssektorer. Listen er dynamisk og skal revideres jevnlig.

Med utkikkspost fra Politihøgskolen er jeg særlig opptatt av KI i sektoren for rettshåndhevelse (law enforcement). Her diskuteres det om bruk av KI i personrettet forutseende politiarbeid (predictive policing) skal forbys eller anses som høyrisiko. Det finnes mange eksempler på at forutseende politiarbeid har gitt uheldige utslag. Praksisen er imidlertid ikke iverksatt på grunn av KI, tvert imot har politiarbeid historisk sett dreid seg om å prøve å forutse om visse personer kommer til å begå kriminalitet. Personene kan være konkret individualiserte, eller være i fokus som gruppe. Når tilnærmingen ensidig baseres på politiets egne data (statistikk), leder den til intensivert innsats mot personer som allerede er i politiets registre, og personer i deres familie, sosiale nettverk og nabolag. Kriminelle som ikke er i statistikken, har derimot kunnet havne i blindsonen. Det virker urettferdig, og praksisen bryter i verste fall mot diskrimineringsforbudet og uskyldspresumpsjonen. Det mulige forbudet i AIA begrunnes i at selvforsterkende mekanismer i KI-teknologien forverrer skjevhetene.

Tankekorset er at forbudet bare vil gjelde praksisen når den støttes av KI. Uheldige utslag av forutseende politiarbeid støttet av eldre teknologi, er imidlertid dokumentert både i USA og Europa. Dette viser at problemstillingen er mer generell og snarere handler om det kunnskapsmessige grunnlaget for politiets strategier og prioriteringer. Valg av verktøy er i så måte av mindre betydning.

Ved å forby en praksis når den støttes av KI, sier man implisitt at praksisen er akseptabel såfremt man bruker en annen type verktøy. Resultatet er merkverdig hvis det grunnleggende problemet er at praksisen strider mot et akseptabelt menneskesyn. Et forbud lukker dessuten muligheten for forbedret bruk av teknologien. Man kunne f.eks. diskutere om forutseende politiarbeid er akseptabelt og formålstjenlig dersom verktøyet baserer seg på et rettferdig utvalg data (statistikk) og kontrolleres for svakheter. Tilnærmingen åpner for bredere analyser som kanskje kan avdekke problemer som ellers har falt i politiets blindsone. Det er en forbedring.

Etter mitt syn burde politikerne adressere en problematisk praksis for det den er, og eventuelt regulere den uavhengig av typen teknologi som er involvert. I tillegg burde man diskutere om de omfattende vilkårene for høyrisiko KI burde gjelde annen teknologi også. Politiet bruker teknologi i nær sagt alle sine gjøremål, og å stille lovmessige krav til validering og kontroll med disse verktøyene burde være like selvsagt som for KI verktøy. Slik er det likevel ikke i dag. Dersom AIA vedtas er Norge bundet, og det nasjonale handlingsrommet innsnevret. Siste ord er imidlertid ikke sagt om regulering av KI. Temaet vil være på den politiske agendaen i overskuelig fremtid og AIA kommer til å bli revidert.

Oppfordringen som bør gå til norske politikere er hvordan man bør posisjonere seg i Europa for å få gjennomslag for gjennomtenkte holdninger til bruk av teknologi.