Nyhed

Instituttet efterlyser åbenhed om det offentliges brug af kunstig intelligens

Billeder af sløret motherboard. Foto: Michael Dziedzic, Unsplash
Offentlige myndigheder bør fortælle, om de bruger kunstig intelligens i deres sagsbehandling. Det vil styrke borgernes retssikkerhed, skriver Institut for Menneskerettigheder i ny analyse.

I en retsstat er det et grundlæggende princip, at borgere og offentlighed skal kunne kigge magthaverne i kortene og få indsigt i de processer, der ligger bag love og afgørelser.

Men når dele af afgørelsen træffes af en algoritmisk profileringsmodel, bliver det princip udfordret.

Det konkluderer Institut for Menneskerettigheder i ny analyse om brugen af kunstig intelligens i det offentlige.

Kunstig intelligens og algoritmer

Kunstig intelligens bruges typisk som samlebetegnelse for modeller, der kan repræsentere og simulere aspekter af menneskelig tænkning på en computer.

En algoritmisk profileringsmodel er groft sagt en computerdrevet matematisk formel, som på baggrund af statistiske data vurderer, om et objekt har en bestemt egenskab, for eksempel om en borger er berettiget til et tilskud.

Profileringsmodeller drives kort sagt af matematiske formler, der på baggrund af oplysninger om afgjorte sager om borgere kan lære at analysere og vurdere nye sager gennem maskinlæring.

Modellerne benyttes blandt andet i sagsbehandlingen i sager på socialområdet og beskæftigelsesområdet.

Profileringsmodeller kan gøre sagsbehandlingen mere strømlinet, men de kan også skabe uklarheder på et område, hvor regler kræver gennemsigtighed i forvaltningen, påpeger jurist og chefkonsulent Marya Akhtar, der står bag analysen.

”Borgeren har ret til at kende til de oplysninger, der indgår i vedkommendes egen sag, og vide, hvad der ligger til grund for en afgørelse. På samme måde har kontrolinstanser og i visse tilfælde også offentligheden krav på at vide, hvordan myndigheden træffer afgørelser,” siger Marya Akhtar og fortsætter:

Den enkelte borger får ikke at vide, om en profileringmodel har været med til at afgøre vedkommendes sag. Det er et problem for vores retssikkerhed.
Marya Akthar, jurist, Institut for Menneskerettigheder

”I Danmark er det bare ikke muligt at få et overblik over, hvor mange offentlige myndigheder der bruger profileringsmodeller i deres sagsbehandling. Den enkelte borger får ikke at vide, om en profileringmodel har været med til at afgøre vedkommendes sag. Det er et problem for vores retssikkerhed.” 

Åbenhed i og om modellerne

Der er ikke åbenhed om, hvor, hvornår og hvordan profileringsmodeller anvendes i forvaltningen. Det kan desuden være svært eller umuligt at få et indblik i modellens design og dens måde at behandle borgerens oplysninger på.

LYD: Journalist Anders Kjærulff taler med Marya Akhtar, jurist og chefkonsulent på Institut for Menneskerettigheder, der efterlyser åbenhed om brug af algoritmer i det offentlige.

Institut for Menneskerettigheder peger på to krav til modellerne, som myndighederne bør kunne opfylde, men langtfra altid gør i dag.

Det første krav omhandler gennemsigtighed om brugen af modellerne: Hvilke myndigheder bruger profileringsmodeller i sagsbehandlingen, og hvad bruger de dem til?

Den type oplysninger bør være offentligt tilgængelige, for eksempel på en hjemmeside, der dækker samtlige offentlige myndigheder. Også den enkelte borger har krav på at vide, hvorvidt og hvordan en profileringsmodel er brugt i en konkret afgørelse.

Den form for åbenhed forudsætter imidlertid, at myndighederne kan redegøre for, hvilke opgaver modellerne udfører, og hvordan de udfører dem.

Myndighederne risikerer at underminere de rettigheder, vi som borgere har i dag, i deres iver efter at effektivere den offentlige sektor.
Marya Akthar, jurist, Institut for Menneskerettigheder

Det andet krav handler derfor om gennemsigtighed i modellerne: Hvordan er modellen designet, hvordan har den behandlet borgerens oplysninger, og hvad er baggrunden for dens resultat?

Kravet sætter nogle grænser for, hvor komplekse modellerne kan være, for jo mere kompleks en model er, jo sværere vil det være at få indsigt i, hvordan den fungerer. Hensynet til borgerens rettigheder skal tænkes ind allerede i designet og udviklingen af modellerne.

”Borgerens rettigheder bør veje tungest i det offentliges brug af profileringsmodeller. Rettigheder skal være rettesnor for, hvordan man går til udviklingen af modellerne, hvilke opgaver man sætter dem til, og hvilke oplysninger man lægger frem om brugen af dem. Ellers risikerer myndighederne at underminere de rettigheder, vi som borgere har i dag, i deres iver efter at effektivere den offentlige sektor,” siger Marya Akhtar. 

Anbefalinger

Institut for Menneskerettigheder anbefaler, at:

  • Digitaliseringsstyrelsen, som led i det fællesoffentlige arbejde med kommuner og regioner, tilføres fornødne ressourcer og opretter en offentligt tilgængelig oversigt over samtlige offentlige myndigheders brug af profileringsmodeller rettet mod borgere
     
  • Alle offentlige myndigheder i Danmark, der anvender profileringsmodeller rettet mod borgere, forpligtes til at oplyse borgere om dette og ved afgørelser informere borgere om, hvordan modellen er nået frem til sine resultater.

Kilde: 'Når algoritmer sagsbehandler - Gennemsigtighed i det offentliges brug af algoritmiske profileringsmodeller', Institut for Menneskerettigheder, marts 2021

 

Kunstig intelligens i sagsbehandling

I to notater giver Institut for Menneskerettigheder konkrete og generelle anbefalinger for at sikre menneskeretten, når offentlige myndigheder bruger kunstig intelligens. Notaterne behandler to specifikke problemstillinger, som imidlertid ikke står alene og rejser flere retssikkerhedsmæssige udfordringer.

Institut for Menneskerettigheder vil i sit kommende arbejde give et overblik over de mange menneskeretlige udfordringer ved offentlige myndigheders brug af kunstig intelligens i sagsbehandlingen.