Nyhed

Der er brug for mere kontrol med offentlige myndigheders brug af kunstig intelligens

Kunstig intelligens
Borgernes rettigheder skal beskyttes bedre, når offentlige myndigheder benytter kunstig intelligens. Institut for Menneskerettigheder giver i ny rapport konkrete anvisninger til, hvordan det bør gøres.

Rammerne og lovgivningen er ikke fulgt med, mens offentlige myndigheder har taget kunstig intelligens i brug.  Der er brug for mere kontrol – især i situationer, hvor brugen af kunstig intelligens kan have stor betydning for borgernes rettigheder og retssikkerhed. Sådan lyder hovedkonklusionen i en ny rapport fra Institut for Menneskerettigheder, som skal vejlede det offentlige i brugen af kunstig intelligens, når der træffes afgørelser.

Instituttet opfordrer til at øge kontrollen ved blandt andet at indføre et offentligt register over alle myndigheder, der gør brug af kunstig intelligens, og generelt styrke tilsynet med myndighederne og stille højere krav om åbenhed.

”Danske myndigheder er i fuld gang med at tage kunstig intelligens i brug for at effektivisere forvaltningen. Det kan der være mange gode grunde til, men det kan have alvorlige konsekvenser for borgernes rettigheder. Det er der slet ikke nok fokus på i det offentlige Danmark i dag,” siger Louise Holck, direktør for Institut for Menneskerettigheder.

Rapporten indeholder konkrete anbefalinger til beslutningstagere og myndigheder, der bruger kunstig intelligens i sagsbehandlingen. Anbefalingerne skal sikre, at borgernes rettigheder og retssikkerhed altid garanteres, når det offentlige benytter sig af kunstig intelligens.

Kunstig intelligens skal styrke – ikke svække – borgernes rettigheder

”I Danmark har vi en høj beskyttelse af borgernes rettigheder og retssikkerhed, og det skal vi blive ved med. Hvis danske myndigheder skal bruge kunstig intelligens i sagsbehandlingen, kræver det blandt andet bindende og ensartede minimumskrav og et effektivt tilsyn,” siger Louise Holck. Hun tilføjer:

”Det er muligt at bevare og styrke borgernes rettigheder i takt med, at forvaltningen digitaliseres. Men det kræver, at lovgivningen stiller krav til og sætter klare rammer for myndighederne. Og det kræver, at myndighederne er åbne om deres brug af kunstig intelligens og selv forholder sig kritisk til det,” siger Louise Holck.

(Artiklen fortsætter under boksen.)

Vores vigtigste anbefalinger

Institut for Menneskerettigheder anbefaler blandt andet, at:

  • Justitsministeriet med inddragelse af Datatilsynet og Digitaliseringsstyrelsen udsteder en vejledning om offentlige myndigheders brug af profileringsmodeller med fokus på de rettigheds- og retssikkerhedsmæssige udfordringer ved modellerne.
  • Justitsministeriet med inddragelse af Datatilsynet, Digitaliseringsstyrelsen og Folketingets Ombudsmand sikrer et styrket samarbejde på tværs af de tilsyns-, rekurs- og kontrolinstanser, der forventes at kontrollere myndighedernes brug af profileringsmodeller.
  • Digitaliseringsstyrelsen, som led i det fællesoffentlige arbejde med kommuner og regioner, opretter et offentligt register over samtlige offentlige myndigheders brug af profileringsmodeller rettet mod borgere.

Læs alle Institut for Menneskerettigheders anbefalinger i rapporten.

Algoritmiske profileringsmodeller er den type af kunstig intelligens, der rejser flest udfordringer for borgernes rettigheder og retssikkerhed, og derfor rapportens fokus rettet mod dem. Algoritmiske profileringsmodeller er kort fortalt modeller, som ud fra avanceret statistisk analyse vurderer, om en person har en bestemt egenskab. Der er for eksempel jobcentre, der bruger en profileringsmodel til at identificere ledige, som er i stor risiko for langtidsledighed.

Profileringsmodeller øger risikoen for diskrimination

I rapporten fremhæves diskrimination som en af de store risici ved offentlige myndigheders brug af profileringsmodeller. Modellerne kan videreføre den diskrimination, der hele tiden har eksisteret i sagsbehandlingen, men den kan også være med til at forværre problemet.

”Det er let at tro, at modellerne er objektive, men de skævvrider og laver detaljerede profiler af borgerne, som kan få betydning for, hvilken hjælp og service hver enkelt får fra det offentlige. På den måde kan det for eksempel blive den enkeltes køn, etnicitet eller alder, der bliver afgørende for, om de får den støtte, de har brug for, og så kan der være tale om ulovlig forskelsbehandling,” siger Louise Holck.

Om rapporten

I rapporten ’Når algoritmer sagsbehandler – Rettigheder og retssikkerhed i offentlige myndigheders brug af profileringsmodeller’ kortlægger Institut for Menneskerettigheder, hvordan borgernes rettigheder og retssikkerhed påvirkes, når offentlige myndigheder benytter sig af kunstig intelligens. Rapporten er en af de første, der tager udgangspunkt i danske myndigheders praksis og dansk lovgivning.

Rapporten giver et overblik over både teknologiens egenskaber, begrænsninger og udvikling, og de rettigheds- og retssikkerhedsmæssige aspekter, som brugen af teknologien rejser i den offentlige sektor. Analyserne i rapporten munder ud i en række anbefalinger til det politiske niveau. Anbefalingerne skal sikre, at kunstig intelligens og profileringsmodeller anvendes ud fra en rettighedsbaseret tilgang.

Rapporten dykker ned i tre særligt relevante retsområder og ser nærmere på borgerens rettigheder og myndighedernes forpligtelser. Det drejer sig om forvaltningsretten, databeskyttelsesretten og forbuddet mod diskrimination.