Der er brug for mere kontrol med offentlige myndigheders brug af kunstig intelligens
Rammerne og lovgivningen er ikke fulgt med, mens offentlige myndigheder har taget kunstig intelligens i brug. Der er brug for mere kontrol – især i situationer, hvor brugen af kunstig intelligens kan have stor betydning for borgernes rettigheder og retssikkerhed. Sådan lyder hovedkonklusionen i en ny rapport fra Institut for Menneskerettigheder, som skal vejlede det offentlige i brugen af kunstig intelligens, når der træffes afgørelser.
Instituttet opfordrer til at øge kontrollen ved blandt andet at indføre et offentligt register over alle myndigheder, der gør brug af kunstig intelligens, og generelt styrke tilsynet med myndighederne og stille højere krav om åbenhed.
”Danske myndigheder er i fuld gang med at tage kunstig intelligens i brug for at effektivisere forvaltningen. Det kan der være mange gode grunde til, men det kan have alvorlige konsekvenser for borgernes rettigheder. Det er der slet ikke nok fokus på i det offentlige Danmark i dag,” siger Louise Holck, direktør for Institut for Menneskerettigheder.
Rapporten indeholder konkrete anbefalinger til beslutningstagere og myndigheder, der bruger kunstig intelligens i sagsbehandlingen. Anbefalingerne skal sikre, at borgernes rettigheder og retssikkerhed altid garanteres, når det offentlige benytter sig af kunstig intelligens.
Kunstig intelligens skal styrke – ikke svække – borgernes rettigheder
”I Danmark har vi en høj beskyttelse af borgernes rettigheder og retssikkerhed, og det skal vi blive ved med. Hvis danske myndigheder skal bruge kunstig intelligens i sagsbehandlingen, kræver det blandt andet bindende og ensartede minimumskrav og et effektivt tilsyn,” siger Louise Holck. Hun tilføjer:
”Det er muligt at bevare og styrke borgernes rettigheder i takt med, at forvaltningen digitaliseres. Men det kræver, at lovgivningen stiller krav til og sætter klare rammer for myndighederne. Og det kræver, at myndighederne er åbne om deres brug af kunstig intelligens og selv forholder sig kritisk til det,” siger Louise Holck.
(Artiklen fortsætter under boksen.)
Algoritmiske profileringsmodeller er den type af kunstig intelligens, der rejser flest udfordringer for borgernes rettigheder og retssikkerhed, og derfor rapportens fokus rettet mod dem. Algoritmiske profileringsmodeller er kort fortalt modeller, som ud fra avanceret statistisk analyse vurderer, om en person har en bestemt egenskab. Der er for eksempel jobcentre, der bruger en profileringsmodel til at identificere ledige, som er i stor risiko for langtidsledighed.
Profileringsmodeller øger risikoen for diskrimination
I rapporten fremhæves diskrimination som en af de store risici ved offentlige myndigheders brug af profileringsmodeller. Modellerne kan videreføre den diskrimination, der hele tiden har eksisteret i sagsbehandlingen, men den kan også være med til at forværre problemet.
”Det er let at tro, at modellerne er objektive, men de skævvrider og laver detaljerede profiler af borgerne, som kan få betydning for, hvilken hjælp og service hver enkelt får fra det offentlige. På den måde kan det for eksempel blive den enkeltes køn, etnicitet eller alder, der bliver afgørende for, om de får den støtte, de har brug for, og så kan der være tale om ulovlig forskelsbehandling,” siger Louise Holck.
Kontakt
Læs mere
- Læs hele rapporten her
- Notat: Klare rammer for det offentliges brug af profileringsmodeller
- Notat: Transparens i og om profileringsmodeller brugt i det offentlige
- Notat: Risiko for diskrimination i det offentliges brug af profileringsmodeller
- Notat: Krav til data i profileringsmodeller brugt i det offentlige
- Video: Se hele lanceringen af rapporten her
- Video: Se Louise Holcks tale fra lanceringen her
- Video: Se Marya Akthars tale fra lanceringen her
- Video: Se paneldebatten fra lanceringen her