Notat
Risiko for diskrimination i det offentliges brug af profileringsmodeller

Risiko for diskrimination i det offentliges brug af profileringsmodeller

Staten er menneskeretligt forpligtet til at sikre, at ingen borgere diskrimineres. Det gælder også, når offentlige myndigheder benytter sig af kunstig intelligens til at træffe afgørelser om borgere. Det offentliges brug af såkaldte profileringsmodeller skaber risiko for diskrimination.

Dette notat belyser de menneskeretlige udfordringer med særligt fokus på diskrimination ved brugen af algoritmer i offentlig sagsbehandling.

Kunstig intelligens i sagsbehandlingen

Institut for Menneskerettigheder har udgivet fire notater, som behandler forskellige menneskeretlige udfordringer med brugen af algoritmiske profileringsmodeller i det offentlige. De tre andre finder du her:

Notaterne bygger på rapporten 'Når algoritmer sagsbehandler – Rettigheder og retssikkerhed i offentlige myndigheders brug af profileringsmodeller', som kan læses her.

Hør chefkonsulent Marya Akhtar fortælle om udfordringerne med diskrimination ved brugen af kunstig intelligens i den offentlige sagsbehandling:

LYD: Journalist Anders Kjærulff i samtale med Marya Akhtar, jurist og chefkonsulent på Institut for Menneskerettigheder, om risikoen for diskrimination, når profileringsmodeller bruges til sagsbehandling i det offentlige.

Vi tilstræber, at vores pdf’ede publikationer m.m. er egnede til at blive læst af skærmlæser. Skulle du opleve problemer, så kontakt venligst digital redaktør, Stine Juhl Nielsen på stni@humanrights.dk