![Risiko for diskrimination i det offentliges brug af profileringsmodeller](/files/styles/portrait_01/public/media/image/Diskrimination1.png?h=7571d3e7&itok=rYDhVefv)
Risiko for diskrimination i det offentliges brug af profileringsmodeller
Dette notat belyser de menneskeretlige udfordringer med særligt fokus på diskrimination ved brugen af algoritmer i offentlig sagsbehandling.
Institut for Menneskerettigheder har udgivet fire notater, som behandler forskellige menneskeretlige udfordringer med brugen af algoritmiske profileringsmodeller i det offentlige. De tre andre finder du her:
- Klare rammer for det offentliges brug af profileringsmodeller
- Transparens i og om profileringsmodeller brugt i det offentlige
- Krav til data i profileringsmodeller brugt i det offentlige
Notaterne bygger på rapporten 'Når algoritmer sagsbehandler – Rettigheder og retssikkerhed i offentlige myndigheders brug af profileringsmodeller', som kan læses her.
Hør chefkonsulent Marya Akhtar fortælle om udfordringerne med diskrimination ved brugen af kunstig intelligens i den offentlige sagsbehandling:
![](/files/styles/teaser/public/media/image/markus-spiske-Skf7HxARcoc-unsplash.jpg?h=f2fcf546&itok=DIV_ht3L)
Vi tilstræber, at vores pdf’ede publikationer m.m. er egnede til at blive læst af skærmlæser. Skulle du opleve problemer, så kontakt venligst digital redaktør, Stine Juhl Nielsen på stni@humanrights.dk