Notat
Transparens i det offentliges brug af profileringsmodeller

Transparens i og om profileringsmodeller brugt i det offentlige

Der mangler åbenhed om brugen af kunstig intelligens i det offentlige. Institut for Menneskerettigheder redegør i analyse for de menneskeretlige udfordringer og dilemmaer, som kunstig intelligens rejser.
Kunstig intelligens i sagsbehandlingen

Institut for Menneskerettigheder har udgivet fire notater, som behandler forskellige menneskeretlige udfordringer med brugen af algoritmiske profileringsmodeller i det offentlige. De tre andre finder du her:

Notaterne bygger på rapporten 'Når algoritmer sagsbehandler – Rettigheder og retssikkerhed i offentlige myndigheders brug af profileringsmodeller', som kan læses her.

Hør chefkonsulent Marya Akhtar fortælle, hvorfor transparens er afgørende, når offentlige myndigheder bruger kunstig intelligens:

LYD: Journalist Anders Kjærulff taler med Marya Akhtar, jurist og chefkonsulent på Institut for Menneskerettigheder, der efterlyser åbenhed om brug af algoritmer i det offentlige.

Vi tilstræber, at vores pdf’ede publikationer m.m. er egnede til at blive læst af skærmlæser. Skulle du opleve problemer, så kontakt venligst digital redaktør, Stine Juhl Nielsen på stni@humanrights.dk