Recevoir la newsletter

Intelligence artificielle : la défenseure des droits insiste sur le respect des droits fondamentaux

Article réservé aux abonnés

Défenseur des droits discriminations prestations sociales recrutement Intelligence artificielle

La défenseure des droits alarme sur les risques de discrimination que pourrait engendrer l'intelligence artificielle sur les publics les plus précaires.

Crédit photo Felix Lebelle / Hans Lucas / AFP
Dans le cadre des débats sur l'intelligence artificielle en Europe qui ont démarré le 28 septembre, la défenseure des droits, Claire Hédon, invite les pays à être vigilants sur les risques de discrimination.

Dans un communiqué publié le 28 septembre, la défenseure des droits lève le voile sur un sujet peu évoqué : les discriminations engendrées par l’intelligence artificielle (IA). « En matière de recrutement, des biais sexistes ont par exemple été repérés dans plusieurs algorithmes utilisés pour trier des CV ; ou encore dans le cadre de la lutte contre la fraude aux prestations sociales, l’utilisation des algorithmes, notamment de data mining [exploration de données], pourrait conduire à concentrer les contrôles sur certaines personnes en raison de leur lieu de résidence et de leur situation de famille », détaille le document.

> A lire aussi : Des allers-retours vers les minima sociaux pour les ménages modestes

Garantir la coopération inter-Etats
Alors que les discussions de politiques européennes sur le cadre du règlement sur l’IA débutent, la défenseure des droits et ses homologues étrangers appellent à ce que les négociations aboutissent à un texte qui anticipe la non-discrimination.
Plusieurs recommandations sont listées :

  • faciliter le recours pour les personnes victimes de discrimination liée à un système d’IA, via les organismes nationaux de promotion de l’égalité tels que le Défenseur des droits ;
  • assurer une application harmonisée et cohérente du principe de non-discrimination par un mécanisme de pleine coopération entre les futures autorités nationales de contrôle et les organismes nationaux de promotion de l’égalité. Cela notamment pour le traitement des plaintes concernant des systèmes d’IA présentant des risques pour les droits fondamentaux. Mais également pour la formation du personnel des autorités de contrôle sur la non-discrimination et en prévoyant des études d’impact ;
  • favoriser la capacité des personnes affectées par un système d’IA à demander une protection contre la discrimination, notamment en s’assurant qu’elles disposent d’une information claire et complète et en prévoyant que les organismes nationaux de promotion de l’égalité pourront saisir les futures autorités de contrôle.

Enfin, Claire Hédon appelle à la désignation de la Cnil [Commission nationale de l’informatique et des libertés] comme autorité de contrôle nationale pour l’application du futur règlement.


 

Insertion

S'abonner
Div qui contient le message d'alerte
Se connecter

Identifiez-vous

Champ obligatoire Mot de passe obligatoire
Mot de passe oublié

Vous êtes abonné, mais vous n'avez pas vos identifiants pour le site ?

Contactez le service client 01.40.05.23.15

par mail

Recruteurs

Rendez-vous sur votre espace recruteur.

Espace recruteur