« L’intelligence artificielle ne peut pas être une nouvelle machine à exclure. » Si le développement de l’intelligence artificielle (IA) soulève régulièrement des inquiétudes notamment sur le champ éthique, le rapport du député (LREM) Cédric Villani, rendu public jeudi 29 mars, le souligne : l’IA pourrait s’avérer être un outil de lutte contre les inégalités sociales. La mission confiée en septembre par le Premier ministre Edouard Philippe au mathématicien devrait permettre de poser les bases d’une stratégie nationale en matière d’IA ambitieuse : 1,5 milliard d’euros y seront consacrés sur le quinquennat.
La démarche, qui vise à créer un modèle français attractif face à une concurrence mondiale particulièrement avancée en la matière, ne devrait pas passer à côté d’enjeux éthiques importants soulignés par le rapport « Villani ». Il faudra ainsi « s’assurer que le développement de ces technologies ne contribue pas à accroître les inégalités sociales et économiques et s’appuyer sur l’IA pour effectivement les réduire ».
Il s’agira ainsi d’accompagner les travailleurs sociaux afin qu’ils puissent bénéficier des avancées de l’IA, ou encore de promouvoir l’inclusion dans le numérique des femmes, des personnes issues des minorités ethniques ou défavorisées. Mais plus que les autres, la mesure concernant le non-recours au droit pourrait avoir un impact considérable. Le rapport préconise en effet l’automatisation des démarches les plus répétitives et qui connaissent les plus hauts taux d’abandon de la part des usagers (recouvrement des impôts, assurance maladie, allocations familiales). « Le rôle d’accompagnement des publics des agents administratifs en sera d’autant plus central », explique le rapport, notamment à l’égard des populations les plus vulnérables.
Car la fracture numérique, qui concerne 26 % de la population française d’après Emmaüs Connect, l’antenne d’Emmaüs dédiée à l’accompagnement numérique des populations en difficulté, pourrait être renforcée par une telle proposition. « Il faudrait déjà que tout le monde ait accès aux outils technologiques et se les approprie, souligne Vincent Meyer, sociologue à l’université Nice Sophia-Antipolis. Des personnes en situation de handicap ou de précarité ne pourront pas forcément se saisir de ces technologies, ou comprendre qu’ils interagissent avec un chatbot[1], par exemple. »
Une possibilité envisagée dans le rapport, qui souligne la nécessité d’un « devoir de réflexivité et de vigilance collective » envers les populations exclues du numérique. Et face aux discriminations qui pourraient être reproduites par l’intelligence artificielle, le rapport se veut également prudent : « La puissance publique doit se doter de capacités pour mieux détecter et lutter contre ces formes de discriminations algorithmiques, en particulier lorsqu’elles conditionnent l’accès à un service de base : l’accès au logement et à l’énergie, aux soins, à l’emploi et à la formation, au crédit. »
Les femmes ne représentent aujourd’hui que 33 % des effectifs dans le numérique, et cela ne devrait pas s’améliorer puisque, en 2016, on ne comptait que 10 % de femmes dans les écoles d’ingénieurs en informatique. « Ce manque de diversité peut conduire les algorithmes à reproduire des biais cognitifs – souvent inconscients – dans la conception des programmes, l’analyse des données et l’interprétation des résultats », souligne le rapport. Pour preuve, une étude menée en 2015 aux Etats-Unis pointait le fait qu’il fallait attendre la 96e image associée à la recherche « PDG » pour trouver une femme. Pour y remédier, le rapport préconise notamment de mettre en place une politique incitative visant à atteindre 40 % d’étudiantes dans les filières du numérique d’ici 2020.
(1) Logiciel programmé pour simuler une conversation en langage naturel.