Recevoir la newsletter

Comment combattre les usages pédocriminels de l'IA ?

Article réservé aux abonnés

Excessive screen time is harming youth development.

Avec l'intelligence artificielle, n'importe quel enfant peut être victime aujourd'hui de pédocriminalité. 

Crédit photo Masque - stock.adobe.com
La Fondation pour l’enfance a mené un travail de recherche sur les nouveaux risques pédocriminels liés à l’intelligence artificielle. Elle présentait mardi 29 octobre, au Sénat, ses conclusions et préconisations pour mieux protéger les enfants en ligne.

Quelques chiffres suffisent à illustrer l’explosion du phénomène. Selon le National Center for Missing & Exploited Children (NCMEC), 12 000 signalements ont été enregistrés en France en 2023 pour tentative de « sextorsion ». En l’espace d’un an, ces chantages à la vidéo intime ont augmenté de 450 %. En cause : l’intelligence artificielle générative qui facilite et amplifie les pratiques pédocriminelles en ligne.

Engagée depuis près de 20 ans sur ces problématiques, la Fondation pour l’enfance alerte aujourd’hui sur les risques liés à ces outils en publiant un rapport intitulé « L’IA générative, nouvelle arme de la pédocriminalité ».

>>> A lire aussi : Lutte contre la pédocriminalité : la ligne d’écoute STOP a « besoin de communication »

« N’importe quel enfant peut être victime, explique Angèle Lefranc, chargée de plaidoyer à la Fondation pour l’enfance. Avant, certains contenus étaient captés par un agresseur ou autoproduit par le mineur avant d’être partagés sans son consentement. Aujourd’hui, l’IA permet de créer des deepfake ex nihilo ou à partir de contenus n’ayant à l’origine aucun caractère sexuel. »

Angèle Lefranc illustre son propos par une situation type. Les parents de Manon, 5 ans, en maillot de bain sur une plage corse, publient sur Facebook, en profil public, des photos d’elle en train de réaliser son premier château de sable. Anodine, en apparence, cette pratique de « sharenting », qui consiste à publier des images de ses enfants sur les réseaux sociaux, peut être à l’origine de la création de contenus pédocriminels.

>>> Sur le même sujet : Les 10 préconisations-clés de la Ciivise

Pour y parvenir, leurs auteurs recourrent à des applications de « déshabillage » (nudify apps) ou modifient un modèle d’IA grand public. Ils créent des images « avec un tel niveau de perfection, explique Angèle Lefranc, qu’il est compliqué de distinguer le vrai du faux ».

Une fois créés, ces contenus sont diffusés sur les réseaux sociaux, sur des plateformes de messagerie ou sur des sites pédopornographiques. Certains auteurs s’en servent pour exercer un chantage sur les victimes : « J’ai ce contenu, si tu ne paies pas, je la diffuse à tes contacts », rapporte Véronique Béchu, cheffe du pôle stratégique de l’Office mineurs (Ofmin), organe du ministère de l’Intérieur chargé d’enquêter sur les infractions commises à l’encontre des mineurs.

Les conséquences de ces pratiques peuvent être dramatiques pour les enfants concernés. « Il est difficile, voire impossible, pour la victime de voir une fin à l’épisode traumatique, parce que le contenu continue de tourner sur Internet », soulignent les psychologues Joanna Smith et Mélanie Dupont qui ont apporté leur expertise à l’étude. Cette « permanence » de l’agression et « l’impossibilité de contrôler son image » peuvent susciter un « sentiment de dépossession de soi » chez les victimes.

Prévention, détection, sanction 

Pour protéger les mineurs de la cyberpédocriminalité, la Fondation pour l’enfance identifie trois enjeux : l’identification des victimes, la lutte contre la banalisation des violences sexuelles et le renforcement des lois.

  • Par leur réalisme, les contenus pédocriminels générés par l’IA rendent la tâche d’identification et de protection des victimes difficile pour les forces de l’ordre et les plateformes de signalement. En 2023, 871 signalements de contenus pédocriminels, tout type d’infractions confondu, ont été transmis chaque jour à l’Ofmin. Soit une augmentation de 12 000 % en dix ans. « On rencontre de réelles difficultés à prioriser notre travail d’enquête sur les victimes réelles », précise Véronique Béchu.
    Face à l’impossibilité de mener autant d’enquêtes quotidiennes, sur des victimes qui n’existent potentiellement pas, la Fondation veut inciter les acteurs privés à mettre en place des outils permettant de distinguer les contenus générés par l’IA des autres contenus.
  • La facilité de production des contenus générés par l’IA et leur multiplication sur Internet font craindre une banalisation de la pédocriminalité en ligne. « L’IA augmente les comportements addictifs des consommateurs, avec des images de plus en plus extrêmes et violentes, souligne la Fondation. Elle accroit les risques de passage à l’acte. »
    Pour renforcer la prévention, la Fondation recommande de mettre en place des campagnes de sensibilisation grand public à la cyberpédocriminalité et aux dangers du « sharenting ». Elle souligne que la moitié des contenus pédocriminels sont publiés à l’origine par les parents. « Il est nécessaire que ceux-ci prennent conscience du phénomène et dialoguent avec leurs enfants », explique Angèle Lefranc.
  • La Fondation pour l’enfance invite, enfin, à engager une réponse juridique et politique solide. Elle recommande notamment d’amender le code pénal en y intégrant les contenus à caractère sexuel générés par l’IA.

Si l’IA multiplie les risques de pédocriminalité, les auteurs du rapport n’oublient pas qu’elle sera, aussi, un outil pour combattre ses propres dérives.

>>> Lire le rapport <<<

Protection de l'enfance

S'abonner
Div qui contient le message d'alerte
Se connecter

Identifiez-vous

Champ obligatoire Mot de passe obligatoire
Mot de passe oublié

Vous êtes abonné, mais vous n'avez pas vos identifiants pour le site ?

Contactez le service client 01.40.05.23.15

par mail

Recruteurs

Rendez-vous sur votre espace recruteur.

Espace recruteur