Nous vivons les balbutiements de l’intelligence artificielle (IA) grand public, via l’outil conversationnel ChatGPT, déjà concurrencé par d’autres lumières virtuelles. L’humanoïde du XXIe, machine biologique craignant d’être ringardisée, sera accompagné, guidé et peut-être supplanté par d’autres machines qu’on nous annonce plus intelligentes encore, des machines froides et insensibles, donc équitables, neutres et sans préjugé. Vraiment ? Certains médias s’étaient amusés à démontrer l’influence du wokisme californien, bien humain, dans les algorithmes d’intelligence artificielle.
L’intelligence artificielle n’affecte pas seulement notre vie privée. Le monde du travail est au seuil de bouleversements considérables qui n’épargneront pas le secteur social. Pour le meilleur ou le pire ? Les deux sans doute ! Dans la logique de cette rubrique, nous nous intéresserons évidemment aux implications juridiques de l’IA pour les travailleurs sociaux. Mais avant de mettre à l’épreuve Maître ChatGPT, interrogeons-nous sur la crédibilité de cette folle perspective : « J’ai rendez-vous avec mon droïde social ».
Petit retour en arrière : nous sommes au cœur de la pandémie de Covid-19. Dans les services sociaux, on s’efforce de ne pas interrompre l’accompagnement des usagers, alors que dans certains services publics, comme celui de la justice, le rideau est baissé. Jusqu’alors, l’idée du télétravail social semblait saugrenue. Le Covid s’est fait discret, mais le télétravail, même social, est resté, parcimonieusement certes. Il est globalement accepté, du moins pour les tâches administratives qui font aussi partie du travail social, de tout travail dans notre société gangrénée par la bureaucratie.
Grand retour en arrière : nous sommes le 1er octobre 1991. Le Bi-Bop, premier téléphone mobile grand public, fait son apparition. « Qui sont ces fous qui parlent seuls dans la rue ? ! », se demandent quelques passants interloqués.
Demain : « Cher Smartphone, ai-je droit à l’APL ? » Un assistant de service social apparaît à l’écran, plus vrai que nature. On ne remarque pas qu’il s’agit d’un avatar. Le dialogue s’engage, en langage naturel, comme si j’avais affaire à un humain toujours souriant et dévoué. Sa dernière question est : « Voulez-vous que je me charge de votre demande d’APL ? »
Ce n’est plus tout à fait de la science-fiction, à peine de l’anticipation. Demain, c’est déjà aujourd’hui, ou presque. Avant la fin de la décennie, les algorithmes d’IA, nourris au « big data », permettront ce type de dialogue, tout comme ils aideront le médecin à établir son diagnostic. Aider ou remplacer : tels seront les enjeux. La justice a aussi commencé sa mue : la loi de 23 mars 2019 permet l’utilisation des algorithmes dans les modes alternatifs de résolution des conflits (médiation, conciliation…), s’il subsiste une intervention humaine. La « légaltech », sorte de ChatGPT spécialisé, envahit les cabinets d’avocats. Depuis 2016, des informaticiens britanniques travaillent à l’élaboration d’une IA dédiée à l’examen de la recevabilité des requêtes à la Cour européenne des droits de l’Homme (CEDH). Le juge Google est peut-être pour bientôt !
En travail social, s’il est acquis que certaines tâches peuvent être déléguées aux algorithmes, on n’ose imaginer un éducateur ou une assistante sociale n’intervenant que par écrans interposés, à fortiori s’il ne s’agit que d’un avatar. Mais on ne concevait pas, il y a trente ans, qu’on parlerait tout seul dans la rue sans être catalogué de malade mental.
ChatGPT est une sorte de super Google, en ce qu’il se repose sur Internet. Or, sur la toile, on trouve de tout : du bon et du mauvais, de l’information et de l’opinion qui se confondent, du vrai qui est remis en cause et du faux qui se fait passer pour du vrai (un jeune sur six croirait que la Terre est plate, selon un sondage Ifop). Dans le domaine juridique, les meilleures sources d’informations, dont la fameuse « légaltech », sont souvent payantes, et échappent par conséquent largement à ChatGPT. En outre, en droit, il y a rarement une seule réponse possible à une question. Si l’algorithme n’apportait qu’une réponse, serait-ce celle du juge en cas de conflit ? De quel juge d’ailleurs ?
Il y a quelques mois, en préparation d’une formation destinée à un service social d’un établissement public, j’avais testé la fameuse intelligence artificielle :
→ Question à ChatGPT : Organiser un service social du travail est-il obligatoire en secteur public ?
→ Réponse : Selon l’article L. 461-1 du code de l’action sociale et des familles, les établissements publics employant plus de 50 agents sont tenus d’avoir un service social du travail. Problème : cet article n’a aucun rapport avec le sujet !
→ Question : Quel article de loi impose d’organiser un service social du travail dans les établissements publics de plus de 50 salariés ?
→ Réponse : L’article L. 4611-1 du code du travail. On passe de 461-1 à 4611-1 (un bug ?), un article abrogé depuis sept ans qui concernait l’ancien CHSCT (comité d’hygiène, de sécurité et des conditions de travail) en secteur privé.
→ Changeons de sujet : Les époux sont-ils solidaires de toutes les dettes ?
→ Réponse : Une longue explication sur l’effet du régime matrimonial, mais rien sur l’article 220 du code civil, pourtant essentiel, et commun aux régimes matrimoniaux.
→ Une petite dernière ? : Un travailleur social doit-il toujours signaler la violence conjugale ?
→ Réponse : En France, par exemple, les travailleurs sociaux ont l’obligation de signaler les situations de violence conjugale conformément à l’article 226-14 du code pénal.
C’est faux. Cet article autorise et non impose la levée du secret dans certaines hypothèses, et ne vise spécifiquement la violence conjugale qu’à l’égard des professionnels de santé.
Pas toujours futée, l’IA ! Et malheur à celui qui s’y fie aveuglément. Le travailleur social peut être tenté d’utiliser cet outil. Mais la réponse qu’il obtiendra dépendra beaucoup de la manière dont il la pose. En tout cas, il est indispensable de vérifier l’information obtenue, de la croiser avec d’autres sources. Accompagner, orienter ou renseigner un usager peut engager la responsabilité du professionnel, ou au moins celle de son employeur, avec ou sans ChatGPT. Au-delà du risque juridique, s’en remettre à l’IA ne contribue-t-il pas à l’acceptation de sa propre inutilité ?
Ce qui est vrai du droit l’est de toute science humaine : il n’y a pas une seule réponse toute faite à une question. Et même en médecine, lorsque les experts s’écharpaient sur les plateaux de télévision, qu’aurait répondu ChatGPT à la question : « Comment traiter la pandémie de Covid ? »
En accompagnement social, chaque tiroir que l’on ouvre dévoile de nouveaux éléments, de nouvelles surprises, si bien que c’est souvent le professionnel qui doit poser certaines questions que l’usager préfère esquiver. L’IA n’est pas capable d’intuition. Pas encore…
Enfin, quelle est la bonne réponse à la question du service social du travail obligatoire ou non en secteur public ? Cela pourrait faire l’objet d’un prochain article dans les ASH !