« Nous sommes aujourd’hui, après une période d’expérimentation des tableaux de bord d’appui à la performance de l’Agence nationale d’appui à la performance (ANAP) – dont les conclusions restent pour le moins confidentielles –, en phase de généralisation du système à l’ensemble de nos structures(2). Que le tableau de bord soit utile au pilotage de ces dernières ne pose a priori aucune question particulière, et bien nombreux sont ceux d’entre nous qui avaient déjà leurs propres outils. Qu’il soit annoncé comme un “support indispensable au dialogue de gestion” serait presque rassurant s’il signifiait le retour à un véritable dialogue de gestion (c’est-à-dire à une réelle rencontre au lieu de l’échange de courriers qui prévaut maintenant et depuis des années).
Ces tableaux de bord réactivent pourtant quelques souvenirs douloureux. Tout d’abord, ils viennent rappeler, en toute discrétion, le ratage remarquable des indicateurs sociaux et médico-sociaux (ISMS)(3). Des indicateurs qu’il nous faut toujours renseigner sous peine de voir invalider la présentation réglementaire de nos budgets prévisionnels les rendant inopposables ! Ceux-ci devaient permettre “de mieux comprendre le fonctionnement, de comparer un même type d’établissement ou de service et de connaître les évolutions. Permettre d’établir un dialogue sur des critères objectifs. Favoriser la convergence tarifaire… sans pour autant avoir pour objet d’uniformiser et de standardiser le financement et le fonctionnement des ESMS [établissements et services sociaux et médico-sociaux]”, selon l’agence régionale de santé (ARS) Centre-Val-de-Loire. L’ARS Provence-Alpes-Côte d’Azur précisait également : “Les indicateurs représentent de nouveaux outils de comparaison de la gestion budgétaire, comptable et financière des établissements et services sociaux et médico-sociaux. Ils servent à comprendre leurs coûts de fonctionnement…”
Nous étions donc bien, à cette époque dans la contingence gestionnaire, comptable et économique. La convergence tarifaire était clairement indiquée, malgré l’intention affichée de ne pas chercher à uniformiser ou à standardiser.
Aujourd’hui, on nous présente la nouvelle aventure des indicateurs de l’ANAP comme tenant du “benchmarking” ou, dans la belle langue de Molière, du “parangonnage”(4). En clair, il s’agirait d’appliquer à nos établissements et services une technique de développement de la performance commerciale utilisée pour la première fois chez Rank Xerox en 1980 et qui consiste à observer et à identifier chez l’autre ce qui serait propice à l’amélioration de notre propre activité.
Le parangonnage se démarquerait donc d’une “pratique de palmarès qui viserait à stigmatiser”. Le Centre européen d’expertise en évaluation Eureval indique, dans ses principes de “benchmarking”, la nécessité “d’injecter une dose de réciprocité permettant d’obtenir des résultats plus complets, plus adaptés, plus opérationnels” ou encore “d’organiser un échange d’information avec l’autre [entreprise] pour atteindre des résultats comparables”.
On ne peut être opposé d’emblée à l’idée de généraliser les bonnes pratiques dans tous les domaines utiles, y compris dans la gestion économique. Pour peu que cela reste cohérent et s’accompagne du retour à un véritable dialogue de gestion permettant d’échanger sur la portée et le sens de l’action, loin du strict aspect budgétaire et financier.
Cependant, ce bel optimisme est un tant soit peu tempéré par une autre définition du parangonnage davantage inquiétante. Elle consiste, en imprimerie, à “aligner par le pied, sur une même ligne de base, des caractères de police et de corps différents”.
Ainsi, le parangonnage, présenté comme vertueux, pourrait mettre tout le monde “sur la même ligne”, renouant ainsi avec l’orientation de convergence tarifaire des ISMS. Donc, au final, rien de très nouveau sous le soleil et de quoi confirmer nos inquiétudes. A la lecture des différents tableaux à renseigner dans les indicateurs de l’ANAP, il apparaît d’ailleurs que la quasi-totalité des critères concerne la quantité, le coût, le nombre, le chiffre. Je cite : “taux, score, répartition, profils, durée, grands équilibres, nombre, pyramides, poids, structures des dépenses, besoin en fonds de roulement…”, et j’en passe.
Pourtant, un article sur l’évaluation de la qualité dans les ESMS, paru en septembre 2004 dans le magazine Lien social(5) attirait l’attention sur le fait que c’est uniquement sur l’organisation du travail et le management, qui représentent 75 % des charges budgétaires, que le gain de qualité est possible. Pour le reste, en bons gestionnaires que nous sommes et contraints par la réalité économique, il y a bien longtemps que nous avons recherché les niches d’économie possibles !
On pourrait être tentés de nous opposer que les tableaux de l’ANAP sont le pendant, voire le complément, des évaluations internes et externes qui, elles, portent sur les prestations et les conditions de leur qualité. Soit. Alors, pourquoi ne pas avoir pensé lesdites évaluations de façon à rendre possibles les comparaisons entre les structures comme cela semble le cas pour les tableaux de l’ANAP ? Et pourquoi les deux systèmes ne sont-ils pas corrélés ? La qualité enfin associée au coût, le projet apprécié au regard des moyens.
Au chapitre des rappels douloureux évoqués plus haut, évoquons aussi les tarifs plafonds imposés depuis plusieurs années aux établissements et services d’aide par le travail (ESAT) et qui se révèlent catastrophiques pour la plupart d’entre eux. Ils obligent en effet régulièrement l’autorité de tarification à couvrir, lors des comptes administratifs, les déficits dus à l’application de cette réglementation dont même la direction générale de la cohésion sociale (DGCS) dit qu’elle est mauvaise et qu’elle a été mal étudiée. Les auteurs des recours engagés devant le Conseil d’Etat n’ont jamais pu avoir accès aux données ayant conduit à l’application de ces tarifs(6), qui ignorent, par exemple, les différences de coût de l’immobilier selon la région ou encore le “surcoût francilien” qui, étrangement, est pris en compte pour les établissements hospitaliers (qui ont été rebasés).
On comprendra aisément que la méfiance prévale tant au regard du but recherché à travers ces nouveaux indicateurs qu’au regard de ce qu’on leur fera dire. Selon Isabelle Brunod et Emmanuel Didier(7), “les statistiques ne se contentent pas de décrire la réalité, elles la transforment, la produisent et la détruisent, parfois”.
Nous craignons donc, hélas, les intentions non avouées ou, pour le moins, les maladresses de la DGCS qu’on a déjà connues dans le domaine du travail protégé. Nous percevons, dans ce mouvement, une nouvelle dérive technocratique qui verrait “l’espace de pensée, les concepts et les valeurs se mouvoir en indicateurs et le dialogue devenir stérile”(8).
Ainsi, si les indicateurs des tableaux de l’ANAP en arrivent à se décliner en valeurs moyennes bientôt opposées aux opérateurs, ils ne traduiront que la logique de normalisation et de standardisation déjà mise en œuvre dans les ESAT. La comparaison mise au service de la compétitivité mais surtout de la concurrence, déjà initiée avec les appels à projets.
Pourtant, comme l’indique Philippe Lemaire dans un article très intéressant (9), “un indicateur donne une indication certes utile mais incomplète sur un phénomène, un dysfonctionnement, une situation… Il y a donc une relativité de l’indicateur, un caractère d’approximation, y compris d’ailleurs en matière de gestion ou de processus, qui doit inciter à la prudence quant aux interprétations, d’autant qu’il s’agit bien d’une information ‘quantitative’, quelles qu’en soient les formes”. Et d’insister : “Plus il y a de variables en jeu et plus on multiplie les risques de biais, d’interprétations différentes, sans même parler de l’homogénéité du recueil d’informations qui est loin d’être garantie.”
Nous ne pouvons que partager cette réflexion. Il est à redouter également que la logique de convergence tarifaire, dont nous craignons qu’elle demeure la principale motivation des concepteurs de ces nouveaux indicateurs, ne fasse disparaître à nouveau totalement le dialogue de gestion que nous souhaiterions retrouver avec nos interlocuteurs des ARS. Un dialogue indispensable pour contextualiser les données et les objectiver par le biais de nos évaluations dans une recherche de sens. »
(1) D. Vanthorre, F. Buton, M.D. Populo de Chavigny, H. Bolzan, M. Welker, S. Reveret, S. Megglé, Y. Boulet, M. Baron Quillévéré, K. Campens.
(2) Depuis le 1er janvier 2015 et pour une période de trois ans – Voir ASH n° 2904 du 3-04-15, p. 9.
(3) Prévus par le décret budgétaire et comptable des établissements sociaux et médico-sociaux du 22 octobre 2003.
(4) Le benchmarking, la référenciation, l’étalonnage ou le parangonnage est une technique de marketing ou de gestion de la qualité qui consiste à étudier et à analyser les techniques de gestion, les modes d’organisation des autres entreprises afin de s’en inspirer et d’en tirer le meilleur.
(5) « L’évaluation de la qualité dans les établissements » – N° 719 du 2 septembre 2004.
(6) Ils ne souhaitaient pourtant, eux aussi, que se comparer aux autres dans une lecture contradictoire à celle des pouvoirs publics.
(7) « Benchmarking, l’Etat sous pression statistique ». Ed. La Découverte.
(8) Karine Campens, directrice des CMPP de Morsang-sur-Orge et Montgeron (Entraide universitaire), dans l’Essonne, qui a contribué à ce texte.
(9) « Réflexion autour de la question des indicateurs » – 31 mars 2015 –