3. Développer la culture de l’évaluation des instruments internationaux

L’évaluation des instruments internationaux peut fournir de précieuses informations sur leur mise en œuvre et leurs impacts. Elle améliore in fine le processus d’élaboration des normes internationales, et ce à plusieurs niveaux : elle accroît la qualité des instruments internationaux et constitue un outil essentiel pour faire en sorte que ces derniers restent adaptés à leur finalité, c’est-à-dire qu’ils continuent à atteindre leurs objectifs et à répondre aux besoins de leurs groupes cibles. L’évaluation peut également contribuer à promouvoir l’adoption des instruments internationaux à plus grande échelle et à renforcer la confiance dans les OI et leurs pratiques.

« L’évaluation » dont il est question ici ne porte pas sur la qualité des dispositions des instruments internationaux (ce qui consisterait à déterminer s’ils établissent des règles claires et détaillées), mais plutôt sur leur efficacité, leur utilisation ou leur mise en œuvre, ou encore leurs effets. Cet examen implique souvent la collecte et l’analyse de données relatives aux instruments et notamment : les pratiques dont ils traitent, leurs utilisateurs (qui s’en sert, pourquoi et comment), les avantages et inconvénients (escomptés ou inattendus) de leur utilisation et le degré de réalisation de leurs objectifs dans la pratique. Les OI recueillent tout un éventail de données au sujet de leurs instruments et les informations ainsi générées sont fonction de la nature de chacun (voir chapitre 1).

Les OI ont de plus en plus à cœur de renforcer la culture de l’évaluation des instruments internationaux, bien qu’elles considèrent généralement celle-ci comme une entreprise ardue et grande consommatrice de ressources. En effet, même si les OI disposent de l’expertise et des ressources techniques nécessaires pour évaluer leurs instruments, ce ne sont pas elles qui détiennent les informations détaillées sur leur mise en œuvre et leurs impacts, ni la connaissance de leur cohérence avec les cadres réglementaires nationaux, mais les groupes cibles dans les différents pays (OCDE, 2016[1]). Les OI peuvent également rencontrer des difficultés d’ordre méthodologique, par exemple pour isoler et mesurer les effets de leurs instruments.

Cette partie du recueil entend guider les pratiques d’évaluation des OI en présentant les diverses approches possibles, ainsi que leurs avantages et les problèmes qu’elles posent. La discussion porte sur les évaluations menées par les OI elles-mêmes (les évaluations des instruments internationaux par d’autres organisations n’étant pas prises en compte)1 et repose principalement sur les pratiques existantes des OI, recueillies dans le cadre du Partenariat des organisations internationales.

Les OI évaluent leurs instruments pour des raisons très diverses, et notamment pour accompagner leurs initiatives de promotion de ces derniers ou encourager leur mise en œuvre et leur utilisation, pour estimer les besoins d’assistance de leurs membres, apprécier les niveaux de conformité et intégrer les résultats des évaluations aux procédures de suivi (voir chapitre).

L’évaluation peut également contribuer à l’amélioration des instruments internationaux en mettant en avant les éléments à actualiser. De manière générale, elle peut aider les organismes qui établissent des règles au niveau international à faire le bilan des coûts et des avantages liés à leurs instruments (Parker and Kirkpatrick, 2012[2]). Elle facilite l’étude de la répartition de ces coûts et avantages et permet de déterminer si les bénéfices sont supérieurs aux coûts et s’il existe des différences d’impact selon les membres.

L’évaluation peut présenter encore plus d’avantages si elle est menée sur un ensemble ou sous-ensemble d’instruments et la coopération avec d’autres OI actives dans les domaines concernés peut enrichir ses résultats s’il existe des complémentarités entre les instruments.

Les analyses d’impact ex ante constituent un moyen de clarifier les objectifs et la fonction des instruments internationaux avant d’engager le processus d’élaboration des règles, au service de l’efficacité et de l’efficience. Elles incitent les responsables de l’élaboration des règles à étudier toutes les pistes possibles – y compris celle de l’inaction – en amont de l’adoption des instruments (OCDE, 2020[3]) et facilitent également à ce stade l’examen systématique des coûts et effets négatifs potentiels des instruments, en vue de leur éventuelle atténuation (OCDE, 2020[3]).

Cette partie recense les mécanismes existants en matière d’évaluation des instruments internationaux en prenant appui sur la typologie présentée dans la brochure (OCDE, 2019[4]) et les réponses à l’enquête de 2018. La typologie suivante permet au lecteur de se faire une idée des diverses formes d’évaluation mises en œuvre par les OI membres du Partenariat des OI. Elle est fournie à titre indicatif seulement et ne brosse donc pas nécessairement un panorama exhaustif des pratiques possibles.

Cette partie expose les principes fondamentaux qui peuvent aider les OI à améliorer leurs pratiques d’évaluation. Ils sont tirés de l’expérience d’un grand nombre d’OI et s’appuient sur les documents Analyse d’impact de la réglementation (OCDE, 2020[3]) et Examiner la réglementation existante (OCDE, 2020[5]) de la série des Principes de bonne pratique de l’OCDE en matière de politique réglementaire, qui livrent une synthèse des pratiques nationales dans le domaine de l’évaluation de la législation et de la réglementation. Compte tenu de la diversité des OI et des types d’instruments normatifs qu’elles élaborent, ces principes ne seront pas nécessairement adaptés ou applicables à l’ensemble des OI. Celles qui le souhaitent pourront néanmoins y trouver une source d’inspiration et des orientations utiles pour développer leur culture de l’évaluation.

L’institutionnalisation de l’évaluation systématique des instruments normatifs élaborés par les OI est une mesure très utile pour s’assurer qu’ils demeurent pertinents. Son niveau de formalité peut varier – s’agissant de l’engagement en faveur de l’évaluation, elle pourrait par exemple se traduire par l’intégration des pratiques d’évaluation dans le règlement intérieur de l’OI ou la création d’un service à qui l’on confierait la réalisation des évaluations. Dans un cas comme dans l’autre, elle constitue une manifestation de la volonté des OI d’assurer l’amélioration continue de leurs instruments et de faire en sorte qu’ils restent adaptés à leur finalité.

Des processus d’évaluation clairement érigés en priorité, bien définis et accessibles (notamment sur la question de savoir qui est chargé de leur mise en œuvre et de leur supervision), peuvent contribuer à ancrer l’évaluation dans la culture et la pratique quotidiennes de l’organisation.

Les OI considèrent l’évaluation de leurs instruments comme une tâche ardue et délicate et ce, pour diverses raisons (voir partie 5). Il n’est d’ailleurs pas certain que tous les types d’instruments puissent être évalués avec succès. Si une catégorie d’instruments n’a jamais été soumise à évaluation, par exemple, et en l’absence de pratiques optimales facilement identifiables, il peut être judicieux d’apprécier dans un premier temps « l’évaluabilité » de l’instrument en question, compte tenu de ses objectifs et de la manière dont il est mis en œuvre et par qui, pour déterminer si l’évaluation sera possible et/ou utile. La plupart du temps, la réponse sera « oui », mais l’objet et l’étendue de l’évaluation pourront varier.

Le premier niveau d’évaluation des instruments internationaux consiste à examiner leur utilisation ou leur application – qui les met en œuvre, pourquoi, où, quand et comment (voir chapitre 2). Cette approche présente un intérêt particulier pour les instruments non contraignants.

Les OI n’ayant souvent aucun contrôle sur la mise en œuvre de leurs instruments, notamment lorsque ceux-ci ne sont pas contraignants, l’évaluation de leur utilisation n’est pas toujours aisée et il peut être difficile de recueillir des données complètes. Cela dit, même des données partielles peuvent fournir des informations extrêmement utiles susceptibles de donner lieu à une révision des instruments internationaux – ou à leur retrait – et aider les OI à mieux cibler et planifier le soutien qu’elles apportent pour faciliter la mise en œuvre de leurs instruments (voir chapitre 2). Il est également possible d’évaluer l’utilisation d’instruments internationaux qui n’ont pas été assortis d’objectifs clairement mesurables lors de leur conception.

Le second niveau d’évaluation des instruments internationaux consiste à examiner leurs incidences. Il s’agit d’une entreprise beaucoup plus complexe que l’évaluation de l’utilisation, posant de sérieux défis liés à la disponibilité des données, à la difficulté d’établir une causalité (p. ex. la part des résultats observés attribuable à l’instrument de l’OI par rapport à d’autres facteurs comme l’environnement favorable et les actions complémentaires d’autres parties prenantes) et la durée parfois nécessaire jusqu’à ce que le travail normatif ait un impact2. C’est ce qui explique entre autres pourquoi les OI ont généralement moins d’expérience dans la conduite de ce type d’évaluations. Nombre d’entre elles en ont toutefois conscience et essaient de trouver des moyens d’évaluer non seulement l’utilisation, mais également l’impact de leurs instruments. Il existe un large éventail de pratiques et de méthodologies efficaces en la matière et certaines OI ont élaboré des documents d’orientation pour aider d’autres organisations à évaluer avec efficacité l’impact de leurs instruments3. Les OI pourraient aussi envisager une collaboration avec d’autres acteurs comme les milieux universitaires ou les ONG si elles ne disposent pas de l’expertise technique requise en interne (voir chapitre 4).

Une culture de l’évaluation ne se construit pas du jour au lendemain. En commençant par des évaluations de moindre envergure aux objectifs modestes, on pourrait obtenir des résultats intermédiaires et s’en servir pour accroître la confiance dans les processus d’évaluation au sein de l’OI, ce qui pourrait faire naître une volonté d’aller plus loin par la suite. Même des volumes réduits de données et des résultats limités issus d’évaluations menées à plus petite échelle peuvent mettre en évidence des effets très positifs et inciter davantage de parties prenantes à mettre en œuvre les instruments internationaux (voir chapitre 2).

L’élaboration de documents d’orientation à l’intention des responsables de la planification ou de la conduite de l’évaluation contribuera à harmoniser les pratiques et à définir les attentes du point de vue de l’OI et de ses parties prenantes. L’adoption d’une approche commune revêt une importance particulière lorsque les évaluations sont menées de manière décentralisée (par exemple, par des membres ou des consultants externes et non par le Secrétariat de l’OI).

Les orientations pourraient notamment porter sur les points suivants :

  • la définition des objectifs : comment fixer des objectifs concrets et réalisables et établir des critères d’évaluation clairs et mesurables.

  • le choix des personnes qui procèderont à l’évaluation – aperçu des critères à remplir ou des qualifications requises pour entreprendre l’évaluation en question.

  • les coûts de l’évaluation – veiller à ce que le coût du processus d’évaluation soit proportionné aux effets attendus de l’instrument international.

  • l’évaluation comparative – lorsque cela est possible, envisager des analyses comparatives entre États.

  • la participation des intéressés – assurer une consultation ouverte et effective avec les parties prenantes et ceux qui seront concernés ou probablement concernés.

  • le recours aux technologies – réflexion sur les possibilités d’utilisation des technologies numériques pour accroître l’efficacité des processus d’évaluation et pour analyser ou collecter des données.

  • l’exploitation des données – tirer parti de toutes les sources d’information disponibles et envisager le recours à des sources moins classiques comme les informations de source ouverte, les données satellitaires, de téléphonie mobile, des médias sociaux, etc.

  • la confidentialité, l’impartialité et l’indépendance – réflexion sur les moyens de tenir compte de ces principes à toutes les étapes du processus d’évaluation.

Lorsque les instruments internationaux sont assortis d’objectifs clairement mesurables, ceux-ci constituent de précieux critères d’évaluation. Toutefois, si cette utilisation n’est pas envisageable ou n’apporte qu’une compréhension partielle de l’instrument, il sera important de fournir des descriptions qualitatives des impacts difficiles ou impossibles à quantifier, comme l’équité ou la justice. Selon la nature de l’instrument et le niveau d’évaluation prévu, les objectifs peuvent être spécifiques à un instrument donné ou s’appliquer à un ensemble ou à un type ou une classe d’instruments. Ils pourraient également être fixés ou modifiés par l’État ou par l’organisation qui met en œuvre l’instrument en fonction des circonstances locales.

En détaillant et en appliquant un processus rigoureux pour établir les objectifs des instruments internationaux – s’accompagnant par exemple de la collecte de données, d’études et de consultations avec les acteurs susceptibles d’être concernés par la mise en œuvre de l’instrument –, on peut contribuer à assurer la cohérence des objectifs entre les différents instruments d’une même OI. Cette façon de procéder permet également d’accroître la transparence du processus, voire de renforcer l’adhésion et la confiance accordée tant aux instruments eux-mêmes qu’aux pratiques d’évaluation qui se fonderont ensuite sur ces objectifs.

La définition d’objectifs doit faire partie du processus d’élaboration des instruments normatifs des OI (voir chapitre 1). Lorsque cela est possible, elle devrait être intégrée à la pratique plus générale d’établissement des objectifs et d’analyse d’impact ex ante (OCDE, 2020[3])4.

Avant d’élaborer un instrument, les OI ont en général la possibilité d’examiner les différentes options qui s’offrent à elles pour atteindre les objectifs fixés, ainsi que les effets de l’inaction. Elles devraient recueillir les données disponibles et faire appel à l’expertise scientifique et aux contributions des parties prenantes pour analyser l’ensemble des coûts et avantages potentiels (directs et indirects) de la mise en œuvre de l’instrument envisagé. Les résultats de cette analyse peuvent aider à améliorer le projet d’instrument, et leur communication au public (si possible) peut accroître la confiance dans les instruments internationaux ou, plus généralement, dans la culture de l’OI en matière d’évaluation, ainsi que l’adhésion des parties prenantes à ces derniers5.

Les OI devraient envisager d’évaluer leurs instruments autrement qu’un par un. L’évaluation d’un sous-ensemble d’instruments ou de l’ensemble des instruments internationaux peut donner une orientation stratégique plus prononcée aux pratiques des OI en établissant un inventaire précis des divers instruments appliqués et en fournissant des indications sur ceux qui fonctionnent mieux que d’autres (OCDE, 2020[5]).

Les OI peuvent commencer par examiner une série d’instruments dans un secteur, un domaine d’action ou une initiative donnés, avant d’étendre progressivement leur analyse à une plus grande variété d’instruments. Ce travail permettra de repérer les lacunes qu’il pourrait être nécessaire de combler au moyen de nouveaux instruments internationaux ainsi que les chevauchements ou doubles emplois entre les instruments existants.

Il est important d’assurer le libre accès aux informations relatives aux processus d’évaluation et de diffuser en toute transparence les résultats des évaluations pour bâtir la confiance et montrer qu’il existe au sein de l’OI une solide culture de l’évaluation et de la responsabilité quant à ses instruments.

La consultation des principales parties prenantes à tous les stades du processus d’évaluation contribue pour beaucoup à la transparence et peut renforcer la crédibilité des résultats de l’évaluation (voir chapitre 4). Par ailleurs, la communication des projets de conclusions des exercices d’évaluation pour commentaires peut aider l’organe chargé de l’évaluation à consolider le corpus de données disponibles.

Les rapports d’évaluation devraient être diffusés aussi largement que possible, notamment au sein de l’OI et aux membres de l’OI, voire au grand public (sauf par exemple si cela pose des problèmes de protection ou de confidentialité des données pour les parties prenantes). La création d’un registre des résultats des évaluations passées (par exemple sur le site web de l’OI) peut être une solution. La transmission directe des rapports aux acteurs ayant participé au processus d’évaluation est également une bonne pratique (UNEG, 2014[6]).

Au-delà de l’exploitation des résultats des évaluations, il faudrait que l’OI puisse montrer comment elle-même, ses organes directeurs, ses membres ou d’autres parties prenantes se sont servis de ces résultats pour :

  • Améliorer les instruments internationaux et/ou leur mise en œuvre, y compris pour combler les lacunes réglementaires dans l’ensemble d’instruments (voir chapitre 1).

  • définir des actions complémentaires concernant d’autres pratiques de l’OI et recenser les éléments à intégrer dans le cycle décisionnel suivant de l’OI.

  • déterminer quels sont, parmi les enseignements tirés du processus d’évaluation, ceux qui permettent d’améliorer ce processus (p. ex. amélioration des documents d’orientation, de la définition des objectifs ou de la communication des résultats).

  • Faire reconnaître l’utilité des instruments internationaux (voir chapitre 2).

Les OI ont moins souvent recours à l’évaluation qu’aux autres activités décrites dans le présent recueil, mais elles sont de plus en plus nombreuses à adopter des pratiques en la matière. Dans l’enquête menée par l’OCDE auprès des OI en 2018, la grande majorité d’entre elles (28 sur 36) ont dit avoir mis en place un mécanisme d’évaluation, sous une forme ou une autre. Sur ces 28 OI, quatorze ont affirmé avoir l’obligation de conduire des évaluations de manière systématique. Seules huit OI ont indiqué n’avoir aucune pratique d’évaluation (Graphique 3.2).

Un examen des différentes catégories d’OI6 montre clairement que ce sont les OIG à composition restreinte et fermée ou les secrétariats de conventions qui procèdent le plus fréquemment à des évaluations. Il s’agit probablement d’une question de formalisme des instruments utilisés (secrétariat des conventions) et de commodité de l’évaluation avec un nombre de membres limité (OIG « fermées »).

Lorsqu’elles se lancent dans l’évaluation, les OI se consacrent le plus souvent à l’évaluation de l’utilisation ou de la mise en œuvre des instruments internationaux, plutôt qu’à l’évaluation de leurs effets (OCDE, 2019[4]) (OCDE, 2016[1]). Plusieurs OI dont l’OIML et l’ISO disent examiner périodiquement, d’une manière ou d’une autre, l’utilisation ou la mise en œuvre de leurs instruments pour déterminer si ces derniers doivent être confirmés, révisés ou retirés. Le Secrétariat de la Convention sur la diversité biologique (CDB) est un exemple d’OI qui réalise des évaluations d’impact, sous la forme d’examens obligatoires de l’efficacité de ses instruments (les protocoles). Cela étant, même si la pratique est relativement peu utilisée, les OI et leurs groupes cibles reconnaissent la nécessité d’examiner les effets des instruments pour déterminer s’ils restent pertinents ou doivent être révisés. C’est le constat qui est ressorti très nettement de la deuxième réunion des organisations internationales7 et qui apparaît également dans les résultats de l’enquête de 2018.

Bien que toutes les catégories d’instruments soient évaluées, les résultats de l’enquête de 2018 montrent que les instruments le plus souvent examinés sont ceux que les OI qualifient de « normes ». Les normes techniques internationales, en particulier (p. ex. ASTM International, IEC, ISO) sont régulièrement évaluées pour assurer leur qualité, leur adéquation au marché et leur conformité avec l’état des connaissances du moment. Les évaluations de ce type ont souvent lieu de manière systématique et à une fréquence déterminée (p. ex. au moins tous les cinq ans). D’autres catégories d’instruments comme les conventions (p. ex. évaluation des six conventions culturelles par l’UNESCO) et même des instruments non contraignants (p. ex. mémorandums d’entente, etc.) font également l’objet d’évaluations, bien que moins fréquentes.

Dans l’enquête de 2018, sur l’ensemble des OI ayant indiqué avoir adopté un mécanisme d’évaluation, la moitié ont fait de l’évaluation une exigence systématique pour leurs instruments. Les autres n’ont pas défini d’exigence générale d’évaluation, ce qui signifie qu’une partie seulement de leurs instruments est soumise à évaluation ou que les évaluations n’ont lieu que ponctuellement. L’obligation d’évaluation peut être inscrite par exemple dans des clauses spécifiques intégrées aux instruments eux-mêmes ou dans des règlements, lignes directrices ou termes de référence plus généraux (voir chapitre 1).

L’existence d’une obligation de donner suite à l’évaluation d’un instrument international dépend souvent du résultat de celle-ci. Si un instrument est « confirmé », par exemple, aucune action ne sera peut-être requise. En revanche, des mesures supplémentaires seront nécessaires si l’évaluation aboutit à une proposition de « révision » ou de « retrait » de l’instrument. Dans certains cas, les OI se contenteront de recommander une action plutôt que de l’imposer à leurs membres.

La gestion des processus d’évaluation est souvent une compétence partagée entre le Secrétariat de l’OI et ses membres. Les réponses à l’enquête montrent que cette responsabilité partagée est systématique dans certaines OI, tandis que dans d’autres, elle fait l’objet de décisions au cas par cas, pour chaque instrument.

Les entités chargées de l’évaluation sont, dans certaines OI, les comités techniques responsables du développement de l’instrument. Cela vaut notamment pour les organisations de normalisation. D’autres OI disposent d’un organe ou d’un service permanents dédiés à l’évaluation des instruments, par exemple une unité de gestion/chargée de la politique globale ou le service qui a élaboré l’instrument. La gestion de l’évaluation relève quelquefois de la responsabilité de groupes de travail ad hoc, de comités directeurs ou de conseils de la présidence. L’évaluation n’est sous-traitée à un organisme extérieur que dans de très rares cas.

Il existe une tendance marquée des OI à évaluer leurs instruments ex post, plutôt qu’ex ante (Graphique 3.2). Dans l’enquête de 2018, seules douze OI ont dit procéder à des analyses d’impact ex ante et parmi elles, la plupart ne le font pas régulièrement (trois seulement ont affirmé qu’elles réalisent systématiquement une évaluation ex ante, et deux qu’elles le font fréquemment). Lorsque l’évaluation a lieu ex post, elle porte généralement sur un instrument seul plutôt que sur l’ensemble des instruments (OCDE, 2016[1]). Nombre de processus d’évaluation ex post des OI sont assortis de délais, les dispositions des instruments imposant souvent un examen des instruments cinq ans après leur adoption.

Dans les organisations internationales qui pratiquent régulièrement l’évaluation, la forme d’examen la plus courante est l’analyse d’instruments seuls. D’après les résultats de l’enquête de 2018, deux OI sur trois évaluent l’utilisation, la mise en œuvre ou l’impact d’instruments pris individuellement. Dans ce groupe, les organisations internationales de normalisation privées se distinguent par le caractère méthodique de l’évaluation, son étendue et son format, ainsi que son intégration au développement des instruments (Encadré 3.4, voir chapitre 1). L’uniformité de cette pratique est un exemple de processus d’apprentissage mutuel entre OI et ouvre de nouveaux espaces de coordination (voir chapitre 5). Au-delà de l’OCDE, les organisations intergouvernementales ne reproduisent pas ces formes d’évaluation. Il n’y a toutefois aucune raison institutionnelle impérative à cela et les organisations internationales pourraient envisager d’intégrer dans leurs instruments des exigences minimales similaires en matière d’évaluation.

L’évaluation d’instruments individuels s’étend aussi dans certains cas aux instruments clés ou fondateurs d’une organisation internationale. Les motivations d’une telle évaluation sont évidentes. Ces instruments définissant, inspirant et englobant tout un éventail d’activités de réglementation internationale de l’OI en question, savoir qu’ils sont adaptés à leur finalité est essentiel pour donner une crédibilité et une légitimité à l’organisation, démontrer l’efficacité de son action et promouvoir l’adoption de ses instruments à plus grande échelle. Outre les pratiques présentées dans l’Encadré 3.5, cette forme d’évaluation s’appliquerait également au MEN de l’OIT (Encadré 3.1), à l’examen du processus d’élaboration des normes de l’OCDE (Encadré 3.6), à l’examen des résolutions de l’UICN et à l’évaluation par l’UNESCO de ses conventions culturelles (Encadré 3.2), ainsi qu’aux procédures d’examen des normes mentionnées dans l’Encadré 3.4.

Certaines OI affichent une ambition à l’échelle de l’organisation toute entière, d’évaluer les effets et la pertinence de leurs instruments et commencent à intensifier leurs efforts en la matière. Les enquêtes menées en 2015 et 2018 auprès des OI montrent que les évaluations de l’ensemble des instruments ne sont pas aussi fréquentes que les évaluations ex post d’instruments pris isolément. Cela dit, un certain nombre d’initiatives ont vu le jour ces dernières années et plusieurs organisations ont procédé récemment à un examen général de tous leurs instruments (Encadré 3.6).

Il n’y a pas de méthodologie communément ou fréquemment utilisée par les OI pour mener des évaluations. Les méthodologies d’évaluation de l’impact restent embryonnaires et spécifiques à chaque OI, voire – souvent – aux différentes catégories d’instruments au sein de l’OI (Encadré 3.7) (OCDE, 2016[1]).

Sur l’ensemble des OI ayant répondu à l’enquête de 2018, treize ont indiqué disposer d’orientations écrites en matière d’évaluation. Certaines OI ont élaboré leurs propres orientations ou politiques internes tandis que d’autres utilisent le Manuel du Groupe des Nations Unies pour l’évaluation (UNEG), groupe interinstitutions qui rassemble les unités chargées de l’évaluation dans le système des Nations Unies (UNEG, 2014[6]). Parmi les autres sources d’orientations écrites sur l’évaluation, on peut citer la bibliothèque de documents de l’UNEG (qui inclut maintenant les lignes directrices pour l’évaluation en période de COVID-19) et le Manuel d’inspection et d’évaluation de la Division de l’inspection et de l’évaluation du Bureau des services de contrôle interne des Nations Unies (OIOS-IED) (UNEG, 2021[30]) (UNEG, 2020[31]) (BSCI-IED, 2014[32]).

Dans les cas exceptionnels où les OI procèdent à une analyse avant l’élaboration d’un instrument international (analyse ex ante), elles le font par exemple au moyen d’une liste de questions qui se posent systématiquement à l’organisme de réglementation ; les résultats de cette analyse peuvent alors être soumis aux États membres pour approbation avant de lancer le processus d’élaboration de la réglementation.

L’évaluation des instruments internationaux est encore loin d’être systématique dans les OI, car sa mise en œuvre peut être source de difficultés. L’évaluation de l’activité normative est reconnue comme une tâche particulièrement ardue. Les besoins en ressources, la coopération avec les groupes intéressés, la culture de l’organisation et la capacité à exploiter les résultats de l’évaluation, mais aussi l’évaluation de l’impact des instruments, le type d’instrument ou son ancienneté sont autant d’aspects qui peuvent poser problème.

L’un des principaux défis réside dans le fait que l’évaluation est grande consommatrice de ressources. Cette difficulté touche toutes les OI, mais celles qui sont dotées de secrétariats de plus petite envergure et de ressources limitées peuvent en ressentir plus intensément les effets. Elle concerne à la fois les ressources quantitatives (temps et argent) et qualitatives (compétences). L’expertise, en particulier, peut être très coûteuse si elle n’est pas disponible en interne et une analyse coûts-avantages peut alors être nécessaire pour déterminer si l’évaluation se justifie (OCDE, 2016[1]).

Certaines difficultés rencontrées dans l’évaluation des instruments peuvent également s’expliquer par le rôle respectif des OI et de leurs groupes cibles. En général, les OI doivent disposer d’un mandat de leurs membres pour entreprendre une activité d’évaluation, mais cela n’est pas toujours simple, du fait de la dynamique qui existe entre les organes directeurs et les membres et des intérêts très divers de ces derniers. Les organes directeurs chargés de l’instrument doivent jouer un rôle central dans l’évaluation, notamment pour veiller à ce que les recommandations soient suivies d’effets. Cela dit, il peut être difficile d’arriver à un consensus entre organes directeurs et membres de l’OI sur les aspects à évaluer, l’étendue de l’évaluation et l’élaboration de recommandations spécifiques. Par ailleurs, l’hétérogénéité des membres de l’OI peut se traduire par des besoins et des capacités – et donc des objectifs – très différents. On peut noter par exemple un degré d’engagement très variable des États membres et associés dans l’accord de reconnaissance mutuelle du CIPM (Encadré 3.5), dû aux besoins plus ou moins importants de leurs économies et à leurs capacités techniques et scientifiques extrêmement diverses. Les pays dotés de systèmes de métrologie avancés privilégient les compétences de plus haut niveau, tandis que les pays et économies où ces systèmes sont tout récents mettent l’accent sur la fourniture de services de base. Il est parfois possible de surmonter ces difficultés en organisant de vastes consultations et en ayant recours à une procédure itérative aboutissant à un consensus autour d’objectifs généraux communs.

Le développement de l’évaluation des instruments internationaux se heurte aussi à des obstacles d’ordre culturel. Les OI peuvent avoir des réticences liées au fait qu’une évaluation qui ne donnerait pas de bons résultats les contraindrait à publier des conclusions négatives. Ce sujet sensible peut être transformé en un message positif sur l’intérêt de l’évaluation grâce à une prise de conscience plus aiguë des avantages que celle-ci peut procurer aux OI et à leurs membres, notamment si les OI montrent que la qualité et l’efficacité de leurs instruments se sont améliorées après une évaluation initialement décevante ou défavorable. Une stratégie gagnante qui permettrait aux OI de limiter les obstacles de ce type consiste à communiquer le bon message sur l’évaluation, autrement dit à la présenter comme un moyen d’analyser l’efficacité de leurs instruments et non comme un examen et une comparaison des performances de leurs membres au regard de ces instruments.

Les OI peuvent également rencontrer des difficultés dans l’exploitation des résultats des évaluations, ce qui signifie que même si l’évaluation en elle-même peut avoir lieu, elles n’en retireront pas forcément tous les avantages. Si la mise en œuvre des recommandations découlant d’une évaluation requiert l’utilisation de nouvelles technologies (en particulier informatiques), par exemple, il se peut que les infrastructures adéquates ou les ressources nécessaires fassent défaut.

Pour ce qui est de l’évaluation de l’impact, la mesure et l’évaluation des effets de l’activité normative internationale posent d’importantes difficultés méthodologiques en raison d’un champ d’application potentiellement diffus et du problème de l’établissement de la causalité (attribution de certains effets aux instruments internationaux). Les instruments internationaux manquent souvent d’outils permettant d’évaluer à la fois des données quantitatives et qualitatives, ce qui limite la compréhension de toute l’étendue et toute la complexité des résultats obtenus (ou les raisons de leur absence). Il peut être particulièrement difficile pour les secrétariats des OI de recueillir les données nécessaires à l’évaluation de l’impact car ce sont essentiellement leurs membres qui détiennent ces informations. Même lorsque ces derniers sont disposés à les communiquer, des problèmes d’ordre pratique peuvent se poser.

En ce qui concerne le type d’instruments, il apparaît que les instruments non contraignants peuvent être plus délicats à évaluer que les instruments obligatoires (voir chapitre 1) car ils sont généralement plus souples et peuvent être mis en œuvre de manière moins homogène.

Enfin, l’ancienneté d’un instrument est un facteur qui peut rendre difficile l’examen simultané de sa mise en œuvre et de son impact lors d’une évaluation. Cette remarque concerne en particulier les instruments récents pour lesquels l’OI s’efforce simplement d’obtenir un nombre de ratifications suffisant. Pour remédier à cela, les évaluations doivent prendre en considération la maturité des instruments et fixer d’emblée des objectifs réalistes.

Dans l’ensemble, bien que l’évaluation des instruments internationaux reste relativement limitée, la multiplication des initiatives en la matière contribue progressivement à une meilleure connaissance et compréhension de la mise en œuvre et des répercussions des instruments internationaux. Cette expérience croissante et l’apparition de nouveaux outils issus des technologies de l’information offrent aux OI des possibilités supplémentaires de recueillir et de traiter d’importantes quantités de données et d’informations sur la mise en œuvre, voire l’impact des instruments internationaux et de les communiquer de manière plus fluide aux parties intéressées – que ce soit entre les pays et les secrétariats des OI ou entre les OI elles-mêmes – pour qu’elles puissent utiliser des informations communes.

Dans le cadre de l’évaluation ex ante et ex post, les organismes nationaux de régulation recueillent des données importantes qui peuvent combler le manque d’informations des secrétariats des OI sur l’impact de leurs instruments. Une étude du Comité de la politique de la réglementation de l’OCDE menée en 2017 a montré qu’un tiers des pays membres de l’OCDE examinent la mise en œuvre des instruments internationaux auxquels ils adhèrent, et sur ces derniers, six communiquent les résultats de ces évaluations aux OI concernées (OCDE, 2018[37]). Dans l’enquête de 2018, douze OI ont indiqué tenir compte dans certains cas des résultats de l’évaluation nationale des instruments internationaux transposés dans la législation interne.

Références

[19] BIPM (2016), Recommendations from the Working Group on the Implementation and Operation of the CIPM MRA, https://www.bipm.org/utils/common/documents/CIPM-MRA-review/Recommendations-from-the-WG.pdf.

[32] BSCI-IED (2014), OIOS-IED Inspection and Evaluation Manual, https://oios.un.org/sites/oios.un.org/files/images/oios-ied_manual.pdf (accessed on 26 March 2021).

[25] CITES (2011), Résolution Conf. 14.8 - Examen périodique des espèces inscrites aux Annexes I et II, https://cites.org/sites/default/files/document/F-Res-14-08-R17_0.pdf.

[10] Commission européenne (2016), Accord interinstitutionnel « Mieux légiférer » de l’Union européenne, https://eur-lex.europa.eu/legal-content/fr/TXT/?uri=CELEX%3A32016Q0512%2801%29.

[35] FAO (2020), Base de données FAOLEX, http://www.fao.org/faolex/fr/.

[14] https: et al. (2020), ASTM Regulations Governing Technical Committees - Green Book, https://www.astm.org/Regulations.html#s10.

[9] ILAC (2019), Structure of the ILAC Mutual Recognition Arrangement and Procedure for Expansion of the Scope of the ILAC Arrangement (ILAC - R6:05/2019), https://ilac.org/?ddownload=122555.

[20] ILAC (2015), ILAC Mutual Recognition Agreement (ILAC MRA), https://ilac.org/ilac-mra-and-signatories/.

[16] ISO (2019), Guidance on the Systematic Review Process, https://www.iso.org/files/live/sites/isoorg/files/store/en/PUB100413.pdf.

[27] ISO (2018), ISO 19011:2018 Lignes directrices pour l’audit des systèmes de management, https://www.iso.org/fr/standard/70017.html.

[28] ISO (1986), Bureau de gestion technique (ISO/TMB), https://www.iso.org/committee/4882545.html/.

[15] ISO/CEI (2018), Directives ISO/IEC, Partie 1 + Supplément ISO consolidé, https://isotc.iso.org/livelink/livelink/fetch/2000/2122/4230450/4405363/11154417/Suppl%C3%A9ment_ISO_consolid%C3%A9_%289%C3%A8me_%C3%A9dition%2C_2018%29_Format_PDF.pdf?nodeid=19891234&vernum=-2.

[26] ISO/CEI (2017), ISO/IEC 17011: 2017 Évaluation de la conformité — Exigences pour les organismes d’accréditation procédant à l’accréditation d’organismes d’évaluation de la conformité, https://www.iso.org/fr/standard/67198.html.

[18] OCDE (2021), International Regulatory Cooperation and International Organisations: The Case of ASTM International, https://community.oecd.org/servlet/JiveServlet/previewBody/182502-102-1-322490/GOV%20RPC%202020%2017%20IRC%20and%20IOs%20the%20case%20of%20ASTM%20international.pdf (accessed on 3 November 2020).

[3] OCDE (2020), Analyse d’impact de la réglementation, Principes de bonne pratique de l’OCDE en matière de politique réglementaire, Éditions OCDE, Paris, https://dx.doi.org/10.1787/6ee941af-fr.

[36] OCDE (2020), OECD Study on the World Organisation for Animal Health (OIE) Observatory: Strengthening the Implementation of International Standards, Éditions OCDE, Paris, https://dx.doi.org/10.1787/c88edbcd-en.

[5] OCDE (2020), Principes de bonne pratique de l’OCDE en matière de politique réglementaire : Examiner la réglementation existante, Éditions OCDE, Paris, https://www.oecd.org/fr/gov/politique-reglementaire/examiner-la-reglementation-existante-eb656b8d-fr.htm (accessed on 25 March 2021).

[13] OCDE (2019), Better Regulation Practices across the European Union, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264311732-en.

[23] OCDE (2019), Examen du processus d’élaboration des normes, Éditions OCDE, Paris, https://one.oecd.org/document/C/MIN(2019)13/fr/pdf.

[4] OCDE (2019), The Contribution of International Organisations to a Rule-Based International System: Key Results from the Partnership of International Organisations for Effective Rulemaking, https://www.oecd.org/gov/regulatory-policy/IO-Rule-Based%20System.pdf.

[37] OCDE (2018), Politique de la réglementation : Perspectives de l’OCDE 2018, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264305458-fr.

[38] OCDE (2016), International Regulatory Co-operation: The Role of International Organisations, Éditions OCDE.

[1] OCDE (2016), International Regulatory Co-operation: The Role of International Organisations in Fostering Better Rules of Globalisation, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264244047-en.

[11] OCDE (2014), International Regulatory Co-operation and International Organisations: the Cases of the OECD and the IMO, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264225756-en.

[7] OCDE (2014), International Regulatory Co-operation and International Organisations: The Cases of the OECD and the IMO, Éditions OCDE, Paris, https://dx.doi.org/10.1787/9789264225756-en.

[17] OCDE ; OIML (2016), International Regulatory Co-operation and International Organisations: The Case of the International Organization of Legal Metrology (OIML).

[12] OIML (1955), Convention instituant une Organisation Internationale de Métrologie Légale, https://www.oiml.org/fr/files/pdf_b/b001-f68.pdf.

[8] OIT (2011), Standards Review Mechanism (SRM), https://www.ilo.org/global/about-the-ilo/how-the-ilo-works/departments-and-offices/jur/legal-instruments/WCMS_712639/lang--en/index.htm.

[24] OMD (2020), Mécanisme de mesure de la performance de l’OMD, http://www.wcoomd.org/fr/wco-working-bodies/capacity_building/working-group-on-performance-measurement.aspx.

[29] OTIF (2019), Notes explicatives sur le projet de décision sur la veille et l’évaluation des instruments juridiques, http://otif.org/fileadmin/new/2-Activities/2G-WGLE/2Ga_WorkingDocWGLE/2020/LAW-19054-GTEJ2-fde-Explanatory-Notes-on-the-Draft-Decision-text-as-endorsed.pdf.

[2] Parker, D. and C. Kirkpatrick (2012), The Economic Impact of Regulatory Policy: A Literature Review of Quantitative Evidence, Éditions OCDE, Paris, http://www.oecd.org/regreform/measuringperformance (accessed on 21 October 2020).

[22] UICN (2018), Impact des résolutions de l’UICN sur les actions internationales en faveur de la conservation de la nature, https://portals.iucn.org/library/node/47226.

[30] UNEG (2021), UNEG Document Library, http://uneval.org/document/library (accessed on 26 March 2021).

[31] UNEG (2020), Synthesis of Guidelines for UN Evaluation under COVID-19, http://uneval.org/document/detail/2863 (accessed on 26 March 2021).

[6] UNEG (2014), Manuel de l’UNEG pour la conduite de l’évaluation du travail normatif dans le système des Nations Unies, http://www.uneval.org/document/detail/1484 (accessed on 4 December 2020).

[34] UNEG (2013), Manuel de l’UNEG pour la conduite de l’évaluation du travail normatif dans le système des Nations Unies, http://www.uneval.org/document/detail/1484.

[21] UNESCO (2019), Évaluation du travail normatif de l’UNESCO dans le domaine de la culture,, https://unesdoc.unesco.org/ark:/48223/pf0000223095.

[33] UNESCO (2013), Évaluation du travail normatif de l’UNESCO dans le domaine de la culture, Première partie : Convention de 2003 pour la sauvegarde du patrimoine culturel immatériel, https://unesdoc.unesco.org/ark:/48223/pf0000223095.

Notes

← 1. Certaines OI établissent une distinction entre « évaluations internes » (réalisées par un service d’évaluation indépendant faisant partie de l’OI) et « auto-évaluations » (menées directement par le service responsable de l’instrument concerné, pour ses propres besoins). Dans les deux cas, il peut être fait appel à l’assistance de consultants/spécialistes externes, mais c’est toujours l’OI qui guide l’évaluation en interne. Le présent chapitre ne fait pas de différence entre évaluation « interne » et « auto-évaluation », les deux s’appliquant ici.

← 2. Manuel de l’UNEG pour la conduite de l’évaluation du travail normatif dans le système des Nations Unies (2014) www.uneval.org/document/detail/1484.

← 3. Par exemple, le document Better Criteria for Better Evaluation du CAD de l’OCDE (2019) www.oecd.org/dac/evaluation/revised-evaluation-criteria-dec-2019.pdf, le Manuel de l’UNEG pour la conduite de l’évaluation du travail normatif dans le système des Nations Unies (2014) et les Lignes directrices de la Commission européenne sur l’évaluation, https://ec.europa.eu/info/sites/info/files/better-regulation-guidelines-evaluation-fitness-checks.pdf.

← 4. Selon les Perspectives de l’OCDE 2018 – Politique de la réglementation, l’analyse d’impact ex ante de la réglementation (ou évaluation ex ante de l’impact de la réglementation) désigne « le processus systématique d’identification et de quantification des avantages et des coûts susceptibles de découler des options, réglementaires ou non, de l’action gouvernementale envisagée ».

← 5. Pour plus d’informations sur les meilleures pratiques appliquées en matière d’analyse de l’impact, voir la publication de l’OCDE sur l’Analyse d’impact de la réglementation (2020) http://www.oecd.org/gov/regulatory-policy/regulatory-impact-assessment-7a9638cb-en.htm et les Lignes directrices de la Commission européenne sur l’analyse d’impact https://ec.europa.eu/info/sites/info/files/better-regulation-guidelines-impact-assessment.pdf.

← 6. Voir Glossaire.

← 7. http://www.oecd.org/regreform/regulatory-policy/IO-Meeting-Agenda-17-april-2015.pdf.

Mentions légales et droits

Ce document, ainsi que les données et cartes qu’il peut comprendre, sont sans préjudice du statut de tout territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites internationales, et du nom de tout territoire, ville ou région. Des extraits de publications sont susceptibles de faire l'objet d'avertissements supplémentaires, qui sont inclus dans la version complète de la publication, disponible sous le lien fourni à cet effet.

© OCDE 2022

L’utilisation de ce contenu, qu’il soit numérique ou imprimé, est régie par les conditions d’utilisation suivantes : https://www.oecd.org/fr/conditionsdutilisation.