evaluation matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/emq1_2017 fr...

88
Les défis en matière d'évaluation du développement: comment y faire face? Premier trimestre 2017 eVALUation Matters Publication trimestrielle de connaissances sur l’évaluation du développement

Upload: ngocong

Post on 30-Apr-2018

215 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Les défis en matière d'évaluation du

développement: comment y faire face?

Premier trimestre 2017

eVALUation Matters

eVALU

ation M

atters: Les défis en m

atière d'évaluatio

n du d

évelop

pem

ent: com

ment y faire face?

eVAL

UP

remier trim

estre 2017 Publication trimestrielle de connaissances sur l’évaluation du développement

Page 2: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

eVALUation Matters

est un magazine trimestriel de l’Évaluation Indépendante

du Développement du groupe de la Banque Africaine de

Développement. Il offre différentes perspectives et perceptions sur

les problématiques liées à l’évaluation et au développement.

Rédacteur en chef:

Jacqueline Nyagahima, consultante en gestion des connaissances

Remerciements:

IDEV remercie tous les contributeurs, réviseurs, éditeurs et

relecteurs qui ont travaillé sur ce numéro, en particulier:

❙ Mireille Cobinah-Ebrottie, assistante au savoir en évaluation

❙ Kobena Hanson, consultant en gestion des connaissances

❙ Aminata Kouma, consultante Junior

❙ Najade Lindsay, consultante junior

❙ Karen Rot-Munstermann, chef de division, IDEV 3

❙ Kate Stoney, consultante en communication

❙ Prosper Yepdi, traduction française et édition

Conception & mise en page:

Visual Identity Creative Ltd.

Directeur: Jonathan Newham

Conception éditoriale: Francisco Marrero

À propos de l’Évaluation Indépendante du Développement

La mission de l’Évaluation Indépendante du Développement de la BAD

est d’améliorer l’efficacité des initiatives de l'institution au sein de ses

pays membres régionaux, à travers des évaluations indépendantes et

pertinentes ainsi que des partenariats pour le partage des connaissances.

Évaluateur général:

Rakesh Nangia [email protected]

Chefs de division:

Rafika Amira [email protected]

Samer Hachem [email protected]

Karen Rot-Munstermann [email protected]

Des questions?

Téléphone (IDEV):

+225 2026 2041

Téléphone (Standard téléphonique BAD):

+225 2026 4444

Nous écrire: 01 BP 1387

Avenue Joseph Anoma,

Abidjan 01, Côte d’Ivoire

courriel: [email protected]

Web: idev.afdb.org

afdb.org

De l’expérience à la connaissance… De la connaissance à l’action… De l’action à l’impact

© 2017 – Banque africaine de développement (BAD)

Page 3: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Premier trimestre 2017

L'évaluation du développement existe depuis un certain temps maintenant. Cependant, force est de constater qu'elle n’arrive pas à atteindre le niveau d'influence attendu. Pourquoi l'as-similation des leçons apprises et des recommandations issues de l'évaluation est-elle si faible? D’où émanent réellement les problèmes? Est-ce des utilisateurs des évaluations, ou des évalu-ateurs? Est-ce de la politique ou du procédé? Les contributeurs à ce numéro abordent les défis de l'évaluation du développement sous différents angles, en s'appuyant sur la richesse de leurs expériences et connaissances en matière d’évaluation, et sur leur compréhension du contexte de l'évaluation en Afrique.

Page 4: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Tabl

e de

s m

atiè

res

4 Mot de l’Évaluateur général

Rakesh Nangia, Banque africaine de développment«Si l’histoire se répète, et l’inattendu se produit toujours, c’est la preuve que l’Homme est

incapable d’apprendre de son expérience», a dit G.B. Shaw, le célèbre dramaturge. Aussi

alarmante que cette affirmation soit, durant les deux décennies passées dans les milieux

du développement, j’ai été le témoin de plusieurs situations qui lui donnent raison. En

examinant minutieusement les nombreuses évaluations réalisées par le Département de

l’évaluation indépendante du développement au fil des ans, j’ai été surpris de constater

que certaines recommandations sont reprises dans plusieurs évaluations, et parfois sur une

dizaine d’années.

8 Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur

Marc Cohen, Banque africaine de développementLe présent article s’inscrit dans la perspective des utilisateurs, à savoir la direction et le

personnel des organisations de développement, qui doivent tirer profit des travaux de

recherche effectués par les bureaux d’évaluation indépendante et les appliquer. Les pratiques

en vigueur dans la fonction d’évaluation indépendante ne sont pas propices à la prise en

compte du point de vue de l’utilisateur à diverses phases du processus d’évaluation, ce qui

peut constituer un écueil à la prise en compte efficace des conclusions d’évaluation. Nous

suggérons un renforcement de la coopération et la complémentarité entre l’auto-évaluation

et l’évaluation indépendante.

20 L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes

Akua Arthur-Kissi, Banque africaine de développement Vu l’importance de l’implication des parties prenantes dans la réalisation d’évaluations crédi-

bles et utiles, préserver l’indépendance de la fonction d’évaluation est devenu au fil des ans

un défi constant pour l’évaluation du développement. Le présent article met l’accent sur des

défis particuliers posés par de possibles tensions entre les intervenants clés en raison des

efforts visant à garantir à la fois l'indépendance de la fonction d’évaluation et l’implication

des parties prenantes dans le processus d’évaluation. L’article suggère qu’il existe diverses

approches pouvant relever ce défi.

L'actualité en images, page 80

Burundi:Évaluation de la stratégie et du

programme de la Banque 2004–2015

Rapport de synthèse

Septembre 2016

Une

éval

uatio

n de

str

atég

ie p

ays

IDEV

De l’expérience á la connaissance…De la connaissance á l’action…De l’action á l’impact

Une évaluation de stratégie pays IDEVBurundi: Évaluation de la stratégie et du program

me de la Banque 2004–2015

Rapport de synthèseÉvaluation indépendante du développem

ent

Afrique du Sud: Évaluation de la stratégie et du

programme pays

2004–2015Rapport de synthèse

Version éditée

Janvier 2017

Une

éval

uatio

n de

str

atég

ie p

ays

IDEV

Une évaluation de stratégie pays IDEV

Afrique du Sud: Évaluation de la stratégie et du programm

e pays 2004–2015 Rapport de synthèse – Version éditéeÉvaluation indépendante du développem

ent

Page 5: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

32 Défis dans la conduite de l’évaluation du développement: gérer les sensibilités

Pindai M. Sithole, Centre pour le Développement et la Recherche en Évaluation International Afrique (CeDRE International Afrique)Cet article est une réflexion sur les défis auxquels les évaluateurs font souvent face dans la

réalisation des évaluations du développement. L’analyse s’appuie sur l’expérience personnelle

en évaluation du développement acquise par l’auteur surtout en Afrique et en Asie. Les défis

rencontrés dans le processus d’évaluation du fait des bailleurs de fonds et des réalisateurs de

projets ou programmes sont notamment, la peur de l’évaluation, le détachement des projets/

programmes de leur contexte, l’insuffisance des ressources allouées à l’évaluation, les barrières

linguistiques et culturelles, et la sensibilisation insuffisante ou illusoire des destinataires/béné-

ficiaires des services proposés par les projets/programmes et des autres parties prenantes.

42 Repenser la gestion des connaissances et l'indépendance

Erika Ismay MacLaughlin, Banque africaine de développementCet article considère l’apprentissage dans le contexte des organisations avec un accent

sur deux groupes d’utilisateurs distincts: 1) Les Directeurs et administrateurs ainsi que 2) le

personnel opérationnel. Alors que la stratégie actuelle d’évaluation de la BAD n’indique pas

clairement comment les différents groupes d’utilisateurs devraient consommer et utiliser

les données d’évaluation, les publications universitaires suggèrent que l’apprentissage

organisationnel est différent de l’apprentissage individuel et est guidé par un ensemble de

processus tout à fait particuliers. Pour mieux tirer parti de l’évaluation indépendante afin de

soutenir l’apprentissage organisationnel, il faut jeter un regard critique sur la manière dont les

organisations apprennent.

56 Élaboration et pilotage d’une politique d’évaluation du développement

Bertrand Savoye, Agence française de développementLa politique d’évaluation du développement d’un partenaire technique et financier (PTF) vise

souvent plusieurs objectifs, parfois difficiles à concilier, car ils nécessitent pour être atteints

différentes méthodes d’organisation et d’évaluations. Le PTF cherchera à résoudre ces

problèmes en procédant à des arbitrages et des compromis, qui pourront évoluer de façon

pragmatique au fil du temps, suivant ses priorités.

66 Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation?

Zenda Ofir, experte en évaluation«L’évaluation du développement» ne contribue pas assez au «développement», compte tenu

surtout des difficultés auxquelles font face les pays du Sud. Il faut passer à une approche plus

dynamique nous permettant d’évaluer POUR le développement. Ce qui va nous obliger à nous

assurer que les critères déterminants de ce que nous évaluons et la manière dont nous nous y

prenons sont affinés, tant en théorie qu’en pratique, tout en étant conscient de ce qu’on entend

par intervention qui favorise véritablement le développement.

Appel à contributions:

Evaluation Matters est un magazine trimestriel publié en anglais et en français, par l'Evaluation indépendante du développement (IDEV) de la BAD. Nous apprécions les articles originaux des auteurs et nous serons ravis d'examiner vos contribu-tions pour les thèmes du calendrier éditorial ci-dessus.

Pour plus de détails, veuillez consulter ce lien http://idev.afdb.org/fr/document/calendrier-editorial-2017

http://idev.afdb.org/

fr/page/evaluation-

matters-magazine

Q2 2017 Évaluation Globale des Résultats de Développement: dans les coulisses

Q3 2017 Les évaluations à l'ère des ODD

Q4 2017 Les évaluations comme moteur de réforme dans les Institutions Financières Internationales

Q1 2018 Accroître l'offre et la demande pour les évaluations en Afrique

Calendrier éditorial 2017

Les défis en matière d'évaluation du

développement: comment y faire face?

Premier trimestre 2017

eVALUation Matters

Evaluatio

n Matters: T

he Pro

blem

with D

evelop

ment E

valuation and

what to

do

abo

ut iteVA

LU

Prem

ier trimestre 2017 Publication trimestrielle de connaissances sur l’évaluation du développement

Publié en mars 2017

«Malgré l’évolution de l’évaluation du développement au fil des ans, l’apprentissage systématique et la mise en œuvre des recommandations posent problème».

Mot de l'Évaluateur général, page 4

Page 6: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

«Si l’histoire se répète, et l’inattendu se produit toujours, c’est la preuve que l’Homme est incapable d’apprendre de son expérience», a dit G.B. Shaw, le célèbre dram-aturge. Aussi alarmante que cette affirmation soit, durant les deux décennies passées dans les milieux du développement, j’ai été le témoin de plusieurs situations qui lui donnent raison. En examinant minutieusement les nombreuses évaluations réalisées par le Départe-ment de l’évaluation indépendante du développement au fil des ans, j’ai été surpris de constater que certaines recommandations sont reprises dans plusieurs éval-uations, et parfois sur une dizaine d’années. Les éval-uations soulignent sans cesse les mêmes problèmes, en formulant des recommandations similaires pour y remédier. Cependant, pour des raisons inexplica-bles, ces problèmes persistent. Prenons l’exemple des problèmes liés à la qualité de la supervision et le faible suivi des portefeuilles pays. Ils ont été relevés dans les recommandations formulées suite à l’évaluation de l’as-sistance de la Banque aux pays intitulée «Examen des rapports de revue de portefeuille pays 2000–2004 en

Mot de l’Évaluateur général

eVALUation Matters / Premier trimestre 2017

Mot

de

l’Éva

luat

eur g

énér

al

Page 7: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

2005, et ont refait surface dans «l’Évaluation globale des résultats de développement du Groupe de la Banque africaine de développement 2004–2013» soit quasiment une décennie plus tard. Bien qu’il me soit agréable de constater que des mesures sont enfin en train d’être prises pour la résolution de ces problèmes, on ne peut pas ne pas souligner le coût de cette occasion d’apprentissage ratée pour la Banque et, surtout, pour les pays membres régionaux.

La formule selon laquelle il n’existe pas d’approche unique aux problèmes de développement- est ressassée par les praticiens du dével-oppement. Chaque intervention doit être adaptée aux besoins du bénéficiaire. Même lorsqu’elle est reproduite, il est fort probable qu’une intervention soit différente de la première. Par conséquent, il faut impérativement évaluer les interventions précédentes, en tirer les enseignements afin de guider les interventions ultérieures. Malgré l’évi-dence de ces constatations et la pratique de l’évaluation des activités de développement depuis des décennies, pourquoi les connaissances acquises n’influencent-elles pas suffisamment l’apprentissage et la prise de décisions par les organisations qui y consacrent pourtant d’impor-tantes ressources? Pourquoi les enseignements tirés et les recommandations formulées ne sont-elles pas suffisam-ment prises en compte? Sommes-nous vraiment incapa-bles d’apprendre de nos propres expériences et condamnés à reproduire les mêmes erreurs, ou existe-t-il un moyen astucieux de briser ce cycle?

Mot de l’Évaluateur général 5

eVALUation Matters / Premier trimestre 2017

«Malgré l’évolution de l’évaluation du développement au fil des ans, l’apprentissage systématique et la mise en œuvre des recommandations posent problème».

Page 8: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

La mise en œuvre des recommandations issues de l’évaluation est le fil conducteur de cette édition d’eVALUation Matters. Les causes de l’application insuf-fisante des recommandations sont variées. Elle est due notamment à la difficulté à trouver le juste équilibre entre l’indépendance de l’évaluateur et l’implication des parties prenantes dans le processus d’évaluation, entre les bailleurs de fonds des projets ou programmes et les organismes chargés de la mise en œuvre, sans oublier l’insuffisance des ressources et des capacités, et les barrières linguistiques et culturelles.Comment l’évalu-ation se prête-t-elle à l’apprentissage? Et comment les

eVALUation Matters / Premier trimestre 2017

Page 9: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

À propos de l’Évaluateur général

Rakesh Nangia est l’Évaluateur général de l’Évaluation indépendante du développement de la Banque africaine de développement. Avant d’entrer à la Banque, il a passé 25 ans au service de la Banque mondiale où il a occupé divers postes, notamment celui de directeur de la stratégie et des opérations pour le Réseau du développement humain et celui de vice-président par intérim de l’Institut de la Banque mondiale. Ancien étudiant de l’In-stitut indien de technologie à New Delhi et de Harvard, il est détenteur de diplômes en administration des affaires et en ingénierie.

Mot de l’Évaluateur général 7

eVALUation Matters / Premier trimestre 2017

politiques d’évaluation sont-elles mises en œuvre? Enfin, dans le contexte de la transition des objectifs du Millénaire pour le développement vers les objectifs de développement durable qui entendent «Ne laisser personne de côté», les évaluateurs se demandent si les critères d’évaluation que nous utilisons gardent encore toute leur pertinence. Les contributeurs à cette édition d’eVALUation Matters tentent de relever ces défis sous différents angles, en s’appuyant sur la richesse de leurs connaissances en évaluation et leur compréhension nuancée du contexte africain.

Cette édition présente une vision éclairée des problèmes et les conseils des praticiens du développement et de l’évaluation. Je vous exhorte à tirer parti de la riche expérience et des vastes connaissances des contribu-teurs à ce numéro pour enrichir notre capital intellectuel individuel et collectif, et le mettre à profit pour l’élabora-tion de nos programmes de travail respectifs et l’amélio-ration de nos expériences collectives.

Bonne lecture!

Page 10: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Am

élio

rer l

’utili

satio

n et

l’im

pact

des

éva

luat

ions

de

haut

niv

eau:

Du

poin

t de

vue

de l'

utilis

ateu

r

Le présent article s’inscrit dans la perspec-tive des utilisateurs, à savoir la Direction et le personnel des organisations de développe-ment, qui doivent tirer profit des travaux de recherche effectués par les bureaux d’éval-uation indépendante et les appliquer. Les pratiques en vigueur dans la fonction d’éval-uation indépendante ne sont pas propices à la prise en compte du point de vue de l’utilisateur à diverses phases du processus d’évaluation, ce qui peut de constituer un écueil à la prise en compte efficace des conclusions d’évaluation. Nous suggérons un renforcement de la coopéra-tion et la complémentarité entre l’auto-évalua-tion et l’évaluation indépendante.

Page 11: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur 9

eVALUation Matters / Premier trimestre 2017

“IL est rare que les praticiens du développement compren-nent tous les avantages de la recherche évaluative et en tirent profit» et «trop peu

d’études rigoureuses et pertinentes pour le développement sont réalisées sur cette question» (Ravallion, 2008). Cet avis exprimé en toute franchise par un chercheur de la Banque mondiale est généralement partagé par les praticiens du développement dans les organisations internationales. Qu’est-ce qui explique cet état de choses? Pourquoi cette perception selon laquelle l'évaluation ne servirait pas des organisations de développement? Et qu’est-ce qui peut être fait à ce propos? Le présent article s’adresse aux utilisa-teurs, à savoir la direction et le personnel des organisations de développement, qui doivent tirer profit des travaux de recherche effectués par les bureaux d’éval-uation indépendante et les appliquer; il met l’accent sur l’évaluation de haut niveau, à savoir les études sectorielles, institutionnelles ou spéciales, destinées parfois à promouvoir les réformes et influer sur les orientations stratégiques d’une organisation de développement. Les pratiques en vigueur dans la fonction d’évaluation indépendante ne sont pas propices à la prise en compte du point de vue de l’utilisateur à diverses phases du processus d’évaluation, ce qui peut de constituer un écueil à la prise en compte efficace des conclusions des évaluations. En général, les évaluateurs n’associent pas les utilisateurs au choix des sujets, des questions et des méthodes d’étude, malgré

l’impact évident de ces paramètres sur les conclusions et résultats des évaluations. Les questions ayant trait à la durabilité et à la faisabilité réelles des recomman-dations des évaluations – qu’elles soient financières, institutionnelles, cultur-elles ou autres – sont rarement prises en compte par les évaluateurs qui ont tendance à laisser le choix des modalités détaillées de mise en œuvre à la discrétion de la direction de l’organisation concernée. Les ressources des systèmes d’auto-évalu-ation ne sont pas suffisamment exploitées et leurs conclusions sont insuffisam-ment prises en compte par l’évaluation indépendante. En effet, la fonction d’éval-uation indépendante peut faire l’objet de tensions entre i) la production des travaux de recherche évaluative pertinents pour les utilisateurs et efficaces pour influer sur leurs pratiques et leurs décisions de gestion, et ii) le respect strict des principes et des normes de qualité pour l’évaluation du développement tels que définis par l’OCDE/DAC (OCDE, 1991; OCDE, 2010). Pour faire tomber ces tensions – et en même temps accroître l’utilité de l’évaluation du développement – nous suggérons le renforcement de la coopération et la complémentarité entre l’auto-évaluation et l’évaluation indépendante.

Marc Cohen, Banque africaine de développement

«

Page 12: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

10 Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur

Définition des priorités de l’évaluation: un processus guidé par les considérations politiques, la politique ou les sensibilités?

Les priorités d’évaluation, c’est-à-dire l’ensemble des études de haut niveau qui constituent le programme de travail de l’évaluation indépendante, sont générale-ment le résultat de consultations entre les différentes parties prenantes suscep-tibles d’avoir naturellement des points de vue divergents. S’agissant des banques multilatérales de développement (BMD), les unités chargées de l’évaluation consult-eront les actionnaires par l’intermédiaire du conseil d’administration (auquel ces

unités rendent généralement compte), des pays clients, de la direction et du personnel de l’institution. Cependant, le contexte politique et les intérêts des prin-cipales parties prenantes ont tendance à prévaloir dans ce processus. Le choix des sujets des évaluations de haut niveau est donc rarement le fait du hasard: Il traduit des objectifs sous-jacents, guidés par des priorités à caractère politique qui ne sont pas nécessairement partagées par les prat-iciens dont la plus grande préoccupation reste d’ordre technique et axée sur les questions de politique de développement. On peut estimer, à juste titre, que le scepti-cisme croissant à l’égard de l’utilité de l’aide et de la capacité des organisations

Page 13: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur 11

eVALUation Matters / Premier trimestre 2017

«Le choix des sujets des évaluations de haut niveau est donc rarement le fait du hasard: il traduit des objectifs sous-jacents, guidés par des priorités à caractère politique qui ne sont pas nécessairement partagées par les praticiens dont la plus grande préoccupation reste d’ordre technique et axée sur les questions de politique de développement».

à faire bon usage des fonds a dominé un programme de développement très politisé durant la décennie passée. «Les résultats de développement», «l’optimisa-tion des ressources», «l’efficacité institu-tionnelle», «la coordination des bailleurs de fonds», «les capacités opérationnelles», «la sélectivité sectorielle et thématique», etc., sont les thèmes récurrents des évalu-ations de haut niveau.

Cette particularité est un mécanisme utile de redevabilité. Les praticiens du dévelop-pement doivent apporter des réponses crédibles aux décideurs (politiques) qui ont l’obligation de rendre compte à leurs citoyens. Les politiques de développe-ment font l’objet d’un contrôle public, comme tout autre domaine de la politique publique, d’où le rôle essentiel joué par l’évaluation indépendante du dévelop-pement. Par ailleurs, la définition des priorités (motivée par des considérations politiques et non de politique) s’est avérée efficace tant dans le choix des sujets de recherche sur le développement que pour la pratique. Par exemple, le fait que les parlements, aussi bien des pays béné-ficiaires que des pays donateurs, exigent un examen plus approfondi des budgets d’aide au développement a considérable-ment influencé l’Initiative internation-ale pour la transparence de l’aide et des audits. La diminution de «l’appétit pour l’aide» dans les programmes politiques et au sein de l’opinion publique au sens large, ajouté aux difficultés budgétaires que connaissent les pays de l’OCDE, a suscité une vague d’études sur l’efficacité de l’aide ayant donné naissance à une «culture des résultats» pratiquée par plusieurs organisations. La recherche évaluative a suscité l’avènement d’une génération de techniques et d’outils sophistiqués tant au niveau micro (notamment la notation des projets, les normes de qualité à l’entrée, les cadres logiques, etc.) qu’au niveau insti-tutionnel (les cadres de résultats institu-tionnels, tableaux de bord prospectifs,

assurance-qualité et tableaux de bord de portefeuille, etc.) qui constituent désor-mais l’épine dorsale des systèmes d’éval-uation des organisations. Comme nous le relevons ci-après, le problème est que la masse d’informations générée par les systèmes d’auto-évaluation est insuffis-amment synthétisée, analysée et utilisée à la fois par les fournisseurs et les utilisa-teurs des travaux d’évaluation.

L’interférence politique dans la défini-tion des priorités d’évaluation devient problématique si une forme dominante de réflexion ou d’idéologie en matière de développement fausse les questions et les méthodes d’évaluation, qui à leur tour peuvent influer sur la portée et la nature des résultats. Les praticiens peuvent éprouver le sentiment que l’évaluation peut servir à justifier des décisions déjà prises à des niveaux plus élevés et parfois en dehors de la sphère du développe-ment. Une étude conjointe des bailleurs de fonds sur la question de l’affran-chissement de l’aide semble corroborer cette idée (Slob and Jerve, 2008). L’étude conclut principalement que les trans-actions en matière d’aide (les entrées et les sorties) font partie intégrante de la politique étrangère: «La politique de l’aide est de plus en plus rattachée aux questions de politique étrangère et

Page 14: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

eVALUation Matters / Premier trimestre 2017

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur12

sécuritaire et l’aide est de plus en plus utilisée comme instrument de politique étrangère… Ainsi, la politisation de l’aide a donné lieu à une plus grande volatilité et une hausse du nombre de sorties, ce qui est contraire aux principes élémentaires de bonnes pratiques de financement, et met l’accent sur la prévisibilité et le souci des droits des bénéficiaires». Guidés souvent par les résultats des évaluations indépendantes, les BMD ont procédé à d’importantes modifications de leurs portefeuilles durant la décennie passée

en faveur surtout des infrastructures et au détriment des secteurs sociaux (de faibles interventions y sont relevées); certains domaines d’activités ont enreg-istré des «hausses», puis des «baisses» et, à nouveau des «hausses» en fonction de leur pertinence et du degré de priorité qui leur est accordé dans l’agenda politique plus large; l’utilisation d’instruments spéci-fiques, notamment l’appui budgétaire, a connu des périodes successives (et couteuses) de faveur et de disgrâce sans stratégies claires d’entrées et de sorties et sans données probantes (Rønsholt, 2014). Certes, la politisation des priorités d’éval-uation du développement joue un rôle positif et nécessaire, mais on risque ainsi de négliger la perspective technique et axée sur les politiques suivies par les prat-iciens du développement. C’est pourquoi l’essentiel est de trouver le juste équilibre entre les perspectives politique et tech-nique, en consultant un large éventail de

parties prenantes sur un pied d’égalité. En théorie, les praticiens ou les «utilisateurs» des évaluations sont moins exposés aux pressions extérieures; ils ont naturellement leurs propres intérêts et préférences, mais ils peuvent aider à formuler les sujets et questions d’évaluation en se fondant sur leurs expériences et leurs connaissances et en accordant la priorité au principe de l’utilité de l’évaluation.

Élaboration de la méthodologie d’évaluation: choix objectif dans une panoplie d’outils ou préférence de l’évaluateur?

Normalement, les normes de qualité pour l’évaluation du développement recom-mandent que les questions d’évaluation guident l’élaboration de la méthodologie (OCDE, 2010). Par conséquent, le rôle de l’évaluateur consiste à s’assurer que la méthodologie est adaptée à l’objectif, en répondant de la manière la plus objective aux questions d’évaluation sur la base d’in-formations susceptibles d’être collectées dans les limites du délai imparti et du budget. Toutefois, l’évaluation est un art et non une science: des méthodes alternatives ou mixtes peuvent être sélectionnées par les évaluateurs qui ont généralement leurs propres préférences ou compétences. «Il ne peut y avoir d’évaluation où les expériences, les valeurs, les croyances et les attentes de l’évaluateur ne jouent un rôle important…» (McDavid, Hawthorn, 2006). Ainsi, dans la pratique, l’expérience et les connaissances des évaluateurs influenceront beaucoup plus la conception de l’évaluation qu’un examen objectif des avantages et des incon-vénients des diverses méthodes. Une fois de plus Ravallion estime que: «toutefois, bien trop souvent, ce n’est pas la question qui détermine les priorités de recherche, mais plutôt une préférence pour certains types de données ou certaines méthodes; on formule alors la question qui est adaptée à la méthodologie et non l’inverse»

«Ainsi, dans la pratique, l’expérience et les connaissances des évaluateurs influenceront beaucoup plus la conception de l’évaluation qu’un examen objectif des avantages et des inconvénients des diverses méthodes».

Page 15: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

13

eVALUation Matters / Premier trimestre 2017

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur

source de malentendu. Si les conclusions d’évaluation reflètent en grande partie les choix opérés par l’évaluateur à une étape précédente et avec une faible participation des utilisateurs, les utilisateurs peuvent considérer que certains résultats d’évalua-tion sont partiaux et inexacts.

Tirer des conclusions d’évaluation judicieuses: opinion indépendante éclairée ou processus négocié? Un rapprochement entre l’évaluation indépendante et l’auto-évaluation?

Comme nous l’avons indiqué plus haut, les mécanismes potentiellement peu objectifs de formulation des sujets, des questions et des méthodes d’évaluation peuvent déboucher sur un ensemble de conclu-sions fondées sur des preuves partielles ou pas entièrement comprises des utilisa-teurs. Certaines conclusions peuvent être quelque peu déconnectées de l’expérience pratique et de la connaissance profonde des décideurs et du personnel de l’institution. Pour parer à cette situation, un processus de consultations et de validation des conclu-sions durant lequel un projet de rapport est discuté avec les utilisateurs et passé au crible afin d’y détecter de possibles erreurs, incohérences et omissions est habituelle-ment suivi. Évidemment, les utilisateurs et les producteurs des évaluations n’ont pas l’obligation de s’accorder sur un rapport indépendant, mais dans la pratique, il faut s’entendre sur les problèmes essentiels et la manière dont ils peuvent être résolus; ce qui peut aussi renforcer l’acceptation de l’étude par les utilisateurs en vue d’une réelle utilisation.

Ainsi, grâce à ce processus consultatif, les conclusions d’évaluation peuvent être affinées pour devenir une sorte d’harmoni-sation de deux opinions et de deux systèmes indépendants et potentiellement

(Ravallion, 2008). Que l’on partage cet avis ou non, il souligne la nécessité de se pencher sur la subjectivité (inévitable) des évaluateurs dans la formulation de la ques-tion d’évaluation et le choix des méthodes d’évaluation.

Étant donné le caractère relativement récent de l’évaluation du développement et la rareté de spécialistes des techniques d’évaluation complexes, la conception et les choix méthodologiques sont plutôt limités dans la pratique. Des méthodes quantita-tives et qualitatives combinées pertinentes mais quelque peu coûteuses sont à peine utilisées dans les évaluations de haut niveau. En conséquence, les observations, les revues documentaires et les techniques qualitatives élémentaires comme les entre-tiens et les groupes de discussion sont, pour l’instant, les méthodes préférées d’investi-gation. L’élargissement de la palette des techniques et des méthodes utilisées dans l’évaluation de haut niveau permettrait certainement d’atténuer la subjectivité à la phase de conception et de renforcer la pertinence des conclusions, plus tard.

L’autre question qui mérite d’être posée est celle de savoir si une implication en amont des utilisateurs dans le choix de la méthod-ologie d‘évaluation permettrait d’atténuer les risques de choix subjectifs. En effet, malgré l’importance des choix méthod-ologiques pour la pertinence des conclu-sions, il n’existe pas de procédures établies pour associer des utilisateurs à la concep-tion des évaluations. L’utilisation des conclusions d’auto-évaluation , qui normale-ment reflètent les préoccupations des utili-sateurs pour la formulation des questions d’évaluation n’est pas non plus considérée comme un critère de qualité. L’on craint que le fait d’associer trop étroitement les utili-sateurs aux choix méthodologiques soit préjudiciable au principe d’indépendance. Néanmoins, l’idée selon laquelle l’absence de consultation et de transparence dans les choix cruciaux d’évaluation peut être une

Page 16: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur14

eVALUation Matters / Premier trimestre 2017

performances et acquérir les connaissances, elle peut impulser le changement.

Du point de vue de l’utilisateur, les ressources et les conclusions de l'auto-éval-uation doivent explicitement être partie intégrante du processus d’évaluation indépendante. On peut y parvenir en s’assurant que: i) les conclusions de l’au-to-évaluation, si elles sont disponibles, sont spécifiquement examinées par l’évaluation indépendante (et si possible, une suite y est donnée à travers l’opinion d’un éval-uateur), et ii) les forces et les faiblesses de l’auto-évaluation sont systématiquement évaluées par l’évaluation indépendante. Cette approche donnerait lieu à une conver-gence accrue entre l’auto-évaluation et l’évaluation indépendante (ce qui rendrait le processus d’examen et de validation informelle des conclusions d’évaluation plutôt redondant) sans remettre en cause le principe d’indépendance.

Mise en œuvre des recommandations des évaluations: voie réaliste ou mission impossible?

Depuis un certain temps, l’utilisation des conclusions par les évaluateurs pour formuler des recommandations est au centre d’un débat et le restera encore. Certains évaluateurs ont exprimé leur hési-tation à entrer sur ce terrain, en laissant aux utilisateurs le soin de décider du meilleur usage des conclusions. D’autres ont tenté de définir des cadres visant à déterminer s’il faut ou non émettre des recommandations (Iriti et Al. 2005). Du point de vue de l’utilisa-teur, les recommandations constituent une partie essentielle du processus d’évaluation. Un praticien du développement jugera peu utile de demander une évaluation si elle ne débouche pas sur une certaine forme d’action et de prescription politique visant à améliorer la situation. Ainsi, l’opinion majoritaire veut que les évaluations

«Du point de vue de l’utilisateur, les ressources et les conclusions de l’auto-évaluation doivent explicitement être partie intégrante du processus d’évaluation indépendante».

divergents, à savoir d’une part l’opinion de l’évaluateur (éclairée par ses connais-sances et les conclusions de l’auto-évalua-tion) et, d’autre part, l’opinion de l’utilisateur (éclairée par ses propres connaissances et les conclusions de l’auto-évaluation) . On pourrait penser que ce processus, parfois long et tardif, est évitable si les points de vue et les préoccupations des utilisateurs sont mieux pris en compte et en temps voulu, et si l’auto-évaluation fait partie intégrante de la portée de l’évaluation indépendante.

En fait, les deux systèmes d’évaluation sont généralement appliqués en parallèle avec peu de synergies et d’interactions. Par définition, l’auto-évaluation effectuée par une entité engagée dans l’activité à évaluer, présente l’avantage normal d’être pertinente pour les utilisateurs. Le principe d’utilité exige normalement qu’une éval-uation indépendante du développement passe en revue les ressources d’auto-évalu-ation. Toutefois, les ressources d’auto-éval-uation peuvent souvent être ignorées ou être insuffisamment mises à profit par les évaluateurs. En effet, une récente étude de la Banque mondiale a conclu que «le personnel ne considère pas les systèmes d’auto-évaluation comme une source d’éval-uation crédible et globale en temps voulu, et utilisent ces systèmes uniquement par conformisme» (Banque mondiale, 2016). Le manque de confiance dans le système d’au-to-évaluation, son faible degré de rigueur et son objectivité douteuse –constitue un motif de négligence de ce système par l’évaluation indépendante. Toutefois, étant donné que l’auto-évaluation est communé-ment utilisée pour orienter la gestion des

Page 17: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

15Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur

émettent des recommandations qui doivent être dûment prises en compte par les utilisateurs. La mise en œuvre systéma-tique des recommandations et leur suivi constituent par ailleurs l’un des critères de qualité de l’évaluation du développement (OCDE, 2010). Dans plusieurs organisations, cette mise en œuvre doit comprendre la formulation d’une réponse formelle de la Direction et l’application des mesures de suivi convenues.

Il n’existe cependant pas de directives ou de critères clairs visant à orienter les évaluateurs indépendants sur le type de recommandations qu’ils peuvent formuler. Les pratiques varient. À ce jour, la défini-tion d’une «bonne» recommandation n’a de toute évidence pas bénéficié de l’attention méritée ou fait l’objet d’un consensus. Le nombre de recommandations varie naturel-lement d’une évaluation à l’autre, parfois de l’ordre de quelques recommandations, mais plus souvent, elles atteignent une douzaine. Toutefois, au niveau institutionnel,

Page 18: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir
Page 19: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur 17

eVALUation Matters / Premier trimestre 2017

la question de la consolidation et de la cohérence des recommandations peut se poser. Par exemple, le système de suivi de la réponse de la Direction récemment mis en place à la BAD compte environ 430 mesures que la Direction s’est engagée à prendre afin de donner suite aux 230 recommandations formulées par 26 évaluations indépendan-tes réalisées depuis 2012. Les recommanda-tions (et les mesures connexes) accumulées depuis quelques années seulement constit-uent-elles un ensemble assez cohérent pour impulser le changement au sein de l’institution? Comment peuvent-elles être mises en échec ou priorisées? Sont-elles potentiellement conflictuelles? Sont-elles gérables? Peut-on assurer le suivi des progrès accomplis dans la mise en œuvre de ces mesures à un coût raisonnable? Et bien entendu, combien va coûter la mise en œuvre de ces mesures? Malgré leur légitimité apparente, ces questions restent sans réponse dans la pratique actuelle de l’évaluation indépendante. Vu la crois-sance rapide du portefeuille des réformes dans les organisations de développement, induite par l’évaluation indépendante et les rapports d’audit ou les engagements externes, les évaluateurs et les utilisateurs des évaluations devront accorder plus d’at-tention aux questions d’organisation par étapes, de classement par ordre de priorité et de mise en œuvre des réformes.

Le degré de détail ou la spécificité des recommandations varie aussi considéra-blement d’une étude à l’autre. Pour les évaluations thématiques de haut niveau ou les évaluations institutionnelles, les recom-mandations tendent à être formulées de façon plutôt générique. Du point de vue de l’utilisateur, une recommandation vague ne suffit pas pour orienter le choix des actions à mener. Par exemple, les recommanda-tions typiques sont libellées comme suit: «améliorer l’efficacité du processus XXX» ou «améliorer la qualité du produit YYY» ou «de manière plus stratégique, choisir les prior-ités ZZZ». Ces formulations ont l’avantage

d’être agréées tant par les évaluateurs que par les utilisateurs puisqu’elles laissent beaucoup de place à l’interprétation et une grande marge de manœuvre. La Direction et le personnel de l’organisation sont en conséquence en mesure de s’entendre sur la plupart des recommandations et y donner suite en ciblant certaines mesures. La question qui se pose alors est celle de l’addi-tionnalité et de l’impact réel: quels sont les changements impulsés par l’évaluation? Et que se serait-il passé si l’évaluation n’avait pas été réalisée?

La capacité de l’institution à donner suite aux conclusions de l’évaluation et proposer des mesures en réponse à l’ensemble des recommandations revêt une importance primordiale pour les utilisateurs. Les recommandations sont généralement formulées sous forme de déclarations découlant normalement des conclusions mais non accompagnées des coûts estimatifs et d’une étude de faisabil-ité. Les considérations budgétaires et de ressources humaines sont naturellement des aspects critiques; la faisabilité concerne aussi les facteurs institutionnels, culturels et techniques. Du point de vue de l’utilisa-teur, une «contextualisation» insuffisante peut être une grande faiblesse de l’évalua-tion indépendante; une conséquence étant que la recherche en évaluation ne fournisse pas les connaissances nécessaires pour guider la pratique dans d’autres contextes. Souvent, les évaluateurs sont tentés de recommander une «bonne pratique» pour une solution optimale qui a été adoptée dans d’autres contextes, tandis qu’un deuxième choix, probablement moins satisfaisant d’un point de vue technique mais facilement exécutable, pourrait être mieux adapté au contexte spécifique de l’étude. Par exemple, les recommandations des évaluations de haut niveau consistent souvent à proposer un nouveau processus, tel que l’élaboration de critères de qualité, la réalisation des évaluations de la fragil-ité opérationnelle, l’introduction de

Page 20: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur18

eVALUation Matters / Premier trimestre 2017

l’évaluation des projets fondée sur des données probantes, la délégation de pouvoirs en matière d’achats et de décaisse-ments, etc. Le processus recommandé peut être techniquement bon pour résoudre le problème spécifique mis en cause par l’évaluation (pris isolément), mais il est susceptible d’être redondant avec d’autres processus de gestion, de nécessiter des compétences qui ne sont pas disponibles, d'entrer en conflit avec la culture d’entre-prise ou le style de gestion, etc. En général, les évaluations ne fournissent pas de détails sur le coût et la stratégie de mise en œuvre des recommandations, alors qu’il s’agit de préoccupations essentielles pour les utilisateurs qui auront la charge de la mise en œuvre.

Intuitivement, il semble que les utilisa-teurs sont mieux placés pour contextual-iser les résultats d’évaluation et examiner les recommandations en se fondant sur les critères de faisabilité. Grâce à leur connais-sance profonde de l’institution dans laquelle ils travaillent, de sa culture, de ses réseaux formels et informels, la Direction et le personnel peuvent donner des indi-cations utiles sur la qualité et le réalisme des recommandations. Grâce aux données probantes produites par le système d’au-to-évaluation, ils peuvent aussi proposer des solutions concrètes pour l’évaluation indépendante. En effet, l’auto-évaluation a l’avantage d’être plus proche de l’action que l’évaluation indépendante et recèle un meilleur potentiel pour la résolution de problèmes relativement simples (Heider,

«Intuitivement, il semble que les utilisateurs sont mieux placés pour contextualiser les résultats d’évaluation et examiner les recommandations en se fondant sur les critères de faisabilité.»

2016). Nul doute qu’un dialogue franc sur les recommandations des évaluations entre les utilisateurs et les évaluateurs aurait des avantages, notamment la promotion du savoir, l’agrément et l’en-gagement de l’institution.

Conclusion

Du point de vue des utilisateurs, les critères de qualité et le principe d’indépendance peuvent être perçus comme des obstacles à leur rôle et à leur contribution au proces-sus d’évaluation indépendante. Les utilisa-teurs auraient ainsi tendance à considérer la pertinence et l’utilité de l’évaluation indépendante comme imparfaites. Les systèmes d’auto-évaluation demeurent la principale source d’informations pour la prise de décisions de gestion, la résolution des problèmes de performance et l’acqui-sition des connaissances. La majorité des évaluateurs estiment par ailleurs qu’une collaboration étroite avec les utilisateurs tout au long du processus d’évaluation, de la phase de conception de l’évaluation à la formulation des recommandations, peut remettre en cause le principe d’in-dépendance. Les évaluateurs ont tendance à faire peu confiance à l’auto-évaluation et considèreraient le point de vue de l’utilisa-teur comme partial et d’un intérêt limité pour la recherche de solutions.

En pratique, les organisations d’aide ont élaboré des méthodes formelles et infor-melles d’atténuation de la double tension entre l’indépendance et les principes d’utilité de l’évaluation du développement et entre les résultats ou intérêts potentielle-ment divergents des systèmes d’évaluation indépendante et d’auto-évaluation. Toute-fois, le résultat final laisse à désirer, à la fois en termes d’efficacité (utilisation réelle et impact des évaluations) et d’efficience (avec la complexité des processus, il faut en général 18 à 24 mois pour boucler une éval-uation de haut niveau).

Page 21: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Améliorer l’utilisation et l’impact des évaluations de haut niveau: Du point de vue de l'utilisateur 19

eVALUation Matters / Premier trimestre 2017

Pro

fil de

l’au

teur

Marc Cohen est actuellement Chef de Division au Dépar-tement pour les résultats et le contrôle de la qualité de la Banque africaine de développement (BAD). De 1998 à 2009, il a travaillé à la Banque asiatique de développe-ment (BAsD), successivement comme chef d’équipe dans les départements opérationnels, spécialiste principal au Département des résultats, et comme responsable et point focal de l’aide aux États fragiles en situations de conflit. Avant cela, il a été analyste sectoriel et spécialiste du développement social à l’UNESCO où il a assuré la coordination des premières initiatives inter-agences de développement humain conduites par le PNUD. Marc jouit d’une expérience opérationnelle acquise dans une trentaine de pays en transition ou en reconstruction en Asie-pacifique, en Afrique et en Europe de l’Est. Il est titulaire de plusieurs diplômes du troisième cycle universitaire en économie, en science politique et en gestion des Universités d’Oxford, de Paris IX Dauphine et de Paris-I Sorbonne, ainsi que de l’Institut d’études politiques de paris.

Références

Heider, C. (2016), independent versus self-evaluation: is there a place for both? World Bank Blog. https://ieg.worldbankgroup.org/blog/independent-versus-self-evaluation-there-place-both

Iriti, J.; Bickell, W.; Nelson, C. (2005), Using Recommendations in Evaluation: A Decision-Making

Framework for Evaluators, American Journal of Evaluation, 26.

McDavid, J.; Hawthorn L. (2006), Programme Evaluation and Performance Measurement, an Introduction to Practice.

OECD (1991), DAC Principles for the Evaluation of Develop-ment Assistance.

OCDE (2010), Normes de qualité pour l’évaluation du développement.

Ravallion, M. (2008), Evaluation in the Practice of Development, World Bank Policy Research Paper 4547

Rønsholt, F.E. (2014), Review of Budget Support Evaluations, DANIDA.

Slob, A. and Jerve, A. (2008), Managing Aid Exit and Transfor-mation, Joint donor evaluation. SIDA, NORAD, DANIDA.

World Bank (2016), Behind the Mirror, A report on self-evalua-tion systems at the World Bank Group.

Nous proposons trois axes pour l’amélioration de l’impact de l’évaluation indépendante: i) une implication en amont des utilisateurs dans la conception de l’évaluation, ii) une meilleure synergie entre l’évaluation indépendante et l’au-to-évaluation (principalement à travers

l’utilisation et l’évaluation des ressources et techniques d’auto-évaluation par l’évaluation indépendante), et iii) l’étude systématique de la faisabilité des recom-mandations des évaluations indépendan-tes pour servir de point de départ à l’action des utilisateurs.

Page 22: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’in

dépe

ndan

ce d

ans

l’éva

luat

ion

du

déve

lopp

emen

t: Tr

ouve

r le

just

e éq

uilib

re

avec

l’im

plic

atio

n de

s pa

rties

pre

nant

esVu l’importance de l’implication des parties prenantes dans la réalisation d’évaluations crédibles et utiles, préserver l’indépendance de la fonction d’évaluation est devenu au fil des ans un défi constant pour l’évaluation du dévelop-pement. Le présent article met particulièrement l’accent sur le défi posé par de possibles tensions entre les intervenants clés en raison des efforts visant à garantir à la fois l’indépendance de la fonction d’évaluation et l’implication1 des parties prenantes dans le processus d’évalu-ation. Il s’appuie sur les écrits littéraires, les expériences et observations issues des pratiques d’évaluation qui ont cours dans les institutions multilatérales de développement, notamment la Banque africaine de développement, afin de proposer de possibles solutions pour surmonter cet obstacle.

L'article démontre qu’il ne saurait y avoir une seule approche qui s'adapte en toutes circon-stances pour faire face à ce défi et il faut toujours bien comprendre le contexte organi-sationnel dans nos approches d’évaluation. Ce qui impose une approche combinant le recours à un système d’évaluation adapté reposant sur l’expérience, le jugement et les convictions des évaluateurs en ce qui concerne le contexte et les attentes.

Page 23: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

21

eVALUation Matters / Premier trimestre 2017

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes

Introduction

L’IMPOrtANCE de l’indépendance en évaluation du développe-ment est largement reconnue par la communauté du dével-oppement. Cette importance

tient au rôle capital joué par les évaluations dans l’orientation stratégique de la prise de décisions fondées sur des données proban-tes en matière de politiques et programmes. L’évaluation est devenue une composante essentielle de la bonne gouvernance et apporte un important appui à la réflexion et aux adaptations périodiques du cycle des projets, programmes et politiques (Comité d’aide au développement de l’Organisation pour la coopération et le développement économiques- OCDE-CAD). Mayne (2012) décrit le principe d’indépendance comme une fonction des systèmes d’évaluation. Pour elle et l’OCDE, il s’agit d’un principe qui instaure la confiance dans la fonction d’évaluation relativement à la gouvern-ance/supervision. Pour le CAD de l’OCDE, l’indépendance en matière d’évaluation renvoie au degré d’autonomie et à la sépa-ration entre les politiques et les opérations. Ce qui permet aux évaluateurs de rendre compte fidèlement et sans craindre des répercussions, ni céder aux exigences des responsables des opérations ou des entités évaluées. En général, on estime que si l’or-ganisme d’évaluation est trop éloigné des opérations quotidiennes des institutions ou parties concernées, les évaluations peuvent ne pas être en phase avec les infor-mations attendues.

Par conséquent, les évaluations2

indépendantes sont considérées comme parties intégrantes de bonnes pratiques de gestion et cette indépendance est tridi-mensionnelle3: a) l’indépendance organ-isationnelle grâce à laquelle la fonction d’évaluation doit être séparée des unités de conception et de mise en œuvre au sein des entités évaluées. Il faut aussi assurer un accès illimité du personnel de l’évalua-tion aux informations nécessaires; b) l’in-dépendance comportementale, c’est-à-dire un comportement éthique destiné à préve-nir ou gérer le risque de conflit d’intérêts; et c) l’indépendance fonctionnelle qui requi-ert la mise en place de mécanismes pour assurer la protection contre toute influ-ence dans la planification, le financement et l’établissement de rapports sur les évalu-ations. Les écrits soulignent la nécessité de trouver un équilibre entre indépendance et isolement. Le rapport d’examen des systèmes d’évaluation du CAD de l’OCDE 2016 met en garde contre le risque d’isolement dans la quête de l’indépendance de la fonc-tion d’évaluation: a) l’absence de relations avec les unités opérationnelles qui donne lieu à des difficultés d’accès aux données et aux informations, b) la diminution du sentiment d’appropriation des résultats d’évaluation surtout par la Direction/ les décideurs, d’où la faible prise en compte des recommandations des évaluations; c) le risque d’être perçu comme déloyal et digne de peu de confiance ou l’émetteur des critiques malvenues considérées comme potentiellement néfastes pour la préserva-tion de la confiance.

Akua Arthur-Kissi, Banque africaine de développement

Page 24: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes22

eVALUation Matters / Premier trimestre 2017

Dans la réalité, ces questions sont constamment en conflit avec les impor-tantes normes de bonnes pratiques en matière de participation des parties prenantes qui sont souvent nécessaires pour assurer des évaluations crédi-bles et utiles. L’expérience montre que la participation des décideurs et des parties prenantes au processus d’éval-uation augmente la probabilité que les évaluations aient plus de visibilité, de légitimité et de crédibilité garantissant leur utilisation et leur influence. Chez les praticiens et dans diverses publications d’évaluation, la participation des parties prenantes au processus d’évaluation est jugée essentielle pour la durabilité, l’ap-propriation et la responsabilité récipro-que. Toutefois, une récente étude réalisée par le CAD de l’OCDE4 au sein des réseaux de ses membres montre qu’un nombre limité d’institutions confirment que la participation fréquente ou étroite des parties prenantes est encouragée lors des phases de planification et de conception de l'évaluation. Bien que l'effort d'engage-ment de chaque intervenant nécessite une approche spécialement adaptée fondée sur la portée, la taille et les résultats désirés, on s’attend à ce que les approches d’évaluation soient en adéquation avec les principes directeurs de la participation des parties prenantes5.

Morra & Rist (2009) soulignent l’impor-tance de l’implication des parties prenantes dès les premières étapes du processus d’évaluation, de la planification jusqu’à la fin de l’évaluation. Dans la pratique, il n’est pas évident de trouver le juste équilibre entre l’indépendance et une collaboration suffisante avec les clients, la Direction, les propriétaires de programmes et d’autres acteurs. On peut se demander «Comment rester indépendant si on est obligé de collaborer à ce point avec les parties prenantes?», et «Où mettre les limites pour prévenir les conséquences négatives?»

Il ressort d’une littérature variée et des pratiques observées dans les banques multilatérales de développement (BMD), y compris la BAD, que la communauté du développement, dans sa majeure partie, reconnaît l’importance de l’im-plication des parties prenantes dans les processus d’évaluation.

À la BAD, la participation des parties prenantes est intégrée à toutes les étapes des évaluations. Il ressort de l’expérience de la Banque que les parties prenantes jouent un rôle capital dans la réussite d’une évaluation. Cela tient à l’intérêt porté à l’évaluation aussi bien par les clients dans les pays membres régionaux que par le personnel de la Banque.

Vu l’importance de ces principes clés et leur effet sur l’utilité et l’influence des évaluations du développement, nous mettons en lumière les défis que les éval-uateurs doivent relever afin d’assurer le juste équilibre dans l’application inter-connectée de ces deux principes. Nous explorons des approches de résolution des difficultés à travers une analyse des divers scénarios et du contexte probable où elles se manifestent. Nous concluons en proposant quelques idées sur des options à explorer par les évaluateurs dans la recherche d’une approche pouvant permettre de relever les défis potentiels.

La question de la préservation de l’indépendance dans l'évaluation du développement

Comme nous l’avons indiqué plus haut, le principe de l’indépendance en évalu-ation prend de plus en plus d’ampleur à la fois dans le débat sur l’évaluation et dans la littérature. Malgré les divergences sur le sens de cette notion et l’usage que certains en font, elle est d’abord

Page 25: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

23L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes

considérée comme un principe essentiel pour assurer la crédibilité et la qualité d’une évaluation. Par ailleurs, il n’existe aucune définition consensuelle de l’indépendance de la fonction d’évaluation (Kaiser & Brass, 2010). Certaines agences d’évaluation du développement s’en remet-tent au guide de l’OCDE, aux normes de qualité du CAD pour l’évaluation du dével-oppement (OCDE, 2010a) qui considère l’indépendance de la fonction d’évaluation comme un principe fondamental. D’après cet ouvrage, l’indépendance est garantie à travers un «processus transparent et indépendant de la gestion des programmes et des décideurs».

Loud et Mayne, 2014, sont d’accord avec ce principe et soulignent en outre que la crédibilité d’une évaluation est princi-palement fonction au moins du niveau d’indépendance octroyé à la fonction d’éval-uation. Cette notion rapproche l’évaluation de la fonction d’audit et a pour objectif de garantir l’indépendance de la mise en œuvre et de la gestion des processus d’éval-uation. Il y a toutefois, le besoin de mise en place d’une politique et des orientations pratiques appropriées pour la prise de décisions et le suivi. Par ailleurs, plusieurs évaluateurs expérimentés soulignent la nécessité d’assurer la crédibilité des éval-uations. Par exemple, Robert Picciotto, ancien Directeur général du Groupe

Page 26: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

24

eVALUation Matters / Premier trimestre 2017

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes

Commanditaire de l'évaluation

Objet de l'évaluation

ÉVALUATION

Évaluateur

Informations

Orientations

RedevabilitéÉv

alua

tion

TDR

, Rém

unér

atio

n

Demande d’informations

Figure 1: Le triangle sphérique de Bastiaan de Laat

Source: Adapté de Loud & Mayne (2014) pour illustrer les relations entre les trois acteurs du processus d’évaluation.

indépendant d’évaluation (IEG) du Groupe de la Banque mondiale soutient que l’indépendance reste une question qui touche à la crédibilité des évaluations malgré tous les efforts déployés dans un processus d’évaluation pour assurer un travail de meilleure qualité (2003). De même, dans son analyse des mesures préventives de réduction de la tendance à la partialité, Scriven (1975) estime que l’indépendance est l’un des moyens susceptibles de limiter ce défaut.

Il ressort de l’expérience et de la littérature que la crédibilité revêt une grande impor-tance pour les publics interne et externe des évaluations. C’est un facteur clé qui a un impact sur l’utilité et l’utilisation des recom-mandations d’évaluation. (Penny Hawkins dans Loud & Marlene, 2014). Par exemple, l’absence apparente d’indépendance sert parfois de prétexte pour rejeter ou contester les conclusions d’évaluation quand bien même d’autres problèmes liés à la qualité des données d’évaluation ou la position d’une entité influente peuvent être

évoqués. Il est clair que le renforcement de l’indépendance va de pair avec la recon-naissance de la crédibilité et de l’utilité des travaux d’évaluation.

Assurer une parfaite indépendance sans trop s’éloigner des réalités de la pratique et des politiques reste un défi, mais l’ex-périence montre qu’on peut y parvenir dans une certaine mesure si la politique et les manuels d’évaluation fournissent des orientations claires aux processus d’éval-uation pour assurer leur indépendance et atteindre cet objectif.

Importance de la participation des parties prenantes dans la crédibilité des évaluations

L’implication des parties prenantes dans le processus d’évaluation à un stade précoce permet à l’évaluateur de mieux compren-dre l’intervention ou la question d’évalua-tion, son objet, ainsi que les difficultés et défis rencontrés dans le processus.

Page 27: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes 25

eVALUation Matters / Premier trimestre 2017

diverses parties prenantes, ainsi que la capacité à les considérer objectivement dans les questions d’évaluation. Bryson et al, 2010, fournissent quelques orientations intéressantes sur les outils permettant d’y parvenir. Sans oublier de possibles tensions entre les différents acteurs du processus d’évaluation et l’influence de la configuration de leurs relations sur l’usage de l’évaluation telle que décrite par Bastiaan de Laat à travers son concept de triangle sphérique (figure 1).

Comprendre les concepts de configuration des relations entre les acteurs de l’évaluation

Dans le concept de triangle sphérique développé par De Laat dans Loud et Mayne (2014) il existe trois différents acteurs dans le processus d’évaluation. Ce sont: a) «l’objet de l’évaluation» qui désigne l’entité évaluée; b) l’évaluateur ou la personne qui procède à l’évaluation; c) le commanditaire de l’évaluation, à savoir l’organe ou l’entité qui demande l’évaluation et finance le service qui sera rendu. Les auteurs avancent que la préser-vation d’un certain niveau d’équilibre afin d’assurer la crédibilité et la capacité de minimiser la partialité, ainsi que le contrôle dépend du type de configuration et de relations qui existent entre ces trois acteurs. Il ressort de cette analyse que c’est l’anticipation des divers acteurs par rapport aux résultats de l’évaluation qui fait la sphéricité du triangle et confère à l’évaluation son efficacité.

Les scenarii illustrés par la figure 1 montrent que les trois acteurs impliqués dans le processus d’évaluation cherch-ent constamment à exercer un certain contrôle ou une influence sur les constats définitifs et le résultat de l’évaluation. Une attitude déterminante pour la crédibilité et l’utilité de l’évaluation. Le problème posé par le triangle sphérique illustre que le maintien d’un dispositif ou d’une

Ce qui permet à l’équipe d’évaluation d’être mieux au fait des questions à couvrir dans l’évaluation, de savoir quelles sont les informations nécessaires, le moment où elle aura besoin de ces informations et qui peut les lui fournir. La collaboration avec les parties prenantes clés permet d’assurer la prise en compte de toutes les questions majeures par l’évaluation. L’im-plication des parties prenantes devrait renforcer leur appui et leur intérêt pour l’évaluation, ce qui accroît la probabilité d’une appropriation et d’une utilisation effectives de l’évaluation. Malgré les avantages de la participation, on note un cynisme croissant chez les évaluateurs et les parties prenantes qui éprouvent le sentiment d’être abandonnés à tel point que, parfois, ce sentiment donne lieu à des résultats sous-optimaux en termes d’efficacité (allongement de la durée du processus d’évaluation) et, inévitablement, d’utilité des évaluations. Ce qui rappelle la mise en garde faite par Loud et Mayne (2014) dans leur l’analyse du concept de «triangle sphérique» de Bastiaan de Laat, où ils soulignent l’importance des relations entre les acteurs, mais aussi les risques inhérents à diverses configura-tions en ce qui concerne la relation à l’in-dépendance, à la partialité et au contrôle dans les évaluations.

La question à présent est celle de savoir en quoi consiste un «juste» équilibre entre l’indépendance et la participation des parties prenantes si l’on veut assurer la conception et la réalisation d’évalua-tions crédibles et utiles? Cette question suscite des réponses contradictoires au sein de la communauté de l’évaluation et du développement et, à ce jour, le consen-sus n’a pas toujours été trouvé entre les organes d’évaluation. Du point de vue de l’utilisateur des évaluations, la préserva-tion de cet équilibre dépend de facteurs variés. Il faut notamment une approche et un dispositif qui tiennent compte des perspectives politiques et techniques des

Page 28: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

26 L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes

configuration idéale ne permet pas nécessairement de faire face aux diffi-cultés posées par l’influence potentielle des divers acteurs et leur impact négatif sur la préservation de la crédibilité. Au contraire, le doter de politiques et de procédures d’évaluation consensuelles permettant de gérer le facteur relationnel est essentiel pour la gestion des risques.

La maîtrise de la configuration de ces rela-tions dans un contexte institutionnel est capitale si l’on veut trouver le juste équili-bre entre l’indépendance et la participation des parties prenantes.

Fondamentalement, peu importe la neutralité de chaque acteur, il subsisterait la tentation d’adapter l’objectif de l’évalu-ation à ses propres priorités ou attentes susceptibles d’influencer les questions d’évaluation ou l’approche. De même, l’ob-jet de l’évaluation (l’entité évaluée) peut, à travers sa participation, chercher à élim-iner certaines questions de l’évaluation ou orienter les priorités de l’évaluation unique-ment vers des aspects positifs.

Page 29: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes 27

eVALUation Matters / Premier trimestre 2017

Examen approfondi des paramètres pratiques d'évaluation et des configurations dans certaines Banques Multilatérales de Développement

La pratique habituelle dans la plupart des BMD, notamment la BAD, présente deux types de configuration d'évaluation. En plus de l’évaluation interne où les acteurs appartiennent tous à la même organisa-tion (et mènent des auto-évaluations), nous avons une configuration hybride dans laquelle le commanditaire de l’évaluation et l’évaluateur se confondent et l’objet de l’évaluation est à part à travers des évalua-tions indépendantes. Communément, c’est une combinaison des deux modes qui est mise en œuvre. Dans cette configuration hybride, l’unité d’évaluation peut être le commanditaire des évaluations ou études externes, mais le portefeuille de l’unité d’évaluation des programmes est défini de manière indirecte par les membres du conseil d’administration qui doivent approuver le programme de travail de l’unité. Cette approbation fait des membres du Conseil les véritables commanditaires des évaluations et le programme de travail devient une sorte de contrat entre l’unité d’évaluation et le Conseil pour la réalisation d’évaluations planifiées pour une période donnée et avec des ressources précises. Dans le premier cas de figure, ce sont les unités opérationnelles qui entreprennent souvent des auto-évaluations sous la forme de notes d’auto-évaluation, de rapports de suivi, et de rapports d’achèvement de projet. En général, il n’existe pas de commanditaire d’évaluation autonome. Bien au contraire, ces auto-évaluations sont demandées à travers des procédures organisation-nelles internes ou externes, jouant ainsi par défaut le rôle de commanditaires et fournissant des orientations pour la réali-sation des évaluations, même s’il existe une hiérarchie claire. Par conséquent, ce mode d’organisation semble entacher la validité et l’utilisation de l’évaluation en fonction

du degré d’honnêteté et d’objectivité des évaluateurs vis-à-vis des évaluations. Il existe également un lien avec l’utilisation perçue des auto-évaluations uniquement pour la formation ou le développement, par nature (Patton, 2011) et non pour la reddi-tion des comptes, étant donné qu’il y a un risque apparent plus élevé de partialité, et elles sont par conséquent souvent utilisées uniquement comme sources de données pour des évaluations indépendantes de plus grande portée comme c’est le cas dans la plupart des BMD.

Concernant le second mode d’organisa-tion, les trois acteurs appartiennent tous à la même organisation, mais ils sont en général séparés par l’existence d’une unité à part consacrée à l’évaluation indépendante (évaluateurs) qui ne rend compte qu’aux membres du Conseil d’ad-ministration (le commanditaire) et non à la haute direction qui assure la supervision du financement et de la mise en œuvre des programmes des organisations (entité évaluée). Ce dispositif hybride comprend souvent en pratique une combinaison des deux modes d’organisation; deux éval-uateurs internes à part entière appuyés par des évaluateurs externes, et parfois une évaluation peut être externalisée à travers l’unité d’évaluation indépendante qui joue dans ce cas un rôle de supervision. À la BAD, les deux systèmes sont mis en œuvre, mais les expériences ont présenté quelques problèmes liés aux tensions du triangle sphérique et ses conséquences possibles sur l’indépendance des résultats et l’utilisation des évaluations. Certaines publications présentent ce mode de fonc-tionnement comme ayant le potentiel de provoquer des pressions des acteurs et une forte tendance vers une partialité posi-tive (Mathison, 2005, Wenar 2006, Loud & Mayne 2014). Toutefois, l’on estime que ces défauts peuvent être corrigés grâce à l’adoption et à l’application de politiques et mesures d’évaluation appropriées qui

Page 30: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes28

eVALUation Matters / Premier trimestre 2017

assurent la crédibilité des évaluations et garantissent leur indépendance. La communauté de l’évaluation du dévelop-pement fait bien de promouvoir l’adoption et l’institutionnalisation de cette pratique parmi ses membres. Le Groupe de coopéra-tion sur l’évaluation6 (GEC), propose un ensemble de «normes de bonne pratique» visant à aider ses membres à assurer l’in-dépendance des unités d’évaluation interne. Ces normes de pratique soutiennent toute-fois que l’indépendance des unités d’éval-uation indépendante n’est pas donnée et qu’elle doit plutôt être cultivée et protégée constamment dans toutes les activités afin d’en assurer le succès.

Trouver l’équilibre entre l’indépendance et l’implication des acteurs pour des évaluations utiles

Scriven (1975) a réitéré dans sa réflexion, le fait que la recherche de l’objectivité et de l’indépendance dans les évaluations oblige souvent à recourir aux évaluateurs «externes». Même si le bénéfice indirect peut être relatif, la possibilité que l’évalu-ateur externe cède aux pressions du client ne disparaît cependant pas complètement si la possibilité d’obtenir un autre contrat est menacée. On estime aussi que cette situ-ation affecte également le libre-arbitre dans les évaluations (Mathison, 1999).

Dans le même ordre d’idées, l’établissement de relations à long terme entre les évalua-teurs et les gestionnaires de programmes est perçu comme potentiellement néfaste parce qu’il peut pousser l’évaluateur à s’iden-tifier de plus en plus à l’organisation pour laquelle il travaille, et ainsi, se comporter de plus en plus de manière «partiale» comme un évaluateur interne. En conséquence, il est clair qu’autant les pratiques en matière d’évaluation favorisent l’engagement effi-cace de tous les acteurs, la manière dont

l’évaluation est utilisée et l’objectif visé doivent être les principaux outils permet-tant de déterminer un cadre pour leur collaboration. Ce qui permet d’évaluer la contribution des politiques qui orientent la pratique des unités d’évaluation aux efforts d’atténuation des risques.

Intéressons-nous par exemple à des cas précis au sein de l’Unité d’évaluation indépendante (IDEV) de la BAD sur la question des risques. Le contexte ici est caractérisé par la présence d’une équipe d’évaluation interne qui fait recours à des évaluateurs externes. Les pratiques d’IDEV sont guidées par les politiques et principes établis sur son indépendance (comportement, dispositif et fonctions) qui ont été approuvés par le Conseil d'administration. Le premier cas concerne une évaluation indépendante d’un programme pays qui a dû être aban-donnée à mi-parcours de sa mise en œuvre. C’était la conséquence d’une collaboration insuffisante entre les acteurs clés et les autres parties prenantes sur l’objet, le choix du moment et l’utilité de l’évaluation. Dans ce cas, l’indépendance a pris le pas sur le niveau de participation des acteurs clés, surtout les entités évaluées, et sur leurs relations. L’évaluation indépendante des politiques d’acquisition de la BAD constitue un exemple contraire. Cette évaluation a permis aux principaux acteurs, à savoir le Conseil d’administration, le personnel des opérations, les responsables des acquisi-tions et les clients dans les pays membres régionaux de la Banque, de s’approprier le processus et d’utiliser effectivement ses résultats. L’évaluation a bénéficié de la pleine coopération et de l’accès illimité aux informations grâce à un bon processus de participation à toutes les activités d’éval-uation (de la planification à la conclusion). Le processus de participation a été guidé par un accord sur l’objet et l’utilisation de l’évaluation par tous les acteurs majeurs (le commanditaire de l'évaluation, les éval-uateurs, les évaluateurs externes et

Page 31: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes 29

eVALUation Matters / Premier trimestre 2017

les entités évaluées). Avec un sens clair de l’objectivité pour l’évaluation, les divers intérêts et influences potentiels des acteurs clés ont été considérés et limités à l'objectif de l'évaluation et utilisés dans le but d’at-teindre l'indépendance dans le processus de planification et de mise en œuvre. Par exemple, nous pouvons noter le fait que l’entité évaluée ai été engagée afin d’assurer le suivi et veiller à ce que les questions clés issues des rapports d'auto-évaluation aient été considérées dans les questions plus larges de l'évaluation. Ces éléments ont facilité l’implication efficace et la conscience d’un objectif commun de l’évaluation chez les parties prenantes. Fondamentalement, les facteurs sous-jacents dans les deux cas soulignent les questions concernant les éléments suivants, mais sans s’y limiter: a) la collaboration des acteurs clés pour l’at-teinte des objectifs et l’utilité de l’évaluation; b) la gestion des intérêts et de l’influence des acteurs clés par les évaluateurs dans le processus de planification et de mise en œuvre de l’évaluation; et c) l’existence et l’application de politiques et cadres adaptés

qui guident les pratiques pour assurer l’in-dépendance dans le contexte institutionnel.

Gestion du degré d’indépendance et de participation dans les évaluations

Dans la réalité, compte tenu de l’importance de l’inclusion, il est tout aussi important que l’implication des parties prenantes ne se fasse pas au détriment de l’indépendance. Ce qui veut dire qu’il faut consentir d’im-portants compromis. Il faut tenir compte du risque de tensions entre les intérêts des parties prenantes7 sur certaines informa-tions afin que la portée reste pertinente pour l’objet de l’évaluation et l’objectif d’utilité de l’évaluation. Il n’existe pas de normes de pratique ou de directives claires sur la façon de gérer ces tensions. Toutefois, les expéri-ences tirées des évaluations identifient des facteurs favorables à prendre en compte. Certains d'entre eux sont identifiés et

Page 32: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes30

eVALUation Matters / Premier trimestre 2017

Notes de bas de page

1 Engagement des parties prenantes: Défini ici comme une pratique de gestion visant à saisir les connaissances, à accroître l'appropriation du projet par les utilisateurs, à réduire les conflits, à encourager l'innovation et à faciliter les partenariats entre les acteurs. Les pratiques consistent à identifier les acteurs clés en analysant leurs intérêts et leurs influences et les impliquant pleinement pour renforcer la prise de décision inclusive, en promouvant l'équité. D'un point de vue social, c'est un processus dans lequel différents acteurs partagent un cadre commun, apprennent les valeurs de chacun, réfléchissent sur ces valeurs et créent une vision et un objectif partagés. La pratique est utile pour accroître la sensibilisation, changer les attitudes et affecter les comportements (Bryson, 2004).

2 Évaluation indépendante: une évaluation effectuée par des personnes ou des entités sans contrôle des responsables de

la conception et de la mise en œuvre de l'intervention de développement. (OCDE 2002, p.25).

3 Suivant les Normes de bonne pratique pour l’évaluation de l’ECG, 2008.

4 Systèmes d'évaluation de la coopération au développe-ment: révision 2016, OCDE 2016

5 Résumés dans «Sept principes directeurs de l'engagement des parties prenantes». (Gautrey, 2003).

6 Le Groupe des pairs des unités d’évaluation des BMD et IFM

7 Tous les acteurs ayant un intérêt ou de l’influence dans l’évaluation, y compris les utilisateurs du produit de l’évaluation.

décrits dans les expériences de la BAD ci-dessus. Pour finir, l’identification des facteurs susceptibles d’être contrôlés et de ceux qui sont susceptibles d’avoir un effet positif sur la gestion des intérêts et de l’in-fluence des parties prenantes sur la planifi-cation et la mise en œuvre des évaluations peut énormément contribuer à la résolution de ces problèmes. La gestion des parties prenantes oblige aussi les évaluateurs à tenir compte des divers types de pouvoirs et intérêts des parties prenantes et prendre des mesures appropriées pour contenir le poids de leurs influences sur les résul-tats. Dans tous les cas, l’élaboration d’une norme de pratique acceptable en ce qui concerne l’indépendance de l’évaluateur ne doit pas être négligée.

Ce que les évaluateurs et les praticiens doivent retenir

En résumé, il se dégage de cette analyse trois leçons à méditer par les évaluateurs et les praticiens de l’évaluation dans la recherche de stratégies pour la gestion des tensions et la préservation de l’équilibre entre l’in-dépendance de la fonction d’évaluation et la participation des parties prenantes afin d’assurer des évaluations crédibles et utiles:

A. Premièrement, les parties prenantes doivent participer, autant que possible, et de bout en bout, au processus d’éval-uation pour assurer sa crédibilité et son utilisation. Toutefois, pour préserver le juste équilibre entre la participation et l’indépendance, l’évaluateur a besoin d’un dispositif organisationnel appro-prié pour les évaluations et prévu dans les politiques et stratégies.

b. Ensuite, la maîtrise du dispositif et la prise de conscience des écueils à la mise en œuvre des normes de bonnes pratiques offrent quelques pistes de solution à explorer pour la réalisation d’évaluations indépendantes et efficaces.

C. Enfin, la pratique de l’indépendance en évaluation est aussi importante que la gestion des questions relationnelles et le sens de l’intérêt commun entre les acteurs clés des évaluations. En définitive, l’accent doit être surtout mis sur la crédibilité et l’utilité du produit final aux yeux des utilisateurs, non seulement les commanditaires, mais aussi les personnes dont les vies peuvent être affectées par les déci-sions reposant sur les conclusions des évaluations.

Page 33: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L’indépendance dans l’évaluation du développement: Trouver le juste équilibre avec l’implication des parties prenantes 31

eVALUation Matters / Premier trimestre 2017

Pro

fil de

l’au

teur

Akua Arthur-Kissi est chargée d’évaluation au Départe-ment de l’Évaluation indépendante du développement (IDEV) de la Banque africaine de développement. Au cours des huit dernières années, elle a travaillé sur des évaluations institutionnelles, des évaluations de programmes nationaux et à des évaluations thématiques. Par ailleurs, elle a codirigé l’éval-uation de la stratégie-pays et des programmes pour l’Afrique du Sud (2004–2015), et contribué à de précédentes évaluations influentes réalisées par IDEV, notamment celles portant sur la Déclaration de Paris (2010), les États fragiles (2011–2012) et les opérations à l’appui des réformes (2010) de la Banque. Elle a précédemment travaillé pendant sept ans dans les départements des opérations sectorielles et des opérations-pays, ainsi qu’à l’unité de gestion du savoir. Avant son entrée à la Banque, elle a brièvement travaillé pour le Programme régional de lutte contre le sida du GIZ en Afrique au Ghana. Akua est titulaire d’un mastère en gestion des projets et programmes de l’université de Warwick au Royaume-Uni et en suivi- évaluation du développement et renforcement des capacités.

Références et bibliographie

AfDB (2005), Report on the independence of the department of Operations Evaluation (IDEV).

Bernstein, D.J., Whitsett, M. D.& Rakesh M. (2002), Addressing Sponsor and Stakeholder Needs in the Evaluation Authorizing Environment: Trends and Implications (New Directors for Eval-uation, No. 95, Fall 2002, Wiley Periodicals.

Bryson, J.M. (2004). What to do when stakeholders matter: stake-holder identification and analysis techniques. Public manage-ment review, 6(1), pp.21-53.

Bryson J.M, Patton M.Q & Bowman R. A. (2010), working with evaluation stakeholders: A ration, step-wise approach & tool kit, Journal of Evaluation and Program Planning – Elsevier 2010.

Evaluation Cooperation Group – ECG (2010). Good practice stand-ards on independence of international financial institutions’ central evaluation departments.

Gautrey, C. (2003), ‘Seven guiding principles of stakeholder engage-ment’, Blogs at ATD, blog post, viewed 15 March 2017, < https://www.td.org/Publications/Blogs/Management-Blog/2013/06/Seven-Guiding-Principles-Stakeholder-Engagement>.

Kaiser, F.M. & Brass, C. T. (2010). Independent evaluators of federal programs: Approaches, devices and examples. Washington D.C.

Loud M. & Mayne J. (2014), Enhancing Evaluation Use, Insights from Internal Evaluation Units.

Mayne, J. (2012). Independence in Evaluation and the Role of Culture. Evaluation cultures: Sense-making in complex times, 105-138.

Mathison, S (1999) Rights, Responsibilities and duties: A compar-ison of ethics for internal and external evaluation (Special Issue). New Directions for Evaluation.

Morra – Imas ,L & Rist R. (2009), The Road to Results: Designing and Conducting Effective Development Evaluations.

OECD (1991), DAC Principles for the Evaluation of Develop-ment Assistance.

OECD (2010), Quality Standards for Development Evaluation

OECD (2016), Review of Evaluation Systems in develop-ment cooperation.

Patton, M.Q. (2011). Developmental evaluation: Applying complexity concepts to enhance innovation and use. New York, Guilford Press.

Piciotto, R. (2003). International trends and development evalua-tion: The need for ideas. American Journal of Evaluation.

Scriven, M (1975); Evaluation bias and its control. Berkeley: University of California.

Wenar, L. (2006) Accountability International Development Aid. Ethics and International Affairs.

Page 34: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Le présent article est une réflexion sur les défis auxquels les évaluateurs font souvent face dans la réalisation des évaluations du développe-ment. L’analyse s’appuie sur l’expérience person-nelle acquise par l’auteur surtout en Afrique et en Asie. Les défis rencontrés dans le processus d’évaluation du fait des bailleurs de fonds et des réalisateurs de projets ou programmes sont notamment, la peur de l’évaluation, le détache-ment des projets/programmes de leur contexte, l’insuffisance des ressources allouées à l’évalu-ation, les barrières linguistiques et culturelles, et la sensibilisation insuffisante ou illusoire des destinataires/bénéficiaires des services proposés par les projets/programmes et des autres parties prenantes. Nous concluons que les clients à l’origine de ces difficultés ont une connaissance insuffisante de l’essence même de l’évaluation, ne planifient pas ou ne budgétisent pas l’éval-uation. Avant la mise en œuvre d’un projet ou d’un programme, les réalisateurs et les adminis-trateurs doivent au préalable suivre une forma-tion en suivi-évaluation. Cette exigence peut aussi être érigée en condition nécessaire pour bénéficier des financements pour un projet ou un programme de développement.D

éfis

dans

la c

ondu

ite d

e l’é

valu

atio

n du

velo

ppem

ent:

gére

r les

sen

sibi

lités

Page 35: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Défis dans la conduite de l’évaluation du développement: gérer les sensibilités 33

eVALUation Matters / Premier trimestre 2017

Introduction

DANS le présent article, l’an-alyse est centrée autour de certains défis auxquels les évaluateurs font souvent face dans leur travail. Les

questions mises en lumière sont large-ment fondées sur l’expérience de l’auteur dans le domaine de l’évaluation du dével-oppement en Afrique et en Asie. L’analyse des questions et les solutions préconisées ont été enrichies par les échanges entre l’auteur et des confrères évaluateurs, sur ce sujet, et par des revues documentaires. Et ce, dans un contexte où l’évaluation n’est pas un simple exercice rituel, mais la pierre angulaire de toute initiative de dével-oppement. L’évaluation est ainsi partie intégrante de tout projet/programme de développement puisqu’elle permet de déterminer la viabilité, la valeur ajoutée ou le changement apporté par un projet (Gertler et al. 2011, Lee 1999; Royse, Thyer & Padgett 2006 et Scriven 1991).

Défis récurrents de l’évaluation

L’analyse réflexive a été mise à contribu-tion pour conceptualisation et la synthèse des défis rencontrés dans l’évaluation, ainsi que les solutions. Les principaux défis abordés sont concentrés sur les problèmes de comportement en matière d’évaluation qui sont attribués au client. Dans cet article, le client désigne l’individu ou le groupe d’individus qui a commandé l’évaluation. En d’autres termes, il s’agit

de la partie prenante à l’évaluation dont le projet ou le programme est évalué. Les principaux défis relevés sont: i) la peur de l’évaluation; ii) le détachement de l’élabora-tion du projet/programme de son contexte; iii) l’insuffisance des ressources mobilisées pour l’évaluation; iv) l’incidence de la culture et de la langue sur la collecte de données; et v) la sensibilisation et la mobi-lisation pour l’évaluation et la subjectivité dans la sélection des participants.

La peur de l’évaluation

À l’observation, certains réalisateurs de projets ou programmes et les partenaires financiers redoutent l’évaluation en général, de la même manière que certains craignent les audits financiers. Trois facteurs semblent expliquer cette peur regrettable: a) l’idée que les conclusions de l’évaluation peuvent être négatives et entraîner des pertes d’emploi; b) le sentiment humain qui fait que l’on a honte chaque fois que les résultats sont inférieurs aux attentes; c) l’impression que l’évaluation est un processus hautement technique que peu de gens comprennent au sein d’une organisation. Ensemble, ces trois raisons illustrent parfaitement la compréhension erronée de l’essence de l’évaluation. Avec une telle perception, il est probable que les administrateurs et les réalisateurs de projets/programmes ne s’intéressent qu’aux rapports d’évaluation qui mettent l’accent sur les aspects positifs de leurs projets/programmes (Aucoin et Jarvis, 2004). De toute évidence, la peur de l’évaluation décrite ici est la preuve

Pindai M. Sithole, Centre pour le Développement et la Recherche en Évaluation International Afrique

Page 36: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

34 Défis dans la conduite de l’évaluation du développement: gérer les sensibilités

que le rôle de l’évaluation dans le développement n’est pas bien compris par les administrateurs et les réalisateurs de programmes. Dans ce contexte, les évalu-ations et les évaluateurs ne sont générale-ment pas accueillis avec enthousiasme et dans un esprit de collaboration.

Pour surmonter ces difficultés, deux solu-tions interdépendantes sont envisagea-bles. La première consiste à initier tout le personnel de l’organisation au suivi-éval-uation et le doter des compétences en la matière. Le contenu de la formation varierait en fonction des niveaux des

membres du personnel de l’organisation. Le personnel des unités opérationnelles aurait évidemment besoin d’une forma-tion plus pointue par rapport à celui de la haute direction. À titre complémentaire, les évaluateurs doivent tenir des réunions d’évaluation avec le client à des étapes capitales du processus d’évaluation jusqu’à la soumission du projet de rapport. L’ex-périence de l’auteur montre que les réun-ions d’évaluation permettent de réduire ou éliminer la peur ressentie par le client puisqu’elles deviennent des plateformes constantes de rétroaction et de validation entre l’évaluateur et le client.

Page 37: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Défis dans la conduite de l’évaluation du développement: gérer les sensibilités 35

eVALUation Matters / Premier trimestre 2017

Détachement de l’élaboration d’un projet/programme de son contexte

À ce jour, s’agissant des ressources de dével-oppement, les pays occidentaux développés sont les principaux bailleurs de fonds des initiatives de développement, y compris en Afrique. Ce qui explique en partie la diversité culturelle qui caractérise souvent la conceptualisation, la formulation, la mise en œuvre et l’établissement des rapports de projets. Si la formulation du projet n’est pas faite avec soin, elle peut être inadaptée à plusieurs égards, diminuant ainsi les chances d’atteindre des résultats qui apportent le changement souhaité (Laur-ing, 2008). L’inadaptation ou le manque de pertinence contextuelle est principalement due à la diversité des situations culturelles, religieuses, économiques et politiques, ainsi qu’aux histoires économico-politiques des pays africains. C’est sur cet aspect que Wynn, Dutta et Nelson (2005) insistent en affirmant que «[l]es interventions efficaces dans les pays développés peuvent être ineffi-caces dans les pays en développement dont les caractéristiques sociales, économiques, culturelles et infrastructurelles peuvent influer sur la mise en œuvre d’un projet et sur ses résultats».

Il ressort de l’expérience de l’évaluation des programmes communautaires que les partenaires financiers et les réalisateurs n’accordent pas de l’importance aux proto-coles d’entrée en contact avec les autorités traditionnelles et politiques locales. Comme en témoigne le temps alloué à l’évaluateur pour la collecte des données au sein des communautés et qui tient rarement compte de ces protocoles. Dans la réalité, l’évaluateur est obligé de respecter ces protocoles, mais le client peut se montrer réticent à modifier le chronogramme des activités sur le terrain, quand bien même le respect de certains de ces protocoles nécessite beaucoup de temps. Par exemple, retrouver le domicile d’une autorité traditionnelle peut demander du temps. Le mauvais état ou l’absence

de routes peut poser des défis logistiques et obliger l’évaluateur à se déplacer à pied. Parfois, les autorités traditionnelles peuvent exiger du client qu’il respecte ces protocoles ou, à tout le moins, leur présente l’évalua-teur désigné et confirme qu’il est habilité à collecter des données sur leur territoire pour l’évaluation du projet/programme. (Sithole, 2016). Honable (1986: 7) attirent l’at-tention sur ce piège de l’évaluation commu-nautaire et soulignent que «les capacités de gestion des personnes et des ressources doivent être indigénisées si l’on veut qu’un projet contribue à une réussite durable». Chambers (1995) en convient puisqu’il sout-ient qu’il est tout à fait possible de réussir la conception, la mise en œuvre et la durabilité des projets et programmes si les personnes dont les vies ont besoin d’un changement positif sont comprises dans leur contexte et associées véritablement au projet. En effet, on estime que des projets/programmes bien adaptés au contexte ont plus de chances de réussir la théorie du changement que ceux qui sont inadaptés; un avis partagé par Matunhu (2011) et Rodney (1972) dans leurs analyses historiques mais séparées de la manière dont les colonisateurs européens ont sous-développé l’Afrique à travers un processus systématique qu’ils ont qualifié d’«étouffement de la culture africaine».

Comme solution au détachement des projets/programmes de leur contexte, les partenaires financiers, les administra-teurs et les réalisateurs peuvent procéder à une analyse contextuelle globale afin de guider la conception, la mise en œuvre, le suivi-évaluation, l’apprentissage et l’étab-lissement des rapports. Pour ce faire, ils peuvent recourir à plusieurs techniques, notamment l’analyse PEStEL. L’acronyme PEStEL renvoie aux facteurs ci-après: P pour facteurs politiques, E pour facteurs économiques, S pour facteurs sociaux, T pour facteurs technologiques, E pour facteurs environnementaux et L pour facteurs légaux ou juridiques. En bref, la pertinence de l’application de ces

Page 38: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

36

eVALUation Matters / Premier trimestre 2017

Défis dans la conduite de l’évaluation du développement: gérer les sensibilités

six piliers du PEStEL dans l’analyse contextuelle tient aux raisons suivantes: i) les facteurs politiques permettent d’évaluer et de comprendre les caractéris-tiques politiques du pays, notamment les questions sensibles et ce qui est considéré comme «politiquement correct» pour la réussite d’un projet/programme de développement; ii) les facteurs économ-iques permettent de comprendre la structuration et le fonctionnement de l’économie nationale, ainsi que ses liens avec la situation politique; c) les facteurs sociaux concernent les cadres socio-cul-turels normatifs du pays qui facilitent ou freinent le développement; d) les facteurs technologiques permettent de comprendre en quoi les diverses technol-ogies utilisées dans le pays favorisent ou freinent le développement; e) les facteurs légaux ou juridiques sont essentiels pour garantir que toute initiative de dévelop-pement est conçue et mise en œuvre dans le respect des lois et politiques en vigueur dans le pays; f) les facteurs environne-mentaux renvoient aux aspects géopoli-tiques du pays qui incluent les régimes météorologiques, le relief et les questions liées à la protection de l’environnement, et toutes les politiques connexes. En bref, il est important pour les partenaires finan-ciers et les réalisateurs d’avoir une bonne maîtrise et une bonne compréhension des indicateurs portant sur les six piliers dans le pays où le projet/programme de dével-oppement sera mis en œuvre.

Insuffisance des ressources allouées à l’évaluation

Certes, la plupart des partenaires finan-ciers des initiatives de développement accordent de l’importance à l’évalua-tion, mais ils y consacrent parfois des ressources insuffisantes, notamment en temps et en argent. Parmi les ressources que les évaluateurs jugent parfois limitées figurent le budget de l’évalua-tion et le temps imparti à l’évaluation.

L’insuffisance des fonds alloués à l’éval-uation s’explique notamment par le fait que certaines organisations ne disposent pas d’un véritable plan d’évaluation et d’apprentissage. Dans ce cas, l’évaluation tend à devenir une activité à laquelle on consacre l’excédent budgétaire et non une priorité et une initiative délibérée destinée à produire des changements. Une telle attitude ou culture institutionnelle ne facilite pas le travail des évaluateurs parce que l’importance accordée à chaque évaluation varie selon qu’il s’agit de l’éval-uateur ou du client.

En ce qui concerne le temps pris comme ressource d’évaluation, parfois des délais très brefs sont impartis à l’évaluateur et un temps irréaliste alloué aux différentes tâches. C’est généralement le cas lorsque les partenaires financiers ou les réalisa-teurs commandent une évaluation trop tard dans le cycle du projet/programme. Autrement dit, l’évaluation est réalisée dans la précipitation pour tenir les délais avant la clôture officielle du projet/programme conformément à l’accord de financement. La commande tardive d'une évaluation pourrait résulter des retards rencontrés au cours du processus de mise en œuvre, dont certains pourraient être hors du contrôle des évaluateurs. Par ailleurs, cela peut aussi être simplement une stratégie pour gagner du temps et achever les activités pour lesquelles on accuse du retard. En général, la culture africaine est synchrone et il n’est pas rare que les gens consacrent du temps à des activités non prévues et modifient par conséquent le calendrier des autres activ-ités. Mais, dans la culture occidentale le temps est perçu comme un phénomène séquentiel et très peu ou rien n’est fait pour faire place à des événements imprévus (Amponsah, 2012). Lorsque le réaménagement du temps n’est pas envis-agé dans l’éventualité de circonstances imprévues, pour faire face à la situation, on peut réduire la taille de l’échantillon

Page 39: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Défis dans la conduite de l’évaluation du développement: gérer les sensibilités 37

eVALUation Matters / Premier trimestre 2017

d’évaluation et/ou le nombre d’outils de collecte des données. Évidemment, cette réduction du nombre d’outils de collecte des données réduit la capacité de triangulation, et en conséquence, la valid-ité des données d’évaluation.

Pour relever ces défis, deux solutions sont envisageables. La première consiste à s’assurer que l’évaluation est prévue dans tout projet/programme de développement avec un budget clairement établi. Dans la deuxième, les partenaires financiers et les réalisateurs pourraient déployer des efforts concertés pour comprendre la manière dont les Africains perçoivent le temps dans le discours du développement afin de pouvoir allouer du temps suffisant à l’évaluation. Plus important encore, on pourrait aussi essayer de mieux compren-dre l’importance accordée au temps à diverses périodes de l’année dans un pays ou une région d’Afrique. Par exemple, au Zimbabwe ou en Afrique australe en général, les habitants des zones rurales attachent beaucoup d’importance au temps des activités agricoles entre octobre et avril. Dans ce cas, il est peu probable que les membres de la communauté consacrent assez de temps à l’évaluateur si la collecte de données est programmée pendant cette période, étant donné que tout le monde est occupé par les travaux champêtres.

Importance de la culture et de la langue dans la collecte des données

Durant la collecte des données, il arrive que l’évaluateur constate que les partici-pants à l’évaluation ne parlent que leurs langues maternelles. Ce qui ne constitue pas en soi un problème, mais cette situ-ation peut devenir préoccupante si les partenaires financiers ou les réalisateurs ne maîtrisent pas cette langue et ne la comprennent ou ne l’écrivent qu’ap-proximativement. Dans ce cas, il est fort probable que les outils de collecte des

«Durant la collecte des données, il arrive que l’évaluateur constate que les participants à l’évaluation ne parlent que leurs langues maternelles. Ce qui ne constitue pas en soi un problème, mais cette situation peut devenir préoccupante si les partenaires financiers ou les réalisateurs ne maîtrisent pas cette langue et ne la comprennent ou ne l’écrivent qu’approximativement».

données aient été conceptualisés ou élaborés dans une langue étrangère aux personnes auprès de qui les données doivent être collectées. L’effet différentiel de l’influence de la langue et de la culture de conception de l’évaluation accroît le risque de glissement de sens pendant la collecte des données du fait de la traduc-tion et de la non prise en compte des codes culturels (Adeyemo 2013; Amponsah 2012; Bankov 200; Harris 1998 et Imberti 2007). Ce qui est confirmé par les entretiens et discussions de groupe et accorde du crédit

à l’axiome moderne selon lequel «les fron-tières de ma langue sont les frontières de mon monde»; une question qui a été profondément étudiée et documentée par Mpofu-Hamadziripi et al. comme en témoignent Mararike et Vengayi (2016). On peut voir que les problèmes de compréhension dus aux barrières linguistiques en évaluation tendent à compromettre l’authenticité des données et débouchent sur des conclusions et des recommandations erronées. S’agissant des défis linguistiques, il faut relever que dans leur culture, certains autochtones ne peuvent pas passer beaucoup de temps (parfois au-delà d’une heure) avec un étranger (l’évaluateur), contrairement à ce qui est exigé dans les discussions

Page 40: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

38

eVALUation Matters / Premier trimestre 2017

Défis dans la conduite de l’évaluation du développement: gérer les sensibilités

«Nous recommandons principalement qu’avant de mettre en œuvre un projet ou un programme, il faut au préalable former les réalisateurs et les administrateurs au suivi –évaluation axé sur les résultats».

et entretiens de groupe. En d’autres termes, les outils de collecte de données qui nécessitent du temps ont tendance à créer un malaise.

L’une des solutions à ce problème peut consister à intégrer dans l’équipe d’éval-uation des personnes qui maîtrisent les langues maternelles/autochtones des personnes auprès de qui les données

seront collectées. Pour ce qui est des entre-tiens, il vaut mieux concevoir des outils de collecte de données succincts, surtout les guides d’entretiens et discussions de groupe, si la culture locale l’impose.

Sensibilisation sur l’évaluation et préjugés dans la sélection et la mobilisation des participants

La dernière difficulté tient au fait que certains clients estiment que la responsa-bilité de la préparation et du regroupement des parties prenantes au processus d’éval-uation incombe à l’évaluateur. Ce qui pose problème étant donné que l’évaluateur ne peut pas comprendre la dynamique cultur-elle, les détails logistiques et les protocoles institutionnels nécessaires. S’agissant de la sélection et de la mobilisation des partic-ipants, les difficultés naissent lorsque le client sélectionne et mobilise intentionnel-lement les participants en lieu et place de

l’évaluateur afin d’influencer positivement les conclusions de l’évaluation.

La solution préconisée comprend deux volets. Sur la sensibilisation des parties prenantes à l’évaluation, le client doit organiser une sensibilisation initiale et en profiter pour leur présenter l’évaluateur/équipe d’évaluation. La mobilisation des participants doit, par conséquent, être guidée par une matrice d’échantillonnage élaborée minutieusement et conjointement par l’évaluateur et le client. Il faut noter que sensibiliser ne veut pas dire que le client fait mémoriser les réponses aux questions de l’évaluateur par les parties prenantes. Si la sensibilisation est bien menée, elle tend à améliorer l’acceptation de l’évaluateur et favoriser la collaboration entre les parties prenantes durant le processus d’évaluation. Par ailleurs, si le client assume la responsa-bilité de la sensibilisation des parties prenantes, l’idée erronée que l’évaluation est une «chasse aux sorcières» est battue en brèche.

Conclusions et recommandations

On peut conclure que les difficultés auxquelles certains clients font face sont dues à leur connaissance limitée de l’essence même de l’évaluation, et à l’ab-sence de planification et de budgétisation de cette activité. Par conséquent, nous recommandons qu’avant de mettre en œuvre un projet ou un programme, il faut au préalable former les réalisateurs et les administrateurs au suivi –évaluation axé sur les résultats. On peut aussi faire de cette formation une condition nécessaire pour bénéficier d’un financement ou de l’aide pour un projet/programme de développement.

Page 41: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir
Page 42: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

40 Défis dans la conduite de l’évaluation du développement: gérer les sensibilités

Références

Amponsah, R. (2012). ICBE-RF Research Report No. 45/12: Investment Climate and Business Environment Research Fund (ICBE-RF). Ghana Institute of Management and Public Adminis-tration (Gimpa) Accra, Ghana. www.trustafrica.org/icbe.

Aucoin, P and Jarvis, M. (2004). Results-based Reporting: Smart Practices for Improving Public Accountability. A Paper Prepared for Conference: «Smart Practices toward Innovation in Public Management» Structure and Organization of Govern-ment Research Committee, International Political Science Asso-ciation. Dalhousie University/Canada School of Public Service.

Bankov, K. (2000). Intellectual Effort and Linguistic Work: Semi-otic and Hermeneutic Aspects of the Philosophy of Bergson. Acta Semiotica Fennica IX, Helsingin yliopisto. International Semiotics Institute at Imatra.

Harris, R. (1988). Language, Saussure and Wittgenstein: How to play games with words. London and New York. Routledge.

Honadle, G. (1986). Development Management in Africa: Context and Strategy, a synthesis of lessons from six agricul-tural development projects. A.I.D Evaluation Special Study NO. 43. Development Alternatives Inc. US Agency for Interna-tional Development.

Imberti, P. (2007). Who resides behind the words? Exploring and understanding the language experience of the non-English speaking immigrant. Families in Society, 88(1), 67–73.

Lauring, J. (2008). Rethinking social identity theory in inter-national encounters: language use as a negotiated object for identity making. International Journal of Cross Cultural Management, 8, 343.

Page 43: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Défis dans la conduite de l’évaluation du développement: gérer les sensibilités 41

eVALUation Matters / Premier trimestre 2017

Pro

fil de

l’au

teur

Le Dr Pindai Sithole est le directeur et le fondateur du Centre pour le Développement et la Recherche en Éval-uation (CeDrE) International Afrique basé à Harare au Zimbabwe (www.cedreafrica.org ) et co-fondateur et Président en exercice de la Société de l’évaluation du Zimbabwe (www.zes.org ). Il est consultant et praticien sur les questions du développement et jouit de 20 ans d’expérience internationale dans les domaines du suivi-évalu-ation axé sur les résultats, de la recherche sociale, de la planifi-cation stratégique axée sur les résultats, et dans l’enseignement et la formation. Cette expérience a été acquise dans les secteurs public et privé, et de la société civile en Afrique, en Asie et aux États-Unis. Il est par ailleurs enseignant vacataire au second cycle de l’Institut de la paix, du leadership et de la gouvernance (IPLG) de l’Africa University au Zimbabwe. Il enseigne la théorie et la pratique du développement, l’engagement citoyen, la paix et le conflit en matière de développement, l’élaboration des politiques publiques, la gouvernance et le leadership axé sur les résultats. Il dirige aussi des mémoires de mastère ainsi que de doctorat et joue le rôle de tuteur auprès des étudiants du premier cycle et des cycles supérieurs dans le cadre de leurs travaux de recherche.

Pindai est titulaire d’un associate degree en comptabilité (Rich-land Community College, États-Unis, 1993), d’une licence en finance, option systèmes d’information de gestion (Université Millikin, États-Unis, 1995), d’un mastère en leadership et gestion (Africa Leadership and Management Academy, Zimbabwe, 2007) et d’un PhD en études de développement durable axé sur le développement communautaire (Université de Witwatersrand, Afrique du Sud, 2014).

Mararike, C. G. (2016). Knowledge Production and African Universities: A struggle against social death. Harare: Univer-sity of Zimbabwe Publications.

Matunhu, J. (2011). A critique of Modernisation and Depend-ency Theories in Africa: Critical assessment. Africa Journal of History and Culture.

Rodney, W. (1972). How Europe Underdeveloped Africa. Great Britain. Bogle-L’Ouverture Publications.

Scriven, M. (1991). Evaluation Thesaurus (4th edition). Newbury Park: Sage Publications, Inc..

Sithole, P.M (2014). Community-Based Development: A Study of Nhimbe in Zimbabwe. PhD thesis. Johannesburg: Witwa-tersrand University

Sithole, P.M (2016). Use of indigenous knowledge systems in farming and the implication to the environment: A case study of Chimanimani District of Zimbabwe. Conference paper presented at Chinhoyi University of Technology Conference in Zimbabwe held from 2 to 5 August 2016.

Wynn, B. O; Dutta, A and Nelson, M. I. (2005). Challenges in Program Evaluation of Health Interventions in Devel-oping Countries. Centre for Domestic and International Health Security.

Page 44: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Rep

ense

r la

Ges

tion

des

conn

aiss

ance

s et

l'in

dépe

ndan

ce Le présent article envisage l’apprentissage dans le contexte des organisations avec un accent sur deux groupes d’utilisateurs distincts: 1) les Directeurs et les administrateurs; ainsi que 2) le personnel opérationnel. Certes, la stratégie actu-elle d’évaluation de la BAD n’indique pas claire-ment comment ces différents groupes devraient consommer et utiliser les données d’évaluation, mais les publications universitaires laissent penser que l’apprentissage organisationnel est différent de l’apprentissage individuel et qu’il est guidé par un ensemble de processus tout à fait particuliers. Pour mieux tirer parti de l’évalu-ation indépendante afin de soutenir l’apprent-issage organisationnel, il faut jeter un regard critique sur la manière dont les organisations apprennent.

Page 45: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

eVALUation Matters / Premier trimestre 2017

Repenser la Gestion des connaissances et l'indépendance 43

T rADItIONNELLEMENt l’éval-uation indépendante est considérée comme une fonc-tion de redevabilité. Mais, de plus en plus, les unités

d’évaluation indépendante font de l’«ap-prentissage» un objectif majeur de leurs activités. Par exemple, la Stratégie de l’évaluation indépendante (2013–2017) de la Banque africaine de développement (BAD) assigne trois objectifs complémentaires à l’évaluation indépendante, à savoir, 1) l’ap-prentissage; 2) la responsabilité de rendre compte; et 3) la promotion d’une culture d’évaluation1. Toutefois, en dehors d’as-surer la disponibilité des rapports d’évalu-ation pour les utilisateurs potentiels et la pertinence des produits envisagés pour les besoins des principales parties prenantes, la Stratégie n’indique pas clairement comment l’apprentissage va s’opérer entre les divers utilisateurs des connaissances évaluatives. Si l’apprentissage doit faire partie des objectifs clés de l’évaluation, il faut non seulement identifier les utilisa-teurs ciblés par les produits d’évaluation, mais aussi indiquer la manière dont ils devraient utiliser ces connaissances et à quelles fins.

Puisque la fonction d’évaluation indépendante de la BAD rend directement compte au Conseil d’administration, l’ap-prentissage est envisagé dans le présent article dans le contexte des organisations, avec un accent sur deux groupes distincts d’utilisateurs, à savoir 1) les Directeurs, et les administrateurs; ainsi que 2) le person-nel opérationnel. Certes, la stratégie

actuelle d’évaluation de la BAD n’indique pas clairement comment les différents groupes devraient consommer et utiliser les produits d’évaluation, mais les publi-cations universitaires laissent penser que l’apprentissage organisationnel est différent de l’apprentissage individuel et qu’il est guidé par un ensemble de proces-sus tout à fait particuliers. Pour mieux tirer parti de l’évaluation indépendante afin de soutenir l’apprentissage organ-isationnel, il faut examiner d’un œil critique la manière dont les organisa-tions apprennent.

Comment les organisations apprennent-elles?

L’apprentissage organisationnel est différent de l’apprentissage individuel et de l’apprentissage au sein de groupes. D’après le très influent modèle 4i d’apprentissage organisationnel de Crossan, au sein des organisations, l’apprentissage s’opère à plusieurs niveaux, notamment entre les individus, au sein de groupes et au niveau de l’organisation entière…2 En outre, à chacun de ces niveaux, l’apprentissage s’ex-erce suivant un processus à part. Les indivi-dus ont une connaissance intuitive des liens entre les événements et le résultat de leur travail, ce qui traduit une compréhension individuelle des facteurs qui contribuent au succès ou à l’échec 3 . L’individu interprète cette intuition dans le contexte de son envi-ronnement de travail et peut en discuter avec d’autres personnes afin de parvenir à une compréhension commune. Les

Erika Ismay MacLaughlin, Banque africaine de développement

Page 46: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

«Grâce à des processus de rétroaction, les organisations vérifient si les activités atteignent ou non les objectifs fixés».

Repenser la Gestion des connaissances et l'indépendance44

eVALUation Matters / Premier trimestre 2017

individus ou les groupes peuvent alors prendre la décision d’intégrer ces nouvelles connaissances dans leurs activités. Toute-fois, pour que l’apprentissage ait lieu au sein de l’organisation tout entière, le contenu de ces nouvelles connaissances doit être insti-tutionnalisé, c’est-à-dire que de nouvelles idées doivent être intégrées aux pratiques de routine et générer de nouvelles attentes claires en ce qui concerne les comporte-ments entre individus4. L’institutionnal-isation est un processus particulier aux organisations et constitue la preuve que l’apprentissage organisationnel requiert non seulement le partage des connais-sances au-delà des individus, mais aussi une utilisation de ces connaissances pour influencer le comportement à une grande échelle5 .

Si nous convenons que l’évaluation peut et doit être utilisée pour soutenir l’apprentis-sage, le modèle de Crossan tend à indiquer que cette forme d’apprentissage sera exercée différemment suivant le groupe d’utilisateurs concerné. Un chef de projet peut décider d’appliquer une meilleure pratique à son propre travail, alors qu’un département entier peut choisir d’adopter une nouvelle procédure pour une meilleure gestion du risque. Enfin, le conseil d’admin-istration peut adopter une nouvelle orien-tation stratégique pour l’organisation toute entière, ce qui aura des répercussions sur les activités quotidiennes de l’ensemble du personnel de l’organisation.

À tous les niveaux d’une organisation, l’ap-prentissage est guidé par la nécessité de s’adapter à l’évolution de l’environnement opérationnel et assurer l’obtention des résultats désirés6. Le processus d’apprent-issage peut aussi être multidirectionnel avec pour conséquence que les observa-tions des individus peuvent finir par influ-encer les politiques organisationnelles, ou alors de nouvelles politiques organi-sationnelles peuvent modifier la manière dont les individus travaillent. Grâce à des processus de rétroaction, les organisations vérifient si les activités atteignent ou non les objectifs fixés7. On pourrait alors tirer des conclusions sur les conditions dans lesquelles les activités doivent être modifiées afin d’améliorer les résultats. Toutefois, l’apprentissage organisationnel est aussi possible à travers des processus de préparation à l’action (feed-forward) permettant à une organisation de modi-fier ses politiques ou pratiques pour ne pas rester indifférente à l’environnement opérationnel et les individus doivent apprendre à travailler différemment suiv-ant ces nouvelles attentes8.

Dans le cadre du management, les proces-sus de rétroaction et de préparation à l’ac-tion sont mis en œuvre grâce à des boucles de rétroaction qui sont des approches systématiques de suivi et d’analyse de la mise en œuvre des activités d’une organi-sation et de l’atteinte des objectifs fixés. Ces systèmes permettent à une organisation de réagir au cas où les objectifs ne sont pas atteints et de procéder à des ajustements afin d’améliorer ses résultats. Le thermo-stat est un exemple simple de processus de rétroaction. Les thermostats mesurent la température ambiante d’une pièce et activent des systèmes de chauffage ou de refroidissement pour maintenir une certaine température9. Dans leur

Page 47: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

4545Repenser la Gestion des connaissances et l'indépendance

expression la plus simple, les proces-sus de rétroaction sont le plus applicables à une chaîne de montage pour laquelle la cohérence et la qualité des résultats constituent des objectifs opérationnels importants 10.

Toutefois, parfois, en plus d’identifier les ajustements à apporter aux activités existantes, il faut se poser des questions plus fondamentales relativement aux performances. Pour reprendre l’exemple d’une chaîne de montage, une simple boucle de rétroaction peut fournir des informations sur le niveau d’efficacité de la production d’un élément, mais il faut un autre type d’enquête pour déterminer si le produit concerné reste compétitif11. Une simple boucle de rétroaction évalue

la conformité aux normes en vigueur, alors qu’une double boucle de rétroaction cherche à savoir si les politiques et les normes d’une organisation restent perti-nentes et efficaces au regard de l’environ-nement opérationnel12. Les boucles de rétroaction ont la capacité de modifier les politiques et les attentes d’une organisa-tion en ce qui concerne le comportement de ses membres, donnant ainsi lieu à l’insti-tutionnalisation des connaissances. Dans le cadre de l’évaluation du développement, le concept de rétroaction simple ou double reflète la distinction qui est faite entre l’au-to-évaluation et l’évaluation indépendante. Par ailleurs, cette distinction constitue la preuve de la valeur ajoutée complémen-taire apportée par ces deux outils en matière d’apprentissage . 13

Page 48: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance46

eVALUation Matters / Premier trimestre 2017

La fonction d’auto-évaluation et l’apprentissage organisationnel

Dans le cadre de la fonction d’auto-éval-uation, les équipes de projet conduisent des évaluations reposant sur des données probantes afin de mesurer la performance des projets et programmes et tirer les leçons à appliquer aux activités futures14. Le processus mis en œuvre par la fonction d’évaluation indépendante est similaire; toutefois, les processus de conception, de gestion, de mise en œuvre et d’étab-lissement des rapports d’évaluation sont appliqués indépendamment du personnel et de la direction du projet. En travaillant en dehors des structures existantes de gestion, l’évaluation indépendante peut examiner un plus large éventail d’activités chevauchant plusieurs niveaux hiérar-chiques et, de ce fait, elle est mieux placée pour évaluer les politiques et pratiques d’une organisation.

Pour un seul projet de développement, la fonction d’auto-évaluation peut contribuer de manière significative à l’apprentissage individuel et à l’apprentissage de groupe en raison du niveau élevé de familiarité des individus avec le contexte du projet et de leur implication dans le processus d’éval-uation15. Si elle est menée avec la rigueur qui sied, l’auto-évaluation peut être mieux indiquée pour l’identification des facteurs contributifs au succès ou à l’échec d’un projet particulier. Par ailleurs, les chances que l’équipe du projet, en tant que maîtresse du processus d’évaluation, accepte et donne suite aux recommandations sont plus élevées16. Par contre, les constats de l’auto-évaluation pourraient n’être perti-nents que dans des circonstances spéci-fiques. La contribution de ces leçons aux changements de comportement dépend de l’efficacité de leur communication à des pairs qui partagent les mêmes principes et de la possibilité et de la volonté de ces pairs à appliquer ces leçons à leur propre travail.

Il ressort des récentes revues de la fonction d’auto-évaluation17 dans d’autres institu-tions de financement du développement (IFD), notamment le Fonds monétaire international (FMI) et la Banque mondiale, que tout le potentiel de l’auto-évaluation n’est souvent pas exploité. Une évaluation des systèmes d’auto-évaluation du FMI par le Bureau indépendant d’évaluation (BIE) de cette institution a relevé plusieurs difficultés, notamment l’absence d’une démarche institutionnelle en ce qui concerne le choix du moment, l’utilisa-tion, la qualité et le contenu des rapports d’auto-évaluation. En outre, des difficultés liées aux carences de la couverture et à la vulnérabilité de la fonction d’auto-éval-uation aux restrictions budgétaires ont été identifiées18. Dans son rapport sur le système d’auto-évaluation du Groupe de la Banque mondiale, le Groupe indépendant d’évaluation (GIE) a conclu que l’auto-éval-uation a tendance à mettre l’accent sur les questions de redevabilité et la notation des résultats et non sur les opportunités d’ap-prentissage . Les opportunités d’apprent-issage19 vrai sont davantage limitées par l’«esprit de conformisme» du personnel, les carences en matière de suivi et l’optimisme béat des rapports.20

Les deux rapports identifient des carences dans l’utilisation de la fonction d’auto-éval-uation au soutien de l’apprentissage organisationnel. Il est vrai que le rapport du BIE conclut que les auto-évaluations ont retenu des leçons utiles et pertinentes pour les futures opérations, mais ces leçons sont souvent spécifiques aux pays, avec une communication insuffisante sur les constats d’évaluation en dehors du pays concerné21. En outre, au FMI la plupart des interlocuteurs ont estimé que le Conseil d’administration ne s’est pas montré très prompt à assimiler les leçons tirées par la fonction d’auto-évaluation et y donner suite dans la prise de décisions ultérieures22. De même, le rapport

Page 49: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance 47

eVALUation Matters / Premier trimestre 2017

du GIE conclut que les informations des rapports d’auto-évaluation ne sont pas régulièrement exploitées, si ce n’est par la fonction d’évaluation indépendante, et que les rapports d’auto-évaluation pourraient servir à guider la mise en œuvre si la Direc-tion était incitée à reconnaître l’existence de problèmes et tirer la sonnette d’alarme.

Importance de l’indépendance dans l’apprentissage organisationnel

L’évaluation du développement, qu’il s’ag-isse de l’auto-évaluation ou de l’évaluation indépendante, est traditionnellement un outil de responsabilisation23. Naturelle-ment, l’évaluation soutient l’obligation de rendre compte en montrant: i) ce qui a été réalisé (c’est-à-dire ce qui a été mis en œuvre); et ii) à quelles fins (à savoir, les résul-tats obtenus). Même si l’auto-évaluation peut fournir ces informations, elle n’est pas toujours en mesure de le faire de manière stratégique et avec indépendance.

De plus, Ebrahim fait observer que l’ac-cent disproportionné mis sur la reddi-tion des comptes risque de contribuer à une certaine «myopie de la reddition des comptes» où la nécessité de justifier les activités et l’utilisation des ressources prend le pas sur la capacité à examiner les facteurs complexes qui sous-tendent les performances, en profitant de l’occa-sion pour innover, ou en identifiant les échecs et en tirant les leçons. On peut citer à cet égard, l’exemple d’une organi-sation à but non lucratif qui doit fournir une évaluation de ses performances à ses partenaires financiers si elle veut obtenir des ressources supplémentaires pour les projets futurs. Ce contexte crée plusieurs incitations perverses susceptibles de saper l’objectivité de l’évaluation et de réduire son importance en tant que source d’apprentissage. Dans un tel contexte, les

réalisateurs de projets et programmes subissent des pressions pour i) élaborer des projets adossés sur des stratégies clas-siques, même si elles sont sous-optimales; ii) mettre l’accent sur les objectifs faciles à atteindre au détriment des problèmes de développement plus complexes; et iii) la sous-déclaration des éléments de projet dont les résultats sont inférieurs aux prévisions24 .

Sans oublier le risque de voir le personnel du projet transformer le suivi en une tâche administrative en cherchant à rendre compte d’une longue liste d’indicateurs de performance au niveau des résultats, au lieu d’en faire un outil de gestion. Une évaluation de la gestion axée sur les résul-tats au sein du système des Nations Unies a conclu que les pressions exercées par les pays donateurs pour une quantification de la contribution exacte des institutions aux résultats de développement encour-agent la mise en œuvre de systèmes complexes de suivi sans une prise en compte suffisante de leur pertinence ou valeur25. Ces pratiques présentent l’incon-vénient de trop simplifier le processus de développement et d’encourager la défi-nition d’objectifs facilement mesurables et réalisables, sans donner la moindre indication sur la contribution d’une intervention à un changement significatif de comportement26.

La littérature en matière de gestion comporte des exemples semblables qui rappellent l’inconvénient de se fonder uniquement sur l’auto-évaluation et sur une seule boucle de rétroaction. Argyris cite l’exemple d’un nouveau produit dont le rendement est peu satisfaisant27. Le personnel opérationnel peut comprendre que ce produit n’est pas compétitif et être parfaitement conscient des obstacles importants à surmonter pour qu’il génère des bénéfices. Toutefois, étant donné que différents niveaux hiérarchiques

Page 50: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance48

eVALUation Matters / Premier trimestre 2017

l’inefficacité d'un processus ou pour n’avoir pas attiré l’attention de la Direc-tion sur le problème28. Pour être clair, cette double contrainte ne signifie pas que l’auto-évaluation ne peut pas être objec-tive, mais simplement qu’il existe souvent des incitations d’ordre organisationnel qui ont un impact sur son objectivité. En raison de son caractère impartial, la fonction d’évaluation indépendante peut éviter les inconvénients de

sont informés du problème, il y a de plus en plus d’incitations à réduire son ampleur tout en surestimant le niveau de «maîtrise de la situation».

En conséquence, le personnel opéra-tionnel et la Direction font face à une double contrainte en raison de la nature des rapports hiérarchiques qui les lient. Le personnel peut s’exposer à des conséquences négatives en signalant

Page 51: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance 49

eVALUation Matters / Premier trimestre 2017

l’auto-évaluation parce qu’elle n’est pas soumise aux incitations à effets pervers qui découragent toute analyse franche des difficultés et échecs.

En plus de promouvoir la réddition des comptes,un avantage important de l'évaluation indépendante est le fait de «renforcer la crédibilité d'une organisation29». La fonction d’évalua-tion indépendante n’échappe pas à la hiérarchie traditionnelle. C’est pourquoi l’importance de l’indépendance tient à la capacité supplémentaire à remettre en cause le statu quo au sein d’une organ-isation et de relever les difficultés et échecs sans subir de pressions liées à la double contrainte. Par exemple, l’évalua-tion indépendante du développement est mieux outillée pour déterminer quand un programme spécifique ne produit pas les résultats escomptés ou identifier un facteur contextuel important qui a été constamment négligé dans le processus d’évaluation des projets. Par ailleurs, l’évaluation indépendante peut valider les résultats de l’auto-évaluation30 et fournir des raisons supplémentaires d’adopter une meilleure pratique précise. Ces deux fonctions n’ont pas besoin d’être redondantes ou contradictoires; elles sont complémentaires.

Créer une demande pour les connaissances évaluatives

– Promouvoir l’utilisation de l’évaluation pour l’apprentissage organisationnel

L’évaluation a un rôle important à jouer dans l’apprentissage organisationnel, mais le degré d’utilisation des connaissances évaluatives pour orienter la révision des politiques et pratiques organisationnelles n’est pas facile à déterminer avec exactitude. La non-exploitation des connaissances produites par l’auto-évaluation et l’évalua-tion indépendante constitue non seulement

une occasion ratée, mais suscite des inquiétudes en ce qui concerne l’emploi des ressources. L’on est en droit de remettre en cause le bien-fondé de la conduite d’évalua-tions rigoureuses en l’absence d’une volonté réelle d’utiliser ces données pour améliorer les performances.

Un éventail d’outils ont été mis en œuvre à la BAD pour promouvoir l’utilisation des informations issues des évaluations pour soutenir l’apprentissage, notamment: i) la création d’une base de données des résul-tats des évaluations (EVrD), permettant à la fois au personnel de la Banque et au grand public d’avoir accès aux leçons et recommandations issues de l’auto-évalu-ation et de l’évaluation indépendante; ii) la publication des rapports d’évaluation indépendante en formats numérique et papier; iii) l’organisation d’événements et de conférences pour le partage des leçons apprises; et iv) la vulgarisation des rapports et synthèses d’évaluation à travers le site internet et les listes de diffusion électron-ique d’IDEV. En plus de ces outils d’apprent-issage, la BAD a aussi mis au point un outil de suivi de la mise en œuvre des actions de la Direction et des réponses aux évaluations (MArS) et institué l’obligation formelle de tirer des leçons des évaluations passées et de les prendre en compte dans les rapports d’évaluation des nouveaux projets.

Toutefois, ces activités ne se sont pas toujours montrées efficaces pour la promotion de l’utilisation des conclu-sions des évaluations. Au départ, la base de données EVrD a fait face à des diffi-cultés liées à la qualité des leçons tirées des rapports d’achèvement de projet qui devaient d’abord être validées avant leur intégration dans la base de données. En outre, même si la base de données a été utilisée par des utilisateurs externes, elle n’est pas largement utilisée par le person-nel de la BAD. Cette faible utilisation interne laisse croire que l’EVrD n’a pas encore exercé une influence considérable sur

Page 52: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

eVALUation Matters / Premier trimestre 2017

Repenser la Gestion des connaissances et l'indépendance50

la conception et la mise en œuvre des projets de la BAD. Malgré les nombreuses initiatives de communication, il n’est pas possible de mesurer le niveau d’utilisa-tion des informations évaluatives par les parties prenantes ciblées ou la façon dont elles l’utilisent, si tant est qu’elles l’utilisent. Enfin, la contribution de MArS à l’évaluation de l’impact des actions de la Direction sur les opérations et les performances de la Banque est peu évidente.

Comme nous l’avons constaté plus haut, l’apprentissage organisationnel est une activité délibérée à travers laquelle de nouvelles attentes en matière de comportement sont codifiées dans les politiques et pratiques institution-nelles31. Même si l’apprentissage peut s’exercer spontanément, les organisations complexes ne peuvent pas apprendre spon-tanément tout en restant cohérentes. La nécessité d’une action délibérée souligne l’importance d’une demande d’informa-tions d’évaluation et de la participation au processus d’évaluation. L’utilisation délibérée des connaissances évaluatives est perceptible à travers: i) la prise en compte des connaissances évaluatives dans l’élabo-ration de nouvelles politiques, programmes et projets; et ii) les modifications apportées aux politiques et pratiques organisation-nelles en réponse aux recommandations des évaluations.

Par contre, les activités de gestion du savoir ont tendance à augmenter le volume d’in-formations fournies sans nécessairement répondre à la demande d’informations ou permettre son utilisation finale. Par ailleurs, l’obligation formelle d’utiliser ou de consulter les informations d’évaluation, y compris l’obligation de tenir compte des leçons des évaluations dans les rapports d’évaluation de projets, devient symbolique et non une question de fond si le personnel n’est pas incité à mettre ces mécanismes en œuvre comme initialement prévu. Les attentes en matière d’utilisation des

informations d’évaluation doivent égale-ment tenir compte du contexte opération-nel de l’organisation. Vu les efforts actuels pour l’augmentation du nombre des appro-bations, il est peu probable et peut-être irrationnel qu’une proposition de projet soit rejetée aux niveaux hiérarchiques les plus élevés simplement parce que la prise en compte des résultats d’évaluation n’a pas été exhaustive.

L’importance de la demande des informa-tions d’évaluation dans la facilitation de l’apprentissage est bien démontrée dans la littérature. John Mayne et d’autres auteurs présentent la demande des informations d’évaluation comme un élément capital d’une «culture de l’évaluation» dans laquelle une organisation recherche délibérément des informations objectives et probantes reposant sur ses performances et les utilise pour éclairer la prise de décisions, réviser ses pratiques et, à terme, améliorer ses performances32. De même, le PNUD met l’accent sur l’importance de l’implication de la Haute direction dans la gestion axée sur les résultats, en indiquant que «la Haute direction donne le ton et fournit des orien-tations générales sur ce qui est bon et ce qui ne l’est pas 33» . Sans un tel appui, même l’obligation formelle de tenir compte des connaissances évaluatives et de les citer risque de devenir une simple opération de remplissage de formulaires.

Utilisation des produits d’évaluation dans la conception de projets – Indépendance et non isolement

S’agissant de l’utilisation des produits d’évaluation dans la conception des projets et des politiques, Mayne estime que les hauts responsables doivent être des promoteurs de l’évaluation et partic-iper directement à la remise en cause de la logique et des hypothèses des projets ainsi que des données recueillies

Page 53: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

51

eVALUation Matters / Premier trimestre 2017

Repenser la Gestion des connaissances et l'indépendance

sur les performances34. Dans le contexte d’une IFD, un groupe d’évaluation indépendante peut fournir à la Direction des documents d’informations réguliers et ciblés afin de soutenir les prochaines évaluations de propositions de projet.

Cependant, cette approche sous-estime la forte incitation à approuver les projets, que l’on qualifie de «culture d’approba-tion». Le rejet d’une proposition suite à un tel examen encouragerait sans doute les équipes de projets à mieux tenir compte de manière exhaustive des données proban-tes issues des évaluations dans le proces-sus d’évaluation de projet afin d’éviter ce type de sanctions. Toutefois, l’inefficacité qui résulterait d’un rejet au terme d’un trop long processus d’évaluation risque de réduire le recours aux connaissances évaluatives si ce rejet est jugé trop pertur-bateur. Cet examen doit avoir lieu au premier stade du processus de conception et d’approbation des projets. Une meil-leure approche consisterait à encourager une collaboration étroite entre le départe-ment des opérations et le département de l’évaluation dès les premières étapes de la conception du projet.

L’évaluation externe conduite récemment par l’IEG de la Banque mondiale montre que «l’efficacité et la capacité d’une unité d’évaluation à influencer le changement nécessite un engagement stratégique et une étroite collaboration entre la Direc-tion et le personnel35» . Cependant, la nécessité de préserver l’indépendance de la fonction d’évaluation limite le niveau de cette collaboration. Certes, la concertation avec la Haute direction sur le contenu du programme de travail de la fonction d’éval-uation est reconnue comme un moyen effi-cace permettant d’assurer que les rapports répondent aux besoins de l’organisation, mais il faut craindre que la contribution de la fonction d’évaluation à la conception de projets ne génère un conflit d’intérêts au moment de l’évaluation d’un projet.

Cette inquiétude est surestimée pour deux raisons: tout d’abord, le rôle joué par la fonction d’évaluation serait purement consultatif. La responsabil-ité des choix de conception des projets incomberait toujours aux départements opérationnels. L’opinion de la fonction d’évaluation serait un moyen de remplir le devoir de précaution en veillant à ce que toutes les données factuelles soient prises en compte, sans pour autant dicter les détails de la conception finale ni garantir l’obtention des résultats. Ensuite, l’évaluation indépendante du développement continuerait à échap-per à la double contrainte à laquelle le personnel opérationnel fait face. Si une évaluation montre que les meilleures pratiques en vigueur au moment de la conception d’un projet n’ont pas permis de prendre en compte un ou plusieurs facteurs importants pour l’obtention des résultats, les évaluateurs n’ont véritable-ment aucune raison de cacher cette réal-ité ou d’émettre un avis trop optimiste relativement aux performances.

En outre, les spécialistes de l’évalu-ation indépendante du développe-ment possèdent des connaissances spécialisées sur des sujets et qui sont susceptibles de guider non seulement la conception et la mise en œuvre, mais aussi l’auto-évaluation. L’absence d’une logique d’intervention claire et d’un cadre de mesure des résultats réaliste est un problème récurrent concernant la qualité à l’entrée des projets. Même sans influencer le contenu de la conception du projet lui-même, les évaluateurs ont un rôle à jouer pour garantir la cohérence de la logique du projet et l’identification d’indicateurs de performance pertinents. Certes, à la BAD, il existe déjà un proces-sus destiné à garantir que la conception de chaque projet respecte les normes minimales de qualité à l’entrée, mais le processus en cours tient compte de plusieurs aspects de la conception

Page 54: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

52 Repenser la Gestion des connaissances et l'indépendance

d’un projet en dehors du suivi des résultats et subit aussi d’énormes pres-sions dues à la «culture d’approbation» qui règne à la Banque. Il est parfois important de recevoir de la fonction d’au-to-évaluation et de la fonction d’évalua-tion indépendante uniquement des avis concernant exclusivement la logique du projet, l’évaluation des performances, l’évaluabilité et les leçons clés des projets.

Par ailleurs, on pourrait recourir davantage aux processus d’évaluation formative et

prospective pour résoudre les questions de performance au moment où un projet ou un programme est encore en cours d’exécu-tion. Le recours à l’évaluation prospective d’impact peut être particulièrement utile pour prouver la justesse du concept de nouveaux axes d’intervention. De telles initiatives peuvent permettre d’identifier les leçons pertinentes et de tester nos hypothèses concernant la manière dont certaines initiatives atteignent les objectifs visés et les raisons de ce succès36. En outre, le renforcement de la collaboration

Page 55: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance 53

eVALUation Matters / Premier trimestre 2017

peut promouvoir la participation et la demande d’informations d’évaluation en renforçant l’appropriation des éval-uations par le personnel des opérations, tout en tirant parti de l’indépendance et de l’expertise de la fonction d’évalua-tion indépendante.

Évaluation des évaluateurs – Démontrer la crédibilité de l’évaluation indépendante

Le second scénario où l’utilisation des données d’évaluation peut contribuer à l’apprentissage organisationnel est celui dans lequel les politiques ou les pratiques organisationnelles changent suite aux recommandations des évaluations. Même si les outils comme MArS peuvent servir à évaluer la mise en œuvre auto-déclarée des recommandations, la question de savoir si la mise en œuvre entraîne un changement réel de comportement et si les nouvelles pratiques sont effectivement mises en œuvre suscite de graves inquiétudes.

En outre, l’impact des recommandations de l’évaluation n’est pas toujours évident. Même si l’on suppose bien souvent que la prise en compte des leçons et des recom-mandations dans les activités en cours permettra d’améliorer les résultats, cette hypothèse est rarement testée de manière objective. Cette absence de preuve pose la question de savoir «qui évalue les éval-uateurs?». L’un des moyens d’améliorer la demande des connaissances évalua-tives consisterait à mieux comprendre comment l’utilisation des évaluations contribue à l’obtention des résultats désirés. Les systèmes en vigueur comme MArS abordent cette question du point de vue de la reddition des comptes en détaillant les mesures qui ont été prises. Le système ne tient pas compte de l’utilité des recomman-dations elles-mêmes et ne cherche pas à établir leur impact concret sur les résultats. De plus, MArS ne permet pas actuellement

d’analyser les problèmes persistants qui sont soulevés par les multiples recom-mandations au fil du temps. Vu l’évolution constante de l’environnement opération-nel, il faut réexaminer en permanence les recommandations et les mesures prises par la Direction pour s’assurer qu’elles gardent toute leur pertinence. Le système pourrait être mieux exploité pour identifier et ériger en priorités les difficultés transversales auxquelles la BAD fait actuellement face et revoir les mesures de la Direction mises en œuvre pour résoudre les problèmes identi-fiés précédemment, et ainsi promouvoir un apprentissage organisationnel constant.

Comme l’indique une évaluation externe conduite par l’IEG, la fonction d’évaluation indépendante «doit élaborer une théorie du changement axée sur les besoins des utilisateurs et la demande de ses produits», et la mise en œuvre des recommandations doit comporter «non seulement un rapport sur les plans d’action, mais aussi une analyse des résultats 37» . À cet effet, des évaluations externes régulières de la fonction d’évalua-tion indépendante permettraient d’établir si: i) les activités d’évaluation restent alignées sur les besoins de l’organisation; et ii) les rapports d’évaluation fournissent des orien-tations pertinentes et crédibles fondées sur des preuves et des meilleures pratiques. Surtout, la mise en œuvre des recomman-dations des évaluations peut favoriser une collaboration renforcée avec la Direction en démontrant clairement en quoi l’utilisation des connaissances évaluatives a contribué à l’atteinte des objectifs.

Conclusion

En raison de son indépendance vis-à-vis de la hiérarchie opérationnelle, la fonc-tion d’évaluation indépendante est seule capable d’assurer que les politiques et les pratiques restent pertinentes au regard de l’environnement opérationnel et qu’elles permettent d’obtenir les résultats

Page 56: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance54

eVALUation Matters / Premier trimestre 2017

1 BAD (Groupe de la Banque africaine de développement) (2013) Stratégie de l’évaluation indépendante, 2013–2017. Tunis, BAD.

2 Crossan, M., and Berdrow, I. (2003) "Organizational Learn-ing and Strategic Renewal," Strategic Management Jour-nal, 24, 1087–1108; see also Crossan, M., Lane, H. & White, R (1999) "An Organizational Learning Framework: From Intuition to Institution," Academy of Management Review, 24 (3), 522–537).

3 Ibid.

4 Lengnick-Hall, C., Inocencio-Gray, J.L. (2013) "Institutional-ized Organizational Learning and Strategic Renewal: The Benefits and Liabilities of Prevailing Wisdom," Journal of Leadership and Organizational Studies, 20(4), 420–435.

5 Ibid.

6 Crossan, M., and Berdrow, I. (2003) "Organizational Learning and Strategic Renewal," Strategic Management Journal, 24, 1087–1108.

7 See Crossan & Berdrow(n.ii); Crossan et al. (n.ii); Leng-nick-Hall & Inocencio-Gray (n.iv).

8 Ibid.

9 Argyris (n. 9)

10 Argyris, C (1977) «Double Loop Learning Organizations,» Harvard Business Review (September/October), 115–125; Lengnick-Hall & Inocencio-Gray (n.4).

11 Ibid.

12 Ibid.

13 World Bank (2015) External Review of the Independent Evaluation Group of the World Bank Group: Report to

Notes de bas de page

désirés. En outre, elle peut renforcer la crédibilité des autres fonctions d’éval-uation au sein de la Banque, surtout la fonction d’auto-évaluation, favorisant ainsi l’identification et l’adoption de meil-leures pratiques.

L’apprentissage organisationnel est un processus particulier en ce sens qu’il nécessite un changement de comporte-ment à grande échelle, en tirant parti des connaissances des individus, en assurant la cohérence et en améliorant les perfor-mances. L’évaluation indépendante peut contribuer à l’apprentissage organisa-tionnel en influençant la conception de nouvelles politiques et des projets, et en faisant évoluer les pratiques et les comportements qui ont cours, grâce à des mesures de suivi des recomman-dations d'évaluation. Cependant, pour mettre à profit ces possibilités, les pratiques de gestion des connaissances doivent faire mieux qu’accroître l’offre d’informations ou suivre la mise en œuvre des recommandations des éval-uations pour la reddition des comptes. Ces activités doivent être complétées par l’élaboration d’initiatives destinées à accroître la demande des produits

d’évaluation par les groupes d’utili-sateurs ciblés. Ces initiatives doivent reposer sur une bonne maîtrise des besoins de ces groupes d’utilisateurs et la manière dont ils peuvent utiliser les informations d’évaluation.

En conséquence, les unités d’évalua-tion vont peut-être devoir revisiter la notion d’indépendance en collaborant plus étroitement avec le personnel des opérations et la Direction afin d’ap-porter une contribution pertinente à l’élaboration et la mise en œuvre des projets et programmes. Cette approche pourrait nécessiter l’adoption de nouveaux outils, notamment l’évalua-tion formative et l’évaluation d’impact prospective. Enfin, les unités d'évalua-tion indépendante doivent minutieuse-ment évaluer la pertinence et l’impact de ses leçons et recommandations. Toutes ces mesures contribueraient non seule-ment à la promotion de la crédibilité et à la compréhension du contexte opéra-tionnel, mais surtout, elles pourraient accroitre la demande des connaissances évaluatives, favorisant ainsi l’apprent-issage organisationnel et l’amélioration des résultats.

Page 57: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Repenser la Gestion des connaissances et l'indépendance 55

eVALUation Matters / Premier trimestre 2017

Pro

fil de

l’au

teur

Erika MacLaughlin est consultante à IDEV depuis 2014. Avant de rejoindre IDEV, elle a travaillé dans le domaine de la recherche et de l'évaluation avec les affaires étrangères, le commerce et le développement du Canada, l'Agence canadienne de dével-oppement international et la Commission de la fonction publique du Canada. Erika a obtenu un baccalauréat ès arts (avec distinction) de l'Université Western Ontario et un doctorat en droit de l'Université de Toronto.

CODE from the Independent Panel. (June) Washington, D.C.: World Bank.

14 IEO (Independent Evaluation Office of the International Monetary Fund) (2015) «Self-Evaluation at the IMF – An IEO Assessment» Washington, D.C.: IMF; see also IEG (Independent Evaluation Group) (2016) «Behind the Mirror: A Report on the Self-Evaluation Systems of the World Bank Group,» Washing-ton, D.C.: World Bank.

15 IEO (n. 14).

16 Ibid.

17 Ibid.

18 Ibid.

19 IEG (n.14)

20 Ibid.

21 IEO (n. 14)

22 Ibid.

23 Ebrahim, A. (2005) «Accountability Myopia: Losing Sight of Organizational Learning,» Non-profit and Voluntary Sector Quarterly, 34(1), 56–87.

24 Ibid.

25 UNDP (United Nations Development Program) (2012) «Results-Based Management in the United Nations Development System: Progress and Challenges – A report prepared for the United Nations Department of Economic and Social Affairs, for the Quadrennial Comprehensive Policy Review.»

26 Ibid.

27 Argyris (n. 9).

28 Ibid.

29 IEO, 2015, citing Lamdany, R. & Edison, H. (2012) «Independ-ent Evaluation at the IMF: The First Ten Years.»

30 IEO (n. 14).

31 Lengnick-Hall & Inocencio-Gray (n. 4).

32 Mayne, J. (2008) «Building an Evaluative Culture for Effec-tive Evaluation and Results Management,» Institutional Learning and Change (ILAC) Initiative Working Paper 8; see alsoMayne, J. (2010) «Building an Evaluative Culture: The Key to Effective Evaluation and Results Management» The Canadian Journal of Program Evaluation, 24(2), 1–30; Nohria, N. and Beer, M. (2000) «Cracking the Code of Change,» Harvard Business Review, May–June 2000; Nyukorong, R. (2016) «The Strategic Building Blocks of a Learning Organization,» Journal of Resources Development and Management, 19

33 Mayne (2010) (n. 30).

34 Mayne, (2008) and Mayne (2010) (n. 30).

35 World Bank (n. 13).

36 Gertler, P.J, Martinez, S., Premard, P., Rawlings L.B.&Ver-meersch, C.M.J. (2011) «Impact Evaluation in Practice,» The World Bank Group, Washington DC 20433.

37 World Bank (n. 13).

L'auteur souhaiterait remercier plusieurs collègues d’IDEV et des confrères d’autres institutions de financement du développement pour leur aimable contribution, notamment Samer Hachem, Karen Rot-Munstermann, Marc Cohen, Souleymane Ben Daouda Dieye, Ruben Lamdany, Oscar Garcia et Keith Leonard.

Remerciements

Page 58: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élab

orat

ion

et p

ilota

ge d

’une

pol

itique

d’

éval

uatio

n du

dév

elop

pem

ent

La politique d’évaluation du développement d’un partenaire technique et financier (PTF) vise souvent plusieurs objectifs, parfois difficiles à concilier, car pour être atteints, ils requièrent des modalités d’organisation et des méthodes d’évaluation différentes. Le PTF cherchera à résoudre ces problèmes en procédant à des arbi-trages et des compromis susceptibles d’évoluer de façon pragmatique au fil du temps, suivant ses priorités.

Page 59: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement 57

eVALUation Matters / Premier trimestre 2017

DE nombreuses études se sont penchées sur les problèmes méthodologiques posés par l’analyse évaluative du développement, depuis la

phase de collecte des informations jusqu’à l’interprétation des résultats et la formu-lation des recommandations. Dans cet article, nous nous intéressons, en amont de ces problèmes, aux questions souvent épineuses qui se posent à un partenaire technique et financier (PtF), en l’occurrence l’Agence française de développement (AFD), dans l’élaboration et la mise en œuvre de sa politique d’évaluation. Quelles sont ses attentes à l’égard des évaluations, en matière d’apprentissage et de redevabilité, et comment les concilier? Quelles modalités d’organisation et quelles méthodes d’évalu-ation retenir pour répondre au mieux à ses différentes attentes? Nous nous intéresser-ons plus particulièrement au débat relatif aux évaluations scientifiques d’impact et à la question méthodologique du passage de l’échelle microéconomique à l’échelle macroéconomique. Enfin, comment part-ager les tâches et les responsabilités entre les pays et leurs partenaires techniques et financiers?

Les attentes

De la théorie à la pratique

Commençons en nous situant dans un monde de l’évaluation idéal pour un PtF. Dans ce monde idéal, les services opérationnels tiennent compte des

enseignements tirés des évaluations et modifient en conséquence leurs modal-ités d’intervention afin de les améliorer (objectif dit d’apprentissage ou de capi-talisation). Le PtF informe le grand public et ses partenaires non seulement des réalisations financées, mais aussi des résultats, voire des impacts sur le dével-oppement qui peuvent être attribués à ces financements (objectif dit de redev-abilité).Enfin, les travaux d’évaluation scientifique d’impact (ESI) ou d’évaluation approfondie engagés contribuent, suiv-ant différents cheminements (Delarue, Naudet, Sauvat, 2009) à l’amélioration des politiques publiques des pays parte-naires, et plus largement, au débat sur les politiques de développement les plus pertinentes (objectif dit de production de connaissances).

Force est de constater qu’à l’AFD et proba-blement chez la plupart des PtF, la réalité est assez éloignée de cet idéal. Les exem-ples de rétroaction vers les opérations et de mise en œuvre des recommandations formulées dans les rapports d’évaluation sont peu nombreux. L’exercice de redeva-bilité auprès du grand public2 s’effectue essentiellement au travers du suivi en exécution des programmes et projets (c’est-à-dire par la capacité à renseigner et à agréger des indicateurs de réalisation et de résultats) et non sur la base des éval-uations rétrospectives. Les conclusions auxquelles aboutissent les évaluations scientifiques d’impact (ESI) n’exercent qu’une influence limitée sur l’orientation des politiques de développement

Bertrand Savoye1, Agence française de développement

Page 60: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement58

eVALUation Matters / Premier trimestre 2017

ou des financements des PtF. À titre d’exemple, les ESI financées par l’AFD mettent en évidence des impacts mitigés de la microfinance sur la réduction de la pauvreté. Pour autant, l’AFD ne va pas renoncer à financer ce secteur. Même si l’on suppose que les conclusions des ESI sont extrapolables à d’autres contextes que ceux dans lesquels elles ont été menées, elles ne sont qu’un des nombreux paramètres de prise de décision.

En dépit de ces écarts entre la théorie et la pratique, la fonction d’évaluation partic-ipe pleinement au débat sur les stratégies sectorielles et au choix des instruments de financement. Mais pour que cette fonction soit vivante, vu le risque majeur de tomber dans la routine bureaucratique, des compromis et des arbitrages sont néces-saires entre des objectifs, de fait, souvent difficiles à concilier.

Des objectifs difficiles à concilier

L’objectif d’apprentissage impose de se situer au plus près des préoccupations des services opérationnels, et par conséquent:

❚ De cibler les sujets présentant un réel enjeu (d’où à l’AFD une sélec-tion raisonnée et non aléatoire ou systématique des projets à évaluer). Par exemple, on privilégiera les éval-uations ex-post de projets apparte-nant à des secteurs dans lesquels l’AFD continue d’intervenir, ou encore, pour les projets qui se poursuivent sur plusieurs phases, ceux qui n’ont pas encore été évalués ou ne l’ont pas été récemment. À contrario, une politique d’évaluation systématique des projets achevés conduit à mener certaines évaluations qui ne présen-tent plus beaucoup d’intérêt pour les services opérationnels, soit parce qu’elles vont concerner des secteurs dans lesquels l’AFD ne souhaite plus

intervenir, soit encore des modal-ités d’intervention qui ne sont plus appliquées.

❚ D’associer étroitement ces services à la conduite des évaluations de sorte à aboutir à des recommandations judicieuses.

❚ De recourir, éventuellement, à des travaux en partie internalisés.

Poussée à l’extrême, cette logique peut conduire à l’auto-évaluation, certes utile en interne, mais peu crédible dans le cadre d’une communication extérieure.

L’objectif de redevabilité requiert des évaluations crédibles et, par conséquent, de se conformer à différents principes de neutralité et d’indépendance, d’où le recours à des prestations standardisées et externalisées et à un mode de sélection sans biais des projets à évaluer. Poussée à l’extrême, cette logique peut conduire à la routine bureaucratique: on en vient à évaluer3 pour évaluer, parce que cela fait partie des pratiques attendues d’un PTF ou d’une institution financière, au risque de voir les rapports s’accumuler, sans que leurs résultats soient réellement exploités, les recommandations s’avérant trop générales et déconnectées des préoc-cupations des équipes opérationnelles.

Par ailleurs, à cette dualité d’objectifs et de modes d’organisation s’ajoutent d’autres lignes de tension, concernant:

❚ Le degré d’intérêt porté: on a évoqué le risque d’un processus routinier où l’évaluation ne présenterait pas plus d’intérêt en soi que le respect d’une norme ISO… À l’inverse, si l’intérêt porté au sujet est excessif, l’exercice peut être dévoyé, avec la tentation d’utiliser les résultats attendus des évaluations comme plaidoyer au service des

Page 61: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement 59

eVALUation Matters / Premier trimestre 2017

actions menées, et le risque dans ce cas de n’étudier que les «success stories» et de ne pas évaluer les projets de qualité moins satisfaisante.

❚ La temporalité des travaux: on ne peut juger correctement de certains impacts (ou encore de la durabilité des interventions) qu’à moyen terme (la KfW mène certaines évaluations d’impact 5 ans après l’achèvement des projets, alors qu’à l’AFD elles ont lieu en théorie entre 6 et 18 mois). Mais en même temps, les résultats risquent de porter sur une généra-tion de projets ou de modes d’inter-vention déjà en partie dépassée, et ne pas répondre aux préoccupa-tions opérationnelles, notamment la question de savoir si on choisit de poursuivre un projet et dans quelles conditions4 .

Les PtF se sont efforcés, de façon implicite ou explicite, de rechercher des modes de fonctionnement certes imparfaits, mais permettant de proposer des compromis entre ces différents objectifs. Les institu-tions multilatérales recourent à des évalu-ations internalisées, mais menées par une structure indépendante au sein du Groupe (IEG pour le Groupe de la Banque mondiale, IDEV pour la Banque africaine de dévelop-pement). Faute de structure indépendante en leur sein, les institutions bilatérales, recourent à des évaluations externalisées.

À l’AFD, les priorités ont évolué au fil du temps. Jusqu’en 2006, la priorité était accordée à l’apprentissage. Les évaluations étaient essentiellement internalisées et les recommandations opérationnelles donnaient lieu à un processus de validation formelle. À partir de 2007, pour répondre à une

Page 62: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

60

eVALUation Matters / Premier trimestre 2017

Élaboration et pilotage d’une politique d’évaluation du développement

demande croissante de redevabilité et harmoniser les pratiques avec celles des autres bailleurs, la priorité est donnée à la redevabilité, avec l’instauration du dispositif d’évaluation systématique et externalisée de l’ensemble des projets achevés dont le financement AFD est traçable. Depuis 2013, la politique de l’évaluation est de nouveau infléchie en faveur de l’apprentissage (AFD, 2013). Le recours à l’externalisation est maintenu, mais sur la base d’une sélection raisonnée des projets à évaluer5 , en veillant, toute-fois, à couvrir l’ensemble du champ des interventions. Par ailleurs, un dispositif de réponse de la Direction aux recom-mandations et de suivi des recomman-dations par les services opérationnels est mis en place.

Au final, le pilotage de la fonction évalu-ation suppose des réglages assez fins et jamais définitifs entre les objectifs visés, et nécessite l’adoption d’une posture à la fois rigoureuse et pragmatique. Cette observation vaut également pour les choix méthodologiques et les types d’évaluation à mettre en œuvre.

Quel type d’évaluation privilégier?

On comprend de ce qui précède qu’un seul type d’évaluation peut difficilement permettre d’atteindre les différents objec-tifs recherchés, et qu’au contraire, il est nécessaire de mobiliser une gamme d’éval-uations et d’approches méthodologiques.

Ainsi, à l’AFD, seuls deux des quatre objectifs annoncés dans le dispositif d’évaluation systématique et externalisée de projets mis en place à partir de 2007 ont été largement atteints, à savoir le dialogue partenarial (ces évaluations étant pilotées localement par les agences locales, en partenariat avec les parties prenantes des projets) et

le renforcement des capacités locales en matière d’évaluation (ces évaluations étant menées de préférence par des bureaux d’études locaux), tandis que les objectifs de redevabilité et d’apprentissage s’avèrent moins remplis.

La programmation des travaux d’évalua-tion se fait à travers le choix de la catégorie d’évaluation la plus appropriée à l’objectif visé (AFD, 2013): l’évaluation scientifique d’impact (ESI) pour la production de connaissances, l’évaluation de grappes de projets ou la synthèse d’évaluations de projets pour la capitalisation, etc.

Si la conduite de la plupart des types d’éval-uation suscite un consensus relatif suite aux nombreux travaux méthodologiques menés ces dernières années, notamment dans le domaine du développement par le Comité d’aide au développement de l’OCDE, certains débats méthodologiques continu-ent d’animer le monde de l’évaluation. Nous nous intéressons ci-après à deux d’entre eux, à savoir:

❚ Le choix de recourir à des approches quantitatives rigoureuses, telles que celles développées pour les ESI, une question qui s’inscrit dans la contro-verse plus large entre méthodes quali-tatives et quantitatives.

❚ Le choix entre une analyse micro-économique et une analyse macro économique.

Le débat sur les évaluations scientifiques d’impact

À partir des années 2000, l’ESI randomisée, ou expérimentation aléatoire contrôlée, a été présentée dans les domaines de l’éval-uation et de l’économie du développement comme une démarche irréprochable sur le plan scientifique, d’une rigueur qui supplantait largement les travaux

Page 63: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement 61

eVALUation Matters / Premier trimestre 2017

qui n’étaient pas en mesure de raison-ner, toutes choses égales par ailleurs, et d’attribuer les effets de tel ou tel type d’intervention (Pamies-Sumner, 2014). Cette méthode s’est ainsi répandue dans les travaux académiques, mais également dans les standards d’évaluation de certains PtF (Banque mondiale, USAID, DFID) ou des fonds multilatéraux.

Or, si cette approche apporte effective-ment des progrès incontestables par ses méthodes quantitatives robustes, elle est souvent coûteuse, complexe à mettre en œuvre et contraignante pour la conduite opérationnelle des projets. Par ailleurs, elle se prête mieux à certains secteurs, notam-ment l’éducation ou la santé, qu’à d’autres.

Un nouveau consensus semble aujo-urd’hui se dégager sur un retour à une plus grande pluralité de méthodes et pour privilégier des approches mixtes dont l’ESI n’est qu’une sous-composante d’une évaluation plus large. C’est notamment le cas pour les évaluations d’aide budgétaire mises en œuvre par différents PtF (UE, Coopération néerlandaise, France,…).

Si l’on tentait une comparaison avec le travail d’enquête policière, en recherchant un faisceau d’indices au travers d’investi-gations complémentaires, l’ESI pourrait s’apparenter à la recherche d’ADN. Cette dernière apporte des éléments de preuve irréfutables sur l’auteur du crime, mais elle ne dit rien, ou peu de choses, sur les mobiles du crime, les circonstances évent-uellement atténuantes, etc. De même, l’ESI nécessite a minima d’être complétée par des analyses qualitatives, ou encore des analyses statistiques de cadrage.

Ainsi, plutôt que de polariser tous les efforts sur une seule approche, il paraît à la fois plus judicieux et plus stimulant d’adapter les approches aux thématiques couvertes et aux objectifs visés. En ce sens,

l’AFD cherche à rationaliser l’identification des ESI à mener suivant les critères de sélection ci-après:

❚ Pertinence stratégique: l’intervention évaluée doit revêtir une importance significative pour un cadre d’interven-tion stratégique ou transversal.

❚ Pertinence scientifique: l’évaluation doit se rapporter à une intervention innovante ou être en rapport avec des questions originales et judicieuses du point de vue de l’état des connaissances ou d’autres recherches en cours.

❚ Intérêt des partenaires.

❚ Faisabilité: vérifier la compatibilité entre les temporalités du projet et de l’évaluation, la disponibilité de données, la possibilité de constituer un contre-factuel, la recevabilité éthique de l’ex-ercice, etc.

Comment passer du niveau micro au niveau macro?

Jusqu’aux années 80, on privilégiait les évaluations de type macroéconomique, avec la mesure des effets multiplicateurs des investissements sur les différentes branches d’activités. Ensuite, on est passé le plus souvent à des analyses et des outils microéconomiques.

«Si l’on tentait une comparaison avec le travail d’enquête policière, en recherchant un faisceau d’indices au travers d’investigations complémentaires, l’ESI pourrait s’apparenter à la recherche d’ADN».

Page 64: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir
Page 65: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement 63

eVALUation Matters / Premier trimestre 2017

Or, aussi rigoureuses soient-elles, des analyses situées exclusivement au niveau microéconomique n’apportent que des éléments de réponse partiels aux ques-tions de politique publique.

Par exemple, il ne suffit pas de savoir que le Programme de mise à niveau des entreprises du Sénégal exerce un effet positif sur la croissance des entreprises bénéficiaires, même si de ce point de vue, son objectif est atteint. Il parait néces-saire également de chercher à savoir, sur un plan macroéconomique, si on observe globalement un jeu à somme positive ou à somme nulle, c’est-à-dire si cet effet ne se fait pas au détriment des autres entreprises locales, sans gain de parts de marché vis-à-vis de la concurrence des produits importés (Bastide, Savoye, 2015).

Autre exemple, selon une ESI réalisée en France, un dispositif d’accompagnement renforcé des chômeurs mis en œuvre par des opérateurs privés de placement pour les aider à trouver un emploi dura-ble, présente des effets positifs sur les chômeurs qui en bénéficient. Ces dern-iers réussissent en effet à trouver un emploi plus rapidement que les autres (Crepon, Duflo, 2013). Mais en revanche, on a pu démontrer que ces effets se font au détriment de ceux qui n’en bénéfi-cient pas. Autrement dit, on observe des déplacements dans la file d’attente pour trouver un emploi, mais aucun effet global sur le nombre de chômeurs et la durée moyenne du chômage.

Il paraît donc nécessaire de mener aussi des investigations à l’échelle macroéconomique où se déploient les politiques publiques et où l’on peut mesurer le coût/bénéfice réel des mesures adoptées.

De l’évaluation des projets par les PTF à l’évaluation des politiques publiques par les pays

Dans les pays en développement, notam-ment africains, même si de nombreux ministères sont désormais dotés de services de suivi-évaluation et engagent parfois des exercices d’évaluation de leurs politiques, les PtF prennent l’initiative et pilotent encore une large part des évalu-ations de projets ou programmes. Or, ce dispositif présente certains inconvénients.

En premier lieu, si le niveau d’un projet individuel peut intéresser le PtF pour des raisons de redevabilité et d’apprent-issage, c’est souvent moins le cas pour les autorités du pays, qui portent leur attention sur le niveau plus large d’une politique publique (ou de l’une de ses composantes)6 .

En second lieu, les évaluations se focal-isent essentiellement sur les domaines financés par les PtF, au risque de laisser des pans entiers des politiques publiques peu couverts, notamment dans les pays où la pratique des évaluations de politiques publiques est encore peu développée dans l’administration. Le rapport de l’initiative Clear portant sur neuf pays africains laisse toutefois apparaître des progrès importants dans ce domaine ces dernières années (CLEAr, 2012).

Enfin, l’évaluation des projets présente une certaine ambivalence, dans la mesure où elle porte à la fois sur les stratégies et les pratiques opérationnelles du pays et sur celles du PTF. Si la plupart d’entre elles se recouvrent, certaines peuvent néanmoins se distinguer (par exemple, le PTF peut viser au travers du projet ses propres objec-tifs de rayonnement et d’influence).

Page 66: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement

Conformément à la logique de la redev-abilité mutuelle prônée par les accords de Busan, on devrait, à terme, s’orienter de plus en plus vers un appui des PtF à des disposi-tifs d’évaluation des politiques publiques pilotés par les autorités nationales ou locales, à des fins de redevabilité et de capi-talisation sur la conduite de ces politiques. Ce système prévaut déjà dans un certain nombre de pays émergents, en Amérique latine, notamment (Mackay, 2007).

Toutefois, cette évolution suppose que les PtF soient en mesure de juger la fiabilité des travaux d’évaluation engagés par les autorités concernées et puissent se référer aux résultats produits.

Par ailleurs, pour les PtF, elle doit être complétée par une évaluation de leurs stratégies sectorielles ou géographiques, et non plus des projets individuels qu’ils financent.

Enfin, une évaluation de politiques publiques fondée sur des démarches quantitatives suppose en amont, la capac-ité à mobiliser les appareils statistiques qui eux-mêmes doivent être en mesure de produire les différents indicateurs de résultats des politiques publiques à mesure qu’elles sont mises en œuvre.

64

Page 67: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Élaboration et pilotage d’une politique d’évaluation du développement 65

eVALUation Matters / Premier trimestre 2017

Notes de bas de page

Pro

fil de

l’au

teur

bertrand Savoye, est économiste et travaille à la Divi-sion de la Recherche et du Développement de l'Agence Française de Développement (AFD). Auparavant, il a travaillé dans les services opérationnels, de formation et d'évaluation rétrospective de l'AFD. Avant de rejoindre l'AFD, il a travaillé à l'Institut national de la statistique et des études économiques de la France.

bibliographie

1 Les analyses de cet article sont formulées sous la responsa-bilité de son auteur. Elles ne reflètent pas nécessairement le point de vue de l’Agence française de développement

2 Pour la redevabilité auprès des tutelles, l’exercice est beaucoup plus complet, avec en particulier la production de rapports sur les évaluations réalisées et les méth-odes employées.

3 Soit par une couverture exhaustive, soit par un sondage aléatoire du champ à évaluer

4 On peut noter que ce dilemme entre l’actualité et la qualité des informations se pose aussi dans le domaine de la produc-tion statistique ou celui des comptes nationaux. Faut-il se fonder sur les estimations des comptes provisoires de

l’année n-1 ou attendre de disposer de comptes définitifs de l’année n-3. Faut-il travailler durant de nombreux mois sur le traitement des données d’enquête, au risque de publier trop tardivement les résultats, ou exploiter des données de qualité imparfaite?

5 Afin de ne pas évaluer des projets qui ne présenteraient pas d’intérêt, notamment les projets déjà évalués lors d’une phase antérieure, un secteur dans lequel l’AFD n’intervient plus, etc.

6 Il en va de même en France. Par exemple, les collectivités territoriales ne vont pas évaluer la réhabilitation d’un ouvrage d’art, mais plutôt l’ensemble d’une politique de déplacement urbain…

AFD (2013), «Politique de l’évaluation de l’AFD», octobre 2013

Bastide N., Savoye B., «L’impact du programme de mise à niveau des entreprises du Sénégal», Papier de recherche 2015–04, AFD, mars 2015

CLEAR (2012), «African monitoring and evaluation system, exploratory case studies», septembre 2012

Crepon B., Duflo E. et alii (2013), «Placement en emploi et effets de déplacement», La synthèse J-PAL, avril 2013

Delarue J., Naudet JD., Sauvat V. (2009), «Les évaluations sont-elles utiles?», Ex Post Notes méthodologiques n°3, AFD, janvier 2009

Mackay K (2007)., «Comment mettre en place des systèmes de S&E pour améliorer les performances du secteur public», Banque Mondiale, 2007

Pamies-Sumner S. (2014), «Les évaluations d’impact dans le domaine du développement», A Savoir n°27, juin 2014, AFD

Page 68: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Éval

uatio

n po

ur le

dév

elop

pem

ent:

Faut

-il r

evis

iter n

os c

ritèr

es d

’éva

luat

ion?

«… [L]es thèses fondamentales qui recouvrent l’ensemble du paradigme du développement peuvent difficilement prospérer, et les penseurs du développement doivent faire preuve d’une nouvelle humilité devant la complexité gran-dissante de la question du développement», Curry-Alder et al, 2014.

Le présent article estime que «l’évaluation du développement» ne contribue pas assez au développement, compte tenu surtout des diffi-cultés auxquelles font face les pays du Sud. Il faut passer à une approche plus dynamique nous permettant d’évaluer POUR le développe-ment. Ce qui va nous obliger à nous assurer que les critères déterminants de ce que nous évaluons et la manière dont nous y prenons sont affinés, tant en théorie qu’en pratique, tout en étant conscient de ce qu’on entend par intervention qui favorise véritablement le développement.

Page 69: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 67

eVALUation Matters / Premier trimestre 2017

Introduction

LA communauté de l’évalua-tion du développement est consciente que nos critères d’évaluation, surtout les omniprésents critères du

Comité d’aide au développement (CAD) de l’OCDE, doivent être revisités. Quelques contributions pertinentes plaident pour l’affinement (par ex., Picciotto, 2014) ou un véritable changement (par ex., Heider, 2017) à la fois du concept et de la pratique. Mais qu’est-ce qui déterminera leur forme à l’avenir? Sur quelle base choisirons-nous les critères à écarter, affiner ou ajouter?

Même si suivant l’agenda 2030, le «dével-oppement» est une tâche qui incombe désormais à tous les pays, les pays à faibles revenus sont ceux qui font face aux diffi-cultés les plus graves. À notre avis, «l’évalu-ation du développement» ne contribue pas suffisamment au développement, compte tenu des difficultés auxquelles le Sud est confronté. Il faut passer à une approche plus dynamique susceptible de nous permettre d’évaluer POUr le développement.

Ce qui nous obligera à nous assurer que les critères déterminants de ce qu’il faut évaluer et de la manière dont il faut évaluer sont affinés, tant en théorie qu’en pratique, tout en ayant connaissance de ce qu’on entend par intervention1 qui favorise vrai-ment le développement.

Le présent article entend stimuler le débat autour de la question en proposant

quelques critères d’«évaluation pour le développement» (E4D) qui devraient nous aider à redéfinir les critères d’évaluation, et la manière dont ils sont appliqués aux interventions – tout en reconnaissant que même si les «interventions» ne sont pas la seule priorité de l’évaluation, elles restent une de ses grandes priorités. Par ailleurs, nous relevons les points communs entre l’approche holistique des interventions sanitaires qui caractérise la médecine orientale traditionnelle et la notion d’éval-uation pour le développement vue sous le prisme de systèmes complexes.

Une nouvelle ère pour l’évaluation du développement?

Au cours des deux dernières décennies, la fonction d’évaluation s’est véritablement mondialisée, et «l’évaluation du dével-oppement2» connaît actuellement un véritable essor. Nous sommes désormais entrés dans une ère où les difficultés auxquelles les évaluateurs travaillant dans le contexte du développement font face exigent de nouvelles manières de penser et de travailler (Picciotto, 2015). Les plans de développement, les idéologies dominantes et la notion de «meilleures pratiques» sont remplacés par un mélange bigarré de cadres, de modèles, d’objectifs et de pratiques. Dans le même temps, les crises et catastrophes naturelles et anthropiques déstabilisent de vastes parties du monde, et les pays et les régions qui s’affrontent pour le pouvoir influen-cent le potentiel et les stratégies de

Zenda Ofir, experte en évaluation

Page 70: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation?

C’est un parfait argument pour fusionner l’ «évaluation» dans le Nord et l’ «évaluation du développement» dans le Sud5 . Cepend-ant, le développement en Suisse, au Japon ou au Canada n’a pas le même sens que le développement au Népal, au Yémen, au Mali ou au Paraguay. Modifier des politiques ou des secteurs dans le cadre d’institutions et de systèmes robustes en s’appuyant sur de solides fondations (reposant sur les indicateurs de dévelop-pement) peut être difficile. Mais, c’est de loin moins compliqué que de définir une trajectoire positive de développement sur des bases fragiles, sur plusieurs fronts et sur une longue période, sans oublier l’in-terférence des asymétries de pouvoir, de ressources et de capacités.

développement. Le secteur privé est sur le point de devenir un bailleur de fonds de développement plus actif et plus visible. Et nous commençons seulement à comprendre quelle sera l’influence d’un monde interconnecté sur le développe-ment au moment où l’ambition de l’Agenda 2030 et ses objectifs de développement durable (ODD) devraient coïncider avec la quatrième révolution industrielle3 , et l’économie numérique avec «l’écono-mie humaine4»

Le fait que l’Agenda 2030 rappelle avec insistance que la responsabilité du dével-oppement incombe à tous les pays vient souligner le fait que le développement est un processus et non un objectif précis.

68

Page 71: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 69

eVALUation Matters / Premier trimestre 2017

C’est pourquoi nous ne pouvons réus-sir la fusion complète de l’ «évaluation du développement» et de l’ «évaluation» tout court que seulement si nous sommes sûrs que nos théories et pratiques nous permettent véritablement de servir ces pays et ces sociétés qui font face à des défis majeurs de développement. Après tout, les théories fondamentales qui ont façonné notre profession proviennent des pays riches de l’Occident avec peu de référence aux contextes du monde en dévelop-pement. Par conséquent, nous devons nous assurer que nos théories, pratiques, normes, critères et questions d’évaluation nous aident à évaluer pour un développe-ment qui améliore vraiment le bien-être de nos sociétés et de leurs écosystèmes.

Le problème: l’évaluation du développement ne favorise pas toujours le développement

L’essentiel pour une intervention de dével-oppement est de contribuer au développe-ment. Mais, nous arrive-t-il de réfléchir à ce que cela signifie véritablement? Sommes-nous trop sûrs de notre compréhension du concept de développement? Sommes-nous devenus des consommateurs trop complaisants des affirmations sur l’effi-cacité du développement et l’évaluation du développement?

Le développement reste un concept à controverse; les différences entre les perspectives ascendantes/descendantes, ou micro/macro continuent à donner naissance à des idées et des idéologies très variées différentes sur la manière dont on peut parvenir au développe-ment (Curry-Alder, 2014). Par conséquent, il est très difficile pour un évaluateur d’apprécier le bien-fondé d’un modèle spécifique de développement à un stade donné de l’évolution d’un pays ou d’une région. Nous pouvons être clairs sur l’idéologie, les valeurs et le modèle utilisé

pour apprécier le bien-fondé, la valeur ou l’importance d’une intervention de développement. Comme en témoignent partiellement les critères d’évaluation que nous retenons dans le ciblage de nos interventions, et la manière dont nous les appliquons dans la réalité.

Nous devons, dans le même temps, tenir compte des facteurs suivants:

❚ Les progrès en matière de dévelop-pement sont presque toujours envis-agés et mesurés à l’échelon d’un pays (à savoir, sociétal, national) et d’une région, comme l’atteste la prolifération des indices mondiaux et les modalités d’établissement des rapports pour la réalisation des ODD.

❚ Les définitions de l’efficacité du dével-oppement confirment la nécessité d’une action collective, sinon coordon-née de la part d’une gamme d’acteurs locaux et étrangers. L’efficacité du développement est une mesure de l’impact cumulé de ces acteurs, et la responsabilité les résultats est part-agée par plusieurs acteurs.

❚ D’un point de vue national, on ne peut «obtenir le développement sans le dével-oppement» (Chang, 2010). C’est notam-ment le cas lorsque des interventions dites de développement ciblent les conditions propices au développement comme la réduction de la pauvreté, le développement personnel ou la satis-faction des besoins fondamentaux sans aucune vision de la capacité du pays à soutenir, à long terme, une trajectoire positive de développement.

❚ Un pays qui enregistre des progrès en matière de développement aura besoin de trajectoires positives sur plusieurs aspects interconnectés de la vie de ses citoyens. Une intervention dont le ciblage est trop étroit et

Page 72: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

70

eVALUation Matters / Premier trimestre 2017

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation?

qui n’est pas mise en œuvre en temps opportun de concert avec d’autres interventions ou objectifs, ou qui donne des résultats et impacts local-isés ou insignifiants en comparaison avec ce qui doit être fait pour assurer une trajectoire positive de dévelop-pement, ne peut pas être considérée comme une contribution importante au développement.

❚ Ce qui pose problème en particulier dans ce que Chang qualifie d’ «ersatz de développement», qu’il soit soutenu par l’aide ou par des organisations caritatives, le secteur privé ou un gouvernement – qui s’appuie sur des interventions non coordonnées qui ne tirent pas parti des synergies entre les interventions et n’offrent pas la cohérence susceptible de

Page 73: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

«Non seulement, nous n’arrivons pas souvent à remplir les exigences les plus élevées des théories du changement qui requièrent l’établissement de liens entre l’intervention et un contexte ou modèle spécifique de développement, mais aussi nos critères d’évaluation ne nous obligent pas en pratique à examiner toutes les questions qui comptent pour le développement».

eVALUation Matters / Premier trimestre 2017

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 71

faciliter le changement à une plus grande échelle.

❚ Si les résultats et les impacts obtenus ne soutiennent pas ou ne favorisent pas l’action spontanée entraînant d’autres effets ou répercussions d’impact, une intervention de dével-oppement ne saurait être considérée comme un succès. Elle peut même être une source de régression si les gens sont désillusionnés ou découragés.

En conclusion, toutes les «interventions de développement» menées dans un pays à faibles revenus ne contribuent pas toujo-urs au développement, même si elles font partie du plan de développement national ou local, répondent aux attentes de la «communauté», produisent les résultats ou impacts désirés, et/ou ont un effet mira-cle. Quand bien même elles réussissent à renforcer les compétences, permettent la construction d’infrastructures, amélior-ent l’accès aux services de santé, dévelop-pent le leadership ou sauvent des vies.

Non seulement, nous n’arrivons pas souvent à remplir les exigences les plus élevées des théories du changement qui requièrent l’établissement de liens entre l’intervention et un contexte ou modèle spécifique de dévelop-pement, mais aussi nos critères d’évaluation ne nous obligent pas en pratique à examiner toutes les questions qui comptent pour le développement.

La solution: Évaluer pour le développement

Si nous mettons l’accent sur une approche plus dynamique et holistique de l’évaluation pour le développement, nous pourrions ainsi affiner nos critères. Cette approche de l’évaluation part de

l’hypothèse que nous acceptons l’in-tégralité des conséquences pratiques de la vision du développement comme un système adaptatif complexe (SAC) (Rama-lingam, 2014). Nous devons ensuite nous assurer que nous avons intégré cette vision dans nos critères d’évaluation.

Vue sous cet angle, l’évaluation pour le développement (E4D) présente au moins cinq caractéristiques distinctives6:

1. Le développement en tant que système adaptatif complexe

L’E4D voit le développement à travers le prisme de systèmes «socio-écologiques» adaptatifs complexes.

L’E4D reconnaît que le développement et les interventions de développement sont des systèmes socio-écologiques adaptatifs complexes7 (Ramalingam, 2014; Orstrom, 2009). Ce qui signifie que les évaluateurs doivent faire face aux conséquences de la dynamique et des propriétés telles que l’interdépendance, la non-linéarité, la coévolution, la dépendance de sentier, l’auto-organisation et l’émergence qui affectent les relations entre les interven-tions et à l’intérieur de celles-ci, ainsi que les modèles qui en résultent au sein

Page 74: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 72

eVALUation Matters / Premier trimestre 2017

de la société. Nous devons affiner nos priorités et nos critères d’évaluation, en ayant conscience qu’une approche SAC a des conséquences sur la pratique de l’éval-uation qui vont bien au-delà de la gestion et de l’apprentissage adaptatifs guidés par l’évaluation.

2. Tenir compte des préalables

L’E4D accorde plus d’importance aux préal-ables du succès au détriment des théories du changement trop simplistes et des notions rigides de «résultats».

La vague actuelle de plans reposant sur les théories du changement remplissent plusieurs objectifs importants. Cependant, ils sont souvent trop simplistes au vu de la réalité, et les hypothèses et les résultats sous-jacents sont souvent si mal concep-tualisés qu’ils perdent pratiquement tout sens. Les planificateurs et les évaluateurs du développement doivent mettre plus d’ac-cent sur l’identification et la compréhension d’éventuels préalables à toute réussite8 afin d’accroître les chances d’obtenir des résul-tats et impacts de développement durables, dans un contexte en mutation.

Dans une certaine mesure, les préalables peuvent être identifiés grâce aux connais-sances et enseignements (puisés dans la littérature et l’expérience), la compréhen-sion des prédispositions d’une société dans un contexte précis, et l’apprentissage fondé sur les données probantes9.

3. Tenir compte des trajectoires

L’E4D privilégie les trajectoires d’interven-tion et de développement par rapport aux résultats en tant qu’instantanés.

L’accent mis actuellement sur la gestion adaptative souligne la nécessité de réal-iser les évaluations en tenant compte des trajectoires (à diverses échelles temporelles et spatiales). Par exemple, le sentier suivi

par une intervention afin de contribuer aux impacts de développement désirés qui se rapportent à leur tour au sentier de développement d’une société, d’un pays ou d’une région.

Une intervention peut être paralysée ou échouer avant de produire des résultats. Elle peut soudainement atteindre un seuil ou échouer à cause d’un changement de contexte qui bloque un sentier essentiel. Ainsi, si l’évaluation est faite au mauvais moment, les conclusions ne refléteront pas la contribution potentielle de l’interven-tion au développement. D’où la nécessité impérieuse non seulement s’assurer le suivi, mais aussi de comprendre les trajectoires de progrès et de développement à travers la gestion et l’apprentissage adaptatifs.

4. Se positionner pour produire de l’impact sur le développement

L’E4D se préoccupe de savoir si l’interven-tion est bien positionnée pour avoir un impact sur le développement.

Si on les examine de près, l’on se rendra compte que les critères couramment utilisés que sont la pertinence, l’effi-cacité et l’impact ne suffisent pas pour bien comprendre la justesse d’une inter-vention, ou son positionnement afin qu’elle contribue au développement. Par conséquent, il faut en outre se pencher sur la nature voulue et réelle, ainsi que la portée de l’intervention et de ses résultats et impacts. Ce qui permet de déterminer la couverture et l’importance de l’interven-tion par rapport à un contexte de dévelop-pement précis. Une telle analyse mettra par exemple l’accent sur:

❚ La conception de l’intervention: Les résultats et impacts désirés sont-ils bien liés à un modèle de développe-ment? L’intervention cible-t-elle les causes immédiates, intermédiaires ou profondes d’un problème?

Page 75: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

7373Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation?

Facilite ou empêche-t-elle le changement?

❚ La mise en œuvre: L’intervention est-elle initiée au bon moment, compte tenu des priorités, des besoins ou des stratégies de développement de la société, du pays ou de la région? Y a-t-il quelques signes de mesures catalytiques susceptibles d’accélérer les progrès vers un impact sur le développement ou ayant la capac-ité de le faire durer? Existe-t-il des boucles de rétroaction bénéfiques ou renforce-t-elle ces boucles, ou alors des seuils sont-ils atteints?

❚ Les changements désirés ou réels: Les changements sont-ils marginaux, ont-ils un impact sur le développe-ment ou sont-ils transformateurs? Concernent-ils de grands change-ments sociaux ou des systèmes entiers, de modestes changements marginaux de direction vers un résultat précis? Les actions menées produisent-elles ou ont-elles produit des effets d’entraîne-ment supérieurs aux attentes? L’ampleur, la portée et la couverture des changements (désirés) (par exemple, «une amélioration de 2 %) sont-ils suffisants pour justifier

Page 76: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 74

eVALUation Matters / Premier trimestre 2017

l’intervention? La couverture de la population et de son écosystème est-elle suffisante? Les groupes vulnérables ou marginalisés ont-ils été suffisamment touchés? Les ressources sont-elles suffisantes ou adaptées pour permettre les changements désirés?

5. Gérer le risque pour un impact durable (sur le développement).

L’E4D met l’accent sur la gestion du risque de non-obtention de la totalité des résul-tats ou impacts désirés, ou du risque qu’ils pourraient ne pas être assez durables pour soutenir le développement.

L’un des points importants est de comprendre que si les impacts et les contributions au développement doivent être durables, nous devons davantage nuancer la façon dont nous évaluons la «durabilité». En général, elle est considérée comme un critère d’évaluation du dével-oppement, alors qu’elle est toujours abordée de manière très superficielle. Il est injuste de considérer une interven-tion comme une «réussite» si les résultats et impacts positifs émergents ou obtenus ne soutiennent pas, ou ne permettent pas aux autres changements de développe-ment désirés de se réaliser.

Il faut mettre davantage l’accent sur la gestion des risques afin de garantir les meilleures chances de succès en se fondant sur la double stratégie consistant à i) renforcer les résultats positifs de développement (potentiels ou émergents), et ii) tenir compte des facteurs susceptibles d’empêcher l’obtention de ces résultats ou leur durabilité.

En conséquence, les priorités ci-après devi-ennent importantes pour l’évaluation:

1. Renforcement par la complémentarité: Dans les pays à faibles revenus dont

les indicateurs de développement sont mauvais, les efforts de développement doivent être déployés de manière systématique, cohérente et en syner-gie. Autrement dit, les activités de chaque intervention (et des diverses interventions) doivent être mises en œuvre suivant un certain ordre, successivement ou simultanément, en s’appuyant les unes sur les autres ou en se renforçant les unes les autres afin de produire le plus d’impact. Pour refléter une trajectoire positive de développement dans une société, les activités doivent s’étaler sur des décen-nies, dans les écosystèmes et entre eux, intégrant les aspects économiques, socioculturels et environnementaux. Par conséquent, les évaluateurs doivent s’assurer qu’une attention suffisante est accordée à la dynamique résultant de l’interdépendance des interventions, actions, objectifs, etc. (Nilsson et al, 2016). C’est-à-dire établir dans quelle mesure une intervention ou un ensemble d’interventions a tiré parti du pouvoir de l’effet synergique grâce auquel l’ensemble est plus effi-cace que la somme des parties.

2. Neutralisation des effets secondaires négatifs. Nous ne pouvons pas estimer qu’une intervention de développement est «réussie» ou a produit de «l’impact» si nous n’examinons pas les conséquences, effets ou impacts négatifs imprévus qui ont pu considérablement réduire voire annuler ses résultats et impacts posi-tifs (ou qui sont susceptibles d’avoir de telles conséquences à l’avenir). | Nous devons établir si les concepteurs et les réalisateurs de l’intervention ont fait assez d’efforts pour neutraliser ces effets négatifs. Il faut aussi rechercher de façon méthodique les effets secon-daires, positifs et négatifs, ainsi que les influences qui empêchent, gênent

Page 77: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 75

eVALUation Matters / Premier trimestre 2017

peut également affecter la culture sociétale. Elle a de sérieuses implica-tions sur le développement, mais elle est rarement prise en compte dans les travaux d’évaluation. Si nous voulons assurer la durabilité des impacts sur le développement, cet aspect doit être mis au centre des préoccupations de la communauté de l’évaluation.

Vers l’élaboration d’un cadre de l’E4D

Il existe des similitudes frappantes entre l’intérêt croissant porté à une approche plus holistique du développement fondée sur des systèmes complexes, et l’intérêt crois-sant accordé au potentiel de la médecine intégrative pour le traitement des maladies chroniques10 . Cette tendance a suscité un regain d’intérêt pour la médecine tradi-tionnelle orientale dont l’approche holis-tique est basée sur des systèmes venant d’Asie qui, à leur tour, se fondent sur une vision intégrée d’un système traditionnel de gouvernance. Il est de plus en plus évident que les mélanges complexes de plantes et d’autres traitements utilisés par cette médecine sont plus efficaces et mieux adaptés à la gestion des questions sani-taires et la prévention ou la prise en charge des maladies chroniques (Kim et al, 2015).

Les caractéristiques de l’approche holis-tique de «l’évaluation pour le développe-ment» correspondent assez parfaitement à celles de la médecine traditionnelle orientale. Des efforts ont été faits pour mettre en lumière les similitudes entre les diagrammes des figures 2A et 2B11 . Certes, les concepts ou les cadres d’une discipline ou pratique doivent être appliqués avec précaution à une autre disci-pline ou pratique, mais, il y a des raisons de ne pas rejeter purement et simplement les synergies évidentes entre les deux disci-plines, à savoir l’intervention sur l’état de santé d’une personne et l’intervention

ou facilitent et favorisent la réussite, et utiliser ces informations dans l’évaluation.

3. Produire de l’impact et le pérenniser: le faire durer”. La mise en œuvre doit produire des résultats et impacts de développement, et de manière à permet-tre au changement positif de durer, ou favoriser d’autres impacts positifs. C’est pourquoi les priorités de l’évaluation sont axées sur l’efficacité et l’efficience – qui sont deux critères d’évaluation bien connus du CAD de l’OCDE. Ce qui justifie par ailleurs le recours croissant à la gestion et à l’apprentissage adaptatifs. Nous devons par conséquent évaluer le niveau d’application adéquate de la gestion et de l’apprentissage adaptatifs dans une intervention afin d’assurer qu’elle est adaptée, le cas échéant, mais toujours dans un système comptable de résultats réalistes et adéquats. En outre, si nous voulons garantir la «pérennité» des changements positifs, nous devons aussi prêter attention à ce que nous désignons, en l’absence d’un terme plus approprié, la légitim-ité d’une intervention. Elle est fonc-tion des valeurs et perspectives d’une société et des parties prenantes, par exemple, il faut s’assurer que les points de vue des parties prenantes, des associations, ou encore des aspects de la culture, sont suffisamment pris en compte dans la conception et la mise en œuvre de l’intervention. | L’un des aspects essentiels à prendre en compte dans l’E4D c’est la coévo-lution de la culture sociétale et du contexte (figure 1). Elle détermine les modèles mentaux ainsi que ses sché-mas de réflexion et de comportement d’une société, à savoir son psychisme, sa disponibilité et sa réaction à l’égard d’une intervention spécifique (Ofir, 2016). À son tour, une intervention

Page 78: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 76

eVALUation Matters / Premier trimestre 2017

sur le niveau de développement d’un groupe social. La médecine orientale considère le corps humain comme une version miniaturisée de l’univers, suivant à une vision fractale de la vie. Ce qui cadre parfaitement avec les principes de la biol-ogie systémique qui joue désormais un rôle central dans l’étude de la biologie et de la médecine. L’évolution récente de la médecine corps-esprit et de l’épigénétique ont aussi montré que notre constitution génétique et les réactions biochimiques sont considérablement influencées par les interactions complexes qui se produis-ent dans notre corps et notre esprit, ainsi qu’avec notre comportement et notre envi-ronnement social et physique.

D’autres travaux sont en cours pour clarifier les synergies et les différences entre les deux systèmes, et comprendre les implications sur le développement et son application.

Revisiter nos critères d'évaluation

Malgré le dynamisme actuel de notre profession, l’évaluation doit évoluer rapidement pour devenir une force plus puissante au soutien du développement durable. Nous devons innover, surtout ceux qui travaillent dans le monde en dével-oppement et font face quotidiennement à de grands défis de développement.

Figure 1: Éléments de la coévolution de la culture sociétale et du contexte déterminant la psychologie et les schémas de comportement d’une société.

Source: Ofir, 2016.

Culture Sociétale Contexte Histoire & Temps

Expression dans les symboless

Rituels "Héros" Mèmes & dèmes

Constellations de puis-sances mondiales Dynamiques relationnelles globales Changement des écosys-tèmes mondiaux

Environnement physique Confort économique Climat politique Conditions sociales

Normes Relations interpersonnelles Lois Institutions

Valeurs partagées

Hypothèses et croy-ances sous-jacentes

La connaissance des citoyens, Manière de

percevoir

Page 79: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 77

eVALUation Matters / Premier trimestre 2017

Figure 2A: Composantes d'un nouveau cadre d'évaluation pour le développement (e4D) pour les interventions

Figure 2B: Caractéristiques de l’approche holistique des interventions de la médecine traditionnelle orientale

Neutralisant Assistant/officiel

Zuo

Acheminement, Conservation Ambassadeur

Shi

Complémentaire Ministre Chen

COMPOSIT

ION

ÉVOLUTION

DE LA SANTÉ

ENVELOPPEUTILISATION

Principal Roi/Président

Jin

Transmission de la plantes principale

Efficacité principale du médicament

Constituants d'acheminement et de conservation pour faciliter

l'acheminement des plantes au lieu ciblé, et pour les conserver longtemps

dans les cellules.

Composants neutralisants pour réduire les effets

secondaires

composants complémentaires

pour renforcer l'éf-ficacité de la plante

principale

Composants complémen-

taires

Livraison, maintien

Composants complémen-

taires

CONDITIO

NS

PRÉALABLE

STRAJECTOIRES

CONTEXTECULTURE

DISPOSITION

Intervention majeure

Impact sur le développementPertinenceCouverture

EquitéEfficacité

ImportancePOSITIONNEMENT POUR

L'IMPACT (DÉVELOPPEMENT)

GESTION DES RISQUESDÉVELOPPEMENT DURABLE

S'y tenir:EfficacitéLégitimitéDurabilité

Réactivité (à la culture et au contexte)

Réduire les effets secondaires

Neutralisation (conséquences et influences négatives)

Renforcement de l'impactCohérenceSynergie

(Effet synergique)

Page 80: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 78

eVALUation Matters / Premier trimestre 2017

Notes de bas de page

1 Les politiques, stratégies, portefeuilles, thèmes, programmes, projets, événements, processus, etc. les actions systématiquement planifiées et exécutées qui engendrent des perturbations à l’intérieur et en dehors des systèmes.

2 Définie dans le Glossaire du CAD de l’OCDE comme étant «[l]’appréciation systématique et objective d'un projet, d'un programme ou d'une politique, en cours ou terminé, de sa conception, de sa mise en œuvre et de ses résultats».

3 Il paraît de plus en plus probable que la Quatrième révo-lution industrielle va modifier, la nature du travail, des entreprises et du leadership et changer profondément les aspects sociaux, techniques et éthiques du développement. Le cloud computing, les réseaux intelligents, les services d’Internet mobile et les réseaux sociaux s’intègrent à l’in-telligence artificielle, à la robotique de pointe, et à la fusion des technologies pour brouiller les frontières entre les mondes physique, numérique et biologique. Les asymétries de pouvoir

4 Une conception plus holistique, moins égoïste des besoins et des intérêts des sociétés, et qui considère l’humanité comme un ensemble.

5 Il est toujours important d’établir une distinction (certes superficielle) entre le Nord et le Sud. Les différences entre les indicateurs de développement de ces deux parties du monde sont trop saisissantes pour être ignorées.

6 Il s’agit d’une liste préliminaire destinée à stimuler une réflexion approfondie. Elle sera bientôt suivie d’une publi-cation plus détaillée.

7 Système cohérent et facteurs biophysiques et sociaux qui interagissent régulièrement, de manière durable; défini à plusieurs échelons spatiaux, temporels et organisation-nels; un ensemble de ressources essentielles (naturelles, socioéconomiques, et culturelles) dont le flux et l’utilisation sont régis par une combinaison de systèmes écologiques et sociaux; un système perpétuellement dynamique, complexe qui s’adapte sans cesse.

8 Un préalable est une condition nécessaire et non suffisante pour que le changement se produise. Ils englobent les conditions initiales et celles qui émergent à mesure que l’intervention est mise en œuvre. Il peut s’agir, sans s’y limiter, de ce qui est couramment appelé l’«environnement propice».

9 Une raison supplémentaire d’adopter la gestion et l’ap-prentissage adaptatifs dans les activités de développement et d’évaluation.

10 La médecine intégrative combine l’approche réduction-niste de la médecine conventionnelle et les approches holistiques de la médecine alternative à la gestion des problèmes sanitaires.

11 La longueur de cet article ne permet pas d’expliquer de manière exhaustive; l’auteur peut, sur demande, vous fournir des explications plus poussées.

12 Les ajustements potentiels aux critères d'évaluation sont brièvement abordés ici et seront détaillés dans un prochain document.

13 Conformément à l'initiative «Faire un développement différent».

Les critères d’évaluation, notam-ment ceux du CAD, doivent refléter les valeurs que nous prônons sur ce qui soit être privilégié si nous voulons que l’évaluation contribue au développement. La conceptualisation et l’application des critères peuvent avoir une forte influence sur notre travail, et sur le développement. Par conséquent, il est important et urgent d’examiner d’un œil critique et de réviser ces critères afin d’innover et de nuancer à la fois ce que nous évaluons et la manière dont nous évaluons.

Dans cet article, nous avons proposé une approche à cette fin, en mettant en lumière les implications de l’E4D dans notre quête

d’un ensemble affiné de critères d’évalu-ation12 . Les aspects à prendre en compte sont résumés à la figure 2A. La mise en œuvre de certaines des mesures à prendre ne sera probablement pas aisée. Mais, si nous voulons évaluer différemment13 , il faut que les plus puissants acteurs de la profession, à savoir les bailleurs de fonds et les commanditaires des évaluations dans le Sud et dans le Nord, réfléchissent à la meilleure stratégie pour permettre à notre profession de contribuer véritablement au développement. Par ailleurs, il faut que nos critères, théories, pratiques et normes d’évaluation traduisent entièrement cette volonté.

Page 81: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

Évaluation pour le développement: Faut-il revisiter nos critères d’évaluation? 79

eVALUation Matters / Premier trimestre 2017

Chang, Ha-Joon (2009). Hamlet without the Prince of Denmark: How development has disappeared from today’s «development» discourse. Available at: http://hajoonchang.net/wp-content/uploads/2012/01/HamletwithoutthePrinceofDenmark-revised.pdf [Accessed 15 Dec. 2016].

Curry-Alder, B., Kanbur R., Malone D.M., Medhora R. (eds.). (2014). International Development. Ideas, Experience & Pros-pects. Oxford University Press, 943.

Heider, C. (2017). Rethinking Evaluation – Have we had enough of R/E/E/I/S? Blog post, January 10. Available at: https://ieg.worldbankgroup.org/blog/rethinking-evaluation#com-ment-form. [Accessed 15 Feb. 2017].

Kim, H.U., Ryu J.Y., Lee J.O. and Lee S.Y. (2015). A systems approach to traditional oriental medicine. Nature Biotechnol-ogy, 33, pp. 264–268.

Nilsson, M., Dave Griggs, D., Visbeck, M. and Ringler, C. (2016). A draft framework for understanding SDG interactions.

International Council for Science. Available at: http://www.icsu.org/publications/reports-and-reviews/working-paper-frame-work-for-understanding-sdg-interactions-2016/SDG-interac-tions-working-paper.pdf. [Accessed 12 Sept. 2016]

Ostrom, E. (2009). A General Framework for Analyzing Sustain-ability of Social-Ecological Systems. Science, 325, pp. 419–322.

Picciotto, R. (2013). The logic of development effectiveness. Is it time for the evaluation community to take notice? Evaluation, 19(2), pp. 155–170.

Picciotto, R. (2015). The Fifth Wave. Social impact evalu-ation. Published by The Rockefeller Foundation. Avail-able at: https://assets.rockefellerfoundation.org/app/uploads/20160628150404/The-5th-Wave-Social-Impact-Evalu-ation.pdf [Accessed 10 Oct 2016].

Ramalingam, P. (2013). Aid on the Edge of Chaos. Oxford Univer-sity Press. 440.

Références

Pro

fil de

l’au

teur

Zenda Ofir est une spécialiste sud-africaine de l’évaluation. Titulaire d’un PhD en chimie, elle a été administratrice prin-cipale de programmes au Conseil national des sciences d’Afrique du Sud et Directrice de la recherche à l’université de Prétoria avant de se tourner vers l’évaluation. Depuis 2000, elle a rempli de nombreuses missions d’évaluation aux niveaux local et international, avec un accent sur l’Af-rique et l’Asie, et conseillé des organisations comme le GAVI, le PNUD, CLEAR-AA, le FIDA, l’AGRA et la Fondation Rockefeller. Elle a été présidente de l’AfrEA, Vice-présidente de l’IOCE, et membre du Conseil d’administration de l’AEA. Elle est par ailleurs membre des conseils éditoriaux pour l’évaluation et la planification des programmes de l’African Evaluation Journal. Elle est aussi ensei-gnante invitée à l’université d’Hiroshima, et a enseigné à l’univer-sité des Nations Unies à Tokyo, et a été faite Professeur honoraire à l’université de Stellenbosch, en Afrique du Sud, une distinction venue récompenser sa réussite professionnelle en dehors du monde académique.

Page 82: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L'ac

tual

ité e

n im

ages

Burundi:Évaluation de la stratégie et du

programme de la Banque 2004–2015

Rapport de synthèse

Septembre 2016

Une

éval

uatio

n de

str

atég

ie p

ays

IDEV

De l’expérience á la connaissance…De la connaissance á l’action…De l’action á l’impact

Une évaluation de stratégie pays IDEVBurundi: Évaluation de la stratégie et du program

me de la Banque 2004–2015

Rapport de synthèseÉvaluation indépendante du développem

ent

1 Nouvelles évaluationsL’évaluation de la stratégie et du programme pays au Burundi menée par IDEV evalué l'impact des 739 millions de dollars US relatifs à l’appui de la BAD au développement du Burundi durant la période 2004–2015. Les évaluateurs ont travaillé dans un contexte difficile marqué par cinq années de troubles politiques et économiques.

Rakesh Nangia, Évaluateur général: «Le contexte de fragilité au Burundi présentait de nombreux défis pour l'équipe d’évaluation. IDEV s'est engagée à réaliser des rapports fiables et complets sur les progrès en matière de développement et a pour mandat d’utiliser tout processus d’innovation nécessaire à l’atteinte de ses objectifs».

L'évaluation globale des résultats de développement (EGRD) de la Banque africaine de développement est le tout premier rapport de cette envergure, qui mesure la pertinence, l'efficacité, la durabilité et l'efficacité des opérations de la BAD sur tout le continent africain au cours de la dernière décennie. Il a été publié en novembre 2016 et présenté lors de la réunion de reconstitution du FAD-14 au Luxembourg.

Rakesh Nangia, Évaluateur général: «L'évaluation des données pour produire l’EGRD dépasse celle de tout autre rapport précédent. Un processus d’assurance qualité rigoureux a été établi pour assurer l’obtention de conclusions solides et la consistance des évaluations à travers les pays et projets».

Page 83: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L'actualité en images 81

eVALUation Matters / Premier trimestre 2017

Autres nouvelles évaluations

Afrique du Sud: Évaluation de la stratégie et du

programme pays

2004–2015Rapport de synthèse

Version éditée

Janvier 2017

Une

éval

uatio

n de

str

atég

ie p

ays

IDEV

Une évaluation de stratégie pays IDEV

Afrique du Sud: Évaluation de la stratégie et du programm

e pays 2004–2015 Rapport de synthèse – Version éditéeÉvaluation indépendante du développem

ent

Qu'avons-nous obtenus pour un investissement de 5 milliards de dollars? Et la Banque s'atèle t-elle à maximiser ses performances? L'évaluation de la stratégie et du programme pays de la BAD en Afrique du Sud vise à le découvrir. Le rapport couvre plus d'une décennie d'actions de la Banque (2004–2015), principalement dans les secteurs de la finance et de l'énergie.

Rakesh Nangia, Évaluateur général: «Dans l'ensemble de ses travaux dans les secteurs de la finance et des infrastructures, les parties prenantes en Afrique du Sud ont considéré la BAD en tant que bailleur de fonds plutôt qu'en tant que source de connaissances ou de soutien pour le renforcement de leurs capacités. La BAD doit réfléchir attentivement à ses atouts et solutions novatrices en matière d'instruments de financement pour l'avenir».

Ci-dessous: Visite conjointe de suivi à Medupi Coal Power Plant, Afrique du Sud en 2015.

Une évaluation de stratégie pays IDEV

Évaluation indépendante du développement

Zambie : Évaluation de la stratégie et du program

me de la Banque 2004–2013 – Rapport de synthèse

Zambie : Évaluation de la stratégie

et du programme de la Banque

2002–2015Rapport de synthèse

Octobre 2016

Une

éval

uatio

n de

str

atég

ie p

ays

IDEV

Une évaluation de stratégie pays IDEV

idev.afdb.org

Groupe de la Banque africaine de développementAvenue Joseph Anoma 01 BP 1387, Abidjan 01, Côte d’IvoireTél. : +225 20 26 20 41Courriel : [email protected] C

once

ptio

n &

mis

e en

pag

es :

CR

ÉON

• w

ww

.cre

onde

sign

.net

À propos de cette évaluation

Cette Évaluation présente les résultats de l’aide de la Banque africaine de développement à la Zambie lors de la période 2002–2015 ainsi que sa contribution au développement du pays dans des secteurs clés tels que l’agriculture, la gouvernance, le développement des infrastructures, l’aide au secteur privé, l’accès aux services d’eau et d’assainissement, la promotion du bien-être de l’enfant, etc. Elle a été conduite pour guider la préparation de la stratégie pays pour la Zambie qui doit couvrir la période de 2016 à 2020, ainsi que pour contribuer à l’Évaluation globale des résultats de développement de la Banque menée par IDEV. L’évaluation révèle, entre autres, que les stratégies et programmes pays de la Banque sont bien alignés aussi bien sur les plans nationaux de développement que sur l’avantage comparatif de la Banque, et que le portefeuille de la Banque est devenu plus cohérent, adoptant ainsi une approche intégrée pour faire face aux défis dans le domaine du développement. Par ailleurs, il en ressorti que les risques sur le plan politique et en matière de gouvernance deviennent un facteur de plus en plus important pour la durabilité des projets. Toutefois, l’évaluation souligne la nécessité de prendre des mesures concrètes pour la mise à échelle des initiatives du secteur privé et la prise en compte de la dimension genre dans les projets de développement.

Zambia - Country Evaluation (Fr) - Cover.indd 1 24/03/2017 09:49

Évaluation d’impact du Programme

d’approvisionnement en eau et d’assainissement en milieu

rural en Éthiopie 2006–2014

Rapport de synthèse

Septembre 2016

De l’expérience à la connaissance…De la connaissance à l’action…De l’action à l’impact

Une

éval

uatio

n d’

impa

ct ID

EV

Page 84: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

82

eVALUation Matters / Premier trimestre 2017

L'actualité en images

2 Nouvelles initiatives de renforcement des capacitésLe programme de partenariat Twende Mbele M&E a été officiellement lancé lors de la Conférence de l'Association Africaine d'Evaluation à Kampala, en Ouganda, le 28 mars 2017. Twende Mbele, un terme swahili signifiant «aller de l'avant ensemble» entend agir pour l'apprentissage par les pairs dans les pays africains, afin de construire des systèmes de S&E, de renforcer la performance et de responsabiliser les gouvernements. IDEV est l'un des partenaires de ce programme.

http://idev.afdb.org/fr/event/

lancement-de-twende-mbele-

à-la-conference-afrea-2017

Le Comité exécutif du Réseau des parlementaires africains pour l'évaluation du développement (APNODE) s'est réuni à Abidjan les 11 et 12 novembre 2016 afin de discuter du suivi de la 2ème assemblée générale annuelle du Réseau et de son plan stratégique.

Les membres de la Plateforme d'Evaluation pour les Institutions Africaines Régionales de Développement (EPRADI) se sont également réunis à cette date et ont réaffirmé leur engagement à harmoniser les méthodes et les pratiques d'évaluation.

À gauche: Les membres du Réseau des parlementaires africains pour l'évaluation du développement (APNODE) signent la Déclaration en soutien à l'EvalAgenda 2020.

De gauche à droite (bas): Mme Karen Rot-Münstermann, Sén.

Roger Mbassa Ndine (Président de l'APNODE), Hon. Dr Susan

Musyoka. De gauche à droite (haut): Hon. Jean Assou Apezouke,

Hon. Evelyn Mpagi-Kaabule, Hon. Imbassou Ouattara Abbas et Sén.

André Richard Moussounda Mikala.

Ci-dessus: Karen Rot-Münstermann, Chef de division IDEV 3,

a assisté à la cérémonie et se tient à la gauche du Président de

Twende Mbele, Dr Ian Goldman, qui serre la main du Premier

ministre ougandais, Dr Ruhakana Rugunda.

Page 85: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

L'actualité en images 83

eVALUation Matters / Premier trimestre 2017

Temps forts de la participation d'IDEV à conférence de l'AfrEA à Kampala

IDEV a organisé trois sessions de partage des connaissances et de développement des capacités en évaluation lors de la Conférence internationale de l'Association africaine d'évaluation (AfrEA) qui

3 Partage de connaissances

Ci-dessus: M. Samer

Hachem intervenant lors

de la conférence

AFREA 2017.

IDEV et l'Agence norvégienne pour le développement international (Norad), ont organisé un séminaire qui avait pour thème «L’aide au secteur privé: preuves actuelles sur la question de l’additionalité», le lundi 24 octobre 2016 à Oslo.

Le séminaire, portant sur les résultats du rapport: «Vers une croissance du secteur privé: leçons tirées de l’expérience», a rassemblé plus de 80 participants dont des décideurs politiques norvégiens, le secteur privé, le monde universitaire, la société civile et les médias en plus de représentations diplomatiques africaines présentes à Oslo.

Jeudi 30 mars Les principaux résultats de l'Évaluation globale des résultats de développement (EGRD) du groupe de la BAD ont été présentés par le Chef de division Samer Hachem.

Vendredi 31 mars IDEV a présenté sa méthodologie pour effectuer des évaluations de très grande envergure, en partant du principe que les évaluations des ODD seront de portée et de complexité similaires.

IDEV, en tant qu'hôte secrétariat du Réseau des parlementaires africains pour l'évaluation du développement (apnoDE) a mené la discussion sur la manière dont les parlementaires peuvent être

Ci-dessus: Rafika Amira, Chef de division IDEV 1 et l'Évaluateur

général Rakesh Nangia font partie des panélistes à Oslo.

Page 86: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

84

Quatrième trimestre 2016: spécial Semaine de l'évaluation La transformation nécessite non seulement des investissements et des politiques, mais

aussi un changement de mentalité. Dans cette perspective, nous, à IDEV, avons organisé la

Semaine de l'évaluation du développement de la BAD 2016 sur le thème " Accélérer la trans-

formation de l'Afrique". Cette édition d'Evaluation Matters résume l'évènement à travers les

images, les débats et les interventions des experts.

Deuxième trimestre 2016: Évaluation de l’aide au développement du secteur privéCe numéro d'eVALUation Matters examine les défis et les opportunités ainsi que les

nouvelles tendances du développement du secteur privé.

Troisième trimestre 2016: L'optimisation des ressources dans le développementLe concept d’optimisation des ressources dans le travail du développement fait l’objet de

beaucoup de débats et de confusion. Dans l’analyse de l’optimisation des ressources par les

agences de développement, quatre termes clés connus sous le nom des 4 E sont souvent

utilisés. Ces termes sont économie – en réduisant les coûts; efficience – en obtenant plus

de résultats en fonction des coûts; efficacité – en réussissant à atteindre les résultats visés,

et équité- en atteignant différents groupes. Comment ces termes sont-ils interprétés et

appliqués par les praticiens du développement?

Premier trimestre 2016: La BAD tient-elle ses engagements?Les engagements de la BAD, dont le contenu varie considérablement, touchent concomi-

tamment à toutes les facettes de l’action de la Banque. Trois évaluations indépendantes

ont été réalisées pour déterminer si la BAD tenait ses engagements au titre de la 6e AGC et

des 12e et 13e reconstitutions du FAD. Ces évaluations ont orienté la réunion d’examen de

mi-parcours du FAD-13 qui s’est tenue à Abidjan du 11 au 13 novembre 2015.Ce numéro

d'eVALUation Matters fait un gros plan sur les principales conclusions, les leçons et recom-

mandations de ces évaluations.

Semaine de l’évaluation 2016

Quatrième trimestre 2016

eVALUation MattersPublication trimestrielle de connaissances sur l’évaluation du développement

Evaluation Matters: Sem

aine de l’évaluation 2016

Évaluation de l’aide au développement du

secteur privé:Tendances, défis et opportunités

Deuxième trimestre 2016

eVALUation MattersPublication trimestrielle de connaissances sur l’évaluation du développement

L’optimisation deressources dans le travail

de développement

Troisième trimestre 2016

eVALUation MattersPublication trimestrielle de connaissances sur l’évaluation du développement

Evaluation Matters: L’optim

isation de ressources dans le travail de développement

Premier trimestre 2016

eVALUation MattersPublication trimestrielle de connaissances sur l’évaluation du développement

ANNÉE DE L’EVALUATION

2015

La BAD tient-elle ses engagements?

L’évaluation indépendante a apporté quelques réponses.

Evaluation Matters: La BAD tient-elle ses engagem

ents?

http://idev.afdb.org/fr/document/evaluation-matters-quatrième-trimestre-2016-semaine-de-lévaluation

http://idev.afdb.org/fr/document/evaluation-de-l%E2%80%99aide-au-developpement-du-secteur-prive

http://idev.afdb.org/fr/document/evaluation-matters-troisieme-trimestre-2016-loptimisation-des-ressources-dans-le

http://idev.afdb.org/fr/document/evaluation-matters-1er-trimestre-2016-la-bad-tient-elle-ses-engagements

Numéros précédents

Page 87: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir
Page 88: eVALUation Matters - idev.afdb.orgidev.afdb.org/sites/default/files/documents/files/EMQ1_2017 FR WEB.pdf · Pour mieux tirer parti de l’évaluation indépendante afin de soutenir

idev.afdb.org

eVALU

ation M

atters: Les défis en m

atière d'évaluatio

n du d

évelop

pem

ent: com

ment y faire face?

eVAL

UP

remier trim

estre 2017

Banque africaine de développement

Avenue Joseph Anoma, 01 BP 1387, Abidjan 01, Côte d’Ivoire

Tél: +225 20 26 20 41

Courriel: [email protected]