Des politiques basées sur des
preuves
Florent Bédécarrats – CERISE
BistrO GRET
21 juin 2012
L’APD a été guidée par des modes
changeantes
Big push (1950’s)
Investissements de substitution aux importation (1960’s)
Développement rural intégré (1970’s)
Ajustement structurel (1980’s-1990’s)
OMD (2000’s)
Les evidence based policies émergent aujourd’hui comme un nouveau paradigme dominant
Pourquoi ce nouveau revirement ?
Convergence entre le « nouveau management public » et souci d’efficacité de l’aide
Remise en cause de la partialité des travaux scientifiques sur le développement (cf. evaluation du département recherche de la BM en 2006)
Remise en cause de tout autre type de recherche :
Cf. Rapport CGDEV (2006) When will we ever learn ?
Duflo : « cela fait un demi-siècle qu’on dépense de l’argent dans les pays en développement, sans jamais vraiment se donner les moyens de vérifier si ça marche ou pas, comment et pourquoi »
Fascination des élites pour l’économétrie
Promotion par des acteurs impliqués dans la recherche (ex. JPAL)
Mise en avant des « petits discours »
Une preuve exclusivement quantitative
Fondé sur le parallèle avec « l’evidence based médecine » : privilégie l’épidémiologie au détriment de l’étiologie
Focalisation des relations causales par la statistique plutôt que par la compréhension des chaînes causales
Mise en avant des processus expérimentaux
Dénigrement des autres approches méthodologiques ou vision secondaire et instrumentale
Mise en place de processus ad-hoc et réseaux d’excellence (centres de recherche et de formation spécialisés)
Exemples de mise en oeuvre
Exemples « classiques » : Transferts sociaux (Progresa Mexique)
vermifuges
moustiquaire imprégnées
Contraception avec ou sans contrôle du mari
SKY Cambodge: « étude de l’étude » par le GRET
Autres contre-exemple en microfinance, cf. JPAL au Maroc ou avec l’ADIE en France.
Conclusion de l’AFD: « quand on a un marteau, tout ressemble à un clou »
Limites
Enjeu éthique: a-t-on le droit d’expérimenter sur des personnes ?
Enjeu opérationnel: évaluation d’un programme avatar de programme. Quelle prise en compte de la qualité ?
Enjeu pratique: recherches lourdes, longues et coûteuse
Enjeu scientifique: quelle validité interne (les résultats sont-ils fiables ?) et externe (sont-ils généralisables ?)
Enjeu heuristique: quid de la complexité ?
Enjeu d’économie politique: vers la création d’une oligopole de l’enquête et du savoir ?
Enjeux politiques: réserve aux savants une voix au chapitre dans la prise de décision
Un chantier commun pour proposer une
alternative à ces approches Equipe plurielle CERISE-DIAL-RUME, autour de principes
communs: poser des questions pertinentes eu égard aux nécessités des acteurs +
contexte d’intervention
construire une méthode ad hoc fondée sur la combinaison d’outils de collecte et analyse de données
faire en sorte que les résultats soient appropriés par les acteurs et leur permettent d’améliorer leur intervention
Trois axes méthodologiques: mettre la recherche au service de l’action,
allier le quantitatif au qualitatif
proposer des mécanismes novateurs de production et d'analyse de données
Piste d’un programme double: Recherche appliquée (terrain à préciser)
Recherche fondamentale (capitalisation sur la méthode)
Pour aller plus loin
Delarue Jocelyne, Naudet Jean-David, Sauvat Véronique, Les évaluations sont-elles utiles ? Revue de littérature sur « connaissances et décisions », Paris, Agence Française de Développement, Série Notes méthodologiques 3, oct. 2009.
Labrousse Agnès, « Nouvelle économie du développement et essais cliniques randomisés : une mise en perspective d’un outil de preuve et de gouvernement », Revue de la régulation, 7(2), juin 2010, pp. 2–32.
Laurent Catherine et al., « Pourquoi s’intéresser à la notion d’“evidence-based policy” ? », Tiers Monde, 200 (4), 2009, pp. 853–873.
Savedoff William D., Levine Ruth, Birdsall Nancy (Éds.), When Will We Ever Learn? Improving Lives Through Impact Evaluation, Washington (D.C.), Center for Global Development, mai 2006.