Approches et pratiques en évaluation de programmes

Approches et pratiques en évaluation de programmes

  • Author: Ridde, Valéry; Dagenais, Christian
  • Publisher: Presses de l'Université de Montréal
  • ISBN: 9782760627826
  • eISBN Pdf: 9782760631250
  • eISBN Epub: 9782760631045
  • Place of publication:  Montréal , Canada
  • Year of publication: 2012
  • Pages: 476

Tous les chapitres de cette nouvelle édition ont été écrits par des pédagogues, des enseignants universitaires et des formateurs rompus depuis de longues années à l’exercice du partage de connaissances en évaluation de programmes, tout en mettant l’accent sur la pratique plutôt que sur la théorie. Nous avons ajouté quatre nouveaux chapitres, car les connaissances en évaluation évoluent constamment, sur la stratégie de l’étude de cas, l’évaluation économique, les approches participatives ou encore l’approche dite réaliste. Il manquait dans la première édition des exemples relatifs à l’usage des méthodes mixtes, décrites dans la première partie. Deux nouveaux chapitres viennent donc combler cette lacune. Un défi essentiel auquel fait face tout enseignant en évaluation est lié à la maîtrise de la grande diversité des approches évaluatives et des types d’évaluation. La seconde partie de l’ouvrage présente quelques études de cas choisies pour montrer clairement comment les concepts qui auront été exposés sont employés dans la pratique. Ces chapitres recouvrent plusieurs domaines disciplinaires et proposent divers exemples de pratiques évaluatives.

  • Présentation
  • PREMIÈRE PARTIE
  • Concepts et approches
    • 1. Introduction générale à l’évaluation de programmes
      • Les courants de pensée: une brève histoire de l’évaluation
      • L’évaluation de programmes: une définition
      • L’évaluation n’est pas l’étape finale d’un programme
      • La finalité d’une évaluation
      • Planifier une évaluation
      • La mise en oeuvre d’une évaluation: types et approches
        • Les types d’évaluation
        • Les approches évaluatives
      • Les normes de pratique
    • 2. Recherche et évaluation de programmes
      • Les domaines d’application
      • Les rôles de la théorie, des hypothèses et de la méthodologie
      • La validité des résultats d’évaluation
      • L’importance de la pertinence
      • Le problème de la causalité
    • 3. La construction d’un jugement
      • Les limites de l’analyse causale
        • L’évaluation s’intéresse autant à la compréhension qu’à la mesure
        • L’évaluation doit viser une remise en question des idées des décideurs
        • Produire des données significatives au regard des représentations communes
        • Trop d’information tue l’information
        • Le cerveau humain ne fonctionne pas comme un ordinateur
        • L’approche cognitive des politiques publiques
      • L’évaluation comme processus organisé de production d’idées partagées
        • Le choix des critères de résultats
        • Le choix de cadres de description
        • Une discussion pluraliste pour interpréter les résultats
      • L’apport de la théorie de l’argumentation
        • Une tradition qui remonte à Aristote
      • Le schéma de Toulmin
        • Les types de données et de justifications employés en évaluation
      • Les éléments d’une «bonne pratique» de l’argumentation
        • L’évaluation comme discussion méthodique
        • «Discutabilité» versus persuasion
        • L’explicitation du questionnement comme élémentde la traçabilité des arguments
        • Les conséquences pratiques pour les démarches d’évaluation
      • Appliquer l’exigence de rigueur aux processus sociocognitifs
      • Pour aller plus loin:
        • Deux ouvrages classiques, déjà anciens, sur la théorie de l’argumentation
        • Ouvrages abordant l’évaluation du point de vue de la discussion et de l’argumentation
        • Internet
    • 4. L’analyse des politiques publiques
      • La justification de l’évaluation: émergence et identification du problème
      • La commande de l’évaluation: mise à l’agenda
      • La définition du mandat évaluatif: formulation et adoption de la politique
      • La réalisation de l’évaluation: mise en oeuvre
      • Du savoir produit à l’utilisation des conclusions:terminaison de la politique
      • Pour aller plus loin
        • Internet
    • 5. La construction du modèle logique d’un programme
      • Quoi?
      • Qui?
      • Pourquoi?
      • Éléments facultatifs
      • Utilité, avantages et défis des modèles logiques
      • Les éléments d’un modèle logique
        • Composantes, activités et groupes cibles
        • Les résultats
        • Les éléments facultatifs d’un modèle logique
        • Influence et responsabilité
      • L’élaboration d’un modèle logique
        • Qui devrait participer?
        • Par où commencer?
        • Le format et le sens du déroulement
      • L’évaluation des modèles logiques
      • Pour aller plus loin
      • Internet
    • 6. Attribution et causalité des effets
      • La différence entre l’évaluation et l’évaluation causale
      • Les devis de collecte de données en évaluation causale
      • Le devis expérimental versus le devis non expérimental
      • Devis expérimental ou devis quasi expérimental?
      • L’inférence causale et les concepts de validité interne et externe
      • L’évaluation de la validité des divers devis de collecte de données
      • Un cas particulier: le devis B (stratégie par référence interne)
      • L’analyse des données: signification statistique et signification pratique
      • Quelques considérations sur le choix d’un modèle d’évaluation causale
      • Pour aller plus loin
    • 7. Les méthodes mixtes
      • Les méthodes mixtes et les débats entre méthodes quantitatives et qualitatives
      • Les méthodes mixtes: approches, devis et techniques de collecte et d’analyse de données
        • Les approches
      • Les devis
      • Les techniques
      • La planification et la qualité des méthodes mixtes en évaluation de programmes
      • Une recension mixte des écrits pour les évaluations de programme
      • Conclusion
      • Pour aller plus loin
        • Internet
    • 8. L’évaluation axée sur l’utilisation
      • Le facteur personnel
      • Les étapes d’une évaluation axée sur l’utilisation
      • L’utilité du processus d’évaluation
      • Les principes de l’évaluation axée sur l’utilisation
      • Les enjeux de l’évaluation axée sur l’utilisation
        • La participation des utilisateurs et la qualité de l’évaluation
        • Le changement fréquent des utilisateurs
        • Un rôle qui varie en fonction du but de l’évaluation
        • L’utilisation abusive des évaluations
        • Les enjeux éthiques
      • Conclusion
      • Pour aller plus loin
        • Internet
    • 9. Une stratégie pour composer avec les contraintes inhérentes à la pratique
      • L’approche de l’évaluation en situation réelle
      • L’ESR et les quatre types de contraintes
        • Les contraintes budgétaires
        • Les contraintes temporelles
        • Les contraintes en termes de disponibilité des données
        • Les influences politiques
      • Conclusion
      • Pour aller plus loin
    • 10. Théorie et pratiques des études de cas en évaluation de programmes
      • L’étude de cas en tant que méthode de recherche
      • L’étude de cas en tant que méthode complémentaire
      • L’étude de cas en tant que stratégie méthodologique principale
        • L’évaluation des processus
        • L’évaluation des résultats
        • L’évaluation des processus et des résultats
      • Évaluation des activités de prévention de la toxicomanie d’une coalition communautaire
      • Contexte général des deux exemples d’études de cas en Afrique
      • Étude de cas multiples contrastés sur les processus d’une intervention au Niger
      • Études de cas multiples avec plusieurs niveaux d’analyse imbriqués concernant la mise en oeuvre et les résultats d’interventions dans six pays de l’Afrique de l’Ouest
      • Conclusion
      • Références
    • 11. Une introduction à l’évaluation économique des programmes
      • L’économie de la santé
      • Les différents types d’évaluation économique
        • L’analyse de minimisation des coûts
        • L’analyse coût-efficacité
        • L’analyse coût-bénéfice
        • L’analyse coût-utilité
      • Les étapes d’une analyse coût-efficacité
      • Quelques questions méthodologiques sur l’analyse coût-efficacité
      • Conclusion
      • Ouvrages clés en évaluation économique
      • Références
    • 12. Le renforcement des capacités en évaluation
      • La notion des capacités en évaluation
        • Une notion plus large que le développement d’habiletés
        • Une notion qui concerne différentes instances
        • Une notion qui comporte différents objectifs
        • Une notion qui s’actualise aux différentes étapes du processus évaluatif
      • Un cadre conceptuel pour le renforcement des capacités en évaluation
        • Quelques principes directeurs émanant de projetsvisant le renforcement des capacités des communautés
        • Le capital humain
        • Le capital institutionnel
        • Le capital social
        • Le capital économique
      • Quelques moyens utiles pour le renforcement des capacités en évaluation
        • La formation
          • Les programmes universitaires
          • Les formations abrégées
          • Les programmes personnalisés avec pratique supervisée
          • L’apprentissage en ligne adapté au rythme de l’étudiant
        • Les documents de référence
        • Les normes et standards de pratique
        • Le soutien par les pairs et la pratique supervisée
        • Les structures et processus
        • Les réseaux professionnels de l’évaluation
        • Les prix de reconnaissance en évaluation
        • Le leadership assumé par une instance gouvernementale
      • Conclusion
      • Pour aller plus loin
        • Internet
    • 13. Conceptualiser et mesurer la participation à l’évaluation
      • Un concept imparfait
      • Refonder le concept d’évaluation participative sur des bases solides
        • Un cadre d’analyse porteur
        • Renforcer la conceptualisation de l’évaluation participative
      • De la conceptualisation à la mesure
        • Étendue de l’implication
        • Diversité des participants
        • Contrôle du processus évaluatif
      • Combiner les dimensions pour mesurer le niveau de participation d’une évaluation
      • Un cas d’application : l’évaluation du collège des soins infirmiers de l’Université du Colorado à Denver
      • Conclusion: un instrument encore plus en phase avec les intuitions des évaluateurs
      • Références
    • 14. Théorie et pratique de l’approche Realist pour l’évaluation des programmes
      • L’appréhension de la complexité par l’approche Realist
      • Les utilisations de l’approche Realist rapportées dans les écrits scientifiques
        • L’opérationnalisation de la démarche
        • Distinguer ce qui appartient au contexte, à l’intervention et au mécanisme
        • Des défis inhérents à la synthèse des connaissances
      • Nos expériences internationales de l’utilisation de l’approche Realist
        • Les interventions de promotion de la santé et les inégalités sociales de santé
        • La modélisation des configurations organisationnellesen Afrique associée à l’évaluation Realist
        • Évaluer des interventions a posteriori: du caractère applicable de l’évaluation Realist
      • Conclusion
      • Références
  • DEUXIÈME PARTIE
  • Pratiques évaluatives
    • 15. Une évaluation participative avec renforcementdu pouvoir d’agir
      • Le contexte
        • Le contexte socioéconomique
        • Le travail de rue au Québec
        • Les stratégies d’évaluation du travail de rue
      • La description du projet
      • Le processus d’évaluation
        • L’approche évaluative
      • Le type d’évaluation et les outils employés
        • La stratégie d’analyse
      • Les résultats
      • Discussion
      • Conclusion
    • 16. Une évaluation des besoinsen formation d’intervenants en prévention
      • Le contexte
      • Le protocole d’évaluation
        • L’objectif et les questions d’évaluation
        • La méthode
        • Les mesures
      • La description du processus d’évaluation
      • Les résultats de l’évaluation
        • Avant la formation
        • Immédiatement après la formation
        • Six mois après la formation
        • Les analyses par item
      • Discussion
      • Conclusion
    • 17. Une évaluation des processus d’un programme de protection de la jeunesse
      • Le contexte
        • Le modèle d’intervention
        • Les acteurs et enjeux de l’évaluation
      • Le plan d’évaluation
      • La description du processus d’évaluation
        • La collecte des données du volet I (quantitatif)
        • La collecte des données du volet II (qualitatif)
        • Les mesures de confidentialité
      • Les résultats
        • Les modèles d’intervention implicites des professionnels du programme IRI-Accueil
        • Les caractéristiques des interventions IRI-Accueil
        • L’évaluation des processus de référence: l’intervention des équipes RTS et US
      • Discussion
        • Les limites de l’évaluation
        • Une approche axée sur la mise à profit des résultats
    • 18. Une évaluation des processusd’un programme de référence-évacuation au Mali
      • Le contexte et le programme
        • Causes, conditions et stratégies de réduction de la mortalité maternelle
        • Description du programme
        • Le modèle logique de l’intervention
        • Description des acteurs et des enjeux de l’évaluation
      • Approches dans l’analyse d’implantation et protocole d’évaluation retenu
        • L’analyse d’implantation basée sur la théorie de l’intervention
      • Protocole retenu pour l’évaluation
      • Description du processus d’évaluation
        • Phase I. Émergence du besoin d’évaluation et de formulation de la première approche (mars à juillet 2004)
        • Phase II. Première approche d’évaluation et élaboration d’un protocole de recherche (août 2004 à avril 2006)
        • Élaboration d’un protocole de recherche
        • Phase III. Modification et évolution de l’approche initiale(mai à octobre 2006)
        • Phase IV. Mise en oeuvre effective (depuis novembre 2006)
      • Résultats de l’évaluation
      • La létalité des urgences obstétricales
      • Discussion
        • Forces et faiblesses du processus
        • Principaux enjeux lors de la mise en oeuvre de l’évaluation
        • Principaux résultats de l’évaluation
      • Conclusion
      • Pour aller plus loin: lectures complémentaires sur le Mali
      • D’autres aspects de l’évaluation dans ce programme
    • 19. Une évaluation de l’efficacité d’un programme de formation
      • Le contexte
      • La théorie sous-jacente au programme
      • Protocole
      • Description du processus d’évaluation
      • Résultats
      • Discussion
      • Pour aller plus loin:
      • Internet
    • 20. Une évaluation des effets d’un programme de réduction des conflits chez les enfants
      • Le contexte
        • Les principaux acteurs
        • Le cadre logique du programme
      • Le protocole d’évaluation
        • Les objectifs visés et les questions d’évaluation
        • Le devis
        • Le plan de valorisation et l’utilisation potentielle des résultats
        • Le budget et la planification
      • Le processus de l’évaluation
        • Le contexte entourant le recrutement des écoles
        • La répartition des sujets
        • Le choix des instruments de mesure
        • La collecte de données et la prise de mesures
        • Les principaux résultats de l’évaluation
        • Les impacts proximaux
        • Les impacts médiaux et distaux
      • Les leçons apprises : forces et limites de l’évaluation
    • 21. Une évaluation d’implantation au Burkina Faso avec une méthode mixte
      • Contexte et intervention
      • Méthodes
      • Résultats
        • La moitié des femmes déclarent payer plus que le forfait officiel
        • Comprendre l’écart constaté
          • Nier l’écart et remettre en cause l’enquête
          • «Kit ouvert» ou «kit fermé»?
          • Le paiement de produits non inclus dans le kit officiel
          • Le paiement de produits non offerts à la pharmacie du centre de santé
          • La difficulté à comprendre les mesures politiques
          • Des mauvais comportements des agents de santé
      • Discussion
        • Sur la méthode
        • Discours officiels et normes pratiques
        • Une mise en oeuvre perfectible
        • Leçons apprises
      • Conclusion
      • Références
    • 22. Une évaluation d’implantation et d’efficacité d’un programme destiné aux enfantset à leur famille
      • Contexte et description du programme
      • Plan d’évaluation
      • Description du processus d’évaluation
        • Constitution de l’échantillon
        • Instruments
        • Collecte des données
        • Analyses des données
      • Résultats
        • Objectif 1: implantation des ÉIJ
          • Clientèle concernée
          • Participation des partenaires
          • Plans de services individualisés (PSI)
        • Objectif 2 : les effets des ÉIJ
          • Effets des services de coordination sur les enfants et leur famille
          • Effets sur les pratiques et les organisations
        • Objectif 3 : Processus de coordination
      • Discussion
        • Considérations méthodologiques
      • Conclusion
      • Références
  • Sigles et abréviations
  • Bibliographie
  • Les auteurs
  • Table des matières

SUBSCRIBE TO OUR NEWSLETTER

By subscribing, you accept our Privacy Policy