Notre approche

Notre approche à l’égard de l’évaluation des programmes et de la mesure du rendement, élaborée pendant presque trois décennies de pratique, se fonde sur les cinq principes suivants :

Regard porté sur l’avenir plutôt que sur le passé

La plupart des évaluations de programme sont rétrospectives et portent sur ce qui s’est produit au cours du programme. Notre démarche est prospective : nous cherchons à fournir de l’information qui sera utile à la prise de décisions ultérieures quant à l’utilisation optimale des ressources au moment de concevoir et d’offrir des programmes et des services. Pour ce faire, au cours de l’étape de conception de l’évaluation, nous prêtons une attention particulière au contexte et à l’environnement actuel du programme, tout en demandant aux décideurs de nous faire part des renseignements dont ils auront probablement besoin et de leurs cycles de décision à venir.

Choix et reconnaissance du positionnement

En se fondant sur l’idée selon laquelle aucun évaluateur n’est complètement neutre, notre démarche vise à faire ressortir la partialité potentielle et à l’aborder ouvertement en choisissant de façon délibérée et en reconnaissant notre position par rapport à l’entité faisant l’objet de l’évaluation (en recherche sociologique, le positionnement¹). Par choix, il s’agit souvent de la position d’« ami critique² » : notre expérience a confirmé que les évaluations fondées sur cette position sont souvent plus utiles et soutiennent de façon plus efficace l’amélioration des programmes.

Utilisation des bons outils, de façon adéquate

En tant que responsables de l’évaluation des programmes et de la mesure du rendement, nous avons l’expérience d’un vaste éventail d’outils qualitatifs et quantitatifs : des modèles, des méthodes et des techniques. En fonction d’une évaluation judicieuse des besoins, des désirs et des capacités de nos clients en matière d’information, nous utilisons les bons outils pour chaque demande. Par ailleurs, nous utilisons ces outils adéquatement : nous respectons les compétences et les normes professionnelles liées à l’évaluation des programmes et appliquons des normes de pratique reconnues pour la collecte et l’analyse de données qualitatives et quantitatives – plus précisément, en recourant à des analyses statistiques adaptées à la taille et à la nature de l’ensemble de données et en respectant un paradigme qualitatif pour l’analyse des données qualitatives.

La rigueur est une position, et non une recette

Par rigueur, nous entendons le fait de veiller à ce que nos évaluations (conception, outils, analyses) nous permettent d’être étonnés par les résultats. Qu’elles soient qualitatives ou quantitatives, simples ou complexes, les évaluations dont les résultats sont déjà connus ou pour lesquelles un seul résultat possible ne répondent pas à ce critère. Dans notre pratique, chaque aspect du processus est remis en question en fonction de cette position.

L’apprentissage est primordial

Nous sommes d’avis qu’il vaut la peine de mener une évaluation seulement lorsque cette dernière fournit un éclairage nouveau sur le rendement du programme en vue d’apporter des améliorations. Les évaluations menées uniquement à des fins de responsabilisation ou de conformité constituent d’importantes occasions d’apprentissage manquées. Heureusement, à la lumière de notre expérience, toutes les personnes chargées de concevoir, de gérer et d’offrir des programmes sociaux ont le même objectif : faire le meilleur travail possible, l’apprentissage étant toujours un processus naturel et bienvenu. Nos consultants ne sont que des messagers et nos rapports ne sont que des messages. Les résultats les plus importants de tout processus d’évaluation sont les nouvelles connaissances, entièrement intégrées aux programmes³.

¹P. ex. Pasquini M.W.; Olaniyan, O. (2004). « The researcher and the field assistant : A cross-cultural, cross-disciplinary viewing of positionality ». Interdisciplinary Science Reviews, 29(1) 24-36
²Rallis, S., Rossman, G. (2000). « Dialogue for learning: Evaluator as critical friend ». New Directions for Evaluation, 86, 81-92
³Je remercie les chercheurs autochtones que j’ai rencontrés dans le cadre d’une évaluation pour le Conseil de recherches en sciences humaines, qui m’ont montré que les connaissances réelles ne se trouvent pas dans les rapports ou les bibliothèques. Voir « Head Knowledge is Hollow ».