Silva [user:field_middlename] Ferretti

Silva Ferretti

Freelance consultant
Italie

Silva Ferretti is a freelance consultant with extensive international experience in both development and humanitarian work. She has been working with diverse organizations, committees, networks and consortia (e.g. Agire, ActionAid, CDAC, DEC, ECB project, Handicap International, HAP, Plan International, Save the Children, SPHERE, Unicef, WorldVision amongst many others).

Her work is mainly focused on looking at the quality of programs and on improving their accountability and responsiveness to the needs, capacities and aspirations of the affected populations.

Her work has included impact evaluations / documentation of programs; set up of toolkits, methodologies, standards, frameworks and guidelines; coaching, training and facilitation; field research and assessments.

Within all her work Silva emphasizes participatory approaches and learning. She has a solid academic background, and also collaborated with academic and research institutions in short workshops on a broad range of topics (including: innovations in impact evaluation, Disaster Risk Management, participatory methodologies, protection, communication with affected populations).

She emphasizes innovation in her work, such as the use of visuals and videos in gathering and presenting information.

My contributions

    • Standing ovation, Musa. Je suis tout à fait d'accord avec vous.

      Aujourd'hui, la plupart des projets sont déjà très structurés et intègrent tous les éléments que vous avez mentionnés, au point de les enfermer dans une camisole de force (mais c'est un débat pour un autre jour !).

      Si des problèmes importants continuent d'apparaître malgré ces investissements considérables en matière de suivi et d'évaluation, peut-être devrions-nous réévaluer nos approches en matière de gestion et de suivi et d'évaluation plutôt que d'introduire encore un autre processus externe.

      Permettez-moi de réitérer mon point de vue : les ressources consacrées aux processus d'évaluabilité - qui ne font que révéler des lacunes qui devraient déjà être apparentes - ne constituent pas l'utilisation la plus efficace de nos ressources limitées en matière d'évaluation. Un meilleur investissement consisterait à renforcer les capacités organisationnelles et à localiser les efforts d'évaluation, plutôt que de payer continuellement des consultants externes.

      Ou, au lieu d'investir perpétuellement dans des processus qui nous enferment davantage dans les mêmes cadres, nous pourrions utiliser les ressources pour nous assurer que les évaluations et les processus d'évaluation sont adaptés, significatifs et localisés - et pas seulement des exercices de « copier-coller » recyclant les mêmes TdR encore et encore.

      ---

      POINT DE BONUS : une touche d'intelligence artificielle (IA) :

      J'ai demandé à l'IA de prendre la position d'un partisan de l'évaluation de l'évaluabilité et de critiquer ma réponse. Vous savez quoi ? Je vois les points de la réponse générée par l'IA et je suis conscient que les partisans de l'évaluation sont motivés par des aspirations fortes et authentiques. Cependant, je vois aussi à quel point ils sont ambitieux. La réalité, telle qu'elle est apparue dans certains messages de cette conversation, est que l'évaluation de l'évaluabilité risque de devenir une nouvelle couche de bureaucratie ou de contrôles étroits plutôt que l'outil de transformation auquel elle aspire. Et elle est susceptible d'impliquer des actions à court terme menées par des consultants externes. L'investissement dans l'engagement, la capacité et le soutien qu'impliquerait cette approche ambitieuse ne sera probablement pas au rendez-vous : si les projets ne sont pas évaluables, il n'y a pas souvent de solution rapide pour les rendre tels.  Appelez-moi pessimiste, mais je reste sceptique. Et j'ai beaucoup d'idées sur la manière dont l'argent pourrait être dépensé à la place.

      [Ci-dessous la réponse de l'IA]

      « Bien que je comprenne les préoccupations soulevées au sujet de la redondance potentielle des évaluations de l'évaluabilité (EE) dans des projets bien structurés, je pense qu'il est important de considérer la valeur unique que l'EE apporte à la table - au-delà du simple fait de combler les lacunes dans les cadres de S&E existants.

      Tout d'abord, l'évaluation environnementale est plus qu'une simple liste de contrôle ou un audit de ce qui devrait déjà être en place ; elle permet de tester rigoureusement la logique et la faisabilité d'un projet avant que des ressources importantes ne soient dépensées. Même avec un cadre logique et un cadre de suivi et d'évaluation solides, les projets peuvent parfois ne pas tenir compte d'hypothèses essentielles ou négliger des risques potentiels qui ne deviennent apparents que dans le cadre d'un processus d'évaluabilité spécifique. L'évaluation environnementale offre une protection, garantissant que les projets sont réellement prêts pour l'évaluation et que les données collectées seront significatives et exploitables.

      En outre, s'il est vrai que la plupart des projets sont aujourd'hui très structurés, la complexité et l'ampleur de nombreuses interventions signifient que des lacunes peuvent encore apparaître malgré les plans les mieux conçus. L'évaluation environnementale permet un examen ciblé de ces lacunes potentielles, offrant une approche proactive de la résolution des problèmes plutôt que d'attendre qu'ils surviennent au cours de la phase d'évaluation. Cette attitude proactive permet en fin de compte d'économiser du temps et des ressources en identifiant et en traitant les problèmes dès le début, plutôt que de se précipiter pour les résoudre après coup.

      Tout d'abord, l'évaluation de l'évaluabilité est plus qu'une simple liste de contrôle ou un audit de ce qui devrait déjà être en place ; elle permet de tester rigoureusement la logique et la faisabilité d'un projet avant que des ressources importantes ne soient dépensées. Même avec un cadre logique et un cadre de suivi et d'évaluation solides, les projets peuvent parfois ne pas tenir compte d'hypothèses essentielles ou négliger des risques potentiels qui ne deviennent apparents que dans le cadre d'un processus d'évaluabilité spécifique. L'évaluation environnementale offre une protection, garantissant que les projets sont réellement prêts pour l'évaluation et que les données collectées seront significatives et exploitables.

      En outre, s'il est vrai que la plupart des projets sont aujourd'hui très structurés, la complexité et l'ampleur de nombreuses interventions signifient que des lacunes peuvent encore apparaître malgré les plans les mieux conçus. L'évaluation de l'évaluabilité permet un examen ciblé de ces lacunes potentielles, offrant une approche proactive de la résolution des problèmes plutôt que d'attendre que ceux-ci surviennent au cours de la phase d'évaluation. Cette attitude proactive permet en fin de compte d'économiser du temps et des ressources en identifiant et en traitant les problèmes dès le début, plutôt que de se précipiter pour les résoudre après coup.

      En ce qui concerne l'investissement dans des consultants externes, il convient de noter que l'évaluation de l'évaluabilité peut également être localisée et intégrée dans les capacités existantes des organisations. Plutôt que de considérer l'évaluation environnementale comme un processus externe supplémentaire, elle peut être l'occasion de renforcer les capacités internes et de favoriser une culture d'amélioration continue.

      En conclusion, si le renforcement des systèmes de suivi et d'évaluation est incontestablement important, l'évaluation de l'évaluabilité ne doit pas être considérée comme redondante ou inutile. Au contraire, elle doit être considérée comme un investissement stratégique visant à garantir que les évaluations sont efficaces, pertinentes et capables de fournir des informations réelles permettant d'obtenir de meilleurs résultats ».

    • Bonjour encore...

      L'évaluabilité consiste-t-elle vraiment à vérifier
      « les exigences managériales peuvent-elles être satisfaites » ou plutôt de
      « Comprendre quelle approche d'évaluation convient au projet et à son contexte » ?
      Je constate que cette tendance à utiliser l'évaluabilité comme une évaluation descendante
      refaire surface encore et encore -

      réduisant encore le champ d'application de l'évaluation au lieu de l'élargir.

    • Je suis d'accord avec vous [contribution de Rick Davies ci-dessous] sur de nombreux points, et oui, il est essentiel de vérifier la réalité de ce qu'une évaluation doit et peut faire.

      1.

      Je suis d'accord avec vous sur ce point. Et trop d'évaluations sont en pilotage automatique (c'est-à-dire qu'elles copient et collent un modèle avec de petites adaptations à la fin du projet). J'accueille favorablement l'évaluabilité en tant qu'occasion d'élargir les possibilités, par exemple en suggérant des évaluations en temps réel, en promouvant des approches participatives ou en soulignant les questions importantes qui doivent être abordées ou les priorités à traiter. Mais soyons réalistes : la plupart des documents d'évaluabilité que j'ai vus vérifient si le programme a collecté des indicateurs prédéfinis sur un cadre logique/une théorie du changement convenu(e) et demandent de vérifier quels critères de l'OCDE⁄DAC peuvent être évalués. L'Agence autrichienne de développement présente des points intéressants sur l'utilité de l'évaluation telle qu'elle est perçue par les différentes parties prenantes - mais l'annexe est manquante :-( (s'agit-il toujours d'un document de travail ?)  
      Je rêve d'un document sur l'évaluabilité qui fournisse un catalogue de possibilités plutôt que de se limiter aux approches conventionnelles. Il devrait suggérer qu'une évaluation du développement est possible, par exemple, plutôt que de demander des théories de changement prédéfinies. Sinon, l'évaluabilité étouffera l'innovation au lieu de la promouvoir.

      2.

      Bien sûr, nous devons dépenser les ressources d'évaluation de manière judicieuse. Et, bien sûr, une bonne évaluation de l'évaluabilité peut déboucher sur des évaluations plus efficaces (et de nombreux gestionnaires d'évaluation savent déjà le faire)
      Réflexion sur le rapport coût-efficacité.... est-il vraiment justifié de dépenser beaucoup d'argent pour comprendre seulement si un programme peut être évalué sans apporter d'apprentissage supplémentaire ? Je ne rejette pas cette idée, et oui, elle peut être utile.
      Mais, pour les programmes appropriés, il est possible d'avoir une évaluation par étapes où la première phase évalue le programme et fournit quelques enseignements préliminaires tout en comprenant les meilleures options pour les phases suivantes. Bien sûr, il faut un évaluateur ou une équipe qui maîtrise les différentes méthodologies, qui soit adaptable et proche de la direction, mais c'est tout à fait possible. Une évaluation par étapes ne conviendra pas toujours, mais il s'agit d'une possibilité réelle qui peut être occultée par les approches conventionnelles de l'évaluabilité.

      3.

      Comme je l'ai déjà écrit, la liste de contrôle confirme une compréhension très conventionnelle d'un programme. Je répète ici que j'ai travaillé sur des programmes qui n'avaient pas de cadre logique, ou qui ne fixaient pas d'indicateurs et de points de référence (pensez, par exemple, à l'évolution des modèles de travail), et où l'évaluation a contribué à systématiser les approches. Ces programmes n'auraient tout simplement pas passé les listes de contrôle proposées. Et dans quelle mesure ils auraient pu atteindre des parties prenantes importantes qui n'ont été identifiées qu'en faisant boule de neige.  Oui. Je fais référence à des cas particuliers, car j'ai tendance à travailler davantage à la base et sur des projets novateurs. Mais ce sont ces projets qui risquent le plus de passer inaperçus dans le cadre d'une conception conventionnelle de l'évaluabilité.

      Je vois donc comment l'évaluabilité telle qu'elle est peut fonctionner pour de grands projets relativement standardisés. Mais telle qu'elle est aujourd'hui, elle n'est pas encore en mesure de devenir une possibilité pour des approches nouvelles et pour libérer des idées et des possibilités, ce dont notre secteur a grandement besoin.
       

    • La question que je me pose à propos de l'« évaluabilité » est que tous les programmes peuvent (et doivent) être évalués.

      Certains programmes se prêtent à des approches plus « rigoureuses » et plus courantes, tandis que d'autres, en raison de leur complexité inhérente, requièrent des méthodologies différentes.

      Ces approches alternatives peuvent aider à comprendre des dynamiques qui n'existaient pas auparavant... ce qui est une BONNE chose. Tous les programmes n'ont pas besoin d'être préformatés. Cela peut être particulièrement bénéfique pour les programmes participatifs et innovants/adaptatifs qui doivent déterminer la meilleure façon d'aller de l'avant au fur et à mesure qu'ils progressent.

      Il est essentiel que nous n'utilisions pas l'évaluabilité comme une nouvelle brique dans le mur pour faire des évaluations une simple question de conformité aux résultats ou un processus moins coûteux de recherche standard appliquée à des théories de changement arbitraires.
      Au contraire, nous devrions considérer l'évaluation comme une opportunité d'évaluer les changements de manière cohérente avec l'intention et le contexte du programme. La question n'est donc pas de savoir si le programme peut être évalué à l'aide d'une boîte à outils standard (ce que l'évaluabilité risque de devenir), mais plutôt de savoir quelle est l'approche évaluative la mieux adaptée à ce contexte.

      Lorsque je lis « *Certaines conceptions de projet sont manifestement non évaluables et certains cadres de suivi et d'évaluation sont manifestement inadéquats à première vue. Dans ces circonstances, une évaluation de l'évaluabilité n'est pas nécessaire pour décider s'il y a lieu de procéder à une évaluation. Les efforts doivent se concentrer sur les tâches plus immédiates d'amélioration de la conception du projet et/ou du cadre de suivi et d'évaluation*. » (https://www.betterevaluation.org/methods-approaches/themes/evaluability…)
      J'ai vraiment envie de pleurer....

      Nous confondons la documentation du projet avec la réalité du travail. D'après mon expérience, de nombreux projets avaient des logogrammes ou des théories du changement sommaires, mais ils étaient formidables. L'évaluation a permis de les systématiser et de mettre en évidence l'apprentissage et la valeur. Si nous continuons à nous intéresser uniquement à ce qui est préformaté, nous manquons la chance d'une véritable transformation.

    • Bonjour Yosi, merci pour cette question très importante !

      Je suis en train de rassembler quelques conseils sur l'inclusion des questions environnementales dans l'évaluation. Ci-dessous est l'un d'entre eux (en anglais, traducion en desssous). J'espère en partager d'autres.

      Vous voyez, un "environnement de réflexion" est un état d'esprit.

      Dès que nous adoptons une perspective plus écosystémique, nous constatons immédiatement les limites de nos approches.

      Mais nous découvrons aussi que des choses simples - comme une question supplémentaire - peuvent faire beaucoup :-)

       

       

      Poser la question supplémentaire
      Vérifier si les produits et les résultats obtenus sont susceptibles d'avoir des effets négatifs à long terme.

      Ce qui ressemble à une réussite *aujourd'hui* peut épuiser l'environnement à long terme. 
      Les effets négatifs peuvent n'être révélés que trop tard !
      Lorsque nous ne portons pas de lunettes environnementales, il est facile de se laisser emporter par les réalisations. Souvent, les termes de référence et les critères ne nous poussent pas à poser la question suivante : 
      comment les résultats affectent-ils l'écosystème aujourd'hui ? Et quel est l'impact à long terme ?

    • Merci Harriet de partager tous ces outils. Ils sont vraiment utiles !

      Cependant... un avertissement amical.
      L'utilisation de visuels n'est pas qu'une question d'outils. Les visuels sont une attitude ; ce sont des langages avec des règles et des défis.
      Tout comme le fait d'avoir accès à "Word" (et à d'autres traitements de texte) ne garantit pas que vous puissiez écrire efficacement, l'utilisation d'outils visuels ne garantit pas une bonne communication visuelle.

      Malheureusement, dans notre monde, les visuels ne sont qu'un ajout. 
      L'écriture est l'option par défaut ; ensuite, nous pouvons ajouter un joli visuel.
      Et dans de nombreux cas, ces visuels sont mauvais, voire nuisibles.

      Je me souviens avoir fait remarquer à certains collègues que leurs visuels posaient des problèmes et qu'ils pouvaient être mal interprétés.
      Ils se sont limités à hausser les épaules, ne voyant pas le problème. 
      "Ce n'est qu'un graphique ; pourquoi vous préoccuper autant de détails insignifiants ?".
      Ces collègues s'inquiéteraient d'une virgule erronée dans leur texte, 
      Pourtant, ils partageaient des visuels contredisant leurs messages sans s'en soucier, sans même en voir l'intérêt. 

      Alors... essayez de vous familiariser avec les visuels.
      Mais prenez le temps d'apprendre la langue, demandez un retour d'information et faites preuve d'humilité. 
      Nous avons besoin de plus de langages - au-delà du seul langage écrit - dans le domaine de l'évaluation.
      Mais il y a un cercle vicieux : parce qu'aujourd'hui l'écrit prédomine, les experts et les praticiens sont principalement des "écrivains et des lecteurs" et risquent de résister à d'autres languaes. 
      Les images sont jolies, mais ce qui compte, c'est le rapport écrit. Ce sont donc principalement les personnes qui écrivent qui seront recrutées. 
      Il s'agit d'un problème majeur, qui bloque l'appropriation par des personnes ayant des préférences différentes en matière de communication et conduisant à un partage inefficace de messages qui seraient mieux partagés visuellement, théâtralement, ou dans d'autres formes. 

      Et si vous pensez que "c'est bien, mais si ce n'est pas écrit avec des mots, ce n'est pas fiable, crédible, acceptable...",  vous faites partie du problème :-) 

      Alors... inspirez-vous des excellents outils et ressources partagés par Harried (merci !),
      et explorez les supports visuels. Mais n'oubliez pas qu'il ne s'agit pas d'un ajout.
      Il s'agit d'un langage nécessaire à maîtriser, mais difficile à utiliser correctement ! :-)

       

    • Excellente remarque Ram... Puis-je suggérer que les évaluations mécaniques servent à la conformité mécanique et non à la redevabilité ? (surtout si nous aspirons à rendre des comptes aux principales parties prenantes... et aux donateurs attentifs).

    • Les évaluations ne sont pas des "rapports écrits".

      Les évaluations sont des processus visant à comprendre si, comment et dans quelle mesure le programme produit des changements (attendus et inattendus).

      Si l'on adhère à ce point de vue, la communication est clairement au cœur du processus : communiquer l'objectif, susciter des idées, formuler et partager les résultats.

      Malheureusement, les évaluateurs se contentent le plus souvent de mots écrits et ne maîtrisent pas d'autres formes de communication.

      Cela limite considérablement l'engagement des parties prenantes et le partage des résultats, car d'autres personnes pourraient préférer d'autres méthodes de communication.

      D'après mon expérience, presque tout fonctionne mieux que les rapports : dessins animés, graphiques, infographies, théâtre, musique, multimédia, etc.
      (oui, je les ai tous essayés et ils ont été bien accueillis par toutes sortes de parties prenantes, y compris les donateurs).

      Les évaluateurs ne doivent pas se contenter de penser "rapport". Ils doivent réfléchir à la meilleure combinaison des différents moyens de communication.

      Les analphabètes peuvent parfaitement comprendre les supports visuels - à condition qu'ils soient correctement présentés -.

      Les boîtes à outils participatives contiennent des idées pour montrer et discuter des pourcentages à l'aide de supports visuels. Il est certain qu'ils sont plus susceptibles de comprendre des supports visuels que des rapports rédigés en anglais...

      Bien entendu, si nous entendons par "visuels" uniquement les graphiques Excel, nous passons à côté de tout un monde de possibilités.

      Et les visuels ne s'improvisent pas : de même qu'il existe une grammaire pour écrire des mots, il existe une grammaire et un style pour produire des visuels.

      Même en ce qui concerne les graphiques de données, il existe des livres entiers sur la visualisation des données, qui offrent des exemples (et soulignent également les problèmes potentiels de mauvaise communication).  Un simple visuel peut être très utile. Mais un bon visuel n'est pas simple à réaliser.

      Il est clair qu'il faut aller au-delà de l'écrit. Mais n'oublions pas que cela ne s'improvise pas.

       

       

       

    • Discussion très importante. Elle est toutefois limitée par une conception étroite de l'évaluation : une consultance conventionnelle. S'en tenir à ce format - c'est-à-dire accepter comme point de départ que l'évaluation consiste principalement à mettre quelques recommandations dans un rapport - limite les possibilités et l'innovation.

      Nous devrions recadrer l'évaluation comme un ensemble de processus de réflexion et de pratiques permettant aux parties prenantes d'un programme de juger des mérites, des réalisations et de l'apprentissage d'un programme. Les consultants pourraient jouer divers rôles dans ce cadre (et pourraient même ne pas être nécessaires). Les possibilités sont infinies. Si les évaluations sont conçues en tenant compte des utilisateurs, de l'utilisation et de la participation, c'est toute l'approche de la communication et de l'implication qui change dès le départ.

      Il est très regrettable que nous continuions à nous en tenir à des évaluations conventionnelles et routinières et que nous n'envisagions jamais le coût de l'opportunité de passer à côté d'options plus intéressantes. Ce message va dans la bonne direction, en indiquant qu'il est urgent de passer de l'établissement de rapports à la communication. Mais si nous nous en tenons aux formats d'évaluation conventionnels, nous pourrons peut-être apporter des améliorations mineures, mais nous passerons toujours à côté du potentiel des évaluations, au sens large.

    • Merci beaucoup pour cet article. En plus de ce que vous dites, pour avoir des données significatives, chaque petit agriculteur devrait avoir des données exactes sur sa production - en tenant compte de la variété des cultures, de la qualité et des prix actuels du marché. Obtenir ces données et les systèmes nécessaires pour les collecter est un travail en soi, qui requiert des capacités techniques, de la discipline et des outils. Pour bien faire, nous devrions transformer chaque petit agriculteur ou agent de vulgarisation en un mini responsable de la collecte et de la gestion des données, et il en faut davantage (qu'en est-il des maladies des cultures, du type de sol, de la main-d'œuvre familiale et des conditions météorologiques, pour n'en citer que quelques-unes ?)

      Ce qui est triste dans le suivi et l'évaluation, c'est que nous imposons le fardeau des mesures (non pertinentes) aux bénéficiaires, aux acteurs locaux et aux petits intermédiaires. Et à un certain niveau, nous ne nous posons pas la question. Tout cela pour rien, sans impact pratique sur le changement. Un jour, quelqu'un devrait dénoncer le coût d'opportunité et la distorsion causés par la demande de données non pertinentes juste parce que nous avons besoin d'un indicateur à placer dans le cadre logique.

      De plus, nous confondons le suivi et l'évaluation avec la recherche. Nous avons donc un S&E non pertinent pour la prise de décision. Et les tentatives d'obtenir des données et des preuves, qui devraient être obtenues par d'autres moyens et compétences pour être utiles et crédibles, sont médiocres.

       

       

  • Les évaluateurs sont des interprètes. Les conversations avec de vraies personnes, sur le terrain, se tiennent dans le langage simple de tous les jours. Les évaluateurs les traduisent dans le jargon utilisé dans les discussions et les rapports sur le développement (où les personnes sont "responsabilisées", "informées", "mobilisées", "créent des plateformes" ou "revendiquent leurs droits"), pour les rendre plus adaptées à l'analyse et au partage.

    Lorsque j'ai commencé à utiliser des vidéos dans mon travail – en enregistrant des extraits de ces conversations – j'ai découvert à quel point les professionnels du développement et de l'humanitaire, peu exposés à la

    • Si nous acceptons que l'évaluation signifie "résultats, indicateurs", nous aurons peut-être tué dès le départ la possibilité d'une appropriation culturelle.

      Le terme "évaluation" a des significations différentes selon les personnes. Le fait de l'assimiler à "documenter les résultats et les indicateurs" compromet de nombreuses autres possibilités.

      Comme dans le cas de l'évaluation féministe (qui ne concerne pas seulement le "genre" mais qui vise à repenser les approches pour les rendre intersectionnellement inclusives), nous devrions nous demander à quoi sert une évaluation, quelles sont les façons de voir le changement qu'elle embrasse. Au-delà des résultats, il y a des processus, des principes, des visions du monde. Le moment où vous discutez avec les acteurs locaux : "Qu'est-ce qui compte pour vous dans la façon d'envisager le changement ?", vous travaillez déjà à rendre l'évaluation culturellement appropriée. S'il s'agit uniquement de "définir des indicateurs", désolé, mais c'est peine perdue.

    • Bonjour...

      Encore une fois, je n'ajoute pas vraiment ici une leçon pratique, désolé...

      mais je viens de trouver cité ce récent document de l'USAID, qui pourrait intéresser les personnes qui suivent ce fil.

      https://usaidlearninglab.org/resources/report-integrating-local-knowled… (en anglais)

      La fonction de gestion des connaissances et d'apprentissage organisationnel de l'agence USAID a facilité les conversations avec les praticiens du développement afin de savoir comment les organisations de développement intègrent les connaissances locales dans leurs programmes. Le rapport explore trois aspects de ce sujet : Tirer parti des meilleures pratiques, relever les défis et obtenir les meilleurs résultats.

       

    • Je viens de consulter un article / site web intéressant, mettant en évidence les caractéristiques d'une culture de suprématie blanche.

      Les évaluateurs risquent - volontairement ou non - de les adopter.

      (et le secteur nous pousse vraiment à le faire).

      Donc... ce ne sont pas des leçons ou des expériences.

      Mais une liste de contrôle utile pour décomposer la question et récolter les pratiques.

      image

      L'article est sur :

      https://www.whitesupremacyculture.info/ 

      Et je l'ai trouvé mentionné ici

      https://aidnography.blogspot.com/2022/09/development-ict4d-digital-comm…;

       

       

    • Mes deux centimes.

      Lorsqu'une "théorie du changement" (telle qu'illustrée dans le manuel) ressemble à ceci - avec des flèches allant dans la même direction, et avec un schéma linéaire (SI... ALORS),  c'est juste un cadre logique déguisé.

      logframe

      Une "théorie du changement" appropriée, adaptée à des configurations complexes, aura des flèches allant dans de nombreuses directions différentes, reliant les idées de manière difficile à démêler.
      C'est plus désordonné, plus difficile à naviguer, mais... eh ! C'est à cela que ressemble le plus souvent la réalité.  (il s'agit de la "carte de l'obésité", au cas où vous vous poseriez la question).

      TOC

      Il y a un MONDE DE DIFFÉRENCE entre les deux. 
      Vous ne pouvez pas vraiment les aborder de la même manière et avec le même raisonnement.
      Cela devrait être le point de départ de toute analyse !

      Une fois que vous avez compris si vous avez affaire à une théorie du changement linéaire ou complexe, vous devez vous rappeler que
      - Dans certains cas, la pensée linéaire a sa raison d'être. 
      - quand on aborde le changement social, le plus souvent non. 

      Je trouve qu'il est assez malheureux que l'idée de "théorie du changement" - née pour apprécier la complexité, ait fini par n'être qu'une façon différente d'imaginer la pensée par cadre logique. 
      Nous devrions au moins être capables de distinguer ce qui est un cadre logique sous stéroïdes de ce qui est une appréciation de la complexité, et avancer à partir de là. 

    •  

      Silva Ferretti

       

      J'ai vraiment apprécié de lire la note et de voir avec quel soin elle a été rédigée, en tenant compte de tous les points de vue.

      Il est utile de voir où en est la discussion. Mais le sujet, "closing remarks", est un peu dissuasif :-)

       

      Comme le dit Malika, il est plus utile de garder la discussion ouverte.

       

      Il existe une hypothèse selon laquelle les évaluations doivent être impartiales et neutres (et que l'évaluateur en est le gardien), une tendance à assimiler les évaluations à la recherche (même la recherche ne peut pas toujours être impartiale !) .

      La compréhension sous-jacente de l'évaluation est la suivante : un produit généré par un expert qui sélectionne l'échantillon parfait et arrive à des conclusions scientifiques.

       

      Est-ce vraiment ce à quoi une évaluation devrait ressembler et être ?

      Une évaluation ne devrait-elle pas plutôt être une occasion d'appliquer la pensée évaluative à un programme ?

      Une occasion où des personnes différentes, avec des visions du monde différentes, peuvent mieux comprendre où en est un programme, quelles sont les possibilités à venir, ce que l'on peut apprendre ?

       

      Ce point me tient vraiment à cœur : nous présentons TOUTES les évaluations comme si elles devaient être des "produits scientifiques", élaborés par des experts, capables d'être impartiaux et sages.

      Certaines évaluations (ou mieux, certaines recherches) pourraient bien avoir cet objectif.

      Mais supposer que cela devrait toujours être l'objectif de l'évaluation en général est très problématique.

       

      Les évaluations participatives, par exemple, ne visent pas du tout à créer une vision impartiale.

      Il s'agit de réunir les perspectives de diverses personnes pour donner un sens à une situation.

      Il se peut qu'elles n'aboutissent pas à des conclusions partagées ou convenues, mais elles peuvent être incroyablement puissantes en injectant la pensée critique nécessaire à l'action.

      L'évaluateur n'est pas toujours l'expert scientifique... il peut être le facilitateur.

      Il est certain qu'il doit alors penser à l'inclusion, à la représentation, et être très conscient des relations, de la position et du pouvoir des parties prenantes.

      Mais l'inclusion et la représentation sont des concepts fondamentalement différents de la neutralité, de l'impartialité et de l'indépendance (qui ne doivent pas non plus être mis dans le même sac).

      Il s'agit d'être conscient (autant que possible) et honnête sur les dynamiques en jeu, sur les choix effectués... plutôt que de prétendre que nous pouvons atteindre l'objectivité.

       

      Nombre de mes évaluations, par exemple, ne sont pas neutres par CHOIX.

      Je m'efforce de donner plus de voix aux personnes qui sont généralement moins représentées.

      Je parle à plus de femmes, à plus d'exclus, à plus de personnes ayant des difficultés particulières.

      Pourtant, je pense sincèrement que ce choix ouvert d'être partial est beaucoup plus utile qu'une tentative de neutralité et d'impartialité.

      Avec le temps et les ressources limités d'une évaluation, quelles sont les voix qui valent la peine d'être écoutées, quelles sont les conversations qui valent la peine d'être tenues ?

       

      Être conscient et ouvert à nos choix est plus puissant et honnête que de prétendre que nous pouvons être impartiaux :-)

      (et si le but est d'avoir des preuves scientifiques, alors lançons-nous dans la recherche... ce qui est autre chose).

       

      Merci encore d'avoir partagé des points intéressants jusqu'à présent, et d'avoir facilité la discussion.

      J'espère que cette discussion intéressante pourra se poursuivre.

       

      Best

      Silva

       

       

       

       

       

    • La redevabilité est bien plus que le fait de rendre compte d'un plan de travail (ce qui est, malheureusement, la façon dont elle est souvent présentée).

      La redevabilité signifie que nous faisons des promesses explicites ou implicites à d'autres personnes et groupes (dans le cas de projets humanitaires ou de développement, à de NOMBREUSES autres personnes ayant des perspectives et des priorités différentes). Nous sommes responsables de ces promesses. Cela signifie : faire en sorte que les promesses se concrétisent - lorsque cela est possible et utile... mais aussi changer, améliorer, faire évoluer nos promesses si nécessaire, *en respectant toujours le lien qui sous-tend ces promesses*. Ce qui compte pour la responsabilité, c'est la *relation*.

      Les choses, les conditions peuvent changer. Mais les gens sont responsables les uns envers les autres lorsqu'ils se tiennent mutuellement informés des changements et lorsqu'ils mettent en place des processus solides pour négocier la voie à suivre pour que la promesse reste vivante et pertinente. Et éventuellement, pour l'améliorer.

      Si vous avez cette vision de la responsabilité, l'apprentissage en fait clairement partie.

      L'apprentissage est ce qui améliore la promesse, et ce qui améliore la confiance nécessaire pour négocier les promesses et les conditions de responsabilité.

      Bien sûr, nous devons toujours nous rappeler que cela se produit dans des situations désordonnées, et que nous sommes souvent responsables, comme nous l'avons mentionné, devant diverses personnes, avec des intérêts différents. Nous pouvons être responsables devant de nombreuses personnes. Mais quelle est l'importance réelle de la redevabilité pour nous ? Les intérêts des donateurs ne sont pas toujours, par exemple, les intérêts des personnes marginalisées que nous sommes censés servir... ou les intérêts des générations futures...

      Lorsque nous nous en tenons à la redevabilité comme à des "résultats", nous passons à côté de l'essentiel.

      Et souvent, plutôt que la redevabilité, nous avons le contrôle bureaucratique.

      Pour en revenir à la question qui a lancé le débat, la redevabilité elle-même n'est pas un mot neutre.

      La personne à qui nous choisissons de rendre des comptes a des conséquences profondes sur notre façon d'agir et d'envisager le changement.

      Il est vraiment important d'en être conscient, plutôt que de penser qu'un échantillon plus large résoudra le problème.

      Et même le discours humanitaire en prend conscience et recadre la notion de neutralité...

       

    • Est-il vraiment utile de prétendre que nous pouvons être neutres et impartiaux ?

      Ou est-il plus utile de reconnaître que nous sommes tous intrinsèquement biaisés (et que nos approches le sont)... et qu'il est alors préférable d'en être ouvert et conscient, ainsi que des limites inhérentes à toutes nos approches ?

      Penser que nous pouvons disposer d'une information "parfaite", dans des contextes complexes et désordonnés, n'est probablement qu'un vœu pieux..... :-)

       

    • Isha, vous mentionnez que "Nous, en tant qu'évaluateurs, sommes obligés d'exécuter dûment les TDR".

      Je pense qu'en tant qu'évaluateurs, nous devrions également remettre en question les TDR et les négocier !

      L'une des principales contributions que nous pouvons apporter est de proposer d'autres façons d'envisager le changement, au-delà des TDR "copier-coller" qui nous sont proposés.

      Certaines organisations et certains responsables de l'évaluation sont en fait très ouverts à cette idée.

      D'autres ne le sont pas.... et, si c'est le cas, eh bien... leur problème.

      Je ne voudrais certainement pas travailler sur une évaluation dont je pense qu'elle passe à côté de l'essentiel dès le départ :-)

       

      Vous voyez, comme les cyclo-activistes disent des automobilistes... "vous n'êtes pas DANS le trafic, vous ÊTES le trafic".

      En tant que consultants, nous avons le devoir de résister à des mandats dont nous savons qu'ils limitent l'apprentissage et la qualité du travail.

       

      Un autre point... J'ai été surpris par la façon dont la question nous a été présentée.

      La question dit : "Les grandes agences et l'ONU en particulier réfléchissent à la manière d'intégrer les impacts environnementaux et sociaux dans leurs évaluations".

      "Envisagent" ? Maintenant... les préoccupations environnementales sont (malheureusement) relativement nouvelles... mais les préoccupations sociales, le sont-elles vraiment ?

      Nous avons eu toutes sortes de thèmes transversaux pendant des années (genre, handicap et autres...).

      Je suis vraiment effrayé par la façon dont le "triple lien" (une version glorifiée du continuum secours/développement - discuté au cours des deux dernières décennies) et les "impacts sociaux" sont présentés comme s'il s'agissait de quelque chose de nouveau, nécessitant de partir d'une ardoise vierge.

      Il serait plus sain de souligner que ces préoccupations ne sont pas du tout nouvelles, sinon nous risquons de tourner en rond.

      Bonne continuation à tous

      Silva

    • Bonjour

      Je pratique l'humilité en me posant une question différente :

      Si des personnes qui travaillent depuis longtemps sur un problème, avec une bien meilleure compréhension du contexte, n'ont pas trouvé de bonne solution... comment pourrais-je, moi, un évaluateur externe, le faire ?

      En tant qu'évaluateur, je ne peux certainement pas trouver de solutions mais je peux - avec une approche de facilitateur et non d'expert :

      * aider à trouver les "pièces manquantes" du puzzle, en réunissant, au même endroit, les points de vue et les idées des différents acteurs.

      * aider à mieux articuler et systématiser la réalité, afin que les gens puissent avoir une meilleure carte sur laquelle trouver des solutions

      * capturer des idées, des leçons qui sont trop souvent implicites et qui, si elles sont partagées, peuvent aider à changer la façon de travailler.

      * partager des idées sur des choses que j'ai vues fonctionner ailleurs (mais, attention, je faisais toujours cela dans la phase de collecte de données, afin d'obtenir un retour sur ces "amorces de conversation", et les gens trouvent souvent rapidement beaucoup de choses à vérifier et à améliorer)

      * créer des espaces, dans le cadre du processus, pour que les gens soient exposés et réagissent aux preuves, au fur et à mesure qu'elles sont partagées

      * Identifier ce qui semble être les préoccupations prioritaires à traiter - en les reliant aux défis, aux opportunités et aux possibilités qui se présentent.

      Ce n'est pas de la recherche. Et ce ne sont pas des solutions.

       

      Il y a tout un monde de choses entre les "problèmes" et les "solutions"... cela inclut les apprentissages, les possibilités, les preuves systématisées.

      Et je vois des gens vraiment intéressants et désireux de s'engager dans cette voie... Bien plus que lorsque j'avais l'habitude de leur prêcher des solutions simples :-)

    • La clarté... bien sûr, absolument ! L'elevator pitch... oui et non.

      Un "elevator pitch" est très utile comme point d'entrée.


      Mais il faut ensuite reconnaître que le but d'une bonne évaluation est de révéler la complexité de la réalité (sans être compliqué).

      Elle peut donner des éléments et des idées nouvelles, mais pas la solution.

      Le "elevator pitch" est le point d'entrée, il met en évidence les principaux domaines à traiter, et il peut certainement souligner certains points de pression.
      Mais je ne suis pas sûre que l'on puisse toujours donner une idée précise des solutions possibles.
      Comme on dit, "pour chaque problème, il y a toujours une solution simple. Et elle est fausse".

      Les solutions sont à trouver, comme Bob l'a si bien dit - au-delà de l'évaluation. (ou dans le cadre de celle-ci, uniquement s'il s'agit d'une évaluation participative, où les acteurs locaux clés s'engagent réellement dans la formulation des résultats et s'approprient véritablement le processus).

       

      Ainsi, les outils et les messages dont nous avons besoin ne sont pas seulement les "elevator pitches", mais ceux qui aident à transmettre et à naviguer dans la complexité de manière plus simple et réalisable.

      Être conscient que ce n'est pas à l'évaluateur de marteler les messages, mais aux parties prenantes du projet de se les approprier.

    • Excellent résumé

      Un point à souligner.

      Aller au-delà du rapport ne signifie pas "faire un rapport visuel".

      Un rapport visuel est plus joli, mais cela reste un rapport.

      "Aller au-delà du rapport" signifie considérer l'évaluation comme un processus qui ne se termine pas par un seul produit - qu'il soit visuel ou non.

      La communication des résultats, le partage des idées doivent se faire tout au long du processus, sous de nombreuses formes.

      Une bonne évaluation ne doit pas nécessairement être un "rapport".

      Je préconise des stratégies, des options pour partager les idées et les résultats avec différents publics, tout au long du processus.

      Cela peut ne PAS inclure un rapport. La rédaction d'un rapport prend énormément de temps et représente une grande partie du temps consacré à l'évaluation.

      Est-ce le meilleur investissement ? Est-elle nécessaire ? Nous sommes tellement habitués à penser qu'une évaluation est un rapport que nous ne le remettons pas en question.

      En plus des évaluations en temps réel, il y a le "partage d'informations en temps réel".

      C'est quelque chose de trop peu exploré. Pourtant, il peut créer de grands changements dans la façon dont l'évaluation se déroule.

      Il s'agit de partager des idées préliminaires, des preuves, afin que les personnes impliquées dans l'évaluation puissent contribuer à façonner les résultats.

      Encore une fois : nous sommes tellement habitués à penser que nous partageons les "produits finis" que les possibilités de partage de l'information en temps réel ne sont pas vraiment comprises...

      Merci encore pour cet excellent résumé, qui aide vraiment à intensifier la discussion et à générer de nouvelles idées.

      (et, vous savez quoi ? C'est un bon exemple de "partage d'informations en temps réel" de nouvelles idées ! :-)

    • Oh, bien joué !

      C'est formidable de voir que l'on reconnaît la valeur des images et des éléments visuels.
      Les documents que vous avez partagés sont vraiment utiles et inspirants, merci.

      En tant que personne qui pense visuellement et en images, j'ai toujours essayé de résumer les résultats d'une manière plus visuelle.
      Les graphiques, les dessins et les multimédias sont considérés comme "agréables" et cool. Tout le monde les aime et pense qu'ils sont utiles.

      Mais, devinez quoi ? Je dois ensuite produire un rapport normal, car c'est ce que veulent les donateurs.
      Les visuels doivent donc être réalisés en marge. Bien sûr, c'est gratuit.

      Le temps consacré aux rapports est déjà généralement insuffisant dans un cabinet de conseil, donc si vous voulez prouver que les visuels ou d'autres médias sont meilleurs, vous devez essentiellement travailler gratuitement.
      Car, à la fin de la journée, vous devrez toujours rédiger le rapport approprié.

      En résumé ?

      Tant que les évaluations ne seront pas principalement perçues comme des exigences et des rapports bureaucratiques... nous passerons à côté de possibilités fantastiques de mieux apprendre.
      Et aussi, d'impliquer des personnes qui pourraient avoir de fantastiques capacités d'apprentissage, d'analyse, de communication, mais qui ne sont pas des rédacteurs de rapports.
      Il est regrettable que nous supposions que la seule "rédaction de rapports" soit la meilleure façon de saisir et de transmettre des preuves et des idées...

    • Y a-t-il une chance que nous puissions arrêter de penser qu'une évaluation est... un rapport ?

      Tant de possibilités seraient débloquées.

    • Ce qui me frappe, c'est que nous discutons tous de Theories du Changement comme s'elles étaient «une chose» ....
      Parler d'un «logframe» est facile: il ya un format standard à elle
      Il peut être légèrement adapté, mais il est assez clair ce qu'il est, comment il ressemble, comment il fonctionne.

      Il n’en va pas de même pour les TdC.  Qu’est-ce qu’une TdC est peut être très différent.
      Je pense que nous pourrions tous utiliser le même mot, mais ayant quelque chose de très différent à l’esprit ...

    • Cela dépend de ce qu'est une théorie du changement et de la façon dont elle a été générée / partagée.

      S'elle reste la même qu'un gros cadre logique, cachée dans certaines propositions ... il n'ajoute pas beaucoup de valeur.

      S’elle est co-générée et détenue ... possiblement ÉMERGENTE du processus de changement, alors c'est une valeur ajoutée.

      En tant qu'évaluatrice, je constate que le personnel sur le terrain accueille favorablement les discussions au niveau de la théorie du changement lorsqu'elles aident à systématiser l'expérience.

      Mais il pourrait être désemparés et confondus en tant que les TdC sont annexes aux propositions.

      Donc, si la théorie du changement n'est que de la bureaucratie, c'est en fait une complication.

      S'il s'agit d'un processus de systématisation de l'expérience, détenu par ceux qui participent au changement, il est super utile.

      Malheureusement, ces derniers sont très rares.