Silva [user:field_middlename] Ferretti

Silva Ferretti

Freelance consultant
Italia

Silva Ferretti is a freelance consultant with extensive international experience in both development and humanitarian work. She has been working with diverse organizations, committees, networks and consortia (e.g. Agire, ActionAid, CDAC, DEC, ECB project, Handicap International, HAP, Plan International, Save the Children, SPHERE, Unicef, WorldVision amongst many others).

Her work is mainly focused on looking at the quality of programs and on improving their accountability and responsiveness to the needs, capacities and aspirations of the affected populations.

Her work has included impact evaluations / documentation of programs; set up of toolkits, methodologies, standards, frameworks and guidelines; coaching, training and facilitation; field research and assessments.

Within all her work Silva emphasizes participatory approaches and learning. She has a solid academic background, and also collaborated with academic and research institutions in short workshops on a broad range of topics (including: innovations in impact evaluation, Disaster Risk Management, participatory methodologies, protection, communication with affected populations).

She emphasizes innovation in her work, such as the use of visuals and videos in gathering and presenting information.

My contributions

    • Ovación de pie, Musa. Estoy totalmente de acuerdo contigo.

      Hoy en día, la mayoría de los proyectos ya están muy estructurados e incorporan todos los elementos que has mencionado, hasta el punto de encorsetarlos (¡pero ese es un debate para otro día!).

      Si siguen surgiendo problemas importantes a pesar de estas importantes inversiones en seguimiento y evaluación, quizás debamos reevaluar nuestros planteamientos de gestión y seguimiento y evaluación en lugar de introducir otro proceso externo más.

      Permítanme reiterar mi punto de vista: los recursos gastados en procesos de evaluabilidad -que simplemente descubren lagunas, que ya deberían ser evidentes- no son el uso más eficaz de nuestros limitados recursos de evaluación. Sería mejor invertir en el fortalecimiento de la capacidad organizativa y la localización de los esfuerzos de evaluación, en lugar de pagar continuamente a consultores externos.

      O, en lugar de invertir continuamente en procesos que nos enjaulan aún más dentro de los mismos marcos, podríamos utilizar los recursos para garantizar que las evaluaciones y los procesos evaluativos estén adaptados, sean significativos y estén localizados, y no se limiten a ejercicios de «cortar y pegar» reciclando los mismos términos de referencia una y otra vez.

      ---

      PPUNTO EXTRA: un giro impulsado por la Inteligencia Artificial (IA):

      Le pedí a la IA que adoptara la postura de un defensor de la evaluación de la evaluabilidad y criticara mi respuesta. ¿Saben qué? Veo los puntos de la respuesta generada por la IA y soy consciente de que los defensores están motivados por aspiraciones fuertes y genuinas. Sin embargo, también veo hasta qué punto son aspiraciones. La realidad, como también se desprende de algunos mensajes de esta conversación, es que la evaluación de la evaluabilidad corre el riesgo de convertirse en una capa más de burocracia o de controles estrechos, en lugar de la herramienta transformadora a la que aspira. Y es probable que implique maniobras a corto plazo por parte de consultores externos. Es probable que no se invierta en el compromiso, la capacidad y el apoyo que supondría este enfoque ambicioso: si los proyectos no son evaluables, no suele haber una solución rápida que lo haga.  Llámenme pesimista, pero sigo siendo escéptico. Y tengo muchas ideas sobre dónde podría gastarse el dinero en su lugar.

      [A continuación, la respuesta de AI a mi petición mencionada anteriormente].

      «Aunque aprecio las preocupaciones planteadas sobre la posible redundancia de las evaluaciones de evaluabilidad (EA) en proyectos bien estructurados, creo que es importante tener en cuenta el valor único que aporta la EA, más allá de llenar las lagunas de los marcos de seguimiento y evaluación existentes.

      En primer lugar, la EA es algo más que una lista de control o una auditoría de lo que ya debería estar en marcha; ofrece la oportunidad de probar rigurosamente la lógica y la viabilidad de un proyecto antes de que se gasten recursos importantes. Incluso con un marco lógico y de seguimiento y evaluación sólidos, a veces los proyectos pueden pasar por alto supuestos críticos o riesgos potenciales que sólo se ponen de manifiesto mediante un proceso de evaluabilidad específico. La EA ofrece una salvaguarda, garantizando que los proyectos estén realmente preparados para la evaluación y que los datos recopilados sean significativos y procesables.

      Además, si bien es cierto que la mayoría de los proyectos actuales están muy estructurados, la complejidad y la escala de muchas intervenciones hacen que puedan surgir lagunas a pesar de los planes mejor trazados. La EA permite un examen centrado de estas posibles deficiencias, ofreciendo un enfoque proactivo para la resolución de problemas en lugar de esperar a que surjan durante la fase de evaluación. Esta actitud proactiva puede, en última instancia, ahorrar tiempo y recursos al identificar y abordar los problemas desde el principio, en lugar de luchar por solucionarlos a posteriori.

      En cuanto a la inversión en consultores externos, cabe señalar que la EA también puede localizarse e integrarse en las capacidades existentes de las organizaciones. En lugar de considerar la EA como un proceso externo adicional, puede ser una oportunidad para desarrollar la capacidad interna y fomentar una cultura de mejora continua. Al integrar la evaluabilidad dentro de la organización, no sólo reducimos la dependencia de consultores externos, sino que también garantizamos que las evaluaciones estén adaptadas, matizadas y reflejen realmente el contexto del proyecto.

      En conclusión, aunque el fortalecimiento de los sistemas de seguimiento y evaluación es indudablemente importante, la EA no debe descartarse por redundante o innecesaria. Por el contrario, debe considerarse una inversión estratégica para garantizar que las evaluaciones sean eficaces, pertinentes y capaces de aportar conocimientos reales que impulsen mejores resultados.»

    • Hola de nuevo...

      ¿La evaluabilidad consiste realmente en comprobar
      '¿Pueden cumplirse los requisitos de gestión?
      ¿Comprender qué enfoque de evaluación es el adecuado para el proyecto y su contexto?
      Me he dado cuenta de que esta tendencia a utilizar la evaluabilidad como una valoración descendente
      resurge una y otra vez

      reduciendo aún más el alcance de la evaluación en lugar de ampliarlo.

    • Estoy de acuerdo contigo [contribución de Rick Davies más abajo] en muchas cosas, y sí, es clave tener una visión realista de lo que una evaluación debe y puede hacer.

      1.

      Estoy de acuerdo. Y demasiadas evaluaciones van con el piloto automático (es decir, cortar y pegar una plantilla con pequeñas adaptaciones al final del proyecto). Sin duda, acojo con satisfacción la evaluabilidad como una oportunidad para ampliar las posibilidades, como sugerir evaluaciones en tiempo real, promover enfoques participativos o destacar cuestiones importantes que deben abordarse o prioridades que hay que atender. Pero seamos realistas: la mayoría de los documentos de evaluabilidad que he visto comprueban si el programa ha recogido indicadores preestablecidos en un marco lógico/teoría del cambio acordado y exigen comprobar qué criterios OCDE⁄DAC pueden evaluarse. La Agencia Austriaca de Desarrollo tiene puntos interesantes sobre la utilidad de la evaluación tal y como la perciben las diferentes partes interesadas - pero luego falta el anexo :-( (¿todavía es un documento de trabajo?)  

      Sueño con un documento de evaluabilidad que ofrezca un catálogo de posibilidades en lugar de limitarse a los enfoques convencionales. Debería sugerir que es posible una evaluación del desarrollo, por ejemplo, en lugar de pedir teorías del cambio preestablecidas. De lo contrario, la evaluabilidad ahogará la innovación en lugar de promoverla.

      2. 

      Por supuesto, debemos gastar los recursos de evaluación con sensatez. Y, por supuesto, un buen análisis de evaluabilidad puede dar lugar a evaluaciones más eficientes (y muchos gestores de evaluación ya son buenos en eso).

      Pensando en la relación coste-eficacia.... ¿realmente podemos justificar gastar mucho dinero para entender sólo si un programa puede evaluarse sin aportar ningún aprendizaje adicional? No lo descarto, y sí, puede ser útil.

      Pero, en el caso de los programas adecuados, es posible realizar una evaluación por fases en la que la primera valore el programa y aporte algún aprendizaje preliminar mientras se comprenden las mejores opciones para las fases siguientes. Por supuesto, se necesita un evaluador o un equipo que conozca diferentes metodologías, sea adaptable y esté cerca de la dirección, pero es muy posible hacerlo. Una evaluación por fases no siempre será adecuada, pero es una posibilidad real que puede quedar eclipsada por los enfoques convencionales de evaluabilidad.

      3.

      Como he escrito antes, la lista de control confirma una concepción muy convencional de un programa. Reitero aquí que trabajé en programas que no tenían un marco lógico, ni establecían indicadores y líneas de base (piénsese, por ejemplo, en modelos de trabajo en evolución), y en los que la evaluación ayudó a sistematizar enfoques. Esos programas sencillamente no habrían pasado las listas de control propuestas. Y en qué medida podrían haber llegado a partes interesadas importantes que sólo se identificaron a través de la bola de nieve.  Sí. Me refiero a casos especiales, ya que suelo trabajar más a nivel de base y en proyectos innovadores. Pero estos son los que corren más riesgo de pasar desapercibidos para una interpretación convencional de la evaluabilidad.

       Así que veo cómo la evaluabilidad, tal y como está, puede funcionar para proyectos grandes y relativamente estandarizados. Pero tal y como está ahora, aún se queda corta para convertirse en una posibilidad de enfoques novedosos y de liberar ideas y posibilidades, algo que nuestro sector necesita urgentemente.

    • El problema que tengo con la «evaluabilidad» es que todos los programas pueden (y deben) evaluarse.

      Algunos programas se prestan a enfoques más «rigurosos» y convencionales, mientras que otros, debido a su complejidad inherente, requieren metodologías diferentes.

      Estos enfoques alternativos pueden ayudar a comprender dinámicas que antes no existían... lo cual es BUENO. No todos los programas necesitan un formato previo. Esto puede ser especialmente beneficioso para los programas participativos e innovadores/adaptativos que necesitan determinar el mejor camino a seguir a medida que avanzan.

      Es crucial que no utilicemos la evaluabilidad como otro ladrillo en el muro para hacer que las evaluaciones se limiten al cumplimiento de los resultados o a un proceso más barato de investigación estándar aplicado a teorías arbitrarias del cambio.
      Por el contrario, debemos reclamar la evaluación como una oportunidad para valorar los cambios de forma coherente con la intención y el contexto del programa. Así que la pregunta no es «¿Puede evaluarse el programa con una caja de herramientas estándar?» (que es en lo que corre el riesgo de convertirse la evaluabilidad) sino «¿Qué enfoque evaluativo se adapta mejor a este contexto?».

      Cuando leo: «*Algunos diseños de proyectos son manifiestamente no evaluables, y algunos marcos de SyE son manifiestamente inadecuados a primera vista. En estas circunstancias, no se necesitaría un análisis de evaluabilidad para decidir si seguir adelante con una evaluación. Los esfuerzos deben centrarse en las tareas más inmediatas de mejorar el diseño del proyecto y/o el marco de seguimiento y evaluación*"(https://www.betterevaluation.org/methods-approaches/themes/evaluability…).
      Tengo muchas ganas de llorar....

      Estamos confundiendo la documentación del proyecto con la realidad del trabajo. En mi experiencia, muchos proyectos tenían logogramas o teorías del cambio incompletos, y sin embargo eran estupendos. La evaluación ayudó a sistematizarlos y a desgranar el aprendizaje y el valor.Si seguimos fijándonos sólo en lo que está preformateado, perdemos la oportunidad de una transformación real.

    • Hola Yosi, ¡gracias por esta pregunta tan importante!

      Estoy recopilando algunos consejos para incluir las cuestiones medioambientales en la evaluación. Aquí tienes uno de ellos (en inglés, traducción a continuación). Espero compartir más.

      Verás, un "entorno de pensamiento" es una mentalidad.

      En el momento en que adoptamos una perspectiva más ecosistémica, nos damos cuenta inmediatamente de las limitaciones de nuestros planteamientos.

      Pero también descubrimos que cosas sencillas -como una pregunta más- pueden llegar muy lejos. :-)

      hacer la pregunta extra
      Compruebe si los resultados y productos exitosos pueden tener efectos negativos a largo plazo.

      Lo que parece un éxito *ahora* puede agotar el medio ambiente a largo plazo. 
      Es posible que los efectos negativos no se descubran hasta que sea demasiado tarde.
      Cuando no llevamos gafas ecológicas, es fácil dejarse llevar por los logros. A menudo, los términos de referencia y los criterios no nos empujan a hacernos la siguiente pregunta: 
      ¿cómo están afectando ahora los resultados al ecosistema? ¿Y el impacto o impactos a largo plazo?

    • Gracias Harriet por compartir todas estas herramientas. Son realmente útiles.

      Sin embargo... una advertencia cordial.
      Utilizar visuales no es sólo cuestión de herramientas. Los visuales son una actitud; son lenguajes con reglas y retos.
      Del mismo modo que tener acceso a "Word" (y otros procesadores de texto) no garantiza que puedas escribir con eficacia, utilizar herramientas visuales no garantiza una buena comunicación visual.

      Por desgracia, en nuestro mundo lo visual es sólo un complemento. 
      Escribir es lo habitual; luego, podemos añadir un bonito elemento visual.
      Y en muchos casos, esos elementos visuales son malos, posiblemente dañinos.

      Recuerdo que señalé a algunos colegas que sus imágenes planteaban problemas y podían malinterpretarse.
      Y ellos se encogieron de hombros, sin ver el problema. 
      "Es sólo un gráfico; ¿por qué te preocupas tanto por detalles insignificantes?".
      Estos colegas se mostraban analíticos por una coma mal puesta en su texto, 
      pero compartían imágenes que contradecían sus mensajes sin preocuparse, sin siquiera ver la cuestión. 

      Así que... por supuesto, intenta familiarizarte con lo visual.
      Pero tómate tu tiempo para aprender el idioma, pide opiniones y sé humilde. 
      Necesitamos más lenguajes, además del escrito, en la evaluación.
      Pero existe un círculo vicioso: como ahora predomina la palabra escrita,
      los expertos y profesionales son predominantemente "escritores y lectores" y pueden resistirse a otros lenguajes. 
      Lo visual es bonito, pero lo que importa es el informe escrito. Por eso, en la evaluación predominan los que escriben. 
      Este es un problema importante, ya que impide la apropiación por parte de personas con diferentes preferencias comunicativas y lleva a compartir de forma ineficaz mensajes que se compartirían mejor de forma visual, teatral o en otros idiomas. 

      Y, si piensa que "bonito, pero si no está escrito con palabras, no es fiable, creíble, aceptable..."  eres parte del problema :-) 

      Así que... inspírate en las magníficas herramientas y recursos compartidos por Harried (¡gracias!), y explora las imágenes. Pero recuerda que no son un complemento. Son un lenguaje que hay que dominar, pero que es un reto utilizar bien. :-)

       

    • Gran observación, Ram... ¿puedo sugerir que las evaluaciones mecánicas están al servicio del rendimiento mecánico y no de la rendición de cuentas? (especialmente si aspiramos a rendir cuentas a los principales interesados... y a los donantes atentos)

    • Las evaluaciones no son "informes escritos".

      Las evaluaciones son procesos para comprender si el programa produce cambios (esperados e inesperados), cómo y en qué medida.

      Si se adopta este punto de vista, es evidente que la comunicación ocupa un lugar central: comunicar el propósito, suscitar ideas y formular y compartir las conclusiones.

      Lamentablemente, los evaluadores suelen dominar las palabras escritas y no otras formas de comunicación.

      Esto limita enormemente la participación de las partes interesadas y el intercambio de conclusiones, ya que otras personas podrían preferir otros métodos de comunicación.

      En mi experiencia, casi todo funciona mejor que los informes: dibujos animados, gráficos, infografías, teatro, música, multimedia, etc. (sí, los he probado todos).

      (Sí, los probé todos y fueron bien recibidos por todo tipo de partes interesadas, incluidos los donantes).

      Los evaluadores no deben limitarse a pensar en "informes". Deben pensar en la mejor combinación de diferentes formas de comunicación.

      Las personas analfabetas pueden entender perfectamente los elementos visuales, si están bien diseñados.

      Las cajas de herramientas participativas contienen ideas para mostrar y discutir porcentajes mediante ayudas visuales.

      En definitiva, es más probable que entiendan los elementos visuales que los informes escritos en inglés...

      Por supuesto, si entendemos por "visuales" únicamente los gráficos de Excel, nos perdemos todo un mundo de posibilidades.

      Y los visuales no se improvisan: igual que hay una gramática para escribir palabras, también hay una gramática y un estilo para producir visuales.

      Incluso si nos referimos específicamente a los gráficos de datos, hay libros enteros sobre visualizaciones de datos, que ofrecen ejemplos (y también ponen de relieve los posibles problemas de falta de comunicación).  Un elemento visual sencillo puede llegar muy lejos. Pero una buena visualización no es sencilla de hacer.

      En definitiva, vayamos más allá de la palabra escrita. Pero recordemos que esto no se improvisa.

       

       

       

    • Un debate muy importante. Sin embargo, se ve limitado por una concepción estrecha de la evaluación: una consultoría convencional. Ceñirse a este formato -es decir, aceptar como punto de partida que la evaluación consiste sobre todo en plasmar alguna recomendación en un informe- limita las posibilidades y la innovación.

      Deberíamos replantear la evaluación como un conjunto de procesos de reflexión y prácticas que permiten a las partes interesadas en un programa calibrar los méritos, los logros y el aprendizaje de un programa. Los consultores podrían desempeñar diversas funciones dentro de ella (e incluso podrían no ser necesarios). Las posibilidades son infinitas. Si las evaluaciones se diseñan pensando en los usuarios, el uso y la participación, todo el enfoque de la comunicación y la implicación cambia desde el principio.

      Es muy lamentable que sigamos aferrándonos a las evaluaciones convencionales y rutinarias y nunca tengamos en cuenta el coste de oportunidad que supone perderse opciones más interesantes. Este mensaje va en la dirección correcta, indicando la urgencia de pasar de la elaboración de informes a la comunicación. Pero si nos ceñimos a los formatos de evaluación convencionales, puede que consigamos pequeñas mejoras, pero siempre nos perderemos el potencial de las evaluaciones, en un sentido más amplio.

    • Muchas gracias por este post. Además de lo que dices, para disponer de datos significativos, cada pequeño agricultor debería tener datos exactos sobre su producción, teniendo en cuenta la variedad del cultivo, la calidad y los precios actuales del mercado. Obtener estos datos y los sistemas necesarios para recopilarlos es un trabajo en sí mismo, que requiere capacidades técnicas, disciplina y herramientas. Para hacerlo correctamente, deberíamos transformar a cada pequeño agricultor o extensionista en un mini funcionario de recopilación y gestión de datos, y hace falta más (¿qué pasa con las enfermedades de los cultivos, el tipo de suelo, la mano de obra de la familia y el clima, por mencionar sólo algunos?)

      Lo triste del seguimiento y la evaluación ahora es cómo imponemos la carga de las medidas (irrelevantes) a los beneficiarios, los agentes locales y los pequeños intermediarios. Y a un nivel, no nos preguntamos. Todo esto para nada de un impacto práctico en el cambio. Algún día alguien debería denunciar el coste de oportunidad y la distorsión que supone pedir medidas irrelevantes sólo porque necesitamos un indicador para poner en el marco lógico.

      Además, estamos confundiendo M&E con investigación. Así que tenemos M&E irrelevantes para la toma de decisiones. Y pobres intentos de obtener datos y pruebas, que deberían hacerse con otros medios, competencias recursos para ser útiles y creíbles.

       

  • Los evaluadores son intérpretes. La gente utiliza un lenguaje sencillo y corriente en sus conversaciones cotidianas. Los evaluadores las traducen a la jerga que se usa en charlas e informes sobre desarrollo (y en virtud de la cual se “empodera”, “conciencia” o “moviliza” a la población, que “crea plataformas” o “reclama sus derechos”), a fin de adecuarlas para su análisis e intercambio.

    Cuando empecé a utilizar vídeos en mi trabajo —que capturaban fragmentos de estas conversaciones— descubrí cómo profesionales del desarrollo y la ayuda humanitaria poco acostumbrados a tratar con gente corriente (y demasiado habituados a la jerga) no siempre logran comprender

    • Si aceptamos que la evaluación significa "resultados, indicadores", habremos matado la posibilidad de la apropiación cultural desde el principio.

      "Evaluación" significa cosas diferentes para personas diferentes. Hacerla equivaler a "documentar resultados e indicadores" socava muchas otras alternativas.

      Al igual que en la evaluación feminista (que no trata sólo de "género", sino de repensar los enfoques para hacerlos interseccionalmente inclusivos), debemos cuestionar para qué sirve una evaluación, qué formas de ver el cambio abarca. Más allá de los resultados hay procesos, principios, visiones del mundo. En el momento en que se discute con los actores locales: "¿qué es lo que os importa para ver el cambio?" ya estáis trabajando para que sea culturalmente apropiado. Si sólo se trata de "definir indicadores", lo siento, pero esto no es un comienzo.

    • Hola...

      de nuevo no estoy añadiendo aquí una lección práctica, lo siento...

      pero acabo de encontrar citado este reciente documento de USAID, que podría ser de interés para las personas que siguen este hilo.

      https://usaidlearninglab.org/resources/report-integrating-local-knowled… (en inglés) 

      La función de Gestión del Conocimiento y Aprendizaje Organizacional de la Agencia USAID facilitó conversaciones con profesionales del desarrollo para aprender cómo las organizaciones de desarrollo están integrando el conocimiento local en sus programas. El informe explora tres aspectos de este tema: Aprovechar las mejores prácticas, abordar los desafíos y lograr los mejores resultados.

       

    • Acabo de acceder a un interesante artículo/sitio web en el que se destacan las características de la cultura de la supremacía blanca.

      Los evaluadores corren el riesgo de adoptarlas -de buena o mala gana-.

      (y el sector realmente nos empuja a hacerlo).

      Así que... estas no son lecciones o experiencias.

      Pero sí una lista útil para desglosar el tema y cosechar prácticas.

      image

      El artículo está en:

      https://www.whitesupremacyculture.info/

      Y lo he encontrado mencionado aquí:

      https://aidnography.blogspot.com/2022/09/development-ict4d-digital-communication-academia-link-review-455.html

       

    • Mis dos centavos.

      Cuando una "teoría del cambio" (como se ilustra en el manual) tiene este aspecto - con flechas que van en la misma dirección, y con un esquema lineal (SI... ENTONCES), no es más que un marco lógico disfrazado.

      logframe

      Una "teoría del cambio" adecuada, apta para configuraciones complejas, tendrá flechas que van en muchas direcciones diferentes, interconectando ideas de forma difícil de desentrañar.
      Es más desordenado, más difícil de navegar, pero... ¡eh! Así es como suele ser la realidad.  (este es el "mapa de la obesidad", por si te lo preguntas)

      TOC

      Hay un MUNDO DE DIFERENCIA entre ambos. 
      Realmente no se puede abordar de la misma manera y con el mismo pensamiento.
      Este debería ser el punto de partida de cualquier análisis.

      Una vez que entiendas si estás tratando con una teoría del cambio lineal o compleja, entonces debes recordar
      - En algunos casos el pensamiento lineal tiene su razón de ser. 
      - cuando se aborda el cambio social, la mayoría de las veces no. 

      Creo que es bastante desafortunado que la idea de la "teoría del cambio", nacida para apreciar la complejidad, haya acabado siendo sólo una forma diferente de visualizar el pensamiento logframe. 
      Al menos deberíamos ser capaces de distinguir lo que es un marco lógico con esteroides y lo que es apreciar la complejidad, y avanzar a partir de ahí. 

       

    • Me ha gustado mucho leer la nota y ver el cuidado con que se ha redactado, teniendo en cuenta todos los puntos de vista.

      Es útil para ver en qué punto se encuentra el debate. Pero el tema, "closing remarks", es un poco desconcertante. :-)

       

      Como dice Malika, es más útil mantener el debate abierto.

       

      Existe la suposición de que las evaluaciones deben ser imparciales y neutrales (y que el evaluador es el guardián de esto), una tendencia a equiparar las evaluaciones con la investigación (¡incluso la investigación no siempre puede ser imparcial!).

      La idea subyacente de la evaluación es: un producto generado por un experto que selecciona la muestra perfecta y llega a conclusiones científicas.

       

      ¿Es esto lo que debe ser una evaluación?

      ¿No debería una evaluación ser más bien una oportunidad para aplicar el pensamiento evaluativo sobre un programa?

      ¿Una oportunidad en la que diferentes personas, con diferentes visiones del mundo, puedan entender mejor en qué punto se encuentra un programa, qué posibilidades hay por delante, qué se puede aprender?

       

      Realmente me parece que estamos presentando TODAS las evaluaciones como si tuvieran que ser "productos científicos", originados por expertos, capaces de ser imparciales y sabios.

      Alguna evaluación (o mejor, alguna investigación) bien podría tener este enfoque.

      Pero asumir que éste debe ser siempre el objetivo de la evaluación en general es muy problemático.

       

      Las evaluaciones participativas, por ejemplo, no consisten en absoluto en crear una visión imparcial.

      Se trata de reunir las perspectivas de diversas personas para dar sentido a una situación.

      Puede que ni siquiera lleguen a conclusiones compartidas o acordadas, pero pueden ser increíblemente poderosas para inyectar el necesario pensamiento crítico sobre la acción.

      El evaluador no siempre es el experto científico... puede ser el facilitador.

      Ciertamente, tiene que pensar en la inclusión y la representación, y ser muy consciente de las relaciones, la posición y el poder de las partes interesadas.

      Pero la inclusión y la representación son conceptos fundamentalmente diferentes de la neutralidad, la imparcialidad y la independencia (que tampoco deberían mezclarse en el mismo saco).

      Se trata de ser consciente (en la medida de lo posible) y honesto sobre cuáles son las dinámicas en juego, sobre las decisiones tomadas...

      en lugar de pretender que podemos alcanzar la objetividad.

       

      Muchas de mis evaluaciones, por ejemplo, no son neutrales POR ELECCIÓN.

      Me esfuerzo por dar más voz a las personas que suelen estar menos representadas.

      Hablo con más mujeres, con más marginados, con más personas con retos especiales.

      Sin embargo, creo sinceramente que esta opción abierta de ser parcial, es mucho más útil que un intento de neutralidad e imparcialidad.

      Con el tiempo y los recursos limitados de una evaluación, ¿qué voces merece la pena escuchar, qué conversaciones merece la pena mantener?

       

      Ser conscientes y abiertos de cuáles son nuestras opciones es más poderoso y honesto que pretender que podemos ser imparciales. :-)

      (y si de lo que se trata es de tener pruebas científicas, entonces embarquémonos en la investigación... que es otra cosa)

       

      Gracias de nuevo por compartir puntos interesantes hasta ahora, y por facilitar el debate.

      Espero que esta interesante discusión pueda continuar.

       

      Un saludo

      SIlva

       

       

       

       

       

    • La rendición de cuentas es mucho más que informar sobre un plan de trabajo (que es, desgraciadamente, la forma en que a menudo se presenta).

      La rendición de cuentas significa que hacemos promesas explícitas o implícitas a otras personas y grupos (en el caso de los proyectos de desarrollo y humanitarios, a MUCHAS otras personas con diferentes perspectivas y prioridades). Somos responsables de dar cuenta de estas promesas. Eso significa: hacer que las promesas se cumplan, cuando sea posible y útil... pero también cambiar, mejorar, evolucionar nuestras promesas según sea necesario, *respetando siempre el vínculo que las sustenta*. Lo que importa para la responsabilidad es la *relación*.

      Las cosas, las condiciones, pueden cambiar. Pero las personas son responsables entre sí cuando se mantienen informadas de los cambios y cuando establecen procesos sólidos para negociar el camino a seguir para mantener la promesa viva y relevante. Y posiblemente, para mejorarla.

      Si se tiene esta visión de la responsabilidad, está claro que el aprendizaje forma parte de ella.

      El aprendizaje es lo que mejora la promesa, y lo que mejora la confianza necesaria para negociar las promesas y las condiciones de la responsabilidad.

      Por supuesto, siempre hay que recordar que esto ocurre en situaciones complicadas, y que a menudo tenemos que rendir cuentas, como se ha dicho, a personas diversas, con intereses diferentes. Podemos rendir cuentas a muchas personas. Pero, ¿qué importancia tiene para nosotros la rendición de cuentas? Los intereses de los donantes no siempre son, por ejemplo, los intereses de las personas marginadas a las que se supone que servimos... o los intereses de las generaciones futuras...

      Cuando nos ceñimos a la rendición de cuentas como "ceñirnos a los resultados" no estamos entendiendo nada.

      Y a menudo, más que rendición de cuentas, tenemos control burocrático.

      Volviendo a la pregunta que inició el debate, la rendición de cuentas en sí misma no es una palabra neutral.

      A quién elegimos para rendir cuentas tiene profundas consecuencias en la forma en que actuamos y vemos el cambio.

      Es realmente importante ser conscientes de ello, en lugar de pensar que una muestra mayor resolverá la cuestión.

      E incluso el discurso humanitario está tomando conciencia de ello y reformulando la comprensión de la neutralidad...

       

       

    • ¿Es realmente útil pretender que podemos ser neutrales e imparciales?

      ¿O es más útil saber que todos somos inherentemente parciales (y que nuestros enfoques lo son)... y que entonces es mejor ser abiertos y conscientes de ello, y de las limitaciones inherentes a todos nuestros enfoques?

      Pensar que podemos tener la información "perfecta", en contextos que son complejos y desordenados es probablemente sólo un deseo.... :-)
       

       

    • Isha, mencionas que "Nosotros, como evaluadores, estamos obligados a ejecutar los TdR debidamente"

      Mi opinión es que, como evaluadores, también deberíamos cuestionar los términos de referencia y negociarlos.

      Una de las principales contribuciones que podemos ofrecer es la de proponer formas alternativas de ver el cambio, más allá de los TdR de "cortar y pegar" que se nos ofrecen.

      Algunas organizaciones y gestores de evaluación están realmente abiertos a esto.

      Otras no lo están.... y, si es el caso, bueno... su problema.

      Yo, desde luego, no querría trabajar en una evaluación que me parece que no tiene sentido desde el principio. :-)

       

      Verás, como dicen los cicloactivistas sobre los conductores de coches... "no estás en el tráfico, eres el tráfico".

      Como consultores, tenemos el deber de resistirnos a los términos de referencia que sabemos que limitan el aprendizaje y la calidad del trabajo.

       

      Otro punto... Me sorprendió la forma en que se nos presentó la pregunta.

      La pregunta dice: "Las principales agencias, y la ONU en particular, están considerando cómo integrar los impactos ambientales y sociales en sus evaluaciones".

      ¿"Están considerando"? Ahora... las preocupaciones medioambientales son (por desgracia) relativamente nuevas... pero las sociales, ¿lo son realmente?

      Hace tiempo que tenemos todo tipo de temas transversales (género, discapacidad y similares...).

      Me asusta mucho cómo se presentan el "triple nexo" (una versión glorificada del continuo ayuda/desarrollo - discutido durante las últimas 2 décadas) y los "impactos sociales" como si fueran algo nuevo, que requiere empezar con una pizarra en blanco.

      Sería más saludable destacar que estas preocupaciones no son en absoluto nuevas, ya que de lo contrario se corre el riesgo de dar vueltas en círculo.

      Un saludo a todos

      Silva

  • Reporting and supporting evaluation use and influence

    Discussion
    • Hola

      Practico la humildad haciéndome una pregunta diferente:

      Si las personas que llevan mucho tiempo trabajando en un tema, con un conocimiento mucho mejor del contexto no encontraron una buena solución... ¿cómo podría hacerlo yo, un evaluador externo?

      Como evaluador no puedo ciertamente encontrar soluciones, pero puedo - con un enfoque facilitador y no experto:

      * ayudar a encontrar las "piezas que faltan" del rompecabezas, reuniendo, en un mismo lugar, los puntos de vista y las ideas de los diferentes actores.

      * ayudar a articular y sistematizar mejor la realidad, para que la gente pueda tener un mejor mapa en el que encontrar soluciones

      * captar ideas, lecciones que a menudo están implícitas y que, si se comparten, pueden ayudar a cambiar la forma de trabajar

      * compartir algunas ideas sobre cosas que había visto que funcionaban en otros lugares (pero, ojo, esto lo hacía siempre en la fase de recogida de pruebas, como una forma de obtener feedback sobre estos "iniciadores de la conversación". y la gente suele encontrar rápidamente muchas cosas que revisar y mejorar)

      * crear espacios, dentro del proceso, para que la gente se exponga y reaccione a las pruebas, a medida que se comparten

      * identificar lo que parecen ser las preocupaciones prioritarias a tratar - relacionándolas con los retos, las oportunidades, las posibilidades surgidas.

      Esto no es investigación. Y esto no son soluciones.

      Hay todo un mundo de cosas entre los "problemas" y las "soluciones"... incluye aprendizajes, posibilidades, evidencias sistematizadas.

      Y veo a la gente realmente interesante y dispuesta a comprometerse con estos... Mucho más que cuando solía predicarles algunas soluciones simples. :-)

       

      Además, una evaluación no siempre pone de manifiesto los "problemas". A menudo hay muchas soluciones que quedan ocultas.

      Y las evaluaciones también tienen un papel para encontrarlas y ayudar a valorar el trabajo realizado y los muchos retos resueltos, que nunca deberían darse por sentados.

    • Claridad... por supuesto, ¡absolutamente! El discurso del ascensor... sí y no.

       

      Un discurso de ascensor es muy útil como punto de entrada.

      Pero luego hay que reconocer que el objetivo de una buena evaluación es desvelar la complejidad de la realidad (sin ser complicado).

      Puede dar nuevos elementos e ideas, pero no la solución.

      El discurso del ascensor es el punto de entrada, pone de relieve las principales áreas que hay que abordar, y sin duda puede esbozar algunos puntos de presión.

      Pero no estoy tan segura de poder ofrecer siempre una idea nítida de las posibles soluciones.

      Como se dice, "para cada problema hay siempre una solución sencilla. Y es errónea".

       

      Las soluciones hay que encontrarlas, como muy bien dijo Bob, más allá de la evaluación. (o dentro de ella sólo si es participativa, en la que los principales actores locales participan realmente en la formulación de las conclusiones, y se apropian verdaderamente del proceso)

      Por lo tanto, las herramientas y los mensajes que necesitamos no son sólo los discursos de ascensor, sino que estos ayudan a transmitir y navegar por la complejidad de manera más sencilla y procesable.

      Ser conscientes de que no es el evaluador el que tiene que martillear los mensajes, sino que son los actores del proyecto los que se apropian de ellos.

       

    • Gran resumen

      Un punto a destacar.

      Ir más allá del informe no significa "hacer un informe visual".

      Un informe visual es más bonito, pero sigue siendo un informe.

      "Ir más allá del informe" significa considerar la evaluación como un proceso que no termina con un solo producto, ya sea visual o no.

      La comunicación de los resultados y la puesta en común de las ideas deben producirse en todo momento, de muchas formas.

      Una buena evaluación no tiene por qué ser un "informe".

      Abogo por estrategias y opciones para compartir ideas y resultados con diferentes audiencias, a lo largo de todo el proceso.

      Lo que podría NO incluir un informe. La redacción de un informe requiere mucho tiempo, y se lleva un gran porcentaje del tiempo de la evaluación.

      ¿Es la mejor inversión? ¿Es necesario? Estamos tan acostumbrados a pensar que una evaluación es un informe que no lo cuestionamos.

      Además... al lado de las evaluaciones en tiempo real está el "intercambio de información en tiempo real".

      Esto es algo muy poco explorado. Sin embargo, puede generar grandes cambios en la forma de evaluar.

      Se trata de compartir ideas preliminares, pruebas, para que las personas que participan en la evaluación puedan contribuir a dar forma a las conclusiones.

      De nuevo: estamos tan acostumbrados a pensar que compartimos los "productos finales" que no se comprenden realmente las posibilidades de compartir información en tiempo real...

      Gracias de nuevo por el gran resumen, realmente ayuda a intensificar el debate y a generar nuevas ideas

      (y, ¿sabes qué? ¡Es un buen ejemplo de "intercambio de información en tiempo real" de nuevas ideas! :-)

    • Oh, ¡bien hecho!

      Es estupendo ver que se reconoce el valor de las imágenes y los elementos visuales.
      Los materiales que has compartido son realmente útiles e inspiradores, gracias.

      Ahora... como alguien que piensa visualmente y en imágenes, siempre he tratado de resumir los hallazgos de una manera más visual.
      Los gráficos, los dibujos, la multimería son vistos como algo "bonito" y genial. A todo el mundo le gustan y siente que son útiles.

      Pero, ¿adivinen qué? Luego tengo que elaborar un informe normal, porque es lo que quieren los donantes.
      Así que los visuales hay que hacerlos como algo aparte. Por supuesto, de forma gratuita.

      El tiempo para hacer informes no suele ser suficiente en una consultoría, así que si quieres demostrar que los visuales u otros medios son mejores, básicamente tienes que trabajar gratis.
      Porque, al fin y al cabo, seguirás teniendo que redactar el informe correspondiente.

      ¿La conclusión?

      Hasta que las evaluaciones no se perciban principalmente como requisitos e informes burocráticos... nos perderemos fantásticas posibilidades de aprender mejor.
      Y también de involucrar a personas que podrían tener fantásticas habilidades de aprendizaje, análisis y comunicación, pero que no son redactores de informes.
      Es tan lamentable que asumamos que la "redacción de informes" por sí sola es la mejor manera de captar y transmitir las pruebas y los conocimientos...

       

    • ¿Hay alguna posibilidad de que dejemos de pensar que una evaluación es... un informe?

      Se desbloquearían tantas posibilidades.

    • Lo que me llama la atención es que todos discutimos las Teorias del Cambio como si fueran "una cosa"......
      Hablar de un "logframe" es fácil, hay un formato estándar para él
      Puede ser ligeramente adaptado, pero está bastante claro lo que es, cómo se ve, cómo funciona.

      Lo mismo no es cierto para las TdC.  Lo que es una TdC puede ser muy diferente.
      Creo que todos podríamos usar la misma palabra, pero teniendo algo muy diferente en mente...

    • Depende de qué es una teoría del cambio y cómo se ha generado / compartido.

      Si sigue siendo el mismo que un gran marco lógico, oculto en algunas propuestas ... no agrega mucho valor.

      Si es cogenerado y de propiedad ... posiblemente EMERGENTE del proceso de cambio, entonces es un valor agregado.

      Como evaluadora, veo que el personal sobre el terreno acoge con beneplácito las discusiones a nivel de la teoría del cambio cuando ayudan a sistematizar la experiencia.

      Pero podrían no tener idea y confundirlos como anexos de la propuesta.

      Entonces, si la Teoría del Cambio es solo burocracia, en realidad es una complicación.

      Si es un proceso de sistematización de la experiencia, propiedad de los involucrados en hacer el cambio, es muy útil.

      Lamentablemente, estos últimos son muy raros.