Diseños y Métodos para la Evaluación de Impacto: un viaje necesario hacia la diversidad metodológica


En el vagón central de nuestro Tren de Libros de Evaluación sube hoy una publicación que va a ser una referencia para quienes trabajamos entre proyectos, políticas públicas y el desafío de comprender sus efectos reales. Se trata de Diseños y Métodos para la Evaluación de Impacto, un texto escrito con la claridad, el rigor y la calidez intelectual que caracterizan a un querido colega y amigo, Pablo Rodríguez Bilella. Una obra que, más allá de revisar métodos, recupera algo esencial: la evaluación como un acto de aprendizaje, responsabilidad y honestidad intelectual.

A continuación, te propongo un recorrido estructurado por doce ejes de análisis que permiten apreciar la riqueza, actualidad y pertinencia del libro.

1. Resumen general del libro y su objetivo principal

El texto plantea una visión amplia y matizada sobre qué es realmente una evaluación de impacto, alejándose de la rigidez que ha dominado ciertos debates en las últimas dos décadas. El objetivo central es ampliar el marco de comprensión: una evaluación de impacto no es sinónimo de ensayos aleatorizados, sino de cualquier aproximación sistemática y empírica orientada a comprender los efectos —esperados y no esperados— de una intervención.

Sigue leyendo

Broadening the Range of Designs and Methods for Impact Evaluation


1) Resumen general y objetivo principal

En esta parada del Tren Libros de Evaluación analizamos en historico informe Broadening the Range of Designs and Methods for Impact Evaluation (DFID Working Paper 38, 2012) de los autores: Eliot D. Stern, Nicoletta Stame, John Mayne, Kim Forss, Rick Davies y Barbara Befani. (eba.se) Este informe nace para resolver un problema práctico: los métodos dominantes de evaluación de impacto (EI) —sobre todo experimentales y estadísticos— sólo encajan con una fracción de los programas reales, especialmente en cooperación y políticas públicas complejas. Su objetivo es ampliar el repertorio y ofrecer criterios de selección que prioricen la adecuación al contexto y a las preguntas evaluativas, no la adhesión a una jerarquía rígida de métodos. De hecho, el equipo afirma que “alternativas a los diseños experimentales y cuasi-experimentales pueden alcanzar igual robustez y credibilidad: son diferentes pero equivalentes” (“different but equal”). (assets.publishing.service.gov.uk)

2) Análisis detallado de capítulos y secciones clave

Sigue leyendo