Diseños y Métodos para la Evaluación de Impacto: un viaje necesario hacia la diversidad metodológica


En el vagón central de nuestro Tren de Libros de Evaluación sube hoy una publicación que va a ser una referencia para quienes trabajamos entre proyectos, políticas públicas y el desafío de comprender sus efectos reales. Se trata de Diseños y Métodos para la Evaluación de Impacto, un texto escrito con la claridad, el rigor y la calidez intelectual que caracterizan a un querido colega y amigo, Pablo Rodríguez Bilella. Una obra que, más allá de revisar métodos, recupera algo esencial: la evaluación como un acto de aprendizaje, responsabilidad y honestidad intelectual.

A continuación, te propongo un recorrido estructurado por doce ejes de análisis que permiten apreciar la riqueza, actualidad y pertinencia del libro.

1. Resumen general del libro y su objetivo principal

El texto plantea una visión amplia y matizada sobre qué es realmente una evaluación de impacto, alejándose de la rigidez que ha dominado ciertos debates en las últimas dos décadas. El objetivo central es ampliar el marco de comprensión: una evaluación de impacto no es sinónimo de ensayos aleatorizados, sino de cualquier aproximación sistemática y empírica orientada a comprender los efectos —esperados y no esperados— de una intervención.

Sigue leyendo

Broadening the Range of Designs and Methods for Impact Evaluation


1) Resumen general y objetivo principal

En esta parada del Tren Libros de Evaluación analizamos en historico informe Broadening the Range of Designs and Methods for Impact Evaluation (DFID Working Paper 38, 2012) de los autores: Eliot D. Stern, Nicoletta Stame, John Mayne, Kim Forss, Rick Davies y Barbara Befani. (eba.se) Este informe nace para resolver un problema práctico: los métodos dominantes de evaluación de impacto (EI) —sobre todo experimentales y estadísticos— sólo encajan con una fracción de los programas reales, especialmente en cooperación y políticas públicas complejas. Su objetivo es ampliar el repertorio y ofrecer criterios de selección que prioricen la adecuación al contexto y a las preguntas evaluativas, no la adhesión a una jerarquía rígida de métodos. De hecho, el equipo afirma que “alternativas a los diseños experimentales y cuasi-experimentales pueden alcanzar igual robustez y credibilidad: son diferentes pero equivalentes” (“different but equal”). (assets.publishing.service.gov.uk)

2) Análisis detallado de capítulos y secciones clave

Sigue leyendo

Rick Davies: El Músico y el Evaluador


Esta mañana mi hijo me despertó con un mensaje urgente, como si hubiese estallado la Tercera Guerra Mundial:

“¡Rick Davies ha muerto, noooo!”

Yo, todavía en estado de hibernación cerebral, entendí lo peor: que había muerto nuestro Rick Davies, el evaluador. Ese hombre que logró poner métricas a lo inmedible, que inventó una gramática para que los proyectos sociales no naufragaran en informes huecos. Mi hijo, estudiante de Políticas, y yo habíamos hablado tanto de evaluación que la confusión parecía lógica.

Pero no: hablaba del otro Rick Davies. El de Supertramp. El de The Logical Song, Dreamer, Goodbye Stranger. El hombre que convirtió un teclado eléctrico en el instrumento de nuestra educación sentimental.

Por un momento, sentí que me habían matado dos veces al mismo Rick Davies.

Sigue leyendo

Evaluabilidad en tiempos de pandemia


Dados los retos que supone la situación actual para la práctica tradicional de la evaluación, empezamos una serie de posts sobre «evaluabilidad». Entre las agencias internacionales de desarrollo parece haber un acuerdo generalizado sobre el significado del término «evaluabilidad». La siguiente definición de la Organización para la Cooperación Económica y el Comité de Ayuda al Desarrollo-Desarrollo (OCDE-CAD) es ampliamente citada y utilizada:

“La medida en que una actividad o proyecto puede evaluarse de manera confiable y creíble” (OCDE-CAD 2010; p.21)

El documento de trabajo del DFID (Davies 2013) sobre la valoración de la evaluabilidad identificó las siguientes dimensiones de evaluabilidad:

• La evaluabilidad «en principio» analizará (1) la claridad de los fundamentos conceptuales y (2) el diseño de la intervención, incluida (a) la teoría subyacente del cambio y (b) cómo se ha traducido en el marco de resultados de la intervención. Sigue leyendo