Diseños y Métodos para la Evaluación de Impacto: un viaje necesario hacia la diversidad metodológica

En el vagón central de nuestro Tren de Libros de Evaluación sube hoy una publicación que va a ser una referencia para quienes trabajamos entre proyectos, políticas públicas y el desafío de comprender sus efectos reales. Se trata de Diseños y Métodos para la Evaluación de Impacto, un texto escrito con la claridad, el rigor y la calidez intelectual que caracterizan a un querido colega y amigo, Pablo Rodríguez Bilella. Una obra que, más allá de revisar métodos, recupera algo esencial: la evaluación como un acto de aprendizaje, responsabilidad y honestidad intelectual.

A continuación, te propongo un recorrido estructurado por doce ejes de análisis que permiten apreciar la riqueza, actualidad y pertinencia del libro.

1. Resumen general del libro y su objetivo principal

El texto plantea una visión amplia y matizada sobre qué es realmente una evaluación de impacto, alejándose de la rigidez que ha dominado ciertos debates en las últimas dos décadas. El objetivo central es ampliar el marco de comprensión: una evaluación de impacto no es sinónimo de ensayos aleatorizados, sino de cualquier aproximación sistemática y empírica orientada a comprender los efectos —esperados y no esperados— de una intervención.

El libro busca, con intención pedagógica, ensanchar el repertorio metodológico y contribuir a que la toma de decisiones basada en evidencia sea más realista, contextual y sensible a la complejidad de los programas de desarrollo.

2. Análisis de capítulos y secciones principales 

La estructura del libro es clara, progresiva y muy didáctica. Abarca ocho partes que conforman un pequeño curso acelerado sobre la práctica contemporánea de la evaluación de impacto.

1) Introducción

Plantea el contexto: un mundo donde se exige cada vez más “políticas basadas en evidencia”, pero donde esa evidencia ha sido tradicionalmente estrecha, centrada en procesos y outputs, no en impactos reales. Se destaca el desbalance entre la expectativa social y la capacidad metodológica efectiva.

2) Definiendo la evaluación de impacto

Aquí se propone una definición inclusiva: cualquier evaluación que investigue sistemáticamente los impactos que una intervención produce. Esto abre la puerta a métodos diversos, períodos distintos (corto, mediano y largo plazo) y enfoques complementarios.

3) Debates alrededor de la evaluación de impacto

Es uno de los capítulos más potentes. Rodríguez Bilella revisa el debate entre:

  • “randomistas” defensores del RCT como “bala de oro”, y
  • pluralistas que señalan sus limitaciones prácticas (factible en <5% de programas) y su escasa capacidad para generalizar.

Se revisa el concepto de contrafactual y sus límites para abordar intervenciones complejas o procesos de cambio no lineales.

4) ¿Qué preguntas intenta contestar la evaluación de impacto?

Aquí el autor aterriza las preguntas esenciales:

  • ¿Qué cambió?
  • ¿En qué medida?
  • ¿Por qué?
  • ¿Tiene que ver la intervención?

Pero también incorpora preguntas emergentes como la aparición de efectos no deseados y la contribución en vez de la atribución estricta.

5) Actores y oportunidad para la evaluación

El texto subraya que la evaluación no es un acto técnico aislado: intervienen financiadores, beneficiarios, gobiernos locales, ONG, agencias internacionales y equipos evaluadores. La pertinencia temporal —cuándo evaluar— es analizada con particular claridad.

6) Aspectos clave para elegir métodos

Esta sección constituye el núcleo operativo del libro. Retoma seis pasos clave (según Rogers):

  1. Clarificar valores
  2. Generar teoría del cambio
  3. Medir o describir impactos
  4. Explicar causalidad
  5. Sintetizar evidencia
  6. Informar y usar hallazgos

Cada paso se desarrolla con ejemplos concretos, tensiones habituales y decisiones metodológicas críticas.

7) Mirada a diferentes enfoques de diseño

Con gran capacidad de síntesis, el autor expone tres enfoques con enorme potencial —pero poco difundidos— en la formación evaluativa:

  • Enfoques basados en la teoría
  • Estudios de caso
  • Enfoques participativos

Aquí el libro se vuelve especialmente útil porque reivindica inteligentemente métodos que no siempre reciben el mismo reconocimiento que los RCT.

8) A modo de cierre

Retoma el hilo conductor: la evaluación de impacto debe ser situacional, deliberada, flexible y centrada en el uso.

3. Temas y mensajes principales del autor

  • La evaluación de impacto debe adaptarse al contexto, no forzar modelos ajenos.
  • La pluralidad de métodos es una fortaleza, no una desviación.
  • Las intervenciones de desarrollo son complejas, no lineales, y requieren enfoques sensibles a esa realidad.
  • El propósito central es aprender, mejorar y rendir cuentas.
  • El énfasis debe ponerse en la contribución al cambio, más que en atribuciones deterministas.
  • No existe un método universal: existe la elección situada.

4. Innovación y valor añadido frente a otras obras

Este libro aporta un valor añadido notable en el campo hispanohablante por tres razones:

1.) Democratiza el debate metodológico

Explica con sencillez discusiones complejas —RCT vs. métodos alternativos— sin caricaturizar ninguna postura.

2.) Revaloriza enfoques poco enseñados

Pone en el centro a los enfoques basados en la teoría, los estudios de caso y las metodologías participativas, reconociendo su capacidad para responder preguntas causales en escenarios reales.

3.) Integra complejidad, rigor y flexibilidad

La innovación conceptual más fuerte del texto es la idea de que la rigurosidad no depende del tipo de método sino de:

  • la claridad conceptual,
  • la lógica causal,
  • la calidad de los datos y
  • la transparencia evaluativa.

4.) Propone un pluralismo moderno

Su aporte transversal es la defensa de un pluralismo metodológico situado, algo indispensable para evaluaciones contemporáneas (gobernanza, democracia, sostenibilidad, accountability), donde los RCT tienen poco lugar práctico o ético.

5. Utilidad práctica y consejos aplicables

El libro es extraordinariamente útil para:

  • diseñar evaluaciones desde cero, definiendo quiénes participan, cuándo evaluar y cómo encuadrar preguntas realistas;
  • definir teorías del cambio sólidas y operativas;
  • elegir métodos adecuados, evitando modas o presiones institucionales;
  • combinar métodos cuantitativos y cualitativos con sentido causal;
  • reportar hallazgos útiles, accesibles y orientados a la toma de decisiones;
  • gestionar expectativas, sobre todo en programas complejos.

El mensaje es claro: no se trata de aplicar métodos rígidos, sino de tomar buenas decisiones evaluativas.

6. Críticas y opiniones 

Positivas

  • Claridad conceptual y didáctica.
  • Excelente síntesis del debate sobre rigor y pluralismo.
  • Aporte relevante en castellano, accesible y aplicable.
  • Reivindicación de métodos poco visibilizados.

Críticas posibles

  • El texto podría profundizar más en ejemplos empíricos extensos.
  • La discusión sobre medición de largo plazo es sólida, pero podría incluir estrategias más operativas.
  • Algunos lectores muy técnicos pueden buscar mayor detalle estadístico.

Aun así, estas limitaciones son menores frente a la contribución general.

7. Comparación con otras obras del mismo autor y del campo

Con relación a otros escritos de Rodríguez Bilella —particularmente sus trabajos previos sobre triangulación y evaluación centrada en el actor— este texto:

  • mantiene la coherencia conceptual,
  • fortalece la dimensión metodológica y
  • amplía la mirada hacia debates contemporáneos.

En comparación con bibliografía dominante del campo (generalmente anglosajona y centrada en RCT), este libro aporta una mirada más equilibrada y más útil para América Latina, donde los programas no siempre permiten diseños experimentales.

8. Recomendaciones de lecturas complementarias

Sin salir del espíritu del libro, hay un pequeño “corredor de lecturas” que dialoga muy bien con lo que plantea Diseños y Métodos para la Evaluación de Impacto y que ayuda a llevar sus ideas a un nivel aún más operativo:

  1. Patricia Rogers y la arquitectura de la evaluación de impacto
    Sus textos sobre evaluación de impacto y teoría del cambio ofrecen el “esqueleto conceptual” que el libro de Rodríguez Bilella aterriza para el contexto latinoamericano. Rogers insiste en:
    • formular preguntas evaluativas (no solo descriptivas);
    • articular una teoría de cambio explícita;
    • y combinar métodos según el tipo de inferencia causal que necesitamos.
      Leerla en paralelo permite entender mejor por qué el libro dedica tanto espacio a clarificar valores, teorías de cambio y tipos de causalidad: no es un adorno teórico, sino el corazón de las decisiones sobre diseño.
  2. Scriven y Davidson sobre síntesis evaluativa y rúbricas
    En el texto se recomienda expresamente el trabajo de Michael Scriven y Jane Davidson sobre el “problema de la síntesis” y el uso de rúbricas evaluativas.
    Estos aportes complementan al libro al mostrar:
    • cómo pasar de muchos datos dispersos a un juicio evaluativo global;
    • cómo explicitar criterios de calidad y niveles de desempeño;
    • y cómo hacer esa síntesis de forma transparente y defendible.
      Si el libro de Rodríguez Bilella te dice “no basta medir, hay que juzgar con criterio”, Scriven/Davidson te muestran cómo hacerlo paso a paso.
  3. David Bonbright y el uso de los resultados
    La guía de Bonbright sobre el uso de los resultados de la evaluación de impacto aparece como lectura recomendada cuando el libro aborda el último de los seis aspectos clave: cómo informar hallazgos y favorecer su uso.
    Mientras que Diseños y Métodos… enmarca la importancia de pensar en el uso desde el diseño, Bonbright se concentra en estrategias concretas para que los informes no mueran en un cajón: diálogos con actores, formatos amigables, acuerdos de seguimiento, etc.
  4. Enfoques basados en teoría, estudios de caso y métodos mixtos
    El propio texto sugiere profundizar en:
    • literatura sobre evaluaciones basadas en teoría, que permite abrir la “caja negra” de los procesos de cambio;
    • trabajos sobre análisis comparativo cualitativo, estudios de caso y diseños configuracionales, clave para contextos complejos;
    • y guías de métodos mixtos que muestren cómo combinar con sentido encuestas, RCT (cuando son posibles), historias de cambio significativo y análisis de contribución.

En conjunto, estas lecturas no son simples “extras”, sino extensiones naturales del libro: permiten ver que lo que propone Rodríguez Bilella no es una ocurrencia aislada, sino un punto de encuentro entre varias corrientes potentes del pensamiento evaluativo contemporáneo.

9. Fuentes e influencias

El libro está atravesado por un diálogo muy rico entre tres grandes tradiciones:

  1. La agenda global de “políticas basadas en evidencia”
    El texto toma en serio esta agenda, pero la somete a un escrutinio crítico. Reconoce los avances de manuales como los del Banco Mundial, el BID o 3ie, que impulsan los RCT y otros diseños contrafácticos, pero también expone sus límites:
    • la baja factibilidad de aplicar RCT en la mayoría de los programas de desarrollo;
    • la dificultad de generalizar resultados más allá del contexto específico;
    • y la tendencia a reducir la pregunta evaluativa a “¿funcionó?” en vez de “¿cómo, para quién, en qué condiciones y con qué efectos colaterales?”.
  2. La tradición latinoamericana de evaluación participativa y centrada en el actor
    Aquí se siente muy fuerte la influencia del propio recorrido del autor y de experiencias como PREVAL o las comunidades de práctica sobre evaluación participativa. Esta tradición aporta:
    • la mirada sobre agencia de los actores (no son meros receptores de programas, sino co-productores del cambio);
    • la importancia de la triangulación de fuentes, miradas y métodos;
    • y la preocupación ética por la pertinencia cultural y la distribución de beneficios.
  3. El giro hacia la complejidad y los sistemas
    El libro recoge también el desplazamiento desde una visión lineal causa-efecto hacia una comprensión de las intervenciones como procesos complejos, multi-nivel y de largo plazo.
    De ahí su énfasis en:
    • hablar de contribución más que de atribución absoluta;
    • aceptar que, en algunos campos (gobernanza, rendición de cuentas, cambio climático), la evaluación de impacto clásica es simplemente inviable;
    • e incorporar enfoques basados en teoría, estudios de caso y diseños participativos como herramientas legítimas para pensar causalidad.

Desde un punto de vista de meta-análisis conceptual, el libro funciona como un “punto de encuentro” entre estas corrientes: no copia ninguna de forma acrítica, sino que las pone a conversar y produce una síntesis situada para el contexto latinoamericano.

No es solo un compendio de métodos: es una toma de posición frente al debate sobre qué consideramos evidencia, qué llamamos rigor y cómo entendemos el impacto en contextos reales.

La sección más relevante: un capítulo que actúa como “bisagra”

El capítulo “Aspectos clave a considerar en la elección de métodos para la evaluación de impacto” no es solo una sección bien lograda: es la bisagra que articula todo el libro.

Si en los capítulos previos el autor:

  • define qué entiende por impacto,
  • mapea los debates randomistas vs. pluralistas,
  • y discute quiénes evalúan y cuándo hacerlo,

en esta sección convierte esas discusiones en un algoritmo razonado de decisiones:

  1. Clarificar valores
    Antes de preguntar “qué método uso”, el capítulo obliga a preguntarse “qué entendemos por éxito y para quién”.
    Esto desplaza la evaluación de un ejercicio técnico a un ejercicio político y ético explícito.
  2. Construir una teoría del cambio sólida
    No como un diagrama decorativo, sino como hipótesis causal que se puede poner a prueba, identificar rupturas y distinguir entre fallas de diseño y fallas de implementación.
  3. Medir impactos y contexto a la vez
    El capítulo insiste en que no basta con indicadores de resultados: hay que documentar procesos y contexto para entender variaciones, no solo promedios.
  4. Abordar la causalidad en tres frentes
    • lo factual (qué observamos realmente),
    • el contrafactual (qué habría pasado sin la intervención),
    • y las explicaciones alternativas.
      Este enfoque triádico es más sofisticado que la mirada contrafactual clásica y abre la puerta a métodos híbridos (estudios de caso, análisis de contribución, QCA, etc.).
  5. Sintetizar evidencia sin esconder el juicio
    La discusión sobre rúbricas evaluativas y la crítica a las escalas ponderadas automáticas son un aporte clave: recuerdan que la síntesis no es una operación matemática neutra, sino un acto argumentativo que debe ser transparente y defendible.
  6. Informar hallazgos pensando en su uso
    Aquí se enlaza con Bonbright y con la preocupación latinoamericana por la utilidad real de las evaluaciones, más allá del cumplimiento burocrático.

En conjunto, este capítulo es tan citado e influyente porque traduce el debate metodológico en un marco de decisión práctico. Ayuda a pasar de la pregunta “¿qué método es mejor?” a la pregunta “¿qué combinación de métodos tiene más sentido para este programa, estas preguntas y este contexto?”.

Por eso puede leerse como una especie de manual de navegación entre corrientes metodológicas: ofrece una brújula clara, pero deja espacio para que cada equipo evaluador trace su propia ruta, siempre que lo haga con conciencia, argumentos y coherencia.

10. Breve biografía del autor

Pablo Rodríguez Bilella es un referente en evaluación en América Latina, con trayectoria en:

  • evaluación de programas de desarrollo,
  • enfoques participativos,
  • triangulación metodológica,
  • formación de evaluadores.

Ha publicado trabajos clave sobre evaluación centrada en el actor y sobre metodologías de triangulación. Su estilo combina rigor conceptual con una orientación profundamente humana hacia los procesos de cambio.

Una reflexión final desde el Tren de Libros de Evaluación

Este libro es un vagón imprescindible en nuestro viaje. Nos recuerda que evaluar impacto no es medir por medir, ni replicar métodos por moda, sino comprender procesos de cambio en toda su complejidad.

En este tren que avanza entre teorías, métodos y aprendizajes compartidos, la obra de Rodríguez Bilella nos invita a mirar por la ventanilla y preguntarnos:

¿qué cambió, cómo cambió y cómo lo sabemos?

Y sobre todo, nos invita a seguir viajando juntas y juntos, conectando estaciones de conocimiento donde la evaluación se vuelve puente, conversación y mejora continua.

Referencias 

Bonbright, D. (2013). Impact evaluation results: Using them wisely. Keystone Accountability.

Davidson, E. J. (2005). Evaluation methodology basics: The nuts and bolts of sound evaluation. Sage.

Rodríguez Bilella, P. (2025). Diseños y métodos para la evaluación de impacto. Rivadavia. ISBN 978-631-01-0869-8.

Rogers, P. J. (2008). Using programme theory to evaluate complicated and complex aspects of interventions. Evaluation, 14(1), 29–48.

Scriven, M. (1991). Evaluation thesaurus (4th ed.). Sage.

Stern, E., Stame, N., Mayne, J., Forss, K., Davies, R., & Befani, B. (2012). Broadening the range of designs and methods for impact evaluations (DFID Working Paper No. 38). Department for International Development.

White, H. (2009). Theory-based impact evaluation: Principles and practice. Journal of Development Effectiveness, 1(3), 271–284.

Nota: Este artículo fue redactado con apoyo de inteligencia artificial, que también sugirió algunas de las referencias bibliográficas incluidas. Sin embargo, las ideas centrales, el enfoque y la selección final del contenido son completamente mías

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.