1. Resumen general del libro y su objetivo principal
El libro de Michael Quinn Patton, «Developmental Evaluation: Applying Complexity Concepts to Enhance Innovation and Use» (2011), que lo hemos traducido siempre en este blog por: “Evaluación durante el desarrollo (EDD): aplicar conceptos de complejidad para potenciar la innovación y el uso”, representa una de las obras más influyentes en la evolución contemporánea de la evaluación.
Su objetivo principal es ofrecer un marco conceptual y práctico para evaluar iniciativas en contextos de alta incertidumbre, innovación o cambio continuo, donde los modelos de intervención no están cerrados.
Patton parte de una observación sencilla pero revolucionaria: los modelos clásicos de evaluación —formativa (para mejorar) y sumativa (para juzgar resultados)— no sirven bien en entornos de innovación. Cuando un programa aún está “en construcción”, la evaluación debe estar presente durante su desarrollo, no al margen ni al final.
La EDD, por tanto, se convierte en una herramienta de aprendizaje y adaptación que acompaña la innovación mientras sucede. Es la evaluación que viaja dentro del tren, no la que espera en la estación final para levantar acta.
Dentro de nuestra serie sobre psicología social y deLibros de Evaluación, nos ocupamos hoy del libro de Mark, Donaldson & Campbell (2011) – Psicología social y evaluación de programas: Una mirada fresca, práctica y sorprendentemente humana a la evaluación
💬 “Evaluar bien no es solo medir: es comprender por qué la gente hace lo que hace.”
1️⃣ Resumen general del libro y su objetivo principal
Editado por Melvin M. Mark, Stewart I. Donaldson y Bernadette Campbell, el volumen cruza dos mundos que rara vez conversaban con profundidad: psicología socialy evaluación de programas. Su tesis es directa: entender procesos psicosociales (actitudes, normas, sesgos, influencia) mejora el diseño, la implementación, la interpretación y el uso de las evaluaciones. Traducción al lenguaje de nuestro blog TriPLEAD: menos informes que “duermen en cajones”, más evidencia que la gente acepta, entiende y utiliza.
2️⃣ Análisis de capítulos o secciones principales
La estructura facilita mucho el viaje:
I. Panorama y fundamentos
Cap. 1. The Past, the Present, and Possible Futures… (Mark, Donaldson & Campbell): ubica el puente entre disciplinas y plantea una agenda de cooperación teoría–práctica.
II. Teorías psicosociales como guías para diseño y evaluación
En tiempos de incertidumbre estructural y cuestionamiento o agotamiento de modelos, tanto la cooperación internacional como su aparato evaluativo atraviesan una fase de transición profunda. Este post esta dentro de la serie «Repensar la ayuda». Como analicé en «Liminalidad: oportunidad para reformular la ayuda» (Rodríguez Ariza, 2025a), nos encontramos en un momento liminal, en el sentido propuesto por Victor Turner: un umbral donde lo anterior se cuestiona, erosiona, agota o descompone sin que lo nuevo esté plenamente definido. Esta zona intermedia, más que un vacío, puede ser un campo fértil de reinvención. ¿Qué implica evaluar desde este umbral? ¿Qué horizontes se abren cuando las estructuras pierden su aura de inevitabilidad?
Una variable crítica en este escenario es la irrupción de la inteligencia artificial (IA) en el campo evaluativo. Su despliegue puede representar una palanca de renovación o, por el contrario, consolidar los sesgos y ritualismos de los modelos cuestionados o agotados. Evaluar desde el umbral exige también repensar el lugar de la IA en los procesos evaluativos, desde la generación de evidencia hasta la rendición de cuentas y la deliberación pública.
1. ¿Qué está en crisis? Erosión o desgaste de paradigmas
La evaluación dominante, anclada en la neutralidad tecnocrática, comienza a mostrar su cuestionamiento o agotamiento. Modelos centrados sobre todo en resultados cuantificables, estándares universales y lógicas verticales ya no responden a contextos de injusticia estructural ni a relaciones de poder desiguales. En «Evaluación y cooperación en tiempos de restricciones» (Rodríguez Ariza, 2025b), abordé cómo estas lógicas han colonizado el campo, desplazando el sentido público y deliberativo de la evaluación. La crisis no es solo metodológica y técnica: es ética, epistemológica y política.
Asimismo, como desarrollé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta crisis implica también una pérdida de legitimidad institucional. Las estructuras de ayuda se perciben rígidas, lejanas o desconectadas de las prioridades reales. En ese marco, la evaluación no puede seguir (a) siendo una herramienta que señala más los síntomas que las causas últimas u originarias, (b) centrada en aspectos más operativos y/o periféricos que estructurales. Debe dejar de ser un instrumento de verificación burocrática para transformarse en vehículo de reconstrucción de confianza, legitimidad y pertinencia social.
La IA se inserta aquí como catalizador ambiguo. Puede contribuir a la transparencia y eficiencia, pero también perpetuar automatismos, opacidad algorítmica o una “gobernanza sin sujeto”. Sin dirección crítica, podría reforzar una evaluación despolitizada, funcionalista y reduccionista.
2. Crítica estructural al sistema evaluativo
Una parte del sistema actual de evaluación funciona como un dispositivo simbólico más que como una herramienta transformadora. Autores como Michael Power (1997) en The Audit Society, y Dahler-Larsen (2011) en The Evaluation Society, han demostrado cómo las evaluaciones tienden a convertirse en rituales de rendición de cuentas, en algunos casos de gran rigor y calidad técnica, pero en muchas ocasiones sin utilidad real. Este ritualismo genera a menudo:
Evaluaciones costosas, pero de baja utilidad práctica.
Informes desconectados de la toma de decisiones.
Poca participación significativa de actores clave.
Reificación de lo cuantificable sobre lo relevante.