¿Qué enfoque metodológico usamos con nuestra Teoría del Cambio? Evaluación realista, análisis de contribución o evaluación basada en teoría
No existe una única forma correcta de utilizar la Teoría del Cambio (TdC). Todo depende de cómo evaluamos, para qué y con qué preguntas.
Introducción
Una Teoría del Cambio (TdC) es mucho más que un diagrama inicial. Puede ser una hipótesis causal para contrastar, una narrativa que articula mecanismos de cambio o una plataforma para aprender de la evidencia. Pero para que esto funcione, la TdC debe adaptarse al enfoque metodológico que adoptemos.
En muchas evaluaciones caemos en una trampa: diseñamos una TdC sólida al inicio y luego intentamos usarla igual sin importar el enfoque adoptado. El resultado: confusión, debilidad analítica y pérdida de valor.
En este artículo exploramos tres enfoques metodológicos clave y cómo cada uno utiliza la TdC de forma diferente —y también cómo podemos combinarlos de manera complementaria, cuando lo hacemos con claridad estratégica.
“La Teoría del Cambio no debe quedarse en el papel. Su verdadero valor emerge cuando estructura el análisis y guía la toma de decisiones.”
Introducción: El dilema de la ToC decorativa
La Teoría del Cambio (TdC) ha ganado terreno como herramienta estratégica en el diseño y evaluación de programas. Desde UNICEF hasta USAID, pasando por GIZ, UNDP y fundaciones globales, todos la usan. Pero hay un problema frecuente: se elabora al inicio y luego se abandona.
La TdC queda como un gráfico bonito, un anexo más. Pero no se actualiza, no estructura hipótesis ni se conecta con la matriz evaluativa.
Entonces, ¿cómo lograr que la TodC sea realmente útil y no solo decorativa?
Este post ofrece reflexiones: cómo operativizar la TdC para que sirva como brújula metodológica en el análisis evaluativo, basada en experiencias y contrastada con buenas prácticas globales.
En tiempos de incertidumbre estructural y cuestionamiento o agotamiento de modelos, tanto la cooperación internacional como su aparato evaluativo atraviesan una fase de transición profunda. Este post esta dentro de la serie «Repensar la ayuda». Como analicé en «Liminalidad: oportunidad para reformular la ayuda» (Rodríguez Ariza, 2025a), nos encontramos en un momento liminal, en el sentido propuesto por Victor Turner: un umbral donde lo anterior se cuestiona, erosiona, agota o descompone sin que lo nuevo esté plenamente definido. Esta zona intermedia, más que un vacío, puede ser un campo fértil de reinvención. ¿Qué implica evaluar desde este umbral? ¿Qué horizontes se abren cuando las estructuras pierden su aura de inevitabilidad?
Una variable crítica en este escenario es la irrupción de la inteligencia artificial (IA) en el campo evaluativo. Su despliegue puede representar una palanca de renovación o, por el contrario, consolidar los sesgos y ritualismos de los modelos cuestionados o agotados. Evaluar desde el umbral exige también repensar el lugar de la IA en los procesos evaluativos, desde la generación de evidencia hasta la rendición de cuentas y la deliberación pública.
1. ¿Qué está en crisis? Erosión o desgaste de paradigmas
La evaluación dominante, anclada en la neutralidad tecnocrática, comienza a mostrar su cuestionamiento o agotamiento. Modelos centrados sobre todo en resultados cuantificables, estándares universales y lógicas verticales ya no responden a contextos de injusticia estructural ni a relaciones de poder desiguales. En «Evaluación y cooperación en tiempos de restricciones» (Rodríguez Ariza, 2025b), abordé cómo estas lógicas han colonizado el campo, desplazando el sentido público y deliberativo de la evaluación. La crisis no es solo metodológica y técnica: es ética, epistemológica y política.
Asimismo, como desarrollé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta crisis implica también una pérdida de legitimidad institucional. Las estructuras de ayuda se perciben rígidas, lejanas o desconectadas de las prioridades reales. En ese marco, la evaluación no puede seguir (a) siendo una herramienta que señala más los síntomas que las causas últimas u originarias, (b) centrada en aspectos más operativos y/o periféricos que estructurales. Debe dejar de ser un instrumento de verificación burocrática para transformarse en vehículo de reconstrucción de confianza, legitimidad y pertinencia social.
La IA se inserta aquí como catalizador ambiguo. Puede contribuir a la transparencia y eficiencia, pero también perpetuar automatismos, opacidad algorítmica o una “gobernanza sin sujeto”. Sin dirección crítica, podría reforzar una evaluación despolitizada, funcionalista y reduccionista.
2. Crítica estructural al sistema evaluativo
Una parte del sistema actual de evaluación funciona como un dispositivo simbólico más que como una herramienta transformadora. Autores como Michael Power (1997) en The Audit Society, y Dahler-Larsen (2011) en The Evaluation Society, han demostrado cómo las evaluaciones tienden a convertirse en rituales de rendición de cuentas, en algunos casos de gran rigor y calidad técnica, pero en muchas ocasiones sin utilidad real. Este ritualismo genera a menudo:
Evaluaciones costosas, pero de baja utilidad práctica.
Informes desconectados de la toma de decisiones.
Poca participación significativa de actores clave.
Reificación de lo cuantificable sobre lo relevante.
El mundo de la cooperación internacional está atravesando una de sus mayores crisis desde su consolidación en la segunda mitad del siglo XX. La convergencia entre recortes drásticos en el financiamiento, reestructuraciones internas en las agencias internacionales y una creciente desconfianza hacia los organismos multilaterales ha producido un efecto dominó con implicaciones devastadoras para el sector. Este artículo analiza las causas y consecuencias de esta crisis en 2025, su impacto en el empleo dentro de ONGD y organismos de Naciones Unidas, el sesgo de género que ha aflorado, y plantea caminos posibles para quienes se ven obligados a reinventar su carrera.
1. Una tormenta perfecta: los recortes más agresivos en décadas
En 2025, la cooperación internacional ha sufrido un recorte sin precedentes. Estados Unidos anunció una reducción del 83,7% en su presupuesto para programas internacionales para 2026, pasando de 58.700 millones de dólares en 2025 a apenas 9.600 millones (El País, 2025a). Esto incluye no solo la práctica disolución de USAID, sino también la amenaza latente de cesar todas sus contribuciones a agencias del sistema de Naciones Unidas.
La cooperación bilateral europea también ha sufrido recortes significativos: Francia y Alemania han disminuido su AOD en un 12% y 18% respectivamente, y España en un 25%, priorizando la ayuda vinculada a intereses geopolíticos (Coordinadora ONGD, 2025; Le Monde, 2025). En Reino Unido, el gobierno ha rebajado su compromiso del 0,7% al 0,3% del ingreso nacional bruto destinado a AOD, desviando fondos hacia el gasto militar (The Guardian, 2025).
Estas decisiones han provocado un colapso en la arquitectura del desarrollo global, dejando sin continuidad a proyectos esenciales en salud, educación, igualdad de género y cambio climático.
Este post esta dentro de la serie «Repensar la ayuda» en el contexto actual en el que la cooperación internacional para el desarrollo está atravesando un momento de transformación rápida y profunda. Más allá de los recortes presupuestarios o los factores geopolíticos externos, lo que hoy está en juego es la capacidad del sector para adaptarse a un mundo cambiante, reconectarse con las prioridades de la ciudadanía global y reposicionarse como una herramienta estratégica al servicio del bien público global.
Factores como la inflación global, el auge del nacionalismo o el retorno de conflictos (como Ucrania o Gaza), junto con cambios políticos en países clave, han generado un entorno más incierto. Sin embargo, los desafíos más críticos son internos: estructuras organizativas rígidas, liderazgos complacientes, accountability simbólica y culturas institucionales que penalizan la transparencia. Estas condiciones han limitado la capacidad de innovar, aprender y responder eficazmente.
Este post propone que esta situación no es una condena, sino una oportunidad para rediseñar el futuro del desarrollo. Superarla requiere reformas estructurales, una renovación del contrato político con la sociedad y una transformación profunda de la cultura organizacional del sector. La buena noticia es que existen experiencias, aprendizajes y propuestas concretas para lograrlo.
En el mundo de la innovación para el desarrollo, surge una pregunta crucial: ¿cómo escalar soluciones exitosas sin perder su efectividad en contextos diversos? Esta fue una de las interrogantes centrales exploradas recientemente en un webinario en torno al marco 5D de gestión de la innovación, una herramienta impulsada por UNICEF y el United Nations Innovation Network (UNIN), que busca fortalecer la efectividad y sostenibilidad de soluciones innovadoras, especialmente en contextos humanitarios y de desarrollo orientados a la infancia.
Este enfoque plantea que para lograr un verdadero impacto a escala, es esencial combinar evidencia, empatía, adaptación contextual y diseño centrado en el usuario. Porque escalar no es copiar y pegar, sino adaptar sin diluir.
Escalabilidad vs. Adaptabilidad: un falso dilema
Una de las tensiones más importantes es cómo mantener la esencia de una innovación sin perder la sensibilidad al entorno local. Como afirmó Marc Kaeraa: “una solución de tamaño único no sirve para todos los casos”. Por eso, se recomienda identificar los Minimum Viable Innovation Components (MVIC) y permitir adaptaciones periféricas.
Este principio se refuerza con investigaciones recientes. El artículo de Wiltsey Stirman et al. (2024) plantea que las innovaciones deben evaluarse no solo por su efectividad inicial, sino por su capacidad de adaptabilidad, escalabilidad y sostenibilidad (ASaS). También el enfoque del Scaling Scan (CIMMYT, 2023) ofrece herramientas para analizar sistemáticamente si una solución está lista para escalarse con éxito.
Tecnología como habilitadora del acceso
La IA y la traducción automática son aliadas clave para cerrar brechas de acceso. Como explicó Kaeraa, muchas herramientas vitales no están disponibles en lenguas locales, por lo que estas tecnologías permiten la democratización del conocimiento operativo.
Además, el marco 5D promueve una gestión de innovación basada en datos, con prototipado rápido, evaluación iterativa y enfoque en el usuario (UNICEF, 2023).
La cooperación internacional para el desarrollo atraviesa un periodo de transformaciones profundas. Factores como el giro hacia el aislacionismo en la política exterior estadounidense durante la administración Trump, los efectos socioeconómicos de la pandemia de COVID-19, la prolongada crisis en Ucrania y la reciente escalada de violencia en Gaza han provocado una contracción significativa de los flujos de financiamiento. Esta nueva configuración afecta transversalmente a agencias multilaterales, organizaciones no gubernamentales y actores de cooperación bilateral, obligándolos a repensar sus capacidades institucionales.
En este escenario, muchas organizaciones han respondido con estrategias de reducción de costes —incluyendo recortes de personal y disminución de actividades programáticas— para mantener su viabilidad operativa. Aunque comprensibles desde una lógica de eficiencia, estas medidas pueden derivar en un efecto colateral preocupante: la marginalización de la eficacia como criterio estratégico central y el debilitamiento de las funciones de evidencia.
Estas funciones —que incluyen evaluación, monitoreo, análisis de desempeño, estudios temáticos, gestión del conocimiento, investigación aplicada, sistemas de datos y estructuras de aprendizaje organizacional— son esenciales para generar, interpretar y utilizar información útil en la toma de decisiones. Según Newman, Fisher y Shaxson (2012), el fortalecimiento de estas funciones no puede limitarse a una mejora técnica, sino que requiere transformaciones estructurales en capacidades, incentivos, liderazgo y cultura organizativa.
Un aspecto a tener en cuenta es que en muchas organizaciones, la medición del desempeño – a nivel individual, de equipos y organizacional- no es fiable (o, incluso, como se sabe que no es fiable, no se usa o no se puede utilizar para la toma de decisiones). Como indica Green (2024), la proliferación de métricas centradas en productos (outputs) desconectados del impacto real ha debilitado el potencial de estas funciones para orientar el cambio. Este diagnóstico se alinea con la crítica de Natsios (2010) a la “contraburocracia”: un sistema que premia la cuantificación superficial y penaliza la comprensión contextual.
Durante los años de expansión presupuestaria post-pandemia, las funciones de evidencia tuvieron una oportunidad histórica para consolidarse como eje de aprendizaje y adaptación estratégica. Sin embargo, múltiples estudios (Green, 2024; Center for Global Development, 2023) revelan que, en muchos casos, estas funciones no lograron identificar, poner sobre la mesa o romper los cuellos de botella sistémicos ni ejercer una voz crítica frente a las prioridades impuestas externamente.
En abril de 2025, el investigador canadiense Cameron D. Norman, experto en evaluación, pensamiento sistémico y diseño estratégico, publicó en su blog Censemaking un artículo titulado “Rhinoceros In The Wild: System Models and Reality”. En este post, Norman utiliza una poderosa metáfora visual —el célebre grabado del rinoceronte de Albrecht Dürer— para abordar una problemática muy actual: el uso excesivo y a veces acrítico de modelos de cambio en el diseño de intervenciones sociales y programas de cooperación.
¿Por qué este artículo merece atención? Este artículo resulta provocador y necesario porque cuestiona el uso extendido de modelos de sistemas que, aunque atractivos y bien intencionados, a menudo carecen de evidencia empírica. Como Dürer, que nunca vio un rinoceronte real pero lo ilustró a partir de relatos, muchas veces diseñamos estrategias de cambio basándonos en ideas no verificadas, suposiciones, o representaciones estilizadas que no reflejan fielmente la complejidad de los contextos en los que trabajamos.
Principales ideas y aportes al campo de la evaluación en cooperación
1. Los modelos no son la realidad
Norman sostiene que muchos modelos de sistemas circulan más como símbolos de cambio que como herramientas basadas en observación y análisis riguroso. Al tratar hipótesis como si fueran certezas, corremos el riesgo de construir soluciones sobre mapas equivocados.
2. La utilidad (y el límite) de los modelos visuales
La evidencia científica respalda el uso de herramientas visuales para el aprendizaje, como demuestra la Dual Coding Theory (Paivio), la Cognitive Load Theory (Sweller), y los trabajos de Mayer, Novak y Cañas. Estos modelos ayudan a comprender conceptos complejos al combinar imágenes y palabras. Sin embargo, Norman subraya que este respaldo no se extiende necesariamente a los modelos mismos que usamos para representar realidades sociales.
Continuamos en el post con la serie de posts sobre «repensar la cooperacion internacional«. El sistema de cooperación internacional se sostiene sobre una narrativa que ya no convence: la del Norte que rescata al Sur. Una arquitectura a menudo vertical, colonial, funcional para justificar fondos, pero insuficiente para transformar realidades. Algunos, como William Easterly, afirman incluso que “la ayuda occidental ha hecho más daño que bien cuando se impone desde fuera” (The White Man’s Burden, 2006). Y sin embargo, esa imposición continúa. Bajo nuevos ropajes: innovación, datos, IA.
Pero la escena puede tener retos adicionales. Desde Uganda, Michael Gumisiriza denuncia que la ayuda humanitaria se ha convertido en un “teatro cuidadosamente montado” en el que los refugiados repiten discursos aprendidos para garantizar la continuidad de proyectos que son más negocio que misión (The New Humanitarian, 2025).
Evaluar no basta: hay que transformar
Como evaluador, sé que la evaluación puede contribuir a mejorar los programas. Pero también puede volverse cómplice de un sistema que solo busca legitimarse. Kerry Abbott lo resume con claridad: demasiada evaluación sirve para justificar lo marginalmente efectivo, no para rediseñar desde la raíz.
Evaluabilidad vs. Preparación para la implementación: dos diagnósticos clave en cooperación
En el mundo de la cooperación internacional, actuar rápido no siempre significa actuar bien. Entre presiones por mostrar resultados, ciclos políticos cortos y fondos condicionados, muchas organizaciones tropiezan con dos errores comunes:
🛑 Evaluar sin que haya nada real que evaluar
🛑 Lanzar una estrategia sin estar preparados para implementarla
Para evitar ambos tropiezos, existen dos herramientas poderosas pero frecuentemente confundidas:
👉 la Evaluability Assessment (análisis de evaluabilidad)
👉 y la Readiness Assessment (valoración de preparación para la implementación)
No son lo mismo. No sirven para lo mismo. Y no deben usarse al mismo tiempo.
Pero juntas, pueden marcar la diferencia entre una intervención exitosa y un costoso malentendido.
🔍 Evaluabilidad vs. Preparación: ¿cuál es cuál?
Diagnóstico
¿Qué pregunta responde?
¿Cuándo se usa?
¿Para quién?
Evaluability Assessment
¿Tiene sentido evaluar esta intervención ahora?
Antes de lanzar una evaluación
Equipos de evaluación, donantes
Readiness Assessment
¿Estamos listos para implementar esta intervención?