Estrategias Anti-Evaluación: Aprendiendo Con TRIZ


¿Y si, para entender cómo mejorar los sistemas de evaluación, nos atreviéramos primero a imaginar cómo empeorarlos?

En consonancia con nuestra serie NECD, esta es la provocación que inspira el panel que presentaremos en ReLAC 2025, y que se titula:

👉 “¿Qué podemos hacer (o seguir haciendo) para que los sistemas de evaluación no funcionen nunca?”

No se trata de un ejercicio de cinismo. Se trata de un experimento crítico de aprendizaje. Utilizamos el enfoque TRIZ (Teoría para Resolver Problemas de Invención) —originalmente desarrollado por Genrich Altshuller (1996)— como una metodología para pensar al revés y, desde ahí, desatar reflexiones que rara vez tienen espacio en los discursos institucionales sobre evaluación.

Inspirados en las Estructuras Liberadoras (Lipmanowicz & McCandless, 2013), proponemos un giro irónico y serio a la vez: identificar prácticas, patrones y decisiones que garantizan que nuestros sistemas de evaluación fallen. Porque si podemos nombrarlos, podemos detenerlos. Y, tal vez, transformarlos.

🎯 ¿Por qué usar TRIZ en evaluación?

Sigue leyendo

UN80: La contribución de la Evaluación para potenciar la reforma de la ONU


1.Introducción

    Este post esta dentro de la serie «Repensar la ayuda». En su 80.º aniversario, la ONU no se limita a celebrar. Se embarca en una transformación institucional de gran envergadura. Lanza UN80, una reforma orientada a reducir burocracia, revisar mandatos, fortalecer coherencia y avanzar hacia una arquitectura organizacional más eficiente y adaptada a los desafíos globales.

    Desde un enfoque de evaluación con intención transformadora, surge una oportunidad única: explorar cómo la evaluación puede contribuir activamente a maximizar el impacto y la sostenibilidad de esta reforma.

    2. ¿Qué es UN80 y por qué importa?

      UN80 es una iniciativa del Secretario General António Guterres, lanzada el 12 de marzo de 2025, centrada en tres grandes líneas: eficiencia interna, revisión de mandatos y reestructuración organizacional (Stimson Center, 2025).

      Sigue leyendo

      Cómo convertir errores en gasolina y aciertos en autopistas de cambio


      En toda organización coexisten dos tribus. Una dice “aquí no se falla” (y falla en silencio). La otra dice “fallamos rápido y con propósito” (y aprende a la vista). La diferencia no es genética; es sistémica: cultura, métodos, estructura y normas que convierten cada tropiezo y cada acierto en progreso compartido.


      1) Nombra bien el fallo (o castigarás la innovación)

      No todos los errores son iguales: básicos/evitables, complejos/inevitables y “inteligentes” (exploración en terreno nuevo).
      A los primeros se les diseña fuera, a los segundos se les amortigua y a los terceros se les busca porque abren camino (Edmondson, 2011; Edmondson, 2023; Rodriguez-Ariza, 2018a–2018c).

      2) Sin seguridad psicológica, el aprendizaje se autoexilia

      Si decir “metí la pata” sale caro, el sistema lo paga doble más adelante. La evidencia reciente vincula la seguridad psicológica con mejores resultados de seguridad clínica y calidad asistencial (Montgomery et al., 2025) y, en empresa, con mayor desempeño y retención (Boston Consulting Group, 2024).
      UNICEF está impulsando esta agenda en cultura organizacional y estrategia con foco en aprendizaje adaptativo y corrección de rumbo (UNICEF, 2025a; 2025b; 2025d), además de un playbook práctico para conversaciones que refuercen inclusión y seguridad psicológica (UNICEF, 2025c). Sobre la psicología que nos dificulta reconocer errores, ver la disonancia cognitiva (Rodriguez-Ariza, 2018d).

      Sigue leyendo

      Los errores se convierten en armadura de innovación


      Cómo los errores no solo se perdonan, sino se convierten en tu armadura de innovación

      Imagina que acabas de derramar café sobre un informe clave antes de enviarlo. Te mueres de vergüenza, pero… boom, justo ahí se enciende una chispa. Ese pequeño desastre, ese “error sexy”, podría ser el comienzo de algo genial.

      1. Dile adiós al error-lineal: no vale solo reportarlo, hay que sabotearlo con humor…

      En “Aprendiendo de los errores”, Basados en Amy Edmondson nos lanzamos el primer disparo certero: el error no es un “informe de autopsia”, sino una oportunidad para recalcular y reinventar. Si solo recapacitas superficialmente, estás viendo el error como una mancha en tu historial, no como un trampolín de innovación.

      • El error simple, ese por descuido o rutina, pide reintegrar atención y revisar procesos.
      • El error complejo, sin previo aviso por múltiples causas, es una escuela de sabiduría forzada.
      • El error inteligente, ese del que aprendes al experimentar, es tu brújula hacia lo disruptivo.

      2. Cultura y liderazgo: ¿castigo o apertura sexy?

      Sigue leyendo

      Millones en informes… y casi nadie los lee


      Hace unos meses, un amigo me confesó que jamás había leído un informe de la ONU. “No es que no me importe el mundo —me dijo—, pero cada vez que intento abrir uno, parece que me estén hablando en otro idioma”. Esa misma semana descubrí un dato que lo resume todo: un vídeo promedio de TikTok consigue más vistas en una hora que la mayoría de los informes de la ONU en todo un año (United Nations, 2025).

      La ONU produce más de 1 100 informes anuales, revisados por decenas de departamentos y aprobados por casi 200 países. Sin embargo, un informe reciente reveló que el 20 % de estos documentos recibe menos de 1 000 descargas al año y solo un 5 % supera las 5 500 descargas (Reuters, 2025). Y ojo: descargar no significa leer.

      ¿Por qué ocurre esto?
      No es un problema de inteligencia, sino de comunicación. Investigaciones en comunicación científica muestran que el exceso de tecnicismos y la falta de narrativa disminuyen drásticamente la comprensión y el interés (Science Communication Journal, 2023; Public Understanding of Science, 2022). A esto se suma el “Efecto Comité”: textos escritos por decenas de autores y revisores que terminan sonando diplomáticos… y aburridos.

      Sigue leyendo

      Muestreo con Propósito: de la Paella con Plátano al Menú Degustación


      🌶️PRÓLOGO: ¿QUÉ NOS ESTAMOS COMIENDO?

      Hay cosas que deberían tener criterio.

      Una es la comida.

      Otra es la selección de casos en una evaluación.

      Y sin embargo, más de una vez, alguien dice:

      “Haremos muestreo intencional… iremos a donde parezca interesante”.

      Eso, traducido al lenguaje culinario, es:

      “Hice una paella… con lo que había en la nevera”.

      Y así acabas comiéndote mejillones con plátano y salchichas.

      Lo mismo pasa en evaluación: sitios mal elegidos, visitas inútiles, narrativas sin sentido.

      El resultado: un trabajo de campo indigesto y conclusiones flojas.

      🍽️ ¿QUÉ ES (Y QUÉ NO ES) EL MUESTREO INTENCIONAL?

      Es:

      • Seleccionar sitios y personas porque aportan valor directo a las preguntas de evaluación.
      • Hacerlo con base en la teoría del cambio, hipótesis claras y brechas de información.
      • Asegurar variedad estratégica (zonas, resultados, modelos, públicos).

      No es:

      • Ir “donde queda cerca del aeropuerto”.
      • Visitar “lo que propone la contraparte”.
      • Elegir casos “raros” o “fotogénicos” sin razón clara.
      • Armar un recorrido “para quedar bien” con todo el mundo.

      👨‍🍳 ¿CUÁNDO SABE BIEN Y CUÁNDO SE TE INDIGESTA?

      Sigue leyendo

      Duelo Final: Realist, Contribution y Theory-Based en la Corte de la Evaluación


      Una sala imponente. Mármoles brillantes. El eco de pasos firmes resuena mientras se abren las puertas del Gran Tribunal Evaluativo. En el estrado, un jurado severo observa en silencio. Tres evaluadores —con estilos distintos, trajes de lógica y argumentos afilados— se preparan para defender su enfoque. El caso: evaluar un programa de prevención comunitaria en municipios priorizados. El reto: demostrar cuál enfoque evaluativo explica mejor cómo, por qué y con qué efectos funciona.

      Escena I: El caso a resolver

      Objeto evaluativo:

      Un programa implementado por una Agencia y aliados locales para fortalecer capacidades municipales, prevenir violencia en comunidades y usar un sistema de información (SIGADENAH) en decisiones locales.

      Preguntas evaluativas clave (EQs):

      • ¿Cómo cambiaron las capacidades institucionales?
      • ¿Qué facilitó la adopción del modelo?
      • ¿Cómo se integraron las acciones preventivas?
      • ¿Qué tan útil es el Programa?

      Escena II: Entran los tres enfoques

      Sigue leyendo

      Teoría del Cambio: realista, contribución o basada en teoría


      ¿Qué enfoque metodológico usamos con nuestra Teoría del Cambio? Evaluación realista, análisis de contribución o evaluación basada en teoría

      No existe una única forma correcta de utilizar la Teoría del Cambio (TdC). Todo depende de cómo evaluamos, para qué y con qué preguntas.

      Introducción

      Una Teoría del Cambio (TdC) es mucho más que un diagrama inicial. Puede ser una hipótesis causal para contrastar, una narrativa que articula mecanismos de cambio o una plataforma para aprender de la evidencia. Pero para que esto funcione, la TdC debe adaptarse al enfoque metodológico que adoptemos.

      En muchas evaluaciones caemos en una trampa: diseñamos una TdC sólida al inicio y luego intentamos usarla igual sin importar el enfoque adoptado. El resultado: confusión, debilidad analítica y pérdida de valor.

      En este artículo exploramos tres enfoques metodológicos clave y cómo cada uno utiliza la TdC de forma diferente —y también cómo podemos combinarlos de manera complementaria, cuando lo hacemos con claridad estratégica.

      Sigue leyendo

      Cómo hacer Útil la Teoría del Cambio en evaluaciones


      “La Teoría del Cambio no debe quedarse en el papel. Su verdadero valor emerge cuando estructura el análisis y guía la toma de decisiones.”

      Introducción: El dilema de la ToC decorativa

      La Teoría del Cambio (TdC) ha ganado terreno como herramienta estratégica en el diseño y evaluación de programas. Desde UNICEF hasta USAID, pasando por GIZ, UNDP y fundaciones globales, todos la usan. Pero hay un problema frecuente: se elabora al inicio y luego se abandona.

      La TdC queda como un gráfico bonito, un anexo más. Pero no se actualiza, no estructura hipótesis ni se conecta con la matriz evaluativa.

      Entonces, ¿cómo lograr que la TodC sea realmente útil y no solo decorativa?

      Este post ofrece reflexiones: cómo operativizar la TdC para que sirva como brújula metodológica en el análisis evaluativo, basada en experiencias y contrastada con buenas prácticas globales.

      Sigue leyendo

      Reimaginando la evaluación en tiempos de cambio


      En tiempos de incertidumbre estructural y cuestionamiento o agotamiento de modelos, tanto la cooperación internacional como su aparato evaluativo atraviesan una fase de transición profunda. Este post esta dentro de la serie «Repensar la ayuda». Como analicé en «Liminalidad: oportunidad para reformular la ayuda» (Rodríguez Ariza, 2025a), nos encontramos en un momento liminal, en el sentido propuesto por Victor Turner: un umbral donde lo anterior se cuestiona, erosiona, agota o descompone sin que lo nuevo esté plenamente definido. Esta zona intermedia, más que un vacío, puede ser un campo fértil de reinvención. ¿Qué implica evaluar desde este umbral? ¿Qué horizontes se abren cuando las estructuras pierden su aura de inevitabilidad?

      Una variable crítica en este escenario es la irrupción de la inteligencia artificial (IA) en el campo evaluativo. Su despliegue puede representar una palanca de renovación o, por el contrario, consolidar los sesgos y ritualismos de los modelos cuestionados o agotados. Evaluar desde el umbral exige también repensar el lugar de la IA en los procesos evaluativos, desde la generación de evidencia hasta la rendición de cuentas y la deliberación pública.

      1. ¿Qué está en crisis? Erosión o desgaste de paradigmas

      La evaluación dominante, anclada en la neutralidad tecnocrática, comienza a mostrar su cuestionamiento o agotamiento. Modelos centrados sobre todo en resultados cuantificables, estándares universales y lógicas verticales ya no responden a contextos de injusticia estructural ni a relaciones de poder desiguales. En «Evaluación y cooperación en tiempos de restricciones» (Rodríguez Ariza, 2025b), abordé cómo estas lógicas han colonizado el campo, desplazando el sentido público y deliberativo de la evaluación. La crisis no es solo metodológica y técnica: es ética, epistemológica y política.

      Asimismo, como desarrollé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta crisis implica también una pérdida de legitimidad institucional. Las estructuras de ayuda se perciben rígidas, lejanas o desconectadas de las prioridades reales. En ese marco, la evaluación no puede seguir (a) siendo una herramienta que señala más los síntomas que las causas últimas u originarias, (b) centrada en aspectos más operativos y/o periféricos que estructurales. Debe dejar de ser un instrumento de verificación burocrática para transformarse en vehículo de reconstrucción de confianza, legitimidad y pertinencia social.

      La IA se inserta aquí como catalizador ambiguo. Puede contribuir a la transparencia y eficiencia, pero también perpetuar automatismos, opacidad algorítmica o una “gobernanza sin sujeto”. Sin dirección crítica, podría reforzar una evaluación despolitizada, funcionalista y reduccionista.

      2. Crítica estructural al sistema evaluativo

      Una parte del sistema actual de evaluación funciona como un dispositivo simbólico más que como una herramienta transformadora. Autores como Michael Power (1997) en The Audit Society, y Dahler-Larsen (2011) en The Evaluation Society, han demostrado cómo las evaluaciones tienden a convertirse en rituales de rendición de cuentas, en algunos casos de gran rigor y calidad técnica, pero en muchas ocasiones sin utilidad real. Este ritualismo genera a menudo:

      • Evaluaciones costosas, pero de baja utilidad práctica.
      • Informes desconectados de la toma de decisiones.
      • Poca participación significativa de actores clave.
      • Reificación de lo cuantificable sobre lo relevante.

      Sigue leyendo