Perspectivas Modernas en Evaluación de Programas: Un Enfoque Inclusivo


Como continuacion del post anterior Fundamentos de la Evaluación de Programas: Un libro esencial, dentro de la serie Libros de Evaluación, vamos a desarrollar cómo el modelo revolucionario de «Fundamentos de la Evaluación de Programas» de Shadish, Cook & Leviton se enriqueció desde su hito fundacional (1991) con los debates que lo rebasaron.

1. El legado que no caduca: ¿por qué las cinco familias de evaluación sigue siendo su sección más citada?

Mapa integrador y lenguaje común. Antes de 1991, los enfoques convivían como islas (experimentos, modelos de uso, enfoques de valores, etc.). La propuesta de Shadish, Cook y Leviton ofreció un marco taxonómico que ordenó el campo en cinco familias —experimental, descriptiva/cualitativa, centrada en el uso, centrada en valores y centrada en el contexto— y lo convirtió en un idioma compartido para docencia y práctica. Manuales y artículos posteriores lo adoptaron como “paradigma de referencia” para ubicar debates y decisiones metodológicas.

Puente entre teoría y práctica. La clasificación no prescribe “una” forma de evaluar; normaliza la pluralidad y la convierte en elecciones razonadas (qué valoramos, cómo construimos evidencia, para quién y para qué se usa). Esa “neutralidad operativa” explica su alta citación en currículos y en artículos de revisión.

Estandariza preguntas nucleares. El propio Shadish (1998) muestra cómo el campo discute de manera recurrente cinco ejes (valor, conocimiento, uso, cambio del evaluando y práctica), que encajan con la arquitectura del libro de 1991, reforzando su función de marco metateórico.

Resultado: la clasificación facilitó comparabilidad entre teorías, ayudó a estructurar cursos y a “situarse” en diseños complejos. Por eso sigue apareciendo en revisiones y marcos actuales que explican “de dónde venimos” antes de introducir enfoques contemporáneos.

Por tanto y como ya tratamos en nuestro anterior post Fundamentos de la Evaluación de Programas: Un libro esencial, Shadish, Cook y Leviton (1991) revolucionaron la evaluación al proponer cinco familias teóricas (experimental, descriptiva, centrada en el uso, en valores y en contexto). Fue un mapa epistémico común que:

  • Ordenó un campo fragmentado, funcionando como lenguaje pedagógico y referencia en programas académicos.
  • Actuó como puente entre diversidad y unidad, validando la pluralidad en lugar de imponer un modelo único.
  • Se convirtió en un “esqueleto del campo” citado en manuales, cursos universitarios y artículos de revisión.

2. Más allá del mapa: perspectivas que lo rebasan

Sigue leyendo

Barreras Comunes en el Desarrollo de Capacidades Nacionales en Evaluación


Cuando hablamos de Desarrollo de Capacidades Nacionales de Evaluación (Dentro de nuesta serie NECD), los debates y experiencias acumuladas nos dejan un mosaico complejo pero revelador.

🔎 ¿Qué patrones se repiten?

  • Formar ≠ transformar. La capacitación aislada no asegura cambio si no se integra en instituciones y sistemas.
  • Transferencia frágil. El conocimiento se pierde cuando no hay memoria institucional ni cultura de uso.
  • Evaluación atravesada por el poder. Ningún proceso es neutro: se disputan legitimidades, narrativas e intereses.

Sigue leyendo

De la evidencia a la acción: Claves para desarrollar capacidades en evaluación


Como venimos viendo en nuestra serie NECD, la evaluación ya no es solo un ejercicio técnico. Es aprendizaje, poder, participación, innovación y sostenibilidad. Pero… ¿cómo diseñar una estrategia de desarrollo de capacidades en evaluación que realmente transforme?

Tras revisar literatura clave  emergen 7 ejes comunes que atraviesan las experiencias más relevantes:

🔑 Los 7 ejes de la capacidad evaluativa

  1. Aprendizaje y adaptación → La evaluación como práctica viva que retroalimenta y transforma (Rosenberg & Donaldson, 2020).
  2. Participación e inclusión → “¿Quién cuenta la realidad?” Solo con múltiples voces hay legitimidad (Estrella & Gaventa, 1998; Lipmanowicz & McCandless, 2013).
  3. Institucionalización → No basta capacitar individuos: se necesitan sistemas estables y marcos legales (Mackay, 2007; Goldman et al., 2018).
  4. Uso de la evidencia → De producir informes a incidir en decisiones (Goldman & Pabari, 2020; Holvoet & Renard, 2007).
  5. Política y poder → La evaluación siempre es política: se negocia legitimidad, intereses y narrativas (Gornitzka & Stensaker, 2014; Picciotto, 2011).
  6. Metodologías flexibles → Se requieren enfoques adaptativos, transformadores y decoloniales (Morgan, 2008; Patton, 2010).
  7. Sostenibilidad y transferencia → Menos dependencia externa, más memoria institucional y datos abiertos (Segone, 2009; Rosenberg & Donaldson, 2020).

Sigue leyendo

Cinco retos clave en el desarrollo de capacidades en evaluación


Introducción – El elefante en la sala del NECD

Año tras año, región tras región, se multiplican capacitaciones, talleres y cursos de evaluación. Dentro de nuestra serie NECD, sin embargo, la pregunta incómoda persiste:

👉 ¿Realmente están cambiando los sistemas de evaluación pública, o seguimos atrapados en un modelo de “formar por formar” que no transforma estructuras ni culturas institucionales?

En nuestras realidades, donde la gobernanza se entrelaza con profundas desigualdades, los enfoques tradicionales de desarrollo de capacidades para la evaluación nacional (NECD) muestran límites evidentes. Esta conversación no es nueva. Pero urge actualizarla con una mirada crítica, sistémica, contextualizada… y también creativa.

Aquí entra en escena TRIZ (Altshuller, 1996).

🔍 Nudo – Cinco retos estructurales que siguen sin resolverse

  1. Del individuo a la institución: la desconexión persistente
    La mayoría de las iniciativas siguen enfocadas en capacitar personas, pero sin transformar instituciones. Cuando los técnicos rotan, las capacidades se esfuman (Goldman et al., 2018).
  2. Blended learning ≠ learning blended
    No basta con mezclar talleres presenciales y online. Se necesita pedagogía: ¿qué se combina, cómo se aplica, cómo se convierte en aprendizaje duradero? (Rosenberg & Donaldson, 2020).
  3. Oferta sin demanda: el vacío político
    Más cursos ≠ más evaluación. Si la demanda institucional y política es débil, la evaluación se queda en trámite sin impacto (Holvoet & Renard, 2007).
  4. Aislamiento institucional: alianzas frágiles y roles difusos
    Faltan marcos de gobernanza que articulen oficinas públicas, parlamentos, universidades y sociedad civil. Sin coordinación, no hay sostenibilidad (Estrella & Gaventa, 1998).
  5. Diagnóstico sin ruta: brújulas que no orientan
    Existen diagnósticos y mapas de actores, pero pocas veces se traducen en hojas de ruta claras y ejecutables (Baser & Morgan, 2008).

Sigue leyendo

De Oulipo a GPT: la IA como catalizador de creatividad literaria


Introducción

Cada generación literaria ha sospechado de sus propias herramientas. La imprenta amenazó el aura del manuscrito, la máquina de escribir fue tachada de fría, y el hipertexto digital parecía un laberinto ilegible. Hoy, la inteligencia artificial ocupa ese lugar: ¿escribir con algoritmos es un fraude o una extensión legítima de la imaginación?

Los estudios recientes ofrecen una respuesta provocadora. Doshi y Hauser (2024) mostraron que la IA incrementa la creatividad individual, aunque tiende a homogeneizar el conjunto de resultados. En paralelo, Porter y Machery (2024) comprobaron que lectores no expertos fueron incapaces de distinguir poemas humanos de poemas generados por IA y, en muchos casos, prefirieron los segundos. El dilema, por tanto, no es si la IA puede producir literatura, sino qué lugar damos a esas producciones dentro de la ecología literaria.


Un ecosistema global de prácticas

Sigue leyendo

UN80: La contribución de la Evaluación para potenciar la reforma de la ONU


1.Introducción

    Este post esta dentro de la serie «Repensar la ayuda». En su 80.º aniversario, la ONU no se limita a celebrar. Se embarca en una transformación institucional de gran envergadura. Lanza UN80, una reforma orientada a reducir burocracia, revisar mandatos, fortalecer coherencia y avanzar hacia una arquitectura organizacional más eficiente y adaptada a los desafíos globales.

    Desde un enfoque de evaluación con intención transformadora, surge una oportunidad única: explorar cómo la evaluación puede contribuir activamente a maximizar el impacto y la sostenibilidad de esta reforma.

    2. ¿Qué es UN80 y por qué importa?

      UN80 es una iniciativa del Secretario General António Guterres, lanzada el 12 de marzo de 2025, centrada en tres grandes líneas: eficiencia interna, revisión de mandatos y reestructuración organizacional (Stimson Center, 2025).

      Sigue leyendo

      Cómo convertir errores en gasolina y aciertos en autopistas de cambio


      En toda organización coexisten dos tribus. Una dice “aquí no se falla” (y falla en silencio). La otra dice “fallamos rápido y con propósito” (y aprende a la vista). La diferencia no es genética; es sistémica: cultura, métodos, estructura y normas que convierten cada tropiezo y cada acierto en progreso compartido.


      1) Nombra bien el fallo (o castigarás la innovación)

      No todos los errores son iguales: básicos/evitables, complejos/inevitables y “inteligentes” (exploración en terreno nuevo).
      A los primeros se les diseña fuera, a los segundos se les amortigua y a los terceros se les busca porque abren camino (Edmondson, 2011; Edmondson, 2023; Rodriguez-Ariza, 2018a–2018c).

      2) Sin seguridad psicológica, el aprendizaje se autoexilia

      Si decir “metí la pata” sale caro, el sistema lo paga doble más adelante. La evidencia reciente vincula la seguridad psicológica con mejores resultados de seguridad clínica y calidad asistencial (Montgomery et al., 2025) y, en empresa, con mayor desempeño y retención (Boston Consulting Group, 2024).
      UNICEF está impulsando esta agenda en cultura organizacional y estrategia con foco en aprendizaje adaptativo y corrección de rumbo (UNICEF, 2025a; 2025b; 2025d), además de un playbook práctico para conversaciones que refuercen inclusión y seguridad psicológica (UNICEF, 2025c). Sobre la psicología que nos dificulta reconocer errores, ver la disonancia cognitiva (Rodriguez-Ariza, 2018d).

      Sigue leyendo

      Millones en informes… y casi nadie los lee


      Hace unos meses, un amigo me confesó que jamás había leído un informe de la ONU. “No es que no me importe el mundo —me dijo—, pero cada vez que intento abrir uno, parece que me estén hablando en otro idioma”. Esa misma semana descubrí un dato que lo resume todo: un vídeo promedio de TikTok consigue más vistas en una hora que la mayoría de los informes de la ONU en todo un año (United Nations, 2025).

      La ONU produce más de 1 100 informes anuales, revisados por decenas de departamentos y aprobados por casi 200 países. Sin embargo, un informe reciente reveló que el 20 % de estos documentos recibe menos de 1 000 descargas al año y solo un 5 % supera las 5 500 descargas (Reuters, 2025). Y ojo: descargar no significa leer.

      ¿Por qué ocurre esto?
      No es un problema de inteligencia, sino de comunicación. Investigaciones en comunicación científica muestran que el exceso de tecnicismos y la falta de narrativa disminuyen drásticamente la comprensión y el interés (Science Communication Journal, 2023; Public Understanding of Science, 2022). A esto se suma el “Efecto Comité”: textos escritos por decenas de autores y revisores que terminan sonando diplomáticos… y aburridos.

      Sigue leyendo

      Muestreo con Propósito: de la Paella con Plátano al Menú Degustación


      🌶️PRÓLOGO: ¿QUÉ NOS ESTAMOS COMIENDO?

      Hay cosas que deberían tener criterio.

      Una es la comida.

      Otra es la selección de casos en una evaluación.

      Y sin embargo, más de una vez, alguien dice:

      “Haremos muestreo intencional… iremos a donde parezca interesante”.

      Eso, traducido al lenguaje culinario, es:

      “Hice una paella… con lo que había en la nevera”.

      Y así acabas comiéndote mejillones con plátano y salchichas.

      Lo mismo pasa en evaluación: sitios mal elegidos, visitas inútiles, narrativas sin sentido.

      El resultado: un trabajo de campo indigesto y conclusiones flojas.

      🍽️ ¿QUÉ ES (Y QUÉ NO ES) EL MUESTREO INTENCIONAL?

      Es:

      • Seleccionar sitios y personas porque aportan valor directo a las preguntas de evaluación.
      • Hacerlo con base en la teoría del cambio, hipótesis claras y brechas de información.
      • Asegurar variedad estratégica (zonas, resultados, modelos, públicos).

      No es:

      • Ir “donde queda cerca del aeropuerto”.
      • Visitar “lo que propone la contraparte”.
      • Elegir casos “raros” o “fotogénicos” sin razón clara.
      • Armar un recorrido “para quedar bien” con todo el mundo.

      👨‍🍳 ¿CUÁNDO SABE BIEN Y CUÁNDO SE TE INDIGESTA?

      Sigue leyendo

      Duelo Final: Realist, Contribution y Theory-Based en la Corte de la Evaluación


      Una sala imponente. Mármoles brillantes. El eco de pasos firmes resuena mientras se abren las puertas del Gran Tribunal Evaluativo. En el estrado, un jurado severo observa en silencio. Tres evaluadores —con estilos distintos, trajes de lógica y argumentos afilados— se preparan para defender su enfoque. El caso: evaluar un programa de prevención comunitaria en municipios priorizados. El reto: demostrar cuál enfoque evaluativo explica mejor cómo, por qué y con qué efectos funciona.

      Escena I: El caso a resolver

      Objeto evaluativo:

      Un programa implementado por una Agencia y aliados locales para fortalecer capacidades municipales, prevenir violencia en comunidades y usar un sistema de información (SIGADENAH) en decisiones locales.

      Preguntas evaluativas clave (EQs):

      • ¿Cómo cambiaron las capacidades institucionales?
      • ¿Qué facilitó la adopción del modelo?
      • ¿Cómo se integraron las acciones preventivas?
      • ¿Qué tan útil es el Programa?

      Escena II: Entran los tres enfoques

      Sigue leyendo