Integrando ChatGPT en la investigación cualitativa


Como parte de Artículos de Evaluación, hoy vamos reseñar: Thematic Analysis and Artificial Intelligence: A Step-by-Step Process for Using ChatGPT in Thematic Analysis (Naeem, Smith y Thomas, 2025). Este artículo metodológico propone una guía paso a paso para utilizar ChatGPT en análisis temático, con prompts diseñados para cada fase y con el objetivo de mejorar la transparencia, reducir sesgos y ganar eficiencia en la investigación cualitativa.

1) Resumen general y objetivo principal

El texto presenta un proceso de seis pasos para integrar la IA generativa (ChatGPT) en análisis temático: (1) familiarización con los datos; (2) selección de palabras clave; (3) codificación; (4) construcción de temas; (5) conceptualización; (6) desarrollo de un modelo conceptual.

Cada paso incluye prompts específicos y criterios de calidad para guiar el trabajo. El objetivo principal es ofrecer una metodología que combine la eficiencia tecnológica de la IA con el rigor académico de la investigación cualitativa.

Sigue leyendo

De los cursos a los sistemas: el futuro del desarrollo de capacidades en evaluación (NECD)


Siguiendo con nuesta serie NECD, estamos viviendo un punto de inflexión en materia de fortalecimiento de capacidades nacionales en evaluación (NECD). La conversación ya no es solo sobre talleres o capacitaciones puntuales; hoy el desafío es cómo convertir ese aprendizaje en sistemas sostenibles que realmente influyan en las políticas públicas.

Dos paneles recientes de la Conferencia 2025 de la Red de Evaluación de América Latina y el Caribe (RELAC) lo dejaron en evidencia: uno repasó los avances de estas formaciones y otro, usando la metodología TRIZ, se permitió ironizar sobre esas prácticas que garantizan que la evaluación fracase. Juntos pintan un cuadro honesto: tenemos fortalezas notables, oportunidades claras, pero también debilidades persistentes y retos urgentes.


Fortalezas: semillas que ya están germinando

A nivel global ya hay logros concretos. Las capacitaciones en NECD han llegado a muchos países y miles de profesionales, con participación activa de ministerios, sociedad civil y academia. Lo más importante: en muchos contextos nacionales, lo aprendido no quedó en el aula, sino que se tradujo en planes de acción, en vínculos entre sectores y en evidencia utilizada en debates públicos.

Sigue leyendo

Broadening the Range of Designs and Methods for Impact Evaluation


1) Resumen general y objetivo principal

En esta parada del Tren Libros de Evaluación analizamos en historico informe Broadening the Range of Designs and Methods for Impact Evaluation (DFID Working Paper 38, 2012) de los autores: Eliot D. Stern, Nicoletta Stame, John Mayne, Kim Forss, Rick Davies y Barbara Befani. (eba.se) Este informe nace para resolver un problema práctico: los métodos dominantes de evaluación de impacto (EI) —sobre todo experimentales y estadísticos— sólo encajan con una fracción de los programas reales, especialmente en cooperación y políticas públicas complejas. Su objetivo es ampliar el repertorio y ofrecer criterios de selección que prioricen la adecuación al contexto y a las preguntas evaluativas, no la adhesión a una jerarquía rígida de métodos. De hecho, el equipo afirma que “alternativas a los diseños experimentales y cuasi-experimentales pueden alcanzar igual robustez y credibilidad: son diferentes pero equivalentes” (“different but equal”). (assets.publishing.service.gov.uk)

2) Análisis detallado de capítulos y secciones clave

Sigue leyendo

Evaluation Theory, Models, and Applications (Stufflebeam & Shinkfield)


1. Resumen general y objetivo principal

En esta parada del Tren Libros de Evaluación, el libro Evaluation Theory, Models, and Applications (Stufflebeam & Shinkfield, 2007) es considerado una de las obras más completas en el campo de la evaluación educativa, social y de programas. Su objetivo central es ofrecer un marco sistemático y accesible que integre teorías, modelos y prácticas de evaluación, sirviendo tanto a académicos como a profesionales. A lo largo de sus capítulos, los autores buscan definir la evaluación como disciplina aplicada, ética y orientada a la toma de decisiones.

2. Capítulos y puntos clave

La obra se organiza en cinco grandes bloques:

  1. Historia y evolución de la evaluación: desde Ralph Tyler y la evaluación por objetivos en los años 40, pasando por la crítica de Scriven (evaluación formativa y sumativa), hasta la pluralidad de modelos contemporáneos.
  2. Modelos principales:
    • Evaluación orientada a objetivos (Tyler).
    • Evaluación centrada en el consumidor (Stake).
    • Evaluación por expertos (Scriven).
    • Modelos de gestión (Alkin, Wholey).
    • Modelos participativos.
  3. El modelo CIPP (Context, Input, Process, Product): columna vertebral del libro, desarrollado por Stufflebeam desde los años 60. Cada dimensión se presenta con ejemplos prácticos y protocolos de aplicación.
  4. Aplicaciones prácticas: casos en programas educativos, de salud pública y políticas sociales. Se ilustran usos en distintos países y sectores.
  5. Normas profesionales y éticas: discusión sobre el Joint Committee on Standards for Educational Evaluation y la importancia de la ética en la práctica evaluativa.

Sigue leyendo

Rick Davies: El Músico y el Evaluador


Esta mañana mi hijo me despertó con un mensaje urgente, como si hubiese estallado la Tercera Guerra Mundial:

“¡Rick Davies ha muerto, noooo!”

Yo, todavía en estado de hibernación cerebral, entendí lo peor: que había muerto nuestro Rick Davies, el evaluador. Ese hombre que logró poner métricas a lo inmedible, que inventó una gramática para que los proyectos sociales no naufragaran en informes huecos. Mi hijo, estudiante de Políticas, y yo habíamos hablado tanto de evaluación que la confusión parecía lógica.

Pero no: hablaba del otro Rick Davies. El de Supertramp. El de The Logical Song, Dreamer, Goodbye Stranger. El hombre que convirtió un teclado eléctrico en el instrumento de nuestra educación sentimental.

Por un momento, sentí que me habían matado dos veces al mismo Rick Davies.

Sigue leyendo

Perspectivas Modernas en Evaluación de Programas: Un Enfoque Inclusivo


Como continuacion del post anterior Fundamentos de la Evaluación de Programas: Un libro esencial, dentro de la serie Libros de Evaluación, vamos a desarrollar cómo el modelo revolucionario de «Fundamentos de la Evaluación de Programas» de Shadish, Cook & Leviton se enriqueció desde su hito fundacional (1991) con los debates que lo rebasaron.

1. El legado que no caduca: ¿por qué las cinco familias de evaluación sigue siendo su sección más citada?

Mapa integrador y lenguaje común. Antes de 1991, los enfoques convivían como islas (experimentos, modelos de uso, enfoques de valores, etc.). La propuesta de Shadish, Cook y Leviton ofreció un marco taxonómico que ordenó el campo en cinco familias —experimental, descriptiva/cualitativa, centrada en el uso, centrada en valores y centrada en el contexto— y lo convirtió en un idioma compartido para docencia y práctica. Manuales y artículos posteriores lo adoptaron como “paradigma de referencia” para ubicar debates y decisiones metodológicas.

Puente entre teoría y práctica. La clasificación no prescribe “una” forma de evaluar; normaliza la pluralidad y la convierte en elecciones razonadas (qué valoramos, cómo construimos evidencia, para quién y para qué se usa). Esa “neutralidad operativa” explica su alta citación en currículos y en artículos de revisión.

Estandariza preguntas nucleares. El propio Shadish (1998) muestra cómo el campo discute de manera recurrente cinco ejes (valor, conocimiento, uso, cambio del evaluando y práctica), que encajan con la arquitectura del libro de 1991, reforzando su función de marco metateórico.

Resultado: la clasificación facilitó comparabilidad entre teorías, ayudó a estructurar cursos y a “situarse” en diseños complejos. Por eso sigue apareciendo en revisiones y marcos actuales que explican “de dónde venimos” antes de introducir enfoques contemporáneos.

Por tanto y como ya tratamos en nuestro anterior post Fundamentos de la Evaluación de Programas: Un libro esencial, Shadish, Cook y Leviton (1991) revolucionaron la evaluación al proponer cinco familias teóricas (experimental, descriptiva, centrada en el uso, en valores y en contexto). Fue un mapa epistémico común que:

  • Ordenó un campo fragmentado, funcionando como lenguaje pedagógico y referencia en programas académicos.
  • Actuó como puente entre diversidad y unidad, validando la pluralidad en lugar de imponer un modelo único.
  • Se convirtió en un “esqueleto del campo” citado en manuales, cursos universitarios y artículos de revisión.

2. Más allá del mapa: perspectivas que lo rebasan

Sigue leyendo

Fundamentos de la Evaluación de Programas: Un libro esencial


En esta parada del Tren Libros de Evaluación nos encontramos con un clásico que cambió la forma de entender la disciplina: Foundations of Program Evaluation. Theories of Practice (1991), de William R. Shadish, Thomas D. Cook y Laura C. Leviton.
Un libro que buscó organizar el “caos” de teorías que existían hasta ese momento y dar coherencia a la práctica de evaluar programas sociales, educativos y de políticas públicas.


1. Resumen general

El libro propone una visión integradora de la evaluación, sistematizando décadas de debates. Su objetivo principal: conectar teoría y práctica, mostrando que la evaluación no es una técnica única, sino un campo plural con múltiples marcos conceptuales.


2. Análisis de capítulos

La obra está organizada en tres bloques:

  1. Fundamentos: qué es la evaluación, sus propósitos y dilemas.
  2. Revisión de teorías: analiza cinco grandes familias:
    • Experimentales (con fuerte herencia de Donald T. Campbell).
    • Descriptivas/cualitativas (inspiradas en Lee Cronbach).
    • Centradas en el uso (con influencias de Carol Weiss).
    • Centradas en valores (a la Michael Scriven).
    • Centradas en el contexto y la toma de decisiones (Daniel Stufflebeam y el modelo CIPP).
  3. Integración y práctica: cómo elegir enfoques adecuados al contexto y cómo los evaluadores deben equilibrar rigor, valores y utilidad.

Sigue leyendo

Barreras Comunes en el Desarrollo de Capacidades Nacionales en Evaluación


Cuando hablamos de Desarrollo de Capacidades Nacionales de Evaluación (Dentro de nuesta serie NECD), los debates y experiencias acumuladas nos dejan un mosaico complejo pero revelador.

🔎 ¿Qué patrones se repiten?

  • Formar ≠ transformar. La capacitación aislada no asegura cambio si no se integra en instituciones y sistemas.
  • Transferencia frágil. El conocimiento se pierde cuando no hay memoria institucional ni cultura de uso.
  • Evaluación atravesada por el poder. Ningún proceso es neutro: se disputan legitimidades, narrativas e intereses.

Sigue leyendo

De la evidencia a la acción: Claves para desarrollar capacidades en evaluación


Como venimos viendo en nuestra serie NECD, la evaluación ya no es solo un ejercicio técnico. Es aprendizaje, poder, participación, innovación y sostenibilidad. Pero… ¿cómo diseñar una estrategia de desarrollo de capacidades en evaluación que realmente transforme?

Tras revisar literatura clave  emergen 7 ejes comunes que atraviesan las experiencias más relevantes:

🔑 Los 7 ejes de la capacidad evaluativa

  1. Aprendizaje y adaptación → La evaluación como práctica viva que retroalimenta y transforma (Rosenberg & Donaldson, 2020).
  2. Participación e inclusión → “¿Quién cuenta la realidad?” Solo con múltiples voces hay legitimidad (Estrella & Gaventa, 1998; Lipmanowicz & McCandless, 2013).
  3. Institucionalización → No basta capacitar individuos: se necesitan sistemas estables y marcos legales (Mackay, 2007; Goldman et al., 2018).
  4. Uso de la evidencia → De producir informes a incidir en decisiones (Goldman & Pabari, 2020; Holvoet & Renard, 2007).
  5. Política y poder → La evaluación siempre es política: se negocia legitimidad, intereses y narrativas (Gornitzka & Stensaker, 2014; Picciotto, 2011).
  6. Metodologías flexibles → Se requieren enfoques adaptativos, transformadores y decoloniales (Morgan, 2008; Patton, 2010).
  7. Sostenibilidad y transferencia → Menos dependencia externa, más memoria institucional y datos abiertos (Segone, 2009; Rosenberg & Donaldson, 2020).

Sigue leyendo

Cinco retos clave en el desarrollo de capacidades en evaluación


Introducción – El elefante en la sala del NECD

Año tras año, región tras región, se multiplican capacitaciones, talleres y cursos de evaluación. Dentro de nuestra serie NECD, sin embargo, la pregunta incómoda persiste:

👉 ¿Realmente están cambiando los sistemas de evaluación pública, o seguimos atrapados en un modelo de “formar por formar” que no transforma estructuras ni culturas institucionales?

En nuestras realidades, donde la gobernanza se entrelaza con profundas desigualdades, los enfoques tradicionales de desarrollo de capacidades para la evaluación nacional (NECD) muestran límites evidentes. Esta conversación no es nueva. Pero urge actualizarla con una mirada crítica, sistémica, contextualizada… y también creativa.

Aquí entra en escena TRIZ (Altshuller, 1996).

🔍 Nudo – Cinco retos estructurales que siguen sin resolverse

  1. Del individuo a la institución: la desconexión persistente
    La mayoría de las iniciativas siguen enfocadas en capacitar personas, pero sin transformar instituciones. Cuando los técnicos rotan, las capacidades se esfuman (Goldman et al., 2018).
  2. Blended learning ≠ learning blended
    No basta con mezclar talleres presenciales y online. Se necesita pedagogía: ¿qué se combina, cómo se aplica, cómo se convierte en aprendizaje duradero? (Rosenberg & Donaldson, 2020).
  3. Oferta sin demanda: el vacío político
    Más cursos ≠ más evaluación. Si la demanda institucional y política es débil, la evaluación se queda en trámite sin impacto (Holvoet & Renard, 2007).
  4. Aislamiento institucional: alianzas frágiles y roles difusos
    Faltan marcos de gobernanza que articulen oficinas públicas, parlamentos, universidades y sociedad civil. Sin coordinación, no hay sostenibilidad (Estrella & Gaventa, 1998).
  5. Diagnóstico sin ruta: brújulas que no orientan
    Existen diagnósticos y mapas de actores, pero pocas veces se traducen en hojas de ruta claras y ejecutables (Baser & Morgan, 2008).

Sigue leyendo