¿Cuándo dejaremos de llorar porque en España no hay evaluación?


Un interesante artículo sobre el estado de la evaluación en España: ¿Quién mide el impacto de las políticas públicas? El otro gran déficit de España: evaluar la gestión de Isabel M. Ruiz

Algunas reacciones y apuntes al artículo:

1.Aparece claro ese mantra que en la comunidad evaluadora repetimos y repetimos como plañider@s, pero sin aparente avance: “España sufre una falta de cultura evaluadora …y sigue siendo una asignatura pendiente.”

2.Pero este mantra o frase parece que es contradictoria con la siguiente frase: “La exigencia ahora es máxima; ni la sociedad ni los organismos comunitarios van a darse por satisfechos con el mero hecho de “hacer cosas” de cualquier forma y con cualquier resultado.”

La falta de cultura evaluadora tiene su origen no en la falta de voluntad política, sino en la falta de capacidad de la sociedad para pedir rendición de cuentas (eso hace que los políticos no tengan incentivos otros que no sea hacer su voluntad partidista, sectaria o personal, en su “juego de tronos” habitual)

3.La evaluación y la cultura de evaluación son de difícil aplicación si no existe un marco de rendición de cuentas que lo faciliten: recordemos la necesidad de “responsabilidad, exigibilidad y evaluabilidad” en el post La evaluación busca responsabilidad

Así, bajo esos marcos de rendición de cuentas se dan/posibilitan las evaluaciones de la Comisión Europea (Fondos Europeos) y, en general, de los fondos de la Cooperación al Desarrollo (AECID/DGPOLDES, NNUU, Bancos…): otra cosa es que realmente sean útiles y sirvan para aprender/mejorar (la utilidad es otra historia a contar en otro momento) Sigue leyendo

La evaluación busca responsabilidad


Retomando nuestro post anterior ¿Busca la evaluación culpables?, en el que indicamos que la evaluación busca reforzar la responsabilidad (rendición de cuentas) y no tanto busca culpables: en un sentido amplio ya hemos hablado de lo que se entiende por rendición de cuentas : al “conjunto de derechos y responsabilidades existentes entre los ciudadanos y las instituciones que afectan a su vida”.

La rendición de cuentas incluye tres dimensiones:

(1) Obligatoriedad: derecho a obtener una respuesta por parte de la ciudadanía y la obligación de darla por parte de las instituciones.

(2) Exigibilidad: capacidad para asegurar que una acción se lleva a cabo y sancionar si ello no ocurre.

(3) Evaluabilidad: valoración positiva o negativa de las instituciones (Newell y Bellour, 2002 y Blagescu, de Las Casas y Lloyd, 2005 en Toledano et al, 2008: 18). Sigue leyendo

¿Busca la evaluación culpables?


En el artículo Evaluar ahora, y no cuando ya sea tarde Cristina Monge indicaba que “adolecemos de una falta de cultura de evaluación en el conjunto de las administraciones públicas y en otras organizaciones privadas que resulta todo un hándicap para la gestión”. “Probablemente porque se ve como un proceso en busca de culpables, con ánimo inquisitorial y estigmatizador; pero siendo cierto que, en algunos casos, quien lo propone puede estar buscando ese efecto, tal situación podría combatirse sistematizando la evaluación de manera que forme parte de los procesos de gestión habituales.”

En varias ocasiones en declaraciones recientes sobre la evaluación  se hace referencia a que “la evaluación no busca culpables”, sino aprendizajes. Mi experiencia me dice que si por culpables nos referimos a “responsables”, habría que matizarlo. Las instituciones no suelen tener en su deseo el aprender por aprender, ya que suelen tener siempre otras prioridades y urgencias.  Sin una rendición del cuentas hacia ese aprendizaje organizacional. la evaluación nunca será una prioridad institucional. Quizás la forma de reposicionar la importancia de la evaluación, es mejorar la rendición de cuentas de las instituciones públicas. Y esto está relacionado con lo que Cristina Mongue llama “institucionalizar la evaluación” Sigue leyendo

Criterios de evaluación del CAD en la práctica: desarrollo del éxito a partir de fracasos y malas prácticas II


Comenzamos en el post anterior “Criterios de evaluación del CAD en la práctica: éxito a partir de fracasos y malas prácticas la discusión sobre de la reforma de los criterios, y cómo esto implicaba oportunidades, aunque los viejos retos continúan, estos retos tienen que ver con su (I) propósito, (II) uso, (III) claridad y (IV) aplicabilidad·práctica”. Sigamos en este post con los principios de uso evaluativo:

(II) Principios de uso de los criterios de evaluación

  1. Criterios no contextualizados: los criterios (y preguntas) (a) son el resultado de “cortar y pegar” versus (b) los criterios deben ser contextualizados, entendidos en el contexto de (i) evaluación individual, (ii) intervención y (iii) partes interesadas.
  2. Aplicación mecánica: En muchas ocasiones se observa (a) la aplicación mecánica de todos los criterios y (b) demasiadas preguntas en relación con los recursos disponibles. En lugar de ello son buenas prácticas:

(a) Aplicación adaptativa / flexible en función de la “evaluación de necesidades / evaluabilidad” (necesidades de la intervención, contexto y partes interesadas)

(b) Enfoque y enmarcar los usuarios, prioridades, criterios y preguntas en relación con la valoración de la evaluabilidad

(c) Priorizar las preguntas y establecer 10 preguntas máximo. (las más relevantes para los usuarios directos y ninguna más) Sigue leyendo

Criterios de evaluación del CAD en la práctica: éxito a partir de fracasos y malas prácticas


Comenzamos en el post anterior “La reforma criterios de evaluación del CAD: una oportunidad, los retos continúan” a hablar de la reforma de los criterios, y cómo esto implicaba oportunidades, aunque los viejos retos continúan, estos retos tienen que ver con su (I) propósito, (II) uso, (III) claridad y (IV) aplicabilidad·práctica”:

(I) Propósito de los criterios: En la práctica evaluativa, el propósito de los criterios de evaluación normalmente no está claro, ya que suelen verse como una imposición más que como soluciones alternativas para nuestro proceso de evaluación:

1. Normativo (imposición): Los criterios juegan un papel de apoyo (lentes o perspectivas alternativas para ver la intervención) PERO normalmente, “en la práctica”, se perciben con un papel normativo (obligatorio), es decir, no se entienden…

2. Perspectiva de silos (fragmentada / reduccionista). Los criterios se utilizan normalmente de forma reduccionista, aislada y como parte de un lenguaje y un mundo (el nuestro, es de l@s evaluador@s) en algunos momentos abstracto, complejo e ininteligible: Sigue leyendo

La reforma criterios de evaluación del CAD: una oportunidad, los retos continúan


En diciembre de 2019, el CAD de la OCDE [Comité de Asistencia para el Desarrollo de la Organización para la Cooperación y el Desarrollo Económicos] adoptó los ‘Criterios de evaluación: definiciones adaptadas y principios de uso‘ aprobados anteriormente (actualmente disponible en inglés y francés, y casi en fase final la traducción al español).

La reciente reforma de los criterios de evaluación del CAD trató de abordar algunas fallas y malas prácticas relacionadas con (a) confusión de la aplicabilidad de los criterios de evaluación, (b) adecuación a las nuevas prioridades políticas (Agenda 2030…). Sigue leyendo

Evaluación, evaluabilidad y pandemia: un pasito pa’lante, un pasito pa’tras’


Estas semanas pasadas intercambiaba con colegas sobre la oportunidad y la necesidad de la evaluación en relación a la respuesta de las políticas públicas al COVID. Coincidimos en la relevancia de diseñar evaluaciones de la “preparación, mitigación, respuesta y la rehabilitación/reconstrucción”, de sectores como  salud, educación, protección social…sigamos soñando.

De nuevo sobre evaluabilidad, retomamos este documento de “antes de ayer” (2007): “LA EVALUABILIDAD: DE INSTRUMENTO DE GESTION A HERRAMIENTA ESTRATEGICA EN LA EVALUACION DE POLITICAS PUBLICAS” de Marisa Merino, dentro de Papeles de Evaluación (dentro del Tipo “Métodos y herramientas”) de la “difunta” AEVAL (Ministerio de Administraciones Públicas), que dado lo que ha progresado la función de evaluación de las políticas públicas españolas,  pareciera cómo que en nuestro sistema fuéramos un pasito para adelante y uno (o dos) pasito(s) para atrás.

Este documento se centra en la evaluación de evaluabilidad, que surgió en los años 70 (iii hace más de cuarenta años iii) como instrumento para la gestión de programas, pero cuyo mayor potencial se vislumbra como herramienta estratégica en el campo de las políticas públicas y el fomento de la cultura evaluadora. Estudia la evolución de la evaluabilidad hasta nuestros días; analiza sus objetivos y límites; examina algunas controversias recientes; justifica las razones para su uso. Sigue leyendo

La síntesis de los hallazgos de las evaluaciones.


Como parte del “RTD TIG Week” de la AEA, “La síntesis de estudios de imitación ayuda a responder preguntas de política realmente importantesGretchen Jordan, pasaba el mensaje de que las grandes preguntas que nos piden que respondamos requieren que avancemos hacia el uso de marcos lógicos de evaluación acordados y adaptados al tipo y contexto del programa para aprender de la síntesis de los hallazgos de las evaluaciones.

Además nos indica cinco pasos para una evaluación de síntesis para informar la política de investigación e innovación:

1. Acuerde la (s) pregunta (s) que serán respondidas por la evaluación de síntesis. Un ejemplo es “¿Qué impactos técnicos, económicos y sociales han ocurrido y qué programas y otros factores contribuyen a ellos?”

2. Diseñe un conjunto de evaluaciones de tal manera que sus hallazgos puedan sintetizarse de manera creíble. Consulte los modelos lógicos genéricos, los indicadores y el glosario propuestos en “Evaluación de los resultados de la investigación financiada con fondos públicos…”, el documento del Grupo de interés temático sobre investigación, tecnología y desarrollo de 2015. Sigue leyendo

Modelo ADDIE para el diseño y ejecución de procesos de capacitación


El modelo ADDIE es un marco que lista procesos genéricos que utilizan diseñadores instruccionales y desarrolladores. Representa una guía descriptiva para la construcción de herramientas de formación y apoyo (como talleres) gracias al desarrollo de sus cinco fases que proceden de las iniciales de cada una de ellas en inglés:

  • Análisis
  • Diseño
  • Desarrollo
  • Implementación
  • Evaluación

ADDIE es el marco de un Sistema de Diseño Instruccional (SDI). La mayoría de los modelos actuales de la SDI son variaciones del proceso ADDIE.

Otros modelos incluyen el Dick y Carey y modelos ISD Kemp. El prototipado rápido es una alternativa de uso común de este enfoque; prototipado rápido es la idea de la revisión de retroalimentación continua o formativa, mientras se lleva a cabo la creación de materiales de instrucción. Este modelo se esfuerza para ahorrar tiempo y dinero por la captura de los problemas cuando todavía son fáciles de solucionar. Una expresión más reciente de prototipado rápido es SAM, por sus siglas en inglés (successive approximation model).

Las teorías de instrucción también juegan un papel importante en el diseño de materiales de instrucción. Teorías como el conductismo , el constructivismo , el aprendizaje social , y el cognitivismo ayudan a dar forma y definir el resultado de los materiales de instrucción. Sigue leyendo

Capacidades de Seguimiento y Evaluación al nivel institucional/organizacional


En el post Componentes de un sistema de seguimiento y evaluación mostramos una lista de 12 componentes de un sistema de Seguimiento y Evaluación (SyE)

Estos componentes han sido utilizados por ejemplo:

-Por el Banco Mundial para identificar componentes para un sistema de SyE nacional para gobiernos y socios (Gorgens & Kusek, 2009)

-En una herramienta de ONUSIDA y desarrollada para apoyar la implementación de una valoración del sistema nacional de SyE del VIH. El objetivo era facilitar una comprensión común de lo que se evalúa entre los diferentes actores involucrados en Seguimiento y Evaluación (SyE). La versión del libro de trabajo de Excel de la herramienta, que incluye cuadros de mando para mostrar los resultados de la evaluación y las acciones de mejora planificadas, se puede encontrar aquí. La guía detallada sobre cómo preparar e implementar dicha evaluación, utilizando la herramienta, se puede encontrar aquí.

A continuación los Componentes de un sistema de SyE: Sigue leyendo