COVID y barreras gubernamentales para el aprendizaje


Retomamos el post Barreras culturales para el Aprendizaje Gubernamental, basado en ¿Por qué nuestros gobiernos no aprenden?,  porque es muy relevante ahora con la pandemia del COVID (y las olas y segundas olas y las que tengan que venir…). Observamos que los gobiernos (a diferentes niveles nacional, regional, local..) tienen aciertos y cometen errores , pero ¿por qué no aprenden de estos aciertos y  errores? ¿Por qué seguir repitiendo los mismos errores? Mirando esto en términos de Aprendizaje Organizacional, y comparando con las dimensiones de una Cultura de Aprendizaje, existen varias barreras culturales para el Aprendizaje Gubernamental:

 Corto plazo.  Todos los incentivos están a favor de ser decisivos y no deliberativos, de actuar y de ser vistos, y luego seguir adelante. 

 Una cultura  del “conocedor/a” en lugar de una cultura “aprendiz/a”. Existen vacíos masivos de habilidades y conocimientos en el gobierno y, sin embargo, no parece haber un deseo ardiente de llenar estos vacíos.

 Falta de honestidad y “decir la verdad al poder”.

 Una falta de desafío a “la verdad o el saber que se dan por buenos y aceptados”. Sin este desafío, el problema de el Pensamiento de Grupo nunca desaparece. ¿Dónde estaba la voluntad de preguntar” nos estamos perdiendo algo”? Sin desafío y discusion, los errores se perpetúan.

Criterios de evaluación del CAD en la práctica: desarrollo del éxito a partir de fracasos y malas prácticas II


Comenzamos en el post anterior “Criterios de evaluación del CAD en la práctica: éxito a partir de fracasos y malas prácticas la discusión sobre de la reforma de los criterios, y cómo esto implicaba oportunidades, aunque los viejos retos continúan, estos retos tienen que ver con su (I) propósito, (II) uso, (III) claridad y (IV) aplicabilidad·práctica”. Sigamos en este post con los principios de uso evaluativo:

(II) Principios de uso de los criterios de evaluación

  1. Criterios no contextualizados: los criterios (y preguntas) (a) son el resultado de “cortar y pegar” versus (b) los criterios deben ser contextualizados, entendidos en el contexto de (i) evaluación individual, (ii) intervención y (iii) partes interesadas.
  2. Aplicación mecánica: En muchas ocasiones se observa (a) la aplicación mecánica de todos los criterios y (b) demasiadas preguntas en relación con los recursos disponibles. En lugar de ello son buenas prácticas:

(a) Aplicación adaptativa / flexible en función de la “evaluación de necesidades / evaluabilidad” (necesidades de la intervención, contexto y partes interesadas)

(b) Enfoque y enmarcar los usuarios, prioridades, criterios y preguntas en relación con la valoración de la evaluabilidad

(c) Priorizar las preguntas y establecer 10 preguntas máximo. (las más relevantes para los usuarios directos y ninguna más) Sigue leyendo

Criterios de evaluación del CAD en la práctica: éxito a partir de fracasos y malas prácticas


Comenzamos en el post anterior “La reforma criterios de evaluación del CAD: una oportunidad, los retos continúan” a hablar de la reforma de los criterios, y cómo esto implicaba oportunidades, aunque los viejos retos continúan, estos retos tienen que ver con su (I) propósito, (II) uso, (III) claridad y (IV) aplicabilidad·práctica”:

(I) Propósito de los criterios: En la práctica evaluativa, el propósito de los criterios de evaluación normalmente no está claro, ya que suelen verse como una imposición más que como soluciones alternativas para nuestro proceso de evaluación:

1. Normativo (imposición): Los criterios juegan un papel de apoyo (lentes o perspectivas alternativas para ver la intervención) PERO normalmente, “en la práctica”, se perciben con un papel normativo (obligatorio), es decir, no se entienden…

2. Perspectiva de silos (fragmentada / reduccionista). Los criterios se utilizan normalmente de forma reduccionista, aislada y como parte de un lenguaje y un mundo (el nuestro, es de l@s evaluador@s) en algunos momentos abstracto, complejo e ininteligible: Sigue leyendo

La reforma criterios de evaluación del CAD: una oportunidad, los retos continúan


En diciembre de 2019, el CAD de la OCDE [Comité de Asistencia para el Desarrollo de la Organización para la Cooperación y el Desarrollo Económicos] adoptó los ‘Criterios de evaluación: definiciones adaptadas y principios de uso‘ aprobados anteriormente (actualmente disponible en inglés y francés, y casi en fase final la traducción al español).

La reciente reforma de los criterios de evaluación del CAD trató de abordar algunas fallas y malas prácticas relacionadas con (a) confusión de la aplicabilidad de los criterios de evaluación, (b) adecuación a las nuevas prioridades políticas (Agenda 2030…). Sigue leyendo

Evaluación, evaluabilidad y pandemia: un pasito pa’lante, un pasito pa’tras’


Estas semanas pasadas intercambiaba con colegas sobre la oportunidad y la necesidad de la evaluación en relación a la respuesta de las políticas públicas al COVID. Coincidimos en la relevancia de diseñar evaluaciones de la “preparación, mitigación, respuesta y la rehabilitación/reconstrucción”, de sectores como  salud, educación, protección social…sigamos soñando.

De nuevo sobre evaluabilidad, retomamos este documento de “antes de ayer” (2007): “LA EVALUABILIDAD: DE INSTRUMENTO DE GESTION A HERRAMIENTA ESTRATEGICA EN LA EVALUACION DE POLITICAS PUBLICAS” de Marisa Merino, dentro de Papeles de Evaluación (dentro del Tipo “Métodos y herramientas”) de la “difunta” AEVAL (Ministerio de Administraciones Públicas), que dado lo que ha progresado la función de evaluación de las políticas públicas españolas,  pareciera cómo que en nuestro sistema fuéramos un pasito para adelante y uno (o dos) pasito(s) para atrás.

Este documento se centra en la evaluación de evaluabilidad, que surgió en los años 70 (iii hace más de cuarenta años iii) como instrumento para la gestión de programas, pero cuyo mayor potencial se vislumbra como herramienta estratégica en el campo de las políticas públicas y el fomento de la cultura evaluadora. Estudia la evolución de la evaluabilidad hasta nuestros días; analiza sus objetivos y límites; examina algunas controversias recientes; justifica las razones para su uso. Sigue leyendo

Estrategia de gestión del conocimiento en organizaciones con oficinas país


Inspirado en la Estrategia de UNICEF, estos son algunos ejes de acción para una estrategia de gestión del conocimiento (GC):

1. Alineación de la GC con el ciclo del programa de la oficina país y otros procesos operativos dentro de la organización

2. Enfoques eficaces de gestión del conocimiento entre los que pueden elegir las oficinas de país para satisfacer sus necesidades

3. Invertir en la documentación sistemática de lo que funciona y lo que no en la programación y en la transferencia de conocimientos del personal a medida que se ejecuta la programación

4. Adoptar elementos básicos para hacer el trabajo de GC por cada oficina dentro de la organización Sigue leyendo

Gestión del conocimiento: generador de valor organizacional


Actividades de Gestión del Conocimiento (GC) que, cuando se realizan de manera óptima, pueden generar el mayor valor para nuestras organizaciones:

  • Desarrollar la capacidad de los colegas para implementar actividades de GC
  • Captura de buenas prácticas y lecciones aprendidas
  • Colaboración transversal
  • Establecer y fomentar relaciones con socios estratégicos externos
  • Facilitar y administrar comunidades de práctica
  • Identificar y empaquetar productos de conocimiento de acuerdo a las necesidades de diferentes públicos.
  • Medir el uso y el impacto del conocimiento
  • Reempaquetado de productos de conocimiento para diversos fines
  • Reutilizar y adaptar lecciones y experiencias para nuevas actividades, proyectos o programas
  • Compartiendo conocimientos cara a cara o en línea
  • Usar el conocimiento y la evidencia para informar recomendaciones y acciones de políticas
  • Uso de las herramientas digitales del lugar de trabajo de la organización para respaldar nuestro trabajo
  • Utilizar varios canales, métodos y herramientas para la difusión de productos de conocimiento.

 

La síntesis de los hallazgos de las evaluaciones.


Como parte del “RTD TIG Week” de la AEA, “La síntesis de estudios de imitación ayuda a responder preguntas de política realmente importantesGretchen Jordan, pasaba el mensaje de que las grandes preguntas que nos piden que respondamos requieren que avancemos hacia el uso de marcos lógicos de evaluación acordados y adaptados al tipo y contexto del programa para aprender de la síntesis de los hallazgos de las evaluaciones.

Además nos indica cinco pasos para una evaluación de síntesis para informar la política de investigación e innovación:

1. Acuerde la (s) pregunta (s) que serán respondidas por la evaluación de síntesis. Un ejemplo es “¿Qué impactos técnicos, económicos y sociales han ocurrido y qué programas y otros factores contribuyen a ellos?”

2. Diseñe un conjunto de evaluaciones de tal manera que sus hallazgos puedan sintetizarse de manera creíble. Consulte los modelos lógicos genéricos, los indicadores y el glosario propuestos en “Evaluación de los resultados de la investigación financiada con fondos públicos…”, el documento del Grupo de interés temático sobre investigación, tecnología y desarrollo de 2015. Sigue leyendo

Políticas y plataformas de apoyo al aprendizaje en Naciones Unidas


Continuando con el informe de la “Joint Inspection Unit” de Naciones Unidas: “Políticas y plataformas de apoyo al aprendizaje: hacia una mayor coherencia, coordinación y convergencia“, al que nos referimos en nuestro anterior post El aprendizaje como fuerza transformadora que puede romper los silos, aquí sus principales hallazgos y conclusiones:

1.El acuerdo de que el aprendizaje es estratégico no siempre se sustenta en hechos

2. La creación de una nueva cultura de aprendizaje debe ser más programática Sigue leyendo

El aprendizaje como fuerza transformadora que puede romper los silos


Acaba de publicarse el nforme de la “Joint Inspection Unit” de Naciones Unidas: “Políticas y plataformas de apoyo al aprendizaje: hacia una mayor coherencia, coordinación y convergencia“, coordinador por Petru Dumitriu:

Dado que el principal activo del sistema de las Naciones Unidas es su personal, el aprendizaje es una herramienta esencial para mejorar la calidad y la eficiencia. Mediante el aprendizaje, el personal puede desarrollar nuevos conocimientos y habilidades, adquirir nuevas competencias y mejorar comportamientos y actitudes. El aprendizaje no es opcional; es condición sine qua non para que las organizaciones y su personal se adapten a un entorno altamente competitivo y dinámico.
Además, el sistema de Naciones Unidas no puede escapar a la transición hacia el futuro del trabajo, lo que implica agilidad para las organizaciones y aprendizaje continuo para las personas. Según estudios recientes, más de la mitad de todos los empleados en el mundo requerirán un desarrollo de capacidades significativo y una mejora de sus habilidades en solo los próximos tres años. Tal transformación solo se puede lograr mediante un mayor aprendizaje. Sigue leyendo