Evaluando efectos no deseados o no esperados


Aunque en el discurso y la retórica las evaluaciones en general dan la apariencia de prestar atención a las consecuencias no deseadas de las intervenciones, la mayoría de los diseños de evaluación dedican todo su presupuesto para la evaluación de la ejecución prevista y el logro de metas. Sigue siendo una excepción el tipo de trabajo de campo abierto a captar efectos no deseados o no esperados o dinámicas emergentes. Esto es útil para identificar los posibles impactos negativos durante el diseño del programa, a fin de garantizar y establecer mejores procesos de seguimiento. Sigue leyendo

Evaluación de la complejidad


En el anterior post Comprendiendo la “Evaluación durante el desarrollo” (Developmental Evaluation), introducíamos los conceptos básicos sobre un enfoque de evaluación que ha tratado de integrar la ciencia de la complejidad. Escojo un fragmento de la publicación Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos, que realicé en 2014 con Rafael Monterde.

La ciencia de la complejidad ha sido utilizada para describir y explicar el comportamiento de los sistemas naturales y biológicos, que se caracterizan por (1) dinámica no lineal y (2) propiedades emergentes sobre la base de diversas poblaciones de individuos que interactúan entre sí y son capaces de experimentar la auto-organización espontánea.

La investigación en la gestión organizacional y la psicología del comportamiento indican que los sistemas humanos también se comportan de una manera compleja. El modelo operativo de la ciencia de la complejidad llama a la complejidad en la acción y da lugar a los Sistemas Adaptativos Complejos (SAC).  Un sistema adaptativo complejo  es un tipo especial de sistema complejo; es complejo en el sentido de que es diverso y conformado por múltiples elementos interconectados; y adaptativo, porque tiene la capacidad de cambiar y aprender de la experiencia.  Lo que distingue a los CAS de los SMA (sistemas multiagentes) puros es su enfoque de propiedades de alto nivel y característica, como autosimilaridad, complejidademergencia, y autoorganización. Un SMA es definido simplemente como un sistema compuesto de múltiples agentes interactuando. En CAS los agentes así como los sistemas son adaptativos, el sistema es autosimilar. Un CAS es una compleja y autosimilar colectividad de interacciones de agentes adaptativos. Los CAS se caracterizan por un alto grado de capacidad adaptativa, lo que les proporciona resiliencia frente a la perturbación. Otras propiedades importantes son la adaptación (homeostasis), comunicación, cooperación, especialización, organización espacial y temporal, y, por supuesto, reproducción.

La teoría de SAC ofrece una forma diferente de pensar acerca de las organizaciones y sistemas, incluyendo cómo debe desarrollarse una política para ellos, cómo deben ser gestionados, cómo la innovación puede propagarse dentro de y cómo deben ser evaluados (Sibthorpe, Glasgow y Longstaff, 2004).

 

Un tema de interés creciente en la evaluación, especialmente la evaluación del desarrollo, es cómo podemos aplicar las ideas y métodos de ciencia de la complejidad en la evaluación. La complejidad tiene aplicaciones importantes (1) en la forma de tratar los programas y las políticas, (2) en la forma en que recopilamos y analizamos los datos y (c) cómo se reporta hallazgos y apoyamos su uso. La palabra complejidad a veces se ha menospreciado como “término moderno que se utiliza para evitar la rendición de cuentas y la planificación”. Pero no todo es complejo: Una intervención  puede tener algunos (a)  elementos simples, algunos (b) aspectos complicados y (c) algunos aspectos complejos, y es más útil identificarlos por separado que clasificar toda una intervención como compleja.

Muchas evaluaciones tienen que lidiar con programas con (1) múltiples componentes, (2) múltiples niveles de implementación, (3) múltiples organismos de ejecución, (4) con múltiples agendas y (5) cadenas causales largas con muchos resultados intermedios o con resultados que sólo pueden lograrse a través de un “paquete de causalidad” que involucra múltiples intervenciones o contextos favorables. En estas situaciones, las evaluaciones deben basarse en un modelo lógico incluya información sobre (a) diferentes componentes esenciales de uso común en la intervención, (b) que funcionan de manera diferente en diferentes contextos, o (c) que sólo funcionan en combinación con otros programas o entornos favorables. Es esencial informar al respecto en términos de “(a) lo que funciona, (b) para quién, (c) en qué contextos”.

Muchas evaluaciones tratan con programas que involucran estrategias emergentes y sensibles y procesos causales que no pueden ser completamente controlados o predecirse con antelación, ya que el programa se desarrolla y cambia con el tiempo. En estas situaciones, las evaluaciones tienen que ser capaces de identificar y documentar los socios, las estrategias y los resultados emergentes, en lugar de sólo prestar atención a los objetivos y metas pre-establecidas. Una evaluación en tiempo real puede ayudar a saber lo que está funcionando y para informar de cara a la adaptación continua y el aprendizaje. Una evaluación efectiva no implica necesariamente la construcción de un modelo detallado de cómo funciona la intervención y el cálculo de la combinación óptima de las actividades de ejecución – porque la combinación de lo que se necesita, lo que es posible y lo que va a ser óptimo, estarán siempre cambiando. Para mayor detalle sobre la particularización de los conceptos de complejidad en el sector de la Ayuda al Desarrollo y la Acción Humanitaria, véase Ramalingam et. al. (2008)

Aunque en el discurso y la retórica las evaluaciones en general dan la apariencia de prestar atención a las consecuencias no deseadas de las intervenciones, la mayoría de los diseños de evaluación dedican todo su presupuesto para la evaluación de la ejecución prevista y el logro de metas. Sigue siendo una excepción el tipo de trabajo de campo abierto a captar efectos no deseados o esperados, reales y dinámicas emergentes. Es útil para identificar los posibles impactos negativos durante el diseño del programa a fin de garantizar y establecer los procesos de seguimiento. Esto a su vez ayuda a la identificación de nuevos impactos negativos que deben ser evaluados. Una vez que se hayan identificado los posibles efectos no deseados o negativos se debe posibilitar desde el diseño la evaluación de los resultados y los impactos no deseados reales a medida que ocurren. Para ello la recolección de datos permanece abierta hacia resultados no deseado e inesperado mediante la inclusión de algunas preguntas abiertas en las entrevistas y cuestionarios, y propiciando la comunicación de los resultados inesperados. Apuntamos algunas opciones:

(1) Entrevistas con informantes clave: pidiendo al personal identificar los posibles impactos negativos, basados en su experiencia, en programas similares. Los críticos del programa pueden ser especialmente útiles.

(2) Teoría programa negativa: la identificación de las formas en que las actividades del programa pueden producir impactos negativos, en lugar de sus impactos previstos.

(3) Evaluación de riesgos: identificación de los impactos negativos potenciales, su probabilidad de ocurrir y cómo podrían evitarse.

(4) Informes de sucesos inusuales

REFERENCIAS

Ramalingam, B., Jones, H., Reba, T., y Young, J. (2008) Exploring the science of complexity: Ideas and implications for development and humanitarian efforts. Overseas Development Institute (ODI).

Rodríguez Ariza, C. & Monterde, R, (2014) Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos. Serie CECOD de Documentos de Trabajo del Centro de Estudios de Cooperación al Desarrollo, Número 29

Sibthorpe, B., & Glasgow, N., and Longstaff, D. (2004) Complex adaptive systems: A different way of thinking about health care systems. The Australian National University.

Lo sabíamos…o puede que sí o puede que no:

 

Comprendiendo la “Evaluación durante el desarrollo” (Developmental Evaluation)


Uno de mis libros más subrayados es “Developmental Evaluation. Applying Complexity Concepts to Enhance Innovation and Use” de Patton, M. Q. (2010). Y aun así este enfoque sigue siendo un enigma ya que todavía me queda un rato para acabar de  comprenderlo completamente en su parte más operativa. Uno está tentado de decir que es un enfoque que coge todo lo bueno de todos los enfoques y lo pone junto, en un estofado en el que añades algunas de las actuales palabras mantra (más “IN” o “FASHION”) como: adaptación, innovación, resiliencia… Su autor, el inabarcable Michael Quinn Patton, describe este enfoque como “una opción que fundamentalmente responde al contexto de la intervención”. Siendo Patton un pionero, este libro necesita tiempo para ser digerido porque además, como él mismo explica y en coherencia con este tipo de enfoque, utiliza el formato de “contar historias” para presentar los diferentes apartados (i)

El tema es que los anglosajones se inventan juegos de palabras imposibles y luego nos dejan a los demás la traducción (a veces lo que para los ingleses está clarísimo en dos palabras las lenguas románicas necesitamos varias páginas de explicación…sin contar las excepciones claro). ¿Pero empecemos por cómo demonios se traduce Developmental Evaluation  (DE, por sus siglas en inglés)? Uno está tentado de hacer como mis padres cuando fueron a ver la película “Eyes wide shut“, imposible de traducir al castellamo …la gente decía “una entrada para la sala 2” porque no sólo no se traducía sino que era imposible repetir el nombre….

Para empezar hay que decir que la traducción que aparece en el título es propia. Pablo Rodríguez Belilla en su breve introducción a DE se pregunta si pudiera traducirse como “evaluación en desarrollo”,  y Ricardo Wilson-Grau lo traduce como “evaluación para el desarrollo de innovaciones”. DE puede ser llamada también evaluación adaptativa, evaluación en tiempo real o evaluación emergente.  O sea que puede ocurrir que hayamos aplicado DE sin saber que lo estábamos haciendo. Y yo prefiero traducirlo como “evaluación durante el desarrollo” porque entiendo que es un proceso evaluativo durante el desarrollo de una intervención. Bueno pues a ver si acordamos una traducción digna ( i )

La evaluación durante el desarrollo  (DE) es un enfoque de evaluación que puede ayudar a los innovadores sociales que desarrollan iniciativas de cambio social en entornos complejos o inciertos. La DE es comparada al papel que la I+D+i (Investigación, Desarrollo e Innovación) juega en el proceso de desarrollo de productos y servicios en sector privado, ya que facilita casi en tiempo real la retroalimentación al personal del programa, permitiendo así el desarrollo de un seguimiento continuo más auténtico y más centrado en efectos positivos del proyecto y menos en la operativa de gestión.

La DE es especialmente adecuada para la innovación, el cambio radical, el rediseño, la replicabilidad, y en concreto como alternativa para el abordaje evaluativo de problemas complejos y situaciones de crisis. En estos diferentes contextos, la DE puede aportar de manera significativa y diferenciada de otros enfoques: conceptualización de nuevos fenómenos y nuevos marcos de análisis de los fenómenos sociales, validación por iteraciones rápidas, la capacidad de hacer emerger temas críticos, entre otros (Patton M., 2010)

La DE se apoya en la innovación para guiar la adaptación a las realidades emergentes y dinámicas en entornos complejos. Las innovaciones pueden tomar la forma de nuevos proyectos, programas, productos, cambios organizativos, reformas políticas, etc.

Recordemos que un sistema complejo se caracteriza por un gran número de elementos interdependientes que interactúan, en los que no hay control central, surgiendo patrones de cambio rápidos e interacciones en tiempo real, que generan el aprendizaje, la evolución y el desarrollo, si prestamos atención y sabemos cómo observar y capturar los patrones importantes y emergentes.

Entornos complejos para las intervenciones sociales y para las innovaciones son aquellos en los que lo que se debe hacer para resolver los problemas de los implicados es incierto y está en conflicto la forma de proceder.

Para ilustrar mejor el cambio de paradigma que supone este enfoque con respecto a planteamientos más comunes (como es el caso de la evaluación basada en objetivos/preguntas de evaluación), en la siguiente tabla se muestra una comparativa:

Evaluación tradicional Developmental Evaluation
Propósito Control del proyecto, Apoyo a la mejora de la intervención, aspectos sumativos de evaluación Apoyo a la innovación y la adaptación
Roles y

responsabilidades

Evaluador posicionado externamente para asegurar independencia Posicionado como una función interna integrada en el proceso de recolección y el análisis de información, generando marcos para la interpretación, supervisando y examinando modelos en desarrollo
Rendición de cuentas Focalizado en actores externos, con criterios de valoración predefinidos Centrada en los valores de los innovadores y su compromiso para el cambio
Opciones Dominan métodos y técnicas de investigación clásicas Enfocado al uso: se eligen técnicas y herramientas en función del uso en desarrollo
Medición Desempeño y éxito medidos a partir de indicadores SMART y objetivos claramente Desarrolla medidas conforme los efectos van apareciendo. Las medidas pueden cambiar a lo largo de la evaluación.
Resultados de

evaluación

Informes formales, identificación de

buenas prácticas, generalizables espacial y temporalmente

Retroalimentación en tiempo real, formas amigables y diversas de retroalimentación.

La evaluación trata siempre de nutrir el aprendizaje

Complejidad e

incertidumbre

El evaluador trata de controlar la implementación del diseño de evaluación y el propio proceso El evaluador aprende a manejar la falta de control sobre el proceso. Está atento al despliegue del programa y sus efectos y responde acorde con el momento
Estándares/ Principios

orientadores

Competencias metodológicas, rigor, independencia, credibilidad de cara a autoridades externas. Pensamiento analítico y crítico Flexibilidad metodológica, adaptabilidad, eclecticismo. Pensamiento sistémico.

Equilibrio entre pensamiento crítico y pensamiento creativo. Gran tolerancia a la ambigüedad. Abierto y ágil. Centrado en habilidades de equipo. Capaz de facilitar evidencia rigurosa.

…Pero esto es un comienzo en torno a la “Evaluación durante el desarrollo”, ya que trataré en futuros post de ir desgranando los tesoros de este enfoque…

Referencias

Patton, M. Q. (2010) Developmental Evaluation. Applying Complexity Concepts to Enhance Innovation and Use. Guilford Press, New York. Retrieved

Rodríguez Ariza, C. y Monterde, R. (2014) Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos. Documento de Trabajo Serie CECOD. Número 29 / 2014