Oportunidades de los métodos mixtos en evaluación


Terminamos hoy un ciclo de cuatro posts,  con los oportunidades de los métodos mixtos, tras el tema iniciado con los tres anteriores posts: Una introducción a los métodos mixtos de evaluaciónCómo integrar métodos mixtos de evaluaciónAlgunos desafíos de los métodos mixtos de evaluación en contextos de desarrollo.

El creciente interés por los métodos mixtos, junto con el reconocimiento de los desafíos especiales, presenta una serie de interesantes oportunidades para fortalecer el uso de métodos mixtos en las evaluaciones de desarrollo.

(1) Una primera área de oportunidad se sitúa en el desarrollo de sistemas de seguimiento eficaces. Si bien existe una aceptación generalizada de que el monitoreo es esencial para la buena ejecución de los proyectos, se ha pensado menos en el diseño de sistemas de seguimiento enfocados a su función evaluativa, esto es, alimentar procesos de evaluación y no únicamente de gestión. Sigue leyendo

Algunos desafíos de los métodos mixtos de evaluación en contextos de desarrollo


Seguimos con los desafíos o amenazas de los métodos mixtos de evaluación, tras el tema iniciado con los dos anteriores posts  Una introducción a los métodos mixtos de evaluación  y  Cómo integrar métodos mixtos de evaluación.

Aunque se ha hecho un gran progreso en la aplicación de métodos mixtos, y a pesar de un aumento, lento pero constante, en los estudios publicados en los países en desarrollo, los evaluadores siguen teniendo que enfrentar una serie de retos si quieren aplicar adecuadamente métodos mixtos en el seguimiento y evaluación de los proyectos y políticas en estos contextos de desarrollo. Algunas de las limitaciones prácticas, desafíos o amenazas de los métodos mixtos son las siguientes:

(1) En muchos casos, la combinación ideal de métodos no es posible, ya sea debido a (i) las limitaciones en la evaluación en sí, como (a) el tiempo  o (b) financiación limitados, o (ii) debido a factores contextuales, tales como un entorno (a) geográfico o (b) político difícil. Todas las evaluaciones deben hacer frente a este tipo de restricciones, pero son especialmente relevantes para decidir entre diferentes métodos y maneras de integrarlas en un diseño de método mixto. En algunos casos, un enfoque de método mixto puede incluso ayudar a superar algunos de estos obstáculos.

(2) El siguiente desafío es el hecho de que los métodos mixtos han sido la opción y el diseño preferido de evaluación por muchas agencias de desarrollo durante muchos años. Sin embargo, muchas de estas evaluaciones utilizaron enfoques ad hoc que en su mayoría no aplicaron los tipos de rigor metodológico y conceptual que se requieren. El método mixto no es nuevo en sí, aunque sí es nuevo el aumento de las capacidades profesionales (y por tanto las capacidades financieras) en evaluación y gestión de evaluaciones. Este aumento de capacidades profesionales debería tener influencia en el aumento del rigor metodológico.

(3) En la práctica, por lo general se requiere mucho tiempo y esfuerzo para identificar y construir un equipo de investigadores internacionales y locales que puedan trabajar bien juntos en un enfoque de métodos mixtos. Por desgracia, la planificación de muchas evaluaciones de desarrollo no permite mucho tiempo para la formación de equipos, por lo que a menudo el resultado no suele ser más de dos o tres herramientas distintas entre (a) encuestas (con vocación cuantitativa) no muy claramente vinculadas a estudios de caso en profundidad o (b) entrevistas semi-estructuradas.

(4) Por otra parte, las instituciones que demandan evaluaciones (en especial los donantes, con alguna excepción) han dado por sentado que los métodos cualitativos son una forma de evaluar qué hay que “dar por válida” cuando no es posible aplicar “métodos rigurosos” (entendidos rigurosos como métodos cuantitativos). Como consecuencia, no existen apenas incentivos para profundizar en la aplicación de métodos mixtos, dada la incorporación de técnicas cualitativas en cuanto se observa cualquier reto en relación a los métodos cuantitativos.

(5) En los últimos años, muchas agencias de investigación están tratando de reforzar su capacidad de aplicar enfoques de métodos mixtos, pero esto sigue siendo un punto débil. Además, cabe recordar que hay muchos problemas prácticos de logística en la aplicación de métodos mixtos en muchos contextos de desarrollo. Muchas evaluaciones de desarrollo requieren la recopilación de datos en las zonas rurales remotas o en zonas urbanas, donde las condiciones (tiempo, presupuesto…) o amenazas de seguridad hacen que sea más difícil el uso de los enfoques flexibles requeridos por métodos mixtos.

(6) Un último desafío para la evaluación con métodos mixtos es proporcionar directrices sobre los niveles mínimos de rigor metodológico aceptable, bien (1) cuando se trabaja sobre la base de diversas fuentes de datos, que a menudo se recogen con bajo presupuesto y tiempo, o bien (2) cuando gran parte de los datos se recogen en circunstancias difíciles.

 

REFERENCIAS

Rodríguez Ariza, C. & Monterde, R, (2014) Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos. Serie CECOD de Documentos de Trabajo del Centro de Estudios de Cooperación al Desarrollo, Número 29

Pues ya sabemos que normalmente debremos determinar “cuándo o si” determinados métodos mixtos son factibles o no. La luna o el sol, la luna y el sol…

Cómo integrar métodos mixtos de evaluación


Como se mencionó en el post anterior “Una introducción a los métodos mixtos de evaluación, en evaluación debemos considerar cuidadosamente cómo se van a integrar los diferentes métodos utilizados para un diseño de evaluación coherente. Tres de las formas más comunes en que las técnicas se pueden combinar para lograr los propósitos descritos en ese post anterior son las siguientes: (1) combinaciones paralelas, (2) combinaciones secuenciales, y (3) combinaciones de multinivel.

Una única evaluación podría utilizar más de uno, o incluso la totalidad, de estos patrones de combinación en diferentes momentos durante el proceso de evaluación. Cada una de estas variaciones implica importantes decisiones de gestión sobre temas como (1)  las fuentes de datos en que se basan y (2) la forma de acceder a ellos, (3) qué localizaciones deben ser incluidas en la evaluación (¿todas las del proyecto o una muestra?, y (4) si sólo una muestra, ¿cómo se selecciona la muestra?), o (5) qué puntos de vista de las partes interesadas son más relevantes, entre otras cuestiones.

En la siguiente tabla se resumen los aspectos fundamentales de estas tres estrategias:

Combinación de métodos

Técnica de análisis

Potencial de análisis

Paralela

(1) Se analizan por separado dos o más conjuntos de datos recopilados aplicando una combinación de métodos (cuantitativos/cualitativos).

(2) Posteriormente se comparan los resultados de cada caso y, en su caso, se integran en una conclusión común.

Triangulación de información, para reforzar conclusiones.

Uso de información cualitativa para:

(1) profundizar en hallazgos de cuantitativa o incluso

(2) buscar explicaciones más completas sobre el cambio observado.

Secuencial

(1) Se analizan dos o más conjuntos de datos de forma espaciada en el tiempo, pero

(2) los resultados del análisis de uno es tomado como parte del punto de partida de el/los siguiente/s análisis

Validación de hipótesis generadas en el primer set de datos y la primera técnica empleada

Multinivel

(1) Se emplean técnicas cuantitativas y cualitativas en, al menos, dos conjuntos de datos con diferente nivel de agregación (diferente tipo de actor, diferente nivel de agregación de un mismo actor, etc.).

(2) Así, una técnica se emplea en un conjunto de datos a un nivel y otra técnica a otro nivel. Permite responder a preguntas de evaluación sobre la misma temática que estén interrelacionadas.

Evaluar unidades con importante nivel de integración de partes en la provisión de un servicio (ejemplo: unidad de salud, evaluar cómo cada profesional/área contribuye a la satisfacción del paciente y a su mejora física)

Fuente: elaboración propia a partir de Teddlie y Tashakkori (2009) y Mark, Feller y Button (1997)

REFERENCIAS

Mark, M. M, Feller, I. y Button, S. B. (1997) Integrating qualitative methods in a predominantly quantitative evaluation:A case study and some reflections. New Directions for Evaluation. Vol 1997, nº 74, pp. 47–59

Teddlie, Ch. y Tashakkori, A. (2009). Foundations of Mixed Methods Research: Integrating Quantitative and Qualitative Approaches in the Social and Behavioral Sciences. Ed. Sage.

Rodríguez Ariza, C. & Monterde, R, (2014) Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos. Serie CECOD de Documentos de Trabajo del Centro de Estudios de Cooperación al Desarrollo, Número 29

 

Así que colegas,  como de costumbre, un poco imaginación para la magia en la evaluación:

 

Una introducción a los métodos mixtos de evaluación


Los métodos cuantitativos y cualitativos todavía son considerados por algunos como dos rivales o dos opciones incompatibles (Patton los compara con niños de dos años que todavía no son capaces de jugar juntos). Para la mayoría de las intervenciones de desarrollo, no hay un método único que pueda describir adecuadamente y analizar las interacciones que se inter-relacionan con los sistemas complejos. Los métodos mixtos permiten la triangulación —o análisis comparativo— que nos permite capturar y cotejar realidades complejas y nos puede proporcionar una comprensión completa, desde diversas perspectivas, el éxito (o falta de él) de las políticas, los servicios o programas.

La utilización de métodos mixtos ha pasado a ser parte de la ortodoxia, demandada u ofrecida de forma habitual por/a las agencias donantes. Sin embargo, en el pasado se ha abusado del término, ya que a cualquier mezcla de diferentes técnicas y de cualquier manera, se le ha querido llamar “métodos mixtos”. Es probable que los métodos mixtos pronto se conviertan en el estándar para la mayoría de las evaluaciones. Pero el uso de métodos mixtos por sí solo no es suficiente, sino que debería aplicarse en múltiples niveles (Bamberger, 2012)

En los últimos años ha existido un interés creciente por los métodos mixtos en el campo de la evaluación en general, así como en las diversas formas en que las metodologías cuantitativas y cualitativas pueden ser sistemáticamente combinadas. Existen diferentes diseños evaluativos con métodos mixtos, siendo los más habituales aquellos que ponen el énfasis del lado cualitativo. Este tipo de diseños, en los que la parte cualitativa es la dominante, pueden ser útiles para explorar (1) temas complejos e innovadores o (2) conglomerados de intervenciones, por poner dos posibles ejemplos habituales en Cooperación al Desarrollo.

Una evaluación de métodos mixtos integra sistemáticamente dos o más métodos de evaluación, potencialmente en todas las etapas del proceso de evaluación, por lo general sobre la base de datos tanto cuantitativos como cualitativos.

Evaluaciones de métodos mixtos pueden utilizar (1)  varios diseños, por ejemplo la incorporación de (1.1) RCT (ensayos aleatorios controlados, en sus siglas en inglés Randomised Control Trials) y (1.2) estudios de caso. También pueden incluir diferentes (2) técnicas de recolección de datos, tales como (2.1) observaciones estructuradas, (2.2) entrevistas a informantes clave, (2.3) encuestas de hogares, y las (2.4) revisiones de los datos secundarios existentes. En resumen, una evaluación de métodos mixtos implica la integración sistemática de los diferentes tipos de principios, enfoques, técnicas y datos, por lo general procedentes de diferentes diseños. Como resultado de ello, las evaluaciones de métodos mixtos requieren (a) una planificación avanzada y (b) una gestión cuidadosa en cada etapa del proceso de evaluación.

Los tres casos principales en que los diseños de métodos mixtos ayudan a fortalecer la evaluación son:

1) Cuando las diferentes preguntas de evaluación requieren diferentes métodos, o cuando una sola pregunta de la evaluación requiere de más de un método para responder a todos sus componentes.

2) Cuando métodos diferentes se utilizan para responder a los mismos elementos de una sola pregunta, aumenta la confianza en la validez y fiabilidad de los resultados de la evaluación.

3) Cuando los resultados de un método se utilizan para ayudar a diseñar las futuras fases de la evaluación.

Otros beneficios que se pueden obtener mediante el uso de diseños de métodos o estrategias de recolección de datos mixtos son:

1) Facilitan la revelación de resultados inesperados

2) Puede proporcionar una comprensión más profunda de por qué el cambio está o no ocurriendo como estaba previsto

3) Permiten capturar una gama más amplia de perspectivas de lo que podría ser capturado por un solo método.

REFERENCIAS

Bamberger, M. (2012), Introducción a los métodos mixtos de la evaluación de impacto. Notas sobre la Evaluación de Impacto, nº 3. InterAction

Rodríguez Ariza, C. & Monterde, R, (2014) Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos. Serie CECOD de Documentos de Trabajo del Centro de Estudios de Cooperación al Desarrollo, Número 29

Y ahí va la canción que hace juego, juego mixto:

Evaluación de la complejidad


En el anterior post Comprendiendo la “Evaluación durante el desarrollo” (Developmental Evaluation), introducíamos los conceptos básicos sobre un enfoque de evaluación que ha tratado de integrar la ciencia de la complejidad. Escojo un fragmento de la publicación Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos, que realicé en 2014 con Rafael Monterde.

La ciencia de la complejidad ha sido utilizada para describir y explicar el comportamiento de los sistemas naturales y biológicos, que se caracterizan por (1) dinámica no lineal y (2) propiedades emergentes sobre la base de diversas poblaciones de individuos que interactúan entre sí y son capaces de experimentar la auto-organización espontánea.

La investigación en la gestión organizacional y la psicología del comportamiento indican que los sistemas humanos también se comportan de una manera compleja. El modelo operativo de la ciencia de la complejidad llama a la complejidad en la acción y da lugar a los Sistemas Adaptativos Complejos (SAC).  Un sistema adaptativo complejo  es un tipo especial de sistema complejo; es complejo en el sentido de que es diverso y conformado por múltiples elementos interconectados; y adaptativo, porque tiene la capacidad de cambiar y aprender de la experiencia.  Lo que distingue a los CAS de los SMA (sistemas multiagentes) puros es su enfoque de propiedades de alto nivel y característica, como autosimilaridad, complejidademergencia, y autoorganización. Un SMA es definido simplemente como un sistema compuesto de múltiples agentes interactuando. En CAS los agentes así como los sistemas son adaptativos, el sistema es autosimilar. Un CAS es una compleja y autosimilar colectividad de interacciones de agentes adaptativos. Los CAS se caracterizan por un alto grado de capacidad adaptativa, lo que les proporciona resiliencia frente a la perturbación. Otras propiedades importantes son la adaptación (homeostasis), comunicación, cooperación, especialización, organización espacial y temporal, y, por supuesto, reproducción.

La teoría de SAC ofrece una forma diferente de pensar acerca de las organizaciones y sistemas, incluyendo cómo debe desarrollarse una política para ellos, cómo deben ser gestionados, cómo la innovación puede propagarse dentro de y cómo deben ser evaluados (Sibthorpe, Glasgow y Longstaff, 2004).

 

Un tema de interés creciente en la evaluación, especialmente la evaluación del desarrollo, es cómo podemos aplicar las ideas y métodos de ciencia de la complejidad en la evaluación. La complejidad tiene aplicaciones importantes (1) en la forma de tratar los programas y las políticas, (2) en la forma en que recopilamos y analizamos los datos y (c) cómo se reporta hallazgos y apoyamos su uso. La palabra complejidad a veces se ha menospreciado como “término moderno que se utiliza para evitar la rendición de cuentas y la planificación”. Pero no todo es complejo: Una intervención  puede tener algunos (a)  elementos simples, algunos (b) aspectos complicados y (c) algunos aspectos complejos, y es más útil identificarlos por separado que clasificar toda una intervención como compleja.

Muchas evaluaciones tienen que lidiar con programas con (1) múltiples componentes, (2) múltiples niveles de implementación, (3) múltiples organismos de ejecución, (4) con múltiples agendas y (5) cadenas causales largas con muchos resultados intermedios o con resultados que sólo pueden lograrse a través de un “paquete de causalidad” que involucra múltiples intervenciones o contextos favorables. En estas situaciones, las evaluaciones deben basarse en un modelo lógico incluya información sobre (a) diferentes componentes esenciales de uso común en la intervención, (b) que funcionan de manera diferente en diferentes contextos, o (c) que sólo funcionan en combinación con otros programas o entornos favorables. Es esencial informar al respecto en términos de “(a) lo que funciona, (b) para quién, (c) en qué contextos”.

Muchas evaluaciones tratan con programas que involucran estrategias emergentes y sensibles y procesos causales que no pueden ser completamente controlados o predecirse con antelación, ya que el programa se desarrolla y cambia con el tiempo. En estas situaciones, las evaluaciones tienen que ser capaces de identificar y documentar los socios, las estrategias y los resultados emergentes, en lugar de sólo prestar atención a los objetivos y metas pre-establecidas. Una evaluación en tiempo real puede ayudar a saber lo que está funcionando y para informar de cara a la adaptación continua y el aprendizaje. Una evaluación efectiva no implica necesariamente la construcción de un modelo detallado de cómo funciona la intervención y el cálculo de la combinación óptima de las actividades de ejecución – porque la combinación de lo que se necesita, lo que es posible y lo que va a ser óptimo, estarán siempre cambiando. Para mayor detalle sobre la particularización de los conceptos de complejidad en el sector de la Ayuda al Desarrollo y la Acción Humanitaria, véase Ramalingam et. al. (2008)

Aunque en el discurso y la retórica las evaluaciones en general dan la apariencia de prestar atención a las consecuencias no deseadas de las intervenciones, la mayoría de los diseños de evaluación dedican todo su presupuesto para la evaluación de la ejecución prevista y el logro de metas. Sigue siendo una excepción el tipo de trabajo de campo abierto a captar efectos no deseados o esperados, reales y dinámicas emergentes. Es útil para identificar los posibles impactos negativos durante el diseño del programa a fin de garantizar y establecer los procesos de seguimiento. Esto a su vez ayuda a la identificación de nuevos impactos negativos que deben ser evaluados. Una vez que se hayan identificado los posibles efectos no deseados o negativos se debe posibilitar desde el diseño la evaluación de los resultados y los impactos no deseados reales a medida que ocurren. Para ello la recolección de datos permanece abierta hacia resultados no deseado e inesperado mediante la inclusión de algunas preguntas abiertas en las entrevistas y cuestionarios, y propiciando la comunicación de los resultados inesperados. Apuntamos algunas opciones:

(1) Entrevistas con informantes clave: pidiendo al personal identificar los posibles impactos negativos, basados en su experiencia, en programas similares. Los críticos del programa pueden ser especialmente útiles.

(2) Teoría programa negativa: la identificación de las formas en que las actividades del programa pueden producir impactos negativos, en lugar de sus impactos previstos.

(3) Evaluación de riesgos: identificación de los impactos negativos potenciales, su probabilidad de ocurrir y cómo podrían evitarse.

(4) Informes de sucesos inusuales

REFERENCIAS

Ramalingam, B., Jones, H., Reba, T., y Young, J. (2008) Exploring the science of complexity: Ideas and implications for development and humanitarian efforts. Overseas Development Institute (ODI).

Rodríguez Ariza, C. & Monterde, R, (2014) Estrategias cualitativas de evaluación en la Cooperación para el Desarrollo: viejos debates y nuevos retos. Serie CECOD de Documentos de Trabajo del Centro de Estudios de Cooperación al Desarrollo, Número 29

Sibthorpe, B., & Glasgow, N., and Longstaff, D. (2004) Complex adaptive systems: A different way of thinking about health care systems. The Australian National University.

Lo sabíamos…o puede que sí o puede que no:

 

La Alta dirección como factor de éxito para la Gestión del Conocimiento


De nuevo me refiero con una traducción libre y enriquecida a  esa fuente inagotable de conocimiento que es Nick Milton y su post referido a  “seis factores de éxito para la Gestión del Conocimiento“, donde nos explica la visión uno de los profesionales más experimentados de la disciplina de la gestión del conocimiento (Rob Koene, Gestor del Conocimiento de la Empresa Fluor)

Crédito: Teamvision

Según Rob Koene, la ejecución de actividades de Gestión de Conocimiento tendrá más éxito cuando:

  1. La Alta Dirección entiende la necesidad (Motivación: ¿por qué?), el valor (Contenido: ¿qué?) y la utilidad (Propósito: ¿Para qué?) de la Gestión del Conocimiento (Comprensión: no hay necesidad de convencerlos)
  2. La Alta Dirección apoya proactivamente, promoviendo y reconociendo los beneficios de la gestión del conocimiento (Aptitud y Actitud)
  3. La Alta Dirección pone a disposición suficientes capacidades de manera continua para la Gestión del Conocimiento (Compromiso hacia las Capacidades desplegadas)
  4. Las actividades de Gestión del Conocimiento están gestionadas por un equipo dedicado, fuerte y entusiasta, y lo hace como parte de su carrera. (Visión a largo plazo de la gestión del conocimiento)
  5. Los puntos focales, campeones y expertos en la Gestión del Conocimiento son identificados, activos y visibles (Visibilidad)
  6. A menos que nuestra empresa esté enfocada sólo hacia el sector de la Tecnología de la Información o  el sector de la Gestión de recursos humanos, no permitamos que los departamentos de Tecnologías de la Información o de Recursos Humanos  ejecuten en solitario las actividades de Gestión del Conocimiento. A pesar de que suelen tener buenas  intenciones: por lo general los servicios de Tecnologías de la Información se centran en la automatización, por lo que la gestión del Conocimiento se dirigirá a automatización (mientras) que los departamentos de Recursos Humanos se centrarán  en la formación, que es sin duda un elemento en la Gestión del Conocimiento, aunque es sólo una parte del gran paquete que conforma la gestión del Conocimiento.

Buenos colegas,  Nick Milton (BP) y Rob Koene (Fluor) provienen del sector empresarial: si alguien ha conocido una organización de desarrollo (pública o no) con una “Alta dirección” que cumpla con 1, 2 o 3 (Comprensión, Aptitud, Actitud, Compromiso hacia las capacidades para la Gestión del Conocimiento)…por favor que me lo cuente para hacerle un post monográfico…por favor…¿o estamos hablando de ciencia ficción?

La reducción del riesgo de desastres


Voy a iniciar un ciclo de posts relacionados con la gestión del riesgo de desastres (DRM-disaster risk management) y con la resiliencia. El seguimiento, la evaluación, la gestión del conocimiento son transversales a dichos conceptos. El post de hoy es una introducción al concepto de reducción del riesgo de desastres.

Un enfoque basado en derechos reconoce los derechos de todos los seres humanos a (i) realizar su potencial y (ii) tener la oportunidad de vivir libres de la pobreza en un mundo seguro y más equitativo. Esto incluye el derecho a: (1) la vida y la seguridad; (2) medios de vida sostenibles; (3) ser escuchado; (4) tener una identidad; y (5) tener acceso a servicios sociales básicos.

La protección de derechos son todas las actividades tendientes a conseguir el pleno respeto de los derechos de las personas de conformidad con la letra y el espíritu de la normativa pertinente ( (a) derechos humanos, (b) derecho humanitario y (c)derecho de los refugiados). Los agentes de desarrollo y humanitarios y los defensores de derechos humanos deberán realizar esas actividades en forma imparcial y no basándose en la raza, el origen étnico o nacional, la lengua, o el sexo (CICR, 1999).

Los profesionales de ayuda humanitaria y del desarrollo comparten un objetivo común: el empoderamiento de las mujeres, los hombres y los niños para disfrutar de sus derechos humanos básicos y la protección permanente de esos derechos.

El riesgo es la  combinación de la probabilidad de que se produzca un evento y sus consecuencias negativas (EIRD, 2009). Por lo tanto, las estrategias de desarrollo y las respuestas humanitarias necesitan incorporar medidas para reducir los principales riesgos para el cumplimiento de este objetivo, ya que  los impactos de los desastres continúan siendo un gran obstáculo para ello. Además, los innumerables desastres de pequeña escala no reportados ejercen una presión acumulativa sobre la salud, la vida y los medios de vida.

Los desastres se reconocen dentro del sector de ayuda humanitaria y del desarrollo como situaciones que provocan trastornos graves en la vida de una comunidad o sociedad, de los cuales la mayoría de las personas no pueden recuperarse sin la asistencia externa de terceros a menudo fuera de su comunidad o sociedad. Generalmente (a) implican la pérdida masiva de (i) vidas, (ii) infraestructura y otros activos y (b) afectan (i) el bienestar, (ii) la seguridad, (iii) la salud y (iv) los medios de vida de las personas. Algunos impactos son (1) inmediatos (una inundación o un terremoto) y otros (2) diferidos (una sequía) ya que son causados por la forma en que las personas reaccionan frente a la situación e intentan recuperarse de la misma.

Los desastres (a) no son interrupciones inevitables del desarrollo a los que se responde con la rápida distribución de ayuda de emergencia, (b) sino el resultado de riesgos no controlados dentro del proceso de desarrollo propiamente dicho. Estos riesgos no controlados se producen cuando ocurre una amenaza, como una plaga o una sequía, en la que (i) las personas, (ii) los bienes y (iii) los sistemas (1) se ven expuestos y (2) son vulnerables a sus efectos.

Una amenaza es un (1) fenómeno o acontecimiento (por ejemplo: inundación, ciclón, terremoto), (2) actividad humana (por ejemplo: conflicto civil), o (3) condición peligrosa que pueden ocasionar (a) la muerte, lesiones u otros impactos a la salud, al igual que (b) daños a la propiedad, (c) la pérdida de medios de vida y de servicios, (d) trastornos sociales y económicos, o (e) daños ambientales. Las amenazas pueden ser (i) individuales, (ii) combinadas o (iii) secuenciales en origen y efectos. Cada una de ellas se caracteriza por su ubicación, intensidad, frecuencia y probabilidad. Comprender la naturaleza y la probabilidad de tales peligros es de importancia crítica para la seguridad y protección de las personas y la comunidad (EIRD, 2009).

El riesgo de desastres supone la pérdida potencial – de vidas, de la salud, de los medios de vida, de los bienes y servicios – que podría sufrir una determinada comunidad o sociedad durante un determinado periodo debido al desastre. El riesgo de desastres puede reducirse considerablemente desde el lado del desarrollo y desde el lado de la acción humanitaria:

(A) Desde el desarrollo reforzando estrategias encaminadas a disminuir la vulnerabilidad y la exposición a las amenazas en el marco de acciones generales para abordar la pobreza, la desigualdad y la negación de los derechos fundamentales.

La vulnerabilidad son las características y las circunstancias de una comunidad, sistema o bien que los hacen susceptibles a los efectos dañinos del cambio climático y las amenazas. La vulnerabilidad puede ser determinada por la interacción entre (1) la exposición y (2) la sensibilidad a una serie de factores de gobernanza, sociales, económicos, políticos y ambientales interrelacionados (Oxfam GB, 2010).

Existen diversos aspectos de la vulnerabilidad que surgen de varios factores físicos, sociales, económicos y ambientales. Entre los ejemplos se incluyen (1) el diseño inadecuado y la construcción deficiente de los edificios, (2) la protección inadecuada de los bienes, (3) la falta de información y de concientización pública, (4) un reconocimiento oficial limitado (a) del riesgo y (b) de las medidas de preparación y (5) la desatención a una gestión ambiental sensata o prudente. La vulnerabilidad varía considerablemente dentro de una comunidad y en el transcurso del tiempo.

La exposición en general significa (a) estar físicamente en la zona afectada por el fenómeno climático, o (b) depender de bienes, sistemas, instituciones u otras personas que están en esa zona. Las medidas del grado de exposición pueden incluir (1) la cantidad de personas o (2) los tipos de bienes en una zona. Estos pueden combinarse con la vulnerabilidad específica de los elementos expuestos a una amenaza en particular con el fin de calcular los riesgos cuantitativos relacionados con esa amenaza en la zona bajo estudio (EIRD, 2009).

(B) Desde las operaciones de respuesta humanitaria a desastres y otras crisis se pueden diseñar e implementar de tal forma que se proteja el derecho a la vida de las personas afectadas y otros derechos básicos en el corto y mediano plazo.

 

El enfoque de reducción del riesgo de desastres se refiere a  esfuerzos sistemáticos dirigidos al análisis y a la gestión de los factores causales de los desastres, lo que incluye (1)  la reducción del grado de exposición a las amenazas, (2)  la disminución de la vulnerabilidad de la población y la propiedad, (3) una gestión sensata de los suelos y del medio ambiente y (4) la mejora de la preparación ante los eventos adversos (EIRD, 2009).

 

REFERENCIAS

ICRC (1999) ICRC Ecogia Protection Seminars (1996-2000). Geneva, Switzerland.

EIRD (2009) Terminology on Disaster Risk Reduction. Geneva, Switzerland. Disponible en línea en: www.unisdr.org/files/7817_UNISDRTerminologyEnglish.pdf

Marilise Turnbull, Charlotte L. Sterrett, Amy Hilleboe  (2013) Hacia la Resiliencia. Una Guía para la Reducción del Riesgo de Desastres y Adaptación al Cambio Climático.  Practical Action Publishing Ltd.

Oxfam GB (2010) Gender, Disaster Risk Reduction, and Climate Change Adaptation: A Learning Companion. Oxfam Disaster Risk Reduction and Climate Change Adaptation. Resources. Oxford, UK.