El potencial de la inteligencia artificial para la acción humanitaria
Conversamos con Rebeca Moreno Jiménez, Oficial de Innovación de la Agencia de las Naciones Unidas para los Refugiados (ACNUR), desde Ginebra.
Actualmente hay más de 89 millones de personas en situación de desplazamiento forzado en el mundo. En este contexto, la sofisticación de la inteligencia artificial (IA) choca con una realidad precaria. Rebeca ilustra este contraste con una foto que tomó en un campo de refugiados: una "estación de carga" improvisada con paneles solares donde la gente paga para recargar sus celulares. ¿Cómo se pueden aplicar estas herramientas avanzadas de manera responsable y digna en entornos con recursos tan escasos?
Un algoritmo es, en esencia, un conjunto de reglas humanas automatizadas. Cuando los datos arrastran prejuicios, la máquina los replica a escala. Casos conocidos, como un sistema penal que sobreestimó la reincidencia en minorías o un piloto de reclutamiento que penalizaba currículos de mujeres, ilustran el riesgo de automatizar la injusticia. ¿Quién responde cuando el sistema se equivoca? ¿Y con qué datos se entrenó realmente?
Desde ahí, entramos en el caso somalí. El equipo cruzó siete años de datos climáticos, de conflicto y de mercados. Pero la clave no vino de un supermodelo, sino de una entrevista: antes de huir, muchas familias venden sus cabras; el mercado de origen se inunda y el precio cae, mientras en la región vecina sube cuando recompran. ¿Qué variable rompe el patrón? ¿Qué pasa cuando el precio no se mueve como se espera? Rebeca nos lleva de la mano por un análisis técnico y cultural detrás de esa inferencia.
Surgen también otras consideraciones éticas ante la tendencia de que los algoritmos se desarrollan casi exclusivamente en el Norte Global y en inglés. El riesgo va más allá de una nueva brecha digital: sin herramientas y paquetes de datos en idiomas locales, las comunidades no pueden construir sus propias soluciones y quedan reducidas a ser víctimas pasivas que compran software diseñado con otra realidad en mente. Como Rebeca advierte, “si no entiendes bien cómo funciona el algoritmo, entonces eres víctima de él”. Mientras la tecnología avanza a una velocidad vertiginosa, la regulación internacional, como la guía de principios de la ONU, apenas comienza a tomar forma, dejando abierta la cuestión de cómo se exigirán cuentas por las decisiones automatizadas que impactan vidas.
Tres principios para una IA responsable
Diseñar con personas. Una pregunta mal planteada puede cerrar las puertas. Reformular “¿cuántas cabras vendió?” como “¿cuántas cabras perdió?” fue la clave para validar el modelo predictivo en Somalia.
Ética de datos en serio. Anonimizar, explicar supuestos, documentar vacíos y publicar metodología. Decidir cuándo un resultado parcial salva vidas… y dejar constancia de la decisión.
Diversidad y control humano. La tecnología no puede ser diseñada únicamente por desarrolladores, y no todo problema necesita IA. Incluso en equipos diversos, los sesgos persisten.
Puedes ver la grabación del conversatorio completo aquí:

