Humanitarian Aid Studies Centre | Centre d’Etudes sur I’Aide Humanitaire | Centro de Estudios en Ayuda Humanitaria

WASH Specialist in Emergencies and Humanitarian Settings

Learning has started. You can still join!

Nutrition Specialist in Emergencies and Humanitarian Settings

Learning has started. You can still join!

Cash and Voucher Assistance in
Emergencies / Cash Transfer Programming

Learning has started. You can still join!

Master’s in International Cooperation and Humanitarian Aid

Learning has started. You can still join!

Un nouveau rapport vient d’être publié sur la manière dont nous utilisons l’intelligence artificielle dans le secteur humanitaire. Il est signé par la Humanitarian Leadership Academy et Data Friendly Space. Plus de 2500 réponses de collègues issus de 144 pays ont été collectées. Et oui, le rapport confirme ce que beaucoup d’entre nous savaient déjà par expérience directe : nous utilisons déjà l’IA — tous les jours, pour des tâches très concrètes.

Mais ce n’est pas tout. Il est temps d’y regarder de plus près, car quelqu’un a enfin pris le temps de demander comment nous l’utilisons réellement, en recueillant des exemples de terrain, des nuances, des contradictions, et quelques idées sur la manière de normaliser l’usage de l’IA dans notre travail.

Nous l’utilisons, comme n’importe quel·le travailleur·se du XXIe siècle

Première conclusion : nous l’utilisons pour les mêmes choses que la moitié de la planète qui travaille sur un ordinateur :

  • rédiger des rapports,
  • écrire de meilleurs e-mails,
  • traduire des documents entre différentes langues,
  • nettoyer ou transformer des données,
  • résumer des documents trop longs pour être lus entièrement.


En bref : nous l’utilisons pour faire notre travail. Parce que ça aide.

Nous l’utilisons, même si personne ne nous a dit qu’on pouvait

Souvent, nous le faisons sans qu’aucune politique officielle ne soit en place. Personne ne l’a formellement autorisé, mais personne ne l’a interdit non plus (et si c’était le cas, peu de gens ont prêté attention).

Ce que le rapport appelle “shadow AI” — l’utilisation non autorisée d’outils d’IA — relève en réalité du simple bon sens : nous utilisons ce que nous avons sous la main pour gagner en efficacité. Comme avec n’importe quel autre outil.

Peut-on encadrer cela ? Oui. Doit-on le faire ? Eh bien… ça dépend de l’objectif. La régulation peut être utile si elle vise à encourager un usage pertinent, ou lorsqu’il y a des données sensibles ou un vrai risque d’abus. Mais elle ne doit pas devenir un outil pour imposer des restrictions inutiles qui étouffent l’initiative, la créativité, et le libre arbitre que devrait avoir tout·e travailleur·se humanitaire ambitieux·se cherchant à atteindre ses objectifs sans relâche. (C’est nous !)

Et oui, il existe des usages spécifiques au secteur humanitaire

Le rapport donne quelques exemples qui vont au-delà des cas d’usage génériques. Par exemple :

  • Des chatbots pour former des personnes qui s’occupent d’enfants en Afrique.
  • Des plateformes d’IA pour analyser pourquoi certaines femmes abandonnent des programmes de formation en Afghanistan.
  • Des jeux éducatifs pour apprendre aux enfants à se déplacer en sécurité dans des zones de conflit.
  • Des assistants IA hors ligne au Liban, utilisables sans connexion et sans risque d’exposition des données.


Autres applications possibles

Au-delà de ce que nous faisons déjà et de ce que le rapport propose, il y a encore beaucoup à explorer. Les possibilités sont immenses. En voici quelques-unes :

  • Préparer des fiches contextuelles pour les équipes terrain, incluant l’historique du conflit, les acteurs clés, les risques majeurs et les projets en cours.
  • Planifier des itinéraires incluant les points de collecte et de livraison, en optimisant les trajets et l’utilisation des véhicules.
  • Interpréter des images satellites ou des photos terrain pour détecter des mouvements de population, des dégâts d’infrastructure ou évaluer les besoins humanitaires à partir d’éléments visuels.
  • Analyser des enquêtes ouvertes ou des données issues de groupes de discussion afin d’identifier des motifs récurrents et mieux comprendre les priorités communautaires (ou pour écrire des rapports !).
  • Nettoyer des bases de données : éliminer les doublons dans les listes de bénéficiaires ou corriger les noms mal orthographiés.
  • Créer des listes de contrôle automatiques basées sur des cadres comme SPHERE, IPC, ou les directives sur l’alimentation des nourrissons — ou simplement pour répondre aux exigences des bailleurs.
  • Traduire avec nuances culturelles : adapter les matériaux aux dialectes locaux, ajuster le ton, créer des exemples contextualisés.
  • Concevoir des programmes : co-créer des idées, des théories du changement ou des cadres logiques à partir des besoins identifiés, en combinant les données du terrain, les priorités des communautés et les exigences des bailleurs — pour que les propositions répondent à la fois à des critères techniques et aux caprices des bailleurs.
  • Gérer les relations avec les bailleurs : adapter les documents techniques en formats digestes pour les partenaires avec qui nous souhaitons garder de bonnes relations.
  • Formation interne : simulations pour entraîner les équipes, ou chatbots pour répondre aux questions fréquentes.


Et bien d’autres applications qu’on ne peut même pas encore imaginer — nées d’une créativité humaine non régulée, où les idées s’accouplent librement dans une tempête d’invention.

📎 How are humanitarians using artificial intelligence in 2025?


Et maintenant, la question que tu te poses sans doute : cet article a-t-il été rédigé avec l’aide de l’IA ? Et le rapport de la HLA ?

C’est une question de plus en plus fréquente dès qu’on lit quelque chose de trop bien structuré, trop poli, trop fluide… et parfois, trop lisse.

Le problème n’est pas l’usage de l’IA. Le problème, c’est de l’utiliser sans intervention humaine. Et là, ça se voit. Et souvent, ça tombe à plat.

Utiliser l’IA pour penser, explorer, écrire ou affiner des idées, ce n’est pas un problème. Ce qu’on ne peut pas déléguer, c’est le jugement, le ton, savoir quand s’arrêter ou quand laisser une question sans réponse. Ça, ça reste entre nos mains.

L’IA n’écrit pas mal — mais elle ne sait pas quand se taire, quand suggérer, ou quand laisser une phrase avec une légère tension. C’est là que réside la part humaine. Si on laisse ça de côté, le texte sera peut-être correct — mais il sera vide, et vite oublié.

Et pourtant, il y en a qui visent justement ça : quelque chose qui ne dérange pas, qui ne questionne rien, qui ne fait penser personne. Une forme de néant poli. (Et ce n’est pas nous !)

Related Post