Premier rapport de l’OMS sur l’intelligence artificielle appliquée dans le domaine de la santé
En juin, l’Organisation Mondiale de la Santé (OMS) a publié un premier rapport sur l’intelligence artificielle (IA) appliquée dans le domaine de la santé. Ce rapport présente les cas d’usage de l’IA en matière de santé. Elle peut notamment être utilisée pour améliorer la rapidité et la précision de diagnostic et de dépistage des maladies ou encore pour améliorer l’identification des épidémies et soutenir la surveillance des maladies.
Toutefois, l’IA n’est pas dépourvue de risques pour les personnes concernées. En effet, le rapport souligne les différents défis éthiques à surmonter pour parvenir à une utilisation sûre de cette technologie. Il met notamment en garde contre l’écueil du solutionnisme technologique « dans lequel l’IA est utilisée comme une ̎solution miracle ̎ pour éliminer les barrières sociales, économiques et institutionnelles ». Il expose également les risques concernant la collecte et l’utilisation des données de santé à caractère personnel et l’introduction de biais, en particulier raciaux, dans les algorithmes. Le rapport invite les différentes parties prenantes (gouvernements, prestataires, concepteurs, société civile, organisations intergouvernementales) à ne pas surestimer les avantages de l’IA et à collaborer afin de respecter les obligations en matière de droits humains, ainsi que les principes éthiques, « à chaque étape de la conception, du développement et du déploiement d’une technologie s’appuyant sur l’IA ».
Le rapport propose six principes sur lesquels les parties prenantes devraient s’appuyer pour adopter des approches éthiques en vue d’une utilisation appropriée de l’IA dans le domaine de la santé. Ces principes sont les suivants : protection de l’autonomie humaine ; promotion du bien-être humain et de la sécurité des personnes ainsi que de l’intérêt public (mise à disposition de « mesures de contrôle de la qualité dans la pratique et d’amélioration de la qualité dans l’utilisation de l’IA dans le temps ») ; garantie de la transparence ainsi que de l’explicabilité et de l’intelligibilité de l’IA ; encouragement de la responsabilité et de l’obligation de rendre des comptes (mise en place de mécanismes efficaces « pour permettre aux individus et aux groupes lésés par des décisions fondées sur des algorithmes de contester ces décisions et d’obtenir réparation ») ; garantie de l’inclusion et de l’équité (« accès et utilisation appropriés et équitables les plus larges possibles ») ; promotion d’une IA réactive et durable (« la réactivité suppose que les concepteurs, les développeurs et les utilisateurs évaluent de manière continue et transparente les applications de l’IA en situation réelle »).