Genève - L'Organisation mondiale de la santé (OMS) a mis en garde mardi contre l'utilisation de l'intelligence artificielle (IA) dans les soins de santé, qui pourrait conduire à des conseils incorrects, à la violation de données personnelles ou à la diffusion de fausses informations, nécessitant une plus grande surveillance de la part des gouvernements, selon le portail UN News .
L'agence onusienne appelle à "la prudence" avec l'utilisation de plateformes telles que ChatGPT, Bard ou Bert "qui imitent la compréhension, le traitement et la production de la communication humaine".
Selon l'OMS, les outils dits de grands modèles de langage (LLM) générés par l'IA peuvent "présenter des risques pour le bien-être humain et la santé publique".
Les experts de l'OMS considèrent que la diffusion rapide et large du MLL et l'utilisation expérimentale croissante à des fins liées à la santé ne s'accompagnent pas de mécanismes de contrôle, souligne une publication sur le portail UN News.
Parmi les mécanismes de contrôle évoqués figurent l'adhésion des plateformes d'intelligence artificielle à des valeurs telles que la transparence, l'inclusion, l'encadrement spécialisé ou encore l'évaluation rigoureuse.
"L'OMS reconnaît que l'utilisation appropriée des technologies, y compris le LLM, peut contribuer à soutenir les professionnels de la santé, les patients, les chercheurs et les scientifiques", ajoute-t-il.
Les nouvelles plateformes peuvent être un outil pour soutenir les décisions médicales et augmenter la capacité de diagnostic dans les environnements à faibles ressources, mais l'accent « doit être mis sur la protection de la santé des personnes et la réduction des inégalités », ajoute-t-il.
Malgré les bénéfices, cette agence met en avant les "risques associés" à l'utilisation de ces outils pour améliorer l'accès à l'information de santé, arguant qu'"ils doivent être soigneusement évalués".
"L'adoption précipitée de systèmes non testés peut conduire à des erreurs de la part des professionnels de santé, porter préjudice aux patients et miner la confiance dans l'Intelligence Artificielle et les technologies futures", prévient-il.
Les données utilisées pour former l'intelligence artificielle peuvent être biaisées, générant des informations fausses ou inexactes qui peuvent présenter des risques pour la santé, l'équité et l'inclusion, souligne-t-il également.
Pour faire face à ces situations, l'OMS propose que les autorités de chaque pays analysent les bénéfices de l'Intelligence Artificielle à des fins sanitaires avant de généraliser son utilisation.
En ce sens, l'organisation a identifié six principes fondamentaux qui doivent régir la protection de l'autonomie des professionnels, la promotion du bien-être humain, les garanties de transparence, la promotion de la responsabilité, l'inclusion et la promotion de l'Intelligence Artificielle.