Le ChatGPT : peut-il remplacer les médecins ?

Le ChatGPT : peut-il remplacer les médecins ? ChatGPT a pris l’internet d’assaut quelques semaines après sa sortie. Ce chatbot alimenté par l’IA pourrait potentiellement faire gagner du temps aux cliniciens en générant des diagnostics, des résultats de tests et des lettres d’autorisation.

Certains scientifiques ont déjà testé le ChatGPT dans l’enseignement médical. Dans une étude préimprimée, le ChatGPT a obtenu un taux de précision de plus de 50 % à l’examen de licence médicale des États-Unis.

ChatGPT ne dispose de données que jusqu’à la fin de 2021. Les chercheurs ont utilisé des questions d’examen plus récentes, en 2022, et ChatGPT a tout de même obtenu des résultats impressionnants.

« Une estimation aléatoire serait de 20 %. Un professionnel non médical bien formé ne serait pas en mesure de dépasser 40 à 50 %.

Mais ChatGPT obtenait régulièrement des résultats de l’ordre de 50 à 60 %, voire 70 % », a déclaré Victor Tseng, MD, co-auteur de l’étude et directeur médical d’AnsibleHealth, basé à Atlanta.

Malgré ses excellentes capacités à passer des examens, ChatGPT est loin d’être employable dans le domaine médical.

ChatGPT est un grand modèle de langage qui prédit l’agencement des phrases à partir des données textuelles qui lui ont été fournies, mais cela ne signifie pas que l’outil possède « un bon jugement ou un bon sens »,

selon Ignacio Fuentes, directeur exécutif de la Jameel Clinic au MIT, une initiative sur les technologies d’apprentissage automatique de l’IA à l’intersection des soins de santé et des sciences de la vie.

Le ChatGPT

Léonard Boussioux, étudiant en dernière année de doctorat en recherche opérationnelle au MIT, a déclaré que les grands modèles linguistiques ne font qu’enfiler des informations, ce qui entraîne parfois des erreurs absurdes dites en toute confiance.

« Ils donnent l’impression de savoir vraiment ce qu’ils disent alors qu’en fait, non, c’est surtout basé sur des corrélations », a déclaré Boussioux.

➡️https://www.roche.com/

Comment le ChatGPT peut-il contribuer à améliorer les soins de santé ?

Bien que le ChatGPT soit encore en phase d’apprentissage et d’amélioration grâce à ses interactions avec les utilisateurs, les experts affirment que cet outil peut déjà être mis en œuvre de manière utile dans le domaine des soins de santé.

Par exemple, Tseng et son équipe utilisent ChatGPT pour rédiger des lettres d’appel à l’intention des agences d’assurance

et pour traduire le « jargon médical » complexe dans un format plus facile à comprendre pour les patients.

« Ce sont ces petites choses progressives qui changent déjà la pratique à bien des égards », a déclaré M. Tseng.

ChatGPT peut également aider les chercheurs à trouver des idées et à accélérer le flux de travail.

Selon M. Boussioux, une version plus avancée de ChatPT pourrait à l’avenir permettre de diagnostiquer avec précision certaines pathologies.

Il pourrait également aider les employés administratifs et les cliniciens à sélectionner les bons codes lors de la facturation des soins aux compagnies d’assurance, une tâche autrement longue et fastidieuse.

Lire aussi : Des technologies portables pour gérer votre diabète

Pourquoi ChatGPT est-il problématique ?

ChatGPT est sujet à des erreurs factuelles, et OpenAI indique clairement cette limitation sur la page d’accueil.

Non seulement ChatGPT est occasionnellement erroné, mais il peut également « produire des instructions nuisibles ou du contenu biaisé », selon la page d’accueil.

Comme beaucoup d’autres modèles de langage, ChatGPT est formé à partir de données textuelles provenant d’Internet,

ce qui signifie qu’il peut refléter les préjugés humains, les stéréotypes et la désinformation.

« Vous mettez cela dans un cadre clinique et cela peut avoir beaucoup de problèmes. Nous devons donc nous assurer que nous le faisons de manière sûre », a déclaré M. Fuentes.

Une récente enquête du Time a révélé que la société OpenAI avait embauché des travailleurs à bas salaire au Kenya pour filtrer les contenus toxiques et nuisibles de ChatGPT –

un rappel que l’innovation en matière d’IA repose toujours sur la modération et l’exploitation humaines.

Outre les préoccupations relatives aux erreurs et à la désinformation, M. Tseng a déclaré que la question de la vie privée des patients devait être abordée si ChatGPT était utilisé dans un cadre médical.

Étant donné que ChatGPT n’est pas conforme à l’HIPPA, il peut potentiellement entraîner une fuite des données des patients.

« J’ai dû résister à une grande partie de l’élan pour le pousser plus fortement dans les soins aux patients et prendre du recul pour me dire :

Quels sont les jalons et les critères de transparence et d’équité que nous voulons être sûrs de respecter avant de passer à l’étape suivante ? ». a déclaré M. Tseng.

Lire aussi : maison intelligente/ smart Home – les avantages de la domotique

✔️Ce que cela signifie pour vous

Bien que ChatGPT soit un outil d’IA innovant, il ne doit pas être utilisé à la place des conseils d’un professionnel de la santé.

Étant donné que ce chatbot extrait des données textuelles massives de l’internet et qu’il n’en est qu’au début de son développement, il est sujet aux préjugés, aux stéréotypes et à la désinformation.

✔️Résumé

  • ChatGPT, un modèle de grande langue développé par OpenAI, est devenu viral après sa sortie en novembre 2022.
  • Cet outil d’IA est excellent pour passer les examens de licence médicale, selon une nouvelle étude préprint.
  • Selon les experts, cet outil pourrait avoir de nombreuses utilisations prometteuses dans le domaine de la santé, mais pour l’instant, il est sujet à des erreurs et des biais.