X

L’avenir du conseil médical ?

Cette transcription a été modifiée pour plus de clarté.

Bonjour. Je suis le Dr Maurie Markman, de City of Hope. J’aimerais discuter brièvement de ce que je considère comme une analyse assez intéressante. Je pense que nous allons assister à de nombreuses autres discussions sur les chatbots, les grands modèles de langage et l’intelligence artificielle.

Je ris un peu parce que je vais parler des réseaux sociaux. C’est quelque chose qui, évidemment, à mon époque, lorsque j’ai grandi dans la médecine et l’oncologie, cela n’existait pas, mais c’est là où nous en sommes aujourd’hui.

Le document est intitulé : «Réponses des médecins et des chatbots d’intelligence artificielle aux questions sur le cancer posées sur les réseaux sociaux.» Cette analyse a été publiée récemment dans JAMA Oncologie. Nous savons maintenant que les médias sociaux sont évidemment incroyablement pertinents et sont très couramment utilisés par les patients en général souffrant de maladies, et en particulier par les patients atteints de cancer qui posent des questions – eux-mêmes, leur famille ou leurs amis, par exemple.

La question ici était la capacité d’un chatbot à générer, selon les mots des auteurs, des réponses de haute qualité, empathiques et lisibles. Ce sont trois points différents, qui sont tous pertinents. Le numéro un, bien sûr, est la qualité. Il faut bien faire les choses. Il faut que ce soit à jour. Il faut que ce soient des informations exactes.

Deuxièmement, nous parlons de questions que les patients et leurs familles posent, et non dans le contexte des médias sociaux. Je pense qu’il est raisonnable de supposer qu’il ne s’agit pas d’un chercheur souhaitant rechercher des informations. Il peut s’agir d’un patient, d’un membre de sa famille ou d’un ami. Bien sûr, il faut que ce soit lisible. Il ne suffit pas d’avoir la bonne réponse, mais est-ce logique ? Puis-je le comprendre ? Telles sont les questions que proposent ces enquêteurs.

Ils ont répondu à 200 questions sur le cancer sur des forums publics. Ils ont examiné les réponses de six oncologues vérifiés. Il s’agissait donc de vrais médecins qui répondaient. Ils ont examiné leurs réponses à partir du modèle de chatbot ici. Ils ont examiné un score objectif, comme une échelle, où 1 signifie mauvais et 5 signifie très bon. Ils avaient deux équipes d’oncologues qui ont évalué la qualité, l’efficacité et la lisibilité en examinant cette échelle objective.

En fin de compte, ce qui n’est peut-être pas surprenant, la meilleure plateforme d’IA était supérieure aux médecins en termes de qualité, d’empathie et de lisibilité. Ceci n’est qu’un instantané, c’est un moment précis, ce sont des questions spécifiques, c’est un examen. Je pense que l’on peut affirmer qu’avec la croissance des modèles — et ils continueront de croître — l’importance des médias sociaux, la nécessité de fournir des informations précises au public et aux patients et à leurs familles, avec des réponses lisibles et empathiques, l’utilisation de ce type de technologie pourrait tout à fait convenir.

Il faut le surveiller et nous devons être prudents. Nous avons tous entendu parler du terme « hallucinations » et nous ne pouvons pas les avoir ici. À mesure que nous nous améliorons dans ce domaine, la capacité de répondre à ces questions – encore une fois, les trois points de qualité ne sont pas de la désinformation, de l’empathie et de la lisibilité – l’intelligence artificielle peut être une partie importante de la réponse à ces questions.

Merci de votre attention.

Source link

Harold Fortier: