L'IA générative, qui capable de créer et d'analyser des images, du texte, de l'audio, des vidéos et bien plus encore, fait de plus en plus son chemin dans les soins de santé, poussé à la fois par les grandes entreprises technologiques et les startups.
Google Cloud, la division services et produits cloud de Google, collabore avec Highmark Health, une entreprise de soins de santé à but non lucratif basée à Pittsburgh, sur des outils d'IA générative conçus pour personnaliser l'expérience d'accueil des patients. La division AWS d'Amazon affirme travailler avec des clients anonymes sur un moyen d'utiliser l'IA générative pour analyser bases de données médicales sur les « déterminants sociaux de la santé ». Et Microsoft Azure contribue à créer un système d'IA générative pour Providence, le réseau de santé à but non lucratif, afin de trier automatiquement les messages envoyés par les patients aux prestataires de soins.
Parmi les principales startups d'IA générative dans le domaine de la santé, citons Ambience Healthcare, qui développe une application d'IA générative pour les cliniciens ; Nabla, un assistant IA ambiant pour les praticiens ; et Abridge, qui crée des outils d'analyse pour la documentation médicale.
Le grand enthousiasme pour l’IA générative se reflète dans les investissements dans les efforts d’IA générative ciblant les soins de santé. Collectivement, l’IA générative dans les startups du secteur de la santé a levé à ce jour des dizaines de millions de dollars en capital-risque, et la grande majorité des investisseurs dans le domaine de la santé affirment que l’IA générative a considérablement influencé leurs stratégies d’investissement.
Mais les professionnels et les patients sont partagés quant à savoir si l’IA générative axée sur les soins de santé est prête à être diffusée aux heures de grande écoute.
L’IA générative n’est peut-être pas ce que les gens veulent
Dans une récente enquête de Deloitte, seulement environ la moitié (53 %) des consommateurs américains ont déclaré qu'ils pensaient que l'IA générative pourrait améliorer les soins de santé, par exemple en les rendant plus accessibles ou en raccourcissant les temps d'attente pour les rendez-vous. Moins de la moitié ont déclaré s’attendre à ce que l’IA générative rende les soins médicaux plus abordables.
Andrew Borkowski, responsable de l'IA au VA Sunshine Healthcare Network, le plus grand système de santé du ministère américain des Anciens Combattants, ne pense pas que ce cynisme soit injustifié. Borkowski a averti que le déploiement de l'IA générative pourrait être prématuré en raison de ses limites « importantes » – et des inquiétudes quant à son efficacité.
“L'un des principaux problèmes de l'IA générative est son incapacité à gérer des requêtes médicales complexes ou des urgences”, a-t-il déclaré à Testeur Joe. « Sa base de connaissances limitée – c’est-à-dire l’absence d’informations cliniques à jour – et le manque d’expertise humaine le rendent impropre à fournir des conseils médicaux complets ou des recommandations de traitement. »
Plusieurs études suggèrent que ces points sont crédibles.
Dans un article paru dans la revue JAMA Pediatrics, le chatbot d'IA générative d'OpenAI, ChatGPT, que certains organismes de santé ont testé pour des cas d'utilisation limités, s'est avéré commettre des erreurs dans le diagnostic des maladies pédiatriques dans 83 % des cas. Et en testant le GPT-4 d'OpenAI en tant qu'assistant de diagnostic, les médecins du centre médical Beth Israel Deaconess à Boston ont observé que le modèle classait le mauvais diagnostic comme première réponse près de deux fois sur trois.
L’IA générative d’aujourd’hui a également du mal à gérer les tâches médicales administratives qui font partie intégrante des flux de travail quotidiens des cliniciens. Sur le benchmark MedAlign pour évaluer dans quelle mesure l'IA générative peut effectuer des tâches telles que la synthèse des dossiers de santé des patients et la recherche dans les notes, GPT-4 a échoué dans 35 % des cas.
OpenAI et de nombreux autres fournisseurs d’IA générative mettent en garde contre le fait de se fier à leurs modèles pour obtenir des conseils médicaux. Mais Borkowski et d’autres affirment qu’ils pourraient faire davantage. « S'appuyer uniquement sur l'IA générative pour les soins de santé pourrait conduire à des diagnostics erronés, à des traitements inappropriés, voire à des situations potentiellement mortelles », a déclaré Borkowski.
Jan Egger, qui dirige les thérapies guidées par l'IA à l'Institut d'IA en médecine de l'Université de Duisburg-Essen, qui étudie les applications des technologies émergentes pour les soins aux patients, partage les préoccupations de Borkowski. Il estime que le seul moyen sûr d’utiliser l’IA générative dans le domaine de la santé est actuellement sous l’œil attentif et vigilant d’un médecin.
“Les résultats peuvent être complètement faux, et il devient de plus en plus difficile d'en rester conscient”, a déclaré Egger. « Bien sûr, l’IA générative peut être utilisée, par exemple, pour pré-rédiger des lettres de décharge. Mais les médecins ont la responsabilité de le vérifier et de prendre la décision finale. »
L'IA générative peut perpétuer les stéréotypes
L’IA générative dans le domaine de la santé peut provoquer des erreurs en perpétuant les stéréotypes.
Dans une étude réalisée en 2023 par Stanford Medicine, une équipe de chercheurs a testé ChatGPT et d’autres chatbots génératifs alimentés par l’IA sur des questions concernant la fonction rénale, la capacité pulmonaire et l’épaisseur de la peau. Non seulement les réponses de ChatGPT étaient souvent fausses, ont découvert les co-auteurs, mais les réponses incluaient également plusieurs fausses croyances de longue date renforcées selon lesquelles il existe des différences biologiques entre les Noirs et les Blancs – des contrevérités qui sont connues pour avoir conduit les prestataires de soins médicaux à mal diagnostiquer les problèmes de santé.
L’ironie est que les patients les plus susceptibles d’être discriminés par l’IA générative pour les soins de santé sont également ceux qui sont les plus susceptibles de l’utiliser.
Les personnes qui n’ont pas de couverture santé – les personnes de couleur, dans l’ensemble, selon une étude du KFF – sont plus disposées à essayer l’IA générative pour des choses comme trouver un médecin ou un soutien en matière de santé mentale, a montré l’enquête de Deloitte. Si les recommandations d’AI sont entachées de parti pris, cela pourrait exacerber les inégalités de traitement.
Cependant, certains experts affirment que l’IA générative s’améliore à cet égard.
Dans une étude Microsoft publiée fin 2023, les chercheurs ont déclaré avoir atteint une précision de 90,2 % sur quatre critères médicaux difficiles en utilisant GPT-4. Vanilla GPT-4 n'a pas pu atteindre ce score. Mais, disent les chercheurs, grâce à une ingénierie rapide – en concevant des invites pour que GPT-4 produise certains résultats – ils ont pu augmenter le score du modèle jusqu'à 16,2 points de pourcentage. (Il convient de noter que Microsoft est un investisseur majeur dans OpenAI.)
Au-delà des chatbots
Mais poser une question à un chatbot n’est pas la seule chose pour laquelle l’IA générative est utile. Certains chercheurs affirment que l’imagerie médicale pourrait grandement bénéficier de la puissance de l’IA générative.
En juillet, un groupe de scientifiques a dévoilé un système appelé creport vers le flux de travail clinique (CoDoC), axé sur la complémentarité, dans une étude publiée dans Nature. Le système est conçu pour déterminer quand les spécialistes de l’imagerie médicale doivent s’appuyer sur l’IA pour les diagnostics par rapport aux techniques traditionnelles. CoDoC a fait mieux que les spécialistes en réduisant les flux de travail cliniques de 66 %, selon les co-auteurs.
En novembre, un Une équipe de recherche chinoise en démonstration Panda, un modèle d'IA utilisé pour détecter d'éventuelles lésions pancréatiques dans les rayons X. Une étude a montré que Panda était très précis dans la classification de ces lésions, qui sont souvent détectées trop tard pour une intervention chirurgicale.
En effet, Arun Thirunavukarasu, chercheur clinique à l'Université d'Oxford, a déclaré qu'il n'y avait « rien d'unique » dans l'IA générative qui exclut son déploiement dans les établissements de santé.
« Des applications plus banales de la technologie de l’IA générative sont réalisables dans à court et à moyen terme, et incluront la correction de texte, la documentation automatique des notes et des lettres et des fonctionnalités de recherche améliorées pour optimiser les dossiers électroniques des patients », a-t-il déclaré. « Il n'y a aucune raison pour que la technologie d'IA générative – si elle est efficace – ne puisse pas être déployée. dans ce genre de rôles immédiatement.
« Une science rigoureuse »
Mais si l’IA générative s’avère prometteuse dans des domaines spécifiques et restreints de la médecine, des experts comme Borkowski soulignent les obstacles techniques et de conformité qui doivent être surmontés avant que l’IA générative puisse être utile – et fiable – en tant qu’outil d’assistance aux soins de santé complet.
« Des problèmes importants en matière de confidentialité et de sécurité entourent l'utilisation de l'IA générative dans les soins de santé », a déclaré Borkowski. « La nature sensible des données médicales et le potentiel d’utilisation abusive ou d’accès non autorisé présentent de graves risques pour la confidentialité des patients et la confiance dans le système de santé. En outre, le paysage réglementaire et juridique entourant l’utilisation de l’IA générative dans les soins de santé continue d’évoluer, et les questions concernant la responsabilité, la protection des données et la pratique de la médecine par des entités non humaines doivent encore être résolues.
Même Thirunavukarasu, aussi optimiste qu'il soit à propos de l'IA générative dans les soins de santé, affirme qu'il doit y avoir une « science rigoureuse » derrière les outils destinés aux patients.
« Surtout sans surveillance directe des cliniciens, il devrait y avoir des essais contrôlés randomisés pragmatiques démontrant les avantages cliniques pour justifier le déploiement de l’IA générative orientée patient », a-t-il déclaré. « Une bonne gouvernance à l’avenir est essentielle pour détecter tout préjudice imprévu suite à un déploiement à grande échelle. »
Récemment, l'Organisation mondiale de la santé a publié des lignes directrices qui préconisent ce type de surveillance scientifique et humaine de l'IA générative dans les soins de santé, ainsi que l'introduction d'audits, de transparence et d'évaluations d'impact sur cette IA par des tiers indépendants. L’objectif, explique l’OMS dans ses lignes directrices, serait d’encourager la participation d’une cohorte diversifiée de personnes au développement de l’IA générative pour les soins de santé et de donner la possibilité d’exprimer ses préoccupations et de contribuer tout au long du processus.
“Jusqu'à ce que les préoccupations soient correctement traitées et que des garanties appropriées soient mises en place”, a déclaré Borkowski, “la mise en œuvre généralisée de l'IA médicale générative pourrait être… potentiellement dangereuse pour les patients et le secteur de la santé dans son ensemble”.
rewrite this content and keep HTML tags
L'IA générative, qui capable de créer et d'analyser des images, du texte, de l'audio, des vidéos et bien plus encore, fait de plus en plus son chemin dans les soins de santé, poussé à la fois par les grandes entreprises technologiques et les startups.
Google Cloud, la division services et produits cloud de Google, collabore avec Highmark Health, une entreprise de soins de santé à but non lucratif basée à Pittsburgh, sur des outils d'IA générative conçus pour personnaliser l'expérience d'accueil des patients. La division AWS d'Amazon affirme travailler avec des clients anonymes sur un moyen d'utiliser l'IA générative pour analyser bases de données médicales sur les « déterminants sociaux de la santé ». Et Microsoft Azure contribue à créer un système d'IA générative pour Providence, le réseau de santé à but non lucratif, afin de trier automatiquement les messages envoyés par les patients aux prestataires de soins.
Parmi les principales startups d'IA générative dans le domaine de la santé, citons Ambience Healthcare, qui développe une application d'IA générative pour les cliniciens ; Nabla, un assistant IA ambiant pour les praticiens ; et Abridge, qui crée des outils d'analyse pour la documentation médicale.
Le grand enthousiasme pour l’IA générative se reflète dans les investissements dans les efforts d’IA générative ciblant les soins de santé. Collectivement, l’IA générative dans les startups du secteur de la santé a levé à ce jour des dizaines de millions de dollars en capital-risque, et la grande majorité des investisseurs dans le domaine de la santé affirment que l’IA générative a considérablement influencé leurs stratégies d’investissement.
Mais les professionnels et les patients sont partagés quant à savoir si l’IA générative axée sur les soins de santé est prête à être diffusée aux heures de grande écoute.
L’IA générative n’est peut-être pas ce que les gens veulent
Dans une récente enquête de Deloitte, seulement environ la moitié (53 %) des consommateurs américains ont déclaré qu'ils pensaient que l'IA générative pourrait améliorer les soins de santé, par exemple en les rendant plus accessibles ou en raccourcissant les temps d'attente pour les rendez-vous. Moins de la moitié ont déclaré s’attendre à ce que l’IA générative rende les soins médicaux plus abordables.
Andrew Borkowski, responsable de l'IA au VA Sunshine Healthcare Network, le plus grand système de santé du ministère américain des Anciens Combattants, ne pense pas que ce cynisme soit injustifié. Borkowski a averti que le déploiement de l'IA générative pourrait être prématuré en raison de ses limites « importantes » – et des inquiétudes quant à son efficacité.
“L'un des principaux problèmes de l'IA générative est son incapacité à gérer des requêtes médicales complexes ou des urgences”, a-t-il déclaré à Testeur Joe. « Sa base de connaissances limitée – c’est-à-dire l’absence d’informations cliniques à jour – et le manque d’expertise humaine le rendent impropre à fournir des conseils médicaux complets ou des recommandations de traitement. »
Plusieurs études suggèrent que ces points sont crédibles.
Dans un article paru dans la revue JAMA Pediatrics, le chatbot d'IA générative d'OpenAI, ChatGPT, que certains organismes de santé ont testé pour des cas d'utilisation limités, s'est avéré commettre des erreurs dans le diagnostic des maladies pédiatriques dans 83 % des cas. Et en testant le GPT-4 d'OpenAI en tant qu'assistant de diagnostic, les médecins du centre médical Beth Israel Deaconess à Boston ont observé que le modèle classait le mauvais diagnostic comme première réponse près de deux fois sur trois.
L’IA générative d’aujourd’hui a également du mal à gérer les tâches médicales administratives qui font partie intégrante des flux de travail quotidiens des cliniciens. Sur le benchmark MedAlign pour évaluer dans quelle mesure l'IA générative peut effectuer des tâches telles que la synthèse des dossiers de santé des patients et la recherche dans les notes, GPT-4 a échoué dans 35 % des cas.
OpenAI et de nombreux autres fournisseurs d’IA générative mettent en garde contre le fait de se fier à leurs modèles pour obtenir des conseils médicaux. Mais Borkowski et d’autres affirment qu’ils pourraient faire davantage. « S'appuyer uniquement sur l'IA générative pour les soins de santé pourrait conduire à des diagnostics erronés, à des traitements inappropriés, voire à des situations potentiellement mortelles », a déclaré Borkowski.
Jan Egger, qui dirige les thérapies guidées par l'IA à l'Institut d'IA en médecine de l'Université de Duisburg-Essen, qui étudie les applications des technologies émergentes pour les soins aux patients, partage les préoccupations de Borkowski. Il estime que le seul moyen sûr d’utiliser l’IA générative dans le domaine de la santé est actuellement sous l’œil attentif et vigilant d’un médecin.
“Les résultats peuvent être complètement faux, et il devient de plus en plus difficile d'en rester conscient”, a déclaré Egger. « Bien sûr, l’IA générative peut être utilisée, par exemple, pour pré-rédiger des lettres de décharge. Mais les médecins ont la responsabilité de le vérifier et de prendre la décision finale. »
L'IA générative peut perpétuer les stéréotypes
L’IA générative dans le domaine de la santé peut provoquer des erreurs en perpétuant les stéréotypes.
Dans une étude réalisée en 2023 par Stanford Medicine, une équipe de chercheurs a testé ChatGPT et d’autres chatbots génératifs alimentés par l’IA sur des questions concernant la fonction rénale, la capacité pulmonaire et l’épaisseur de la peau. Non seulement les réponses de ChatGPT étaient souvent fausses, ont découvert les co-auteurs, mais les réponses incluaient également plusieurs fausses croyances de longue date renforcées selon lesquelles il existe des différences biologiques entre les Noirs et les Blancs – des contrevérités qui sont connues pour avoir conduit les prestataires de soins médicaux à mal diagnostiquer les problèmes de santé.
L’ironie est que les patients les plus susceptibles d’être discriminés par l’IA générative pour les soins de santé sont également ceux qui sont les plus susceptibles de l’utiliser.
Les personnes qui n’ont pas de couverture santé – les personnes de couleur, dans l’ensemble, selon une étude du KFF – sont plus disposées à essayer l’IA générative pour des choses comme trouver un médecin ou un soutien en matière de santé mentale, a montré l’enquête de Deloitte. Si les recommandations d’AI sont entachées de parti pris, cela pourrait exacerber les inégalités de traitement.
Cependant, certains experts affirment que l’IA générative s’améliore à cet égard.
Dans une étude Microsoft publiée fin 2023, les chercheurs ont déclaré avoir atteint une précision de 90,2 % sur quatre critères médicaux difficiles en utilisant GPT-4. Vanilla GPT-4 n'a pas pu atteindre ce score. Mais, disent les chercheurs, grâce à une ingénierie rapide – en concevant des invites pour que GPT-4 produise certains résultats – ils ont pu augmenter le score du modèle jusqu'à 16,2 points de pourcentage. (Il convient de noter que Microsoft est un investisseur majeur dans OpenAI.)
Au-delà des chatbots
Mais poser une question à un chatbot n’est pas la seule chose pour laquelle l’IA générative est utile. Certains chercheurs affirment que l’imagerie médicale pourrait grandement bénéficier de la puissance de l’IA générative.
En juillet, un groupe de scientifiques a dévoilé un système appelé creport vers le flux de travail clinique (CoDoC), axé sur la complémentarité, dans une étude publiée dans Nature. Le système est conçu pour déterminer quand les spécialistes de l’imagerie médicale doivent s’appuyer sur l’IA pour les diagnostics par rapport aux techniques traditionnelles. CoDoC a fait mieux que les spécialistes en réduisant les flux de travail cliniques de 66 %, selon les co-auteurs.
En novembre, un Une équipe de recherche chinoise en démonstration Panda, un modèle d'IA utilisé pour détecter d'éventuelles lésions pancréatiques dans les rayons X. Une étude a montré que Panda était très précis dans la classification de ces lésions, qui sont souvent détectées trop tard pour une intervention chirurgicale.
En effet, Arun Thirunavukarasu, chercheur clinique à l'Université d'Oxford, a déclaré qu'il n'y avait « rien d'unique » dans l'IA générative qui exclut son déploiement dans les établissements de santé.
« Des applications plus banales de la technologie de l’IA générative sont réalisables dans à court et à moyen terme, et incluront la correction de texte, la documentation automatique des notes et des lettres et des fonctionnalités de recherche améliorées pour optimiser les dossiers électroniques des patients », a-t-il déclaré. « Il n'y a aucune raison pour que la technologie d'IA générative – si elle est efficace – ne puisse pas être déployée. dans ce genre de rôles immédiatement.
« Une science rigoureuse »
Mais si l’IA générative s’avère prometteuse dans des domaines spécifiques et restreints de la médecine, des experts comme Borkowski soulignent les obstacles techniques et de conformité qui doivent être surmontés avant que l’IA générative puisse être utile – et fiable – en tant qu’outil d’assistance aux soins de santé complet.
« Des problèmes importants en matière de confidentialité et de sécurité entourent l'utilisation de l'IA générative dans les soins de santé », a déclaré Borkowski. « La nature sensible des données médicales et le potentiel d’utilisation abusive ou d’accès non autorisé présentent de graves risques pour la confidentialité des patients et la confiance dans le système de santé. En outre, le paysage réglementaire et juridique entourant l’utilisation de l’IA générative dans les soins de santé continue d’évoluer, et les questions concernant la responsabilité, la protection des données et la pratique de la médecine par des entités non humaines doivent encore être résolues.
Même Thirunavukarasu, aussi optimiste qu'il soit à propos de l'IA générative dans les soins de santé, affirme qu'il doit y avoir une « science rigoureuse » derrière les outils destinés aux patients.
« Surtout sans surveillance directe des cliniciens, il devrait y avoir des essais contrôlés randomisés pragmatiques démontrant les avantages cliniques pour justifier le déploiement de l’IA générative orientée patient », a-t-il déclaré. « Une bonne gouvernance à l’avenir est essentielle pour détecter tout préjudice imprévu suite à un déploiement à grande échelle. »
Récemment, l'Organisation mondiale de la santé a publié des lignes directrices qui préconisent ce type de surveillance scientifique et humaine de l'IA générative dans les soins de santé, ainsi que l'introduction d'audits, de transparence et d'évaluations d'impact sur cette IA par des tiers indépendants. L’objectif, explique l’OMS dans ses lignes directrices, serait d’encourager la participation d’une cohorte diversifiée de personnes au développement de l’IA générative pour les soins de santé et de donner la possibilité d’exprimer ses préoccupations et de contribuer tout au long du processus.
“Jusqu'à ce que les préoccupations soient correctement traitées et que des garanties appropriées soient mises en place”, a déclaré Borkowski, “la mise en œuvre généralisée de l'IA médicale générative pourrait être… potentiellement dangereuse pour les patients et le secteur de la santé dans son ensemble”.