Semble blog

ChatGPT Santé et Claude for Healthcare : ce que ces annonces disent de l’avenir des soins

Rédigé par Cathy Carpetta | 28,14,2026

En quelques jours, deux annonces ont accéléré la conversation sur l’IA en santé. OpenAI a présenté ChatGPT Santé (Health), un espace dédié dans ChatGPT conçu pour la santé et le bien‑être. Anthropic a ensuite dévoilé Claude for Healthcare, un ensemble d’outils destiné aux acteurs du secteur (fournisseurs de soins, payeurs et patients). Ensemble, ces lancements confirment une bascule déjà engagée : l’IA devient une interface de plus en plus courante pour s’informer, se préparer et mieux s’orienter dans un parcours de soins. 

Ces produits structurent un usage déjà massif. OpenAI indique que la santé et le bien‑être figurent parmi les usages les plus fréquents de ChatGPT, avec plus de 230 millions de personnes qui posent chaque semaine des questions liées à la santé. Dans ce contexte, la question n’est plus de savoir si les patients utiliseront l’IA, mais comment intégrer ces informations à la relation de soin, avec des règles de transparence, de responsabilité et de sécurité. 

Cette exigence est particulièrement visible en France. Une enquête relayée par ActuIA montre que l’acceptabilité de l’IA en santé dépend fortement de la transparence : 4 Français sur 5 souhaitent être informés lorsqu’une IA intervient dans leur prise en charge. Cette attente pèse directement sur la manière dont les organisations de santé et les éditeurs doivent présenter, encadrer et intégrer ces outils. 

Deux annonces, deux angles 

ChatGPT Santé :  un espace dédié aux échanges de santé pour les patients

ChatGPT Santé est présenté comme un espace distinct au sein de ChatGPT, dédié aux interactions liées à la santé. OpenAI met l’accent sur la confidentialité et le cloisonnement, avec des protections supplémentaires adaptées aux données sensibles, notamment un chiffrement dédié et une isolation renforcée. OpenAI précise aussi que les conversations dans ChatGPT Santé ne sont pas utilisées pour entraîner les modèles fondamentaux. 

Le service se positionne comme un assistant pour expliquer des résultats d’examens, aider à préparer des questions avant une consultation, ou suivre des tendances dans le temps. OpenAI indique que l’utilisateur peut connecter certaines sources (dossiers médicaux électroniques et applications de bien‑être), avec des conditions de disponibilité selon les pays. Enfin, OpenAI insiste sur le périmètre : ChatGPT Santé est conçu pour soutenir les soins, et n’a pas vocation à établir un diagnostic ni à proposer un traitement. 

Si un utilisateur pose une question médicale dans ChatGPT classique, il sera incité à poursuivre l’échange dans ce nouvel environnement spécifique. 

Le produit a été développé avec les retours de plus de 260 médecins dans 60 pays et des dizaines de spécialités. 

Claude for Healthcare : une orientation davantage “workflows” 

Après ChatGPT Santé, Anthropic a annoncé Claude for Healthcare, en l’inscrivant dans une trajectoire plus large autour de la santé et des sciences de la vie. Là où ChatGPT Santé met surtout en avant un espace dédié pour accompagner les individus dans la compréhension de leurs informations et la préparation des consultations, Claude for Healthcare semble davantage se positionner sur des usages “organisationnels” : recherche, synthèse et production de contenus, ainsi que certains processus administratifs. 

Une partie de la proposition repose sur des connecteurs vers des bases et référentiels utilisés dans le secteur (par exemple PubMed ou ICD‑10), afin de fournir des réponses et des synthèses ancrées dans des sources structurées. Anthropic indique également que des données synchronisées depuis des appareils ou services connectés pourraient être utilisées pour personnaliser l’assistance, tout en précisant que ces données ne seraient pas utilisées pour entraîner les modèles. 

Pour les acteurs de santé, le signal est clair : les grandes plateformes d’IA ne se limitent plus à des usages généralistes. Elles cherchent à proposer des offres ciblées, avec des promesses de gain de temps sur la documentation, d’accès plus rapide à l’information et, surtout, une meilleure intégration dans des environnements très contraints. 

Cette structuration de marché se reflète aussi en France, où émergent des outils spécialisés conçus pour des usages professionnels. Synapse Medicine, par exemple, positionne MedGPT comme un assistant conversationnel médical dédié aux professionnels de santé, aligné sur des sources françaises, conçu pour soutenir le jugement clinique plutôt que le remplacer. 

Pourquoi les patients se tournent-ils vers l’IA pour leur santé ? 

Les raisons sont souvent simples : l’IA est immédiate, accessible et donne l’impression d’un espace “sans jugement”. Christoph Lippuner, CEO de Semble, résumait récemment ce qui attire les patients : l’IA donne un accès instantané à des connaissances issues de jeux de données massifs ; elle est pratique, gratuite, et l’accessibilité combinée à une forme de confidentialité explique largement l’adoption. 

Pour des patients confrontés à des délais, à des parcours fragmentés ou à des consultations trop courtes, l’IA peut aider à combler un manque : clarifier une information, structurer des questions ou arriver mieux préparé. Le bénéfice potentiel existe, mais il dépend d’un point essentiel : ce que l’IA produit doit pouvoir être discuté dans un échange clinique, avec du contexte et une responsabilité.  

Implications pour les professionnels de santé : intégrer l’IA sans perdre le cadre clinique 

De plus en plus de patients arrivent en consultation après avoir interrogé une IA, avec des questions, des hypothèses ou une synthèse. Le bénéfice apparaît lorsque ces éléments sont discutés ouvertement et replacés dans le contexte clinique ; le risque, au contraire, est qu’ils restent à l’extérieur de la consultation, sans vérification ni hiérarchisation. 

Même avec des protections annoncées (espace dédié, cloisonnement, contrôles), les points de vigilance restent structurants : fiabilité des réponses, absence de contexte, biais, et sur‑confiance. En France, l’acceptabilité dépend fortement de la transparence : une étude a montré qu’une large majorité des patients souhaite être informée lorsqu’une IA intervient dans la prise en charge.   

Concrètement, trois mesures peuvent être mises en place dès maintenant : créer un cadre simple pour que les patients puissent partager ce qu’ils ont trouvé via l’IA, clarifier les règles d’usage (périmètre, limites, données, contrôles) et privilégier des intégrations qui s’inscrivent dans les pratiques existantes, afin de ne pas ajouter de complexité opérationnelle. 

ChatGPT Santé et Claude for Healthcare illustrent une accélération : l’IA en santé n’est plus seulement un usage émergent, mais un domaine produit structuré, avec des promesses de contextualisation et d’intégration. Dans ce contexte, le bénéfice dépendra moins de l’existence de l’IA que de la manière dont elle est encadrée, expliquée et intégrée à la relation de soin. 

La trajectoire la plus robuste est une approche hybride : des outils qui améliorent la préparation et la compréhension, tout en renforçant la transparence, la sécurité et la responsabilité clinique, conformément aux attentes exprimées en France.