OpenAI dévoile ChatGPT Santé
Le 7 janvier 2026, OpenAI a annoncé le lancement officiel de ChatGPT Health, présenté en français sous le nom ‘ChatGPT Santé‘. Cette version dédiée vise à répondre aux questions de santé et de bien‑être posées par des millions d’utilisateurs chaque semaine, avec une annonce produit détaillée publiée par OpenAI le jour du lancement.
OpenAI indique que plus de 230 millions de personnes posent des questions liées à la santé et au bien‑être chaque semaine sur ChatGPT, chiffre mis en avant pour justifier une expérience spécifique et renforcée destinée aux sujets de santé.
Ce que propose ChatGPT Santé
ChatGPT Santé est décrit par OpenAI comme ‘une expérience dédiée… pour aider les personnes à se sentir mieux informées, préparées et confiantes’. L’éditeur insiste que l’outil est ‘conçu pour soutenir, et non remplacer, les soins des cliniciens’ et reprend aussi la formulation anglaise mise en avant: "designed to support, not replace, your healthcare providers".
Parmi les usages concrets présentés figurent l’explication de résultats d’analyses, la préparation à un rendez‑vous médical, l’interprétation de données de wearables, la synthèse d’instructions de soins et la comparaison d’options d’assurance selon les habitudes de soins. OpenAI montre ainsi des scénarios d’assistance au patient plutôt que des promesses de diagnostic.
OpenAI rappelle également, dans ses avertissements produits, que ChatGPT/ChatGPT Health ‘n’est pas destiné au diagnostic ou au traitement’ et recommande le suivi par des professionnels de santé. Les termes de service et la documentation répètent cette limite et incitent à la prudence.
Protection des données et contrôles utilisateurs
Concernant la confidentialité, OpenAI affirme que les conversations et fichiers de ChatGPT Health sont chiffrés au repos et en transit, avec un chiffrement dédié et une isolation renforcée pour les conversations de santé. L’entreprise souligne que les données «Health» ne sont pas utilisées pour entraîner les modèles fondamentaux.
Les utilisateurs disposent de contrôles pour gérer leurs informations: connexion et déconnexion d’apps et de dossiers médicaux, consultation et suppression des ‘memories’ Health, et possibilité d’activer l’authentification multifacteur pour renforcer la sécurité. OpenAI documente aussi la manière de supprimer des données et de déconnecter des sources.
La société répète la garantie de non‑usage des conversations et fichiers Health pour l’entraînement des modèles fondamentaux, une promesse destinée à rassurer sur la confidentialité et l’usage des données sensibles.
Intégrations et connexion aux dossiers médicaux
Au lancement, ChatGPT Santé peut se connecter , de manière optionnelle , à plusieurs services et applications: Apple Health (iOS requis), Function, MyFitnessPal, WeightWatchers, AllTrails, Instacart, Peloton, et permet aussi l’import de dossiers médicaux (EHR).
La fonctionnalité de synchronisation des portails de soins (Medical Records) est disponible uniquement aux États‑Unis au lancement. OpenAI s’appuie sur des partenaires spécialisés, par exemple b.well, pour la connexion sécurisée aux prestataires américains, afin de gérer l’accès aux dossiers électroniques de santé (EHR).
L’accès initial a été limité à un petit groupe d’utilisateurs pilotes (inscription via liste d’attente) avec une extension progressive sur le web et iOS dans les semaines suivant l’annonce. OpenAI signale aussi des exclusions géographiques pour certains utilisateurs: EEE/UE, Suisse et Royaume‑Uni au lancement.
Validation clinique, benchmarks et collaboration médicale
OpenAI déclare avoir travaillé pendant plus de deux ans avec plus de 260 médecins exerçant dans 60 pays et avoir reçu plus de 600 000 retours de ces médecins sur les sorties du modèle, couvrant 30 domaines d’analyse. Cette collaboration clinique a guidé la conception des fonctionnalités Health.
Pour évaluer ses performances, OpenAI présente HealthBench et GDPval comme cadres d’évaluation cliniques dirigés par des médecins. La page produit pour la santé indique que les modèles (GPT‑5 / GPT‑5.2) obtiennent de meilleurs résultats sur ces benchmarks que les générations antérieures et certains comparateurs.
Ces démarches visent à fournir des métriques plus robustes, mais OpenAI et ses partenaires continuent de souligner la nécessité d’une validation continue et d’un encadrement humain dans l’usage clinique.
Offre pour les organisations de santé et partenariats
Le 8 janvier 2026, OpenAI a lancé ‘OpenAI for Healthcare’, une offre destinée aux organisations de santé avec des garanties destinées au secteur: support HIPAA, Business Associate Agreements (BAA), options de résidence des données, journaux d’audit et clés de chiffrement gérées par le client.
OpenAI mentionne déjà des déploiements pilotes et des partenariats avec des hôpitaux et centres médicaux comme Boston Children’s, Cedars‑Sinai, Memorial Sloan Kettering, UCSF, HCA et d’autres. L’offre vise les établissements souhaitant intégrer les capacités de ChatGPT Santé dans des workflows cliniques sécurisés.
Sur le plan industriel, OpenAI indique travailler avec des acteurs des sciences de la vie (Amgen, Thermo Fisher, Moderna) et des cabinets de conseil (BCG, Bain, McKinsey, Accenture) pour faciliter l’adoption, l’intégration technique et la conformité réglementaire dans des environnements professionnels.
Réactions, limites et enjeux réglementaires
Le lancement a suscité des réactions mêlées: une partie de la presse technique a résumé les fonctionnalités et le potentiel (TechCrunch, Business Insider, TechRadar, Windows Central, Forbes), tandis que des médias d’investigation et des experts ont rappelé les risques liés aux hallucinations des modèles et aux conseils médicaux non régulés.
Des articles critiques , notamment dans The Guardian et d’autres titres , ont souligné des cas concrets et des préoccupations réglementaires, et des appels à un encadrement plus strict ont émergé, y compris en Australie et ailleurs. Les observateurs insistent sur la nécessité de limites claires et de surveillance humaine.
OpenAI rappelle aussi des données de sécurité antérieures: des analyses et enquêtes ont montré que des millions d’utilisateurs interagissent avec le modèle sur des sujets sensibles, avec plus d’1 million d’intents suicidaires détectés par semaine dans des séries de données antérieures, ce qui alimente les demandes de mesures de sécurité renforcées autour des usages santé.
Enfin, les limites légales et les avertissements produits sont explicites: ChatGPT Santé doit être utilisé comme outil d’information et d’accompagnement, non comme substitut au diagnostic ou au traitement médical par un professionnel accrédité.
En complément, des voix appellent à davantage de transparence sur les tests cliniques indépendants, les procédures d’escalade en cas d’erreur, et sur la responsabilité en cas de préjudice lié à des recommandations automatisées.
Le lancement de ChatGPT Santé marque une étape importante dans l’intégration des grands modèles de langage en santé, mais il réactive aussi des débats essentiels sur la sécurité, la responsabilité et la régulation des technologies médicales basées sur l’IA.
Tandis qu’OpenAI étend progressivement l’accès et développe ses cadres d’évaluation clinique, les institutions de santé, les régulateurs et la communauté médicale devront rester vigilants pour encadrer l’usage réel de ces outils auprès des patients.
