OpenAI sta lavorando a un’evoluzione di ChatGPT orientata alla salute, pensata per interagire con dati sanitari personali e con informazioni generate da dispositivi connessi. L’idea è quella di offrire risposte personalizzate su alimentazione, attività fisica e benessere generale attraverso l’analisi dei dati forniti direttamente dagli utenti, a condizione che vi sia un consenso esplicito. Il progetto rappresenta un passaggio ulteriore nell’espansione dei sistemi di intelligenza artificiale generativa verso ambiti sempre più sensibili, con un impatto che va oltre la semplice assistenza conversazionale.
Come funziona il progetto di ChatGPT dedicato alla salute
Il servizio in fase di sviluppo dovrebbe integrarsi con applicazioni mediche e strumenti di monitoraggio come smartwatch e fitness tracker, così da interpretare parametri biometrici e abitudini quotidiane. L’obiettivo dichiarato dall’azienda guidata da Sam Altman è fornire quello di supportare l’utente nella gestione del proprio stile di vita attraverso suggerimenti contestualizzati, senza sostituirsi ai soggetti preposti alle diagnosi, creando un sistema che costruisce risposte sulla base di pattern ricorrenti nei dati individuali, avvicinandosi a una forma di accompagnamento digitale continuo.
Proprio questa capacità di personalizzazione introduce una discontinuità rilevante rispetto alle versioni precedenti del chatbot. L’accesso a informazioni sanitarie implica infatti un trattamento di dati che, nel contesto europeo, rientrano tra le categorie più protette. Non è solo una questione di trasparenza verso l’utente, ma di struttura giuridica dell’intero servizio, dalla definizione delle finalità alla durata della conservazione delle informazioni raccolte.
Dati sanitari e regole europee sulla protezione delle informazioni personali
Nel quadro normativo dell’Unione europea, i dati relativi alla salute sono soggetti a un regime rafforzato di tutela. Il loro utilizzo è ammesso solo a condizioni rigorose, che comprendono il consenso esplicito dell’interessato, garanzie tecniche elevate e una chiara delimitazione degli scopi del trattamento. L’impiego sistematico di queste informazioni da parte di un sistema di intelligenza artificiale generativa solleva questioni complesse: chi assume il ruolo di titolare del trattamento, quali basi giuridiche risultano effettivamente applicabili e come prevenire forme di profilazione sanitaria non previste.
Accanto alla dimensione privacy emerge anche un tema di responsabilità. La linea di confine tra informazione sul benessere e consiglio medico non è netta. Anche se il servizio viene presentato come uno strumento di supporto, la personalizzazione basata su dati clinici o biometrici può produrre effetti pratici sulle decisioni degli utenti. In caso di indicazioni inesatte o fuorvianti, il rischio non riguarda solo la fiducia nel prodotto, ma anche la qualificazione giuridica del servizio e le conseguenze in termini di responsabilità.
Questo scenario si intreccia con un contesto regolatorio già stratificato, che comprende norme sulla sicurezza dei prodotti digitali e sulla classificazione dei sistemi di intelligenza artificiale ad alto rischio. L’insieme di questi livelli normativi rende complesso un lancio rapido del servizio nel mercato europeo, dove la tutela dei dati sanitari è considerata una priorità non negoziabile.
Non sorprende quindi che OpenAI abbia escluso, almeno in questa fase, la disponibilità della versione health-focused di ChatGPT per gli utenti dell’Unione europea, dello Spazio Economico Europeo e della Svizzera. Prima di un eventuale debutto regionale sarà necessario dimostrare una piena conformità alle regole sulla protezione dei dati e ai requisiti di trasparenza e sicurezza. Il progetto diventa così un indicatore concreto del rapporto tra innovazione tecnologica e regolazione europea, mostrando come, nel settore sanitario, l’evoluzione dell’intelligenza artificiale debba necessariamente misurarsi con un sistema di tutele che incide direttamente sulla progettazione dei servizi digitali.
