I dati medici emergenti (EMD) sono informazioni sanitarie raccolte su un individuo da dati sul comportamento degli utenti apparentemente non correlati. L'EMD utilizza metodi sofisticati, tra cui l'intelligenza artificiale (AI) e l'apprendimento automatico (ML), per analizzare le attività degli utenti e creare un profilo dettagliato della salute fisica e mentale di un individuo. Il termine è stato coniato nel 2017 da Mason Marks, assistente professore presso la Gonzaga University School of Law.
Le aziende possono estrarre dati medici emergenti da una varietà di fonti, inclusi post di Facebook, acquisti con carta di credito, contenuti di e-mail o un elenco di video guardati di recente su YouTube. Normalmente, una persona che guarda questi dati grezzi non vedrebbe alcun collegamento con la salute dell'utente. Tuttavia, gli strumenti di intelligenza artificiale e gli algoritmi di big data possono essere utilizzati per trasformare queste informazioni precedentemente prive di significato in dati medici sensibili.
La raccolta di EMD propone diversi vantaggi, tra cui la capacità di monitorare la diffusione di una malattia infettiva, identificare le persone a rischio di suicidio o omicidio e monitorare l'abuso di droghe. Tuttavia, l'attrattiva principale alla base dei dati medici emergenti è l'opportunità per le organizzazioni di migliorare il targeting comportamentale e ottimizzare la profilazione e il marketing dei clienti. Le compagnie di assicurazione possono utilizzare EMD per determinare il rischio di incidente di un individuo e calcolare i premi assicurativi. Gli inserzionisti possono prendere dati medici personali e utilizzarli per fornire annunci comportamentali basati sulla storia medica dell'individuo.
Di conseguenza, EMD ha iniziato a sollevare molte preoccupazioni sulla privacy personale e dei pazienti. I dati dei pazienti raccolti dagli operatori sanitari sono protetti dall'Health Insurance Portability and Accountability Act (HIPAA); tuttavia, EMD riceve poca o nessuna protezione legale.
Inoltre, la rivelazione del Project Nightingale di Google alla fine di novembre 2019 ha aumentato le preoccupazioni e sollevato il dibattito sul fatto che i dati raccolti senza il consenso del paziente possano essere eticamente convertiti in EMD e utilizzati a scopo di lucro. Project Nightingale è una partnership tra Google e l'organizzazione sanitaria Ascension che ha fornito a Google l'accesso a oltre 50 milioni di cartelle cliniche senza la conoscenza del medico o del paziente.
Che tipo di dati include EMD?
Quando una persona interagisce con la tecnologia, lascia un'impronta digitale delle proprie azioni e comportamenti. Gli algoritmi AI, ML e big data raccolgono e analizzano questi dati grezzi per creare EMD. Di conseguenza, quasi tutte le attività svolte da un individuo dotato di tecnologia creeranno informazioni che possono essere trasformate in dati medici sensibili.
Esempi specifici di informazioni raccolte nel processo emergente di data mining medico includono:
- Facebook "mi piace" e commenti
- Post di Twitter
- Acquisti su Amazon e Target.com
- Uber giostre
- Post di Instagram
Tutti questi dati possono essere analizzati per formare un profilo della salute mentale e fisica dell'utente; man mano che vengono aggiunte più informazioni, più EMD viene raccolto e più chiaro diventa il profilo.
EMD e Project Nightingale di Google
Project Nightingale è una partnership tra Google e Ascension, il secondo sistema sanitario più grande degli Stati Uniti. Il progetto segreto è stato tenuto nascosto fino a novembre 2019, quando è stato rivelato che attraverso la partnership, Google aveva avuto accesso a oltre 50 milioni di cartelle cliniche dei pazienti di Ascension.
La partnership offre a Google un potere senza precedenti per determinare le correlazioni tra il comportamento degli utenti e le condizioni mediche personali. I brevetti depositati nel 2018 rivelano che Google mira a utilizzare Project Nightingale per aumentare le sue capacità emergenti di data mining medico e alla fine identificare o prevedere le condizioni di salute nei pazienti che non hanno ancora visto un medico.
Sebbene Project Nightingale possa fornire numerosi benefici medici e migliorare il sistema sanitario, ha anche sollevato preoccupazioni in merito alla privacy personale. È probabile che Google nasconda le sue scoperte come segreti commerciali e le condivida solo con la sua società madre Alphabet e le sue suddivisioni, tra cui Nest, Project Wing, Sidewalk Labs e Fitbit.
Ciascuna di queste suddivisioni fornisce un servizio con un'operazione di data mining che raccoglie e analizza le informazioni dell'utente. Pertanto, una delle principali preoccupazioni di Project Nightingale è il suo potenziale di utilizzare la sua raccolta di dati medici personali per creare un sistema di sorveglianza sanitaria dei consumatori senza precedenti che si estende su più settori e tecnologie.
Nel novembre 2019 è stata aperta un'indagine federale per indagare su Project Nightingale e sul tentativo di Google di raccogliere milioni di informazioni sanitarie protette (PHI) americane.
EMD e problemi di privacy
I potenziali rischi di EMD sono i seguenti:
- Le aziende possono trarre vantaggio dalle lacune nelle leggi sulla privacy e dalla mancanza di conoscenza degli utenti in merito all'EMD per accedere alle cartelle cliniche personali che sono generalmente riservate.
- Le piattaforme online possono trarre vantaggio dalla vendita di EMD a terzi che potrebbero utilizzarlo come base per la discriminazione in una varietà di decisioni, tra cui occupazione, assicurazione, prestito e istruzione superiore.
- Più persone imparano a conoscere l'EMD, più è probabile che inizino a cambiare i loro comportamenti online; ciò potrebbe limitare notevolmente il libero scambio di idee su Internet.
- Quando un'azienda mette gli utenti in gruppi in base alle condizioni mediche, agiscono come diagnostici medici, un ruolo che dovrebbe essere riservato a professionisti qualificati e autorizzati.
I dati medici emergenti hanno il potenziale per migliorare l'assistenza sanitaria con una varietà di possibili benefici. Ad esempio, gli annunci di centri di recupero basati sull'evidenza potrebbero essere indirizzati a utenti con problemi di abuso di sostanze e le persone con malattia di Alzheimer non diagnosticata possono essere indirizzate a un medico per una valutazione. Tuttavia, raccogliere le informazioni necessarie per renderlo possibile senza il consenso esplicito non è etico e viola la privacy individuale. Inoltre, le informazioni raccolte non sono protette da HIPAA e le società che raccolgono i dati non sono soggette ad alcuna relativa sanzione.
Leggi e regolamenti sulla salute e sulla privacy
Le varie preoccupazioni sulla privacy relative all'EMD e alla raccolta di dati personali hanno sollevato la discussione sull'etica della salute pubblica e sui limiti per un uso responsabile dei dati medici emergenti. Diversi governi hanno risposto con nuove leggi per proteggere ulteriormente i dati personali.
Nell'aprile 2016, l'Unione Europea ha approvato il Regolamento generale sulla protezione dei dati (GDPR), che aumenta i diritti dei consumatori di controllare i propri dati e il modo in cui vengono utilizzati; le aziende che non si conformano sono penalizzate con multe elevate. Il GDPR è entrato in vigore nel maggio 2018.
Attualmente, non ci sono leggi negli Stati Uniti per regolamentare l'estrazione di EMD. Tuttavia, la California ha approvato il California Consumer Privacy Act (CCPA) nel giugno 2018 che supporta il diritto dei residenti della California di controllare le proprie informazioni di identificazione personale (PII). Ai sensi del CCPA, i cittadini hanno il diritto di sapere quali informazioni personali vengono raccolte e chi le raccoglie, nonché il diritto di accedere alle proprie PII e rifiutarne la vendita a terzi.
Inoltre, la sensibilità statunitense Amy Klobuchar e Lisa Murkowski hanno recentemente proposto il Protecting Personal Health Data Act, che mira a proteggere i dati sanitari raccolti da app per il benessere, fitness tracker, piattaforme di social media e società di test del DNA direct-to-consumer (D2C).
Sebbene questa nuova legge possa avvantaggiare i consumatori, pone anche il rischio di creare un'eccezione per EMD. Ad esempio, una sezione della legge esclude "i prodotti sui quali i dati sulla salute personale derivano esclusivamente da altre informazioni che non sono dati sulla salute personale, come i dati del sistema di posizionamento globale [GPS]". Pertanto, se il Protecting Personal Health Data Act fosse approvato, consentirebbe comunque alle aziende di continuare liberamente a estrarre dati medici emergenti.
Un'ultima preoccupazione intorno all'EMD è il suo potenziale per promuovere la discriminazione algoritmica, che si verifica quando un sistema informatico produce sistematicamente e ripetutamente errori che creano esiti ingiusti, come favorire un gruppo di utenti rispetto a un altro gruppo più vulnerabile.
Gli algoritmi di apprendimento automatico utilizzati per trovare l'EMD ordinano gli utenti in categorie relative alla salute a cui viene assegnato un peso positivo e negativo, o importanza. La discriminazione si verifica quando un algoritmo progettato per trovare nuovi candidati al lavoro assegna un peso negativo a gruppi di persone con disabilità, impedendo loro di accedere a offerte di lavoro e domande per le quali avrebbero potuto essere qualificati. La discriminazione algoritmica può anche indurre le aziende a negare ingiustamente alle persone l'accesso a risorse importanti, come alloggi e assicurazioni, senza rendersene conto.
Esempi di dati medici emergenti
La società di vendita al dettaglio americana Target ha assunto statistici per trovare modelli nel comportamento di acquisto dei propri clienti. Attraverso il data mining, è stato scoperto che le donne incinte avevano maggiori probabilità di acquistare lozioni per il corpo inodore all'inizio del secondo trimestre. Prima di analizzare questi dati, la lozione per il corpo inodore non aveva alcun legame riconosciuto con una condizione di salute. Tuttavia, utilizzando queste informazioni, Target è stata in grado di raggiungere i consumatori identificati come future mamme con coupon e pubblicità prima che altre aziende venissero a sapere che le donne erano incinte.
Recenti studi che hanno coinvolto Facebook rivelano anche come il comportamento online non medico possa essere utilizzato per trovare utenti con problemi di abuso di sostanze e altri rischi di malattia. Ad esempio, uno studio ha dimostrato che l'uso di parolacce, parole sessuali e parole relative a processi biologici su Facebook era indicativo dell'uso di alcol, droghe e tabacco. Inoltre, lo studio ha stabilito che le parole relative allo spazio fisico - come "su" e "giù" - erano più fortemente legate all'abuso di alcol, mentre le parole arrabbiate - come "uccidere" e "odio" - erano più fortemente legato all'abuso di droghe.
Facebook ha anche scoperto che l'uso del linguaggio religioso, in particolare parole legate alla preghiera, a Dio e alla famiglia, potrebbe prevedere quali utenti avevano o potrebbero sviluppare il diabete. Altre aree di interesse includono l'analisi dei normali post di Facebook per determinare quando utenti specifici si sentono suicidi.
Google sta lavorando a un sistema di casa intelligente che raccolga le impronte digitali dei membri della famiglia e analizzi i dati per prevedere malattie non diagnosticate, tra cui l'Alzheimer e l'influenza, o problemi di abuso di sostanze.