Profilazione genetica, DNA

La profilazione dei dati sanitari a fini assicurativi, spunti di riflessione

L’altro giorno attraverso Linkedin sono stato coinvolto in un’interessante discussione sulle banche dati genetiche. Il discorso prendeva le mosse dal caso dell’Ogliastra pubblicato su la stampa in data 31 ottobre ’17 in cui dei campioni biologici prelevati a parte della popolazione su base volontaria e a fini di ricerca senza lucro scomparivano per poi successivamente ricomparire.

Per chi non lo sapesse l’Ogliastra è una di quelle poche zone al mondo con il livello di longevità più alto, da qui si capisce l’importanza e il valore di questi campioni per chi riuscisse a estrarne il famoso elisir di lunga vita [1].
Su questo caso si è pronunciato anche il garante della privacy italiano il quale alla domanda se esista già una normativa che possa difendere questi campioni e i dati derivanti dal loro utilizzo ha risposto: “le regole ci sono, ma il contesto digitale è in continuo e rapido mutamento. E le normative non riescono ad adeguarsi con la stessa velocità. Un esempio? Su Internet si può acquistare un kit per il test del Dna che consente di svolgere test diagnostici sulla predisposizione ad ammalarsi di determinate malattie, sulla tolleranza ai farmaci, sulle nostre origini genealogiche. Queste offerte non solo risultano poco affidabili, ma espongono all’uso incontrollato dei dati. Le società hanno sede fuori dall’Unione europea e noi non possiamo applicare le nostre
regole” [2].
Quindi come sottolineato dal garante il pericolo consiste nell’uso incontrollato di questi dati, ovvero nel loro utilizzo con fini diversi rispetto quello per cui sono stati raccolti.
Il problema si pone in maniera ancora più preoccupante quanto più si amplia e diventa invadente il potere di profilazione delle grandi corporazioni di processare enormi quantità di dati. A tal proposito il garante afferma per l’appunto quale sia l’obiettivo della raccolta di tali dati, cioè ampliato anche al settore genetico: “quello di allargare il potere di ‘profilazione’, la vera ricchezza dell’economia digitale. I rischi per tutti noi aumentano, se i colossi del digitale entrano in possesso d’informazioni sul nostro profilo genetico, sullo stato di salute, sulle caratteristiche biologiche o la predisposizione a sviluppare determinate malattie. Le informazioni raccolte potrebbero essere appetibili per le compagnie assicurative o per i datori di lavoro interessati a selezionare il proprio personale sulla base delle caratteristiche genetiche, o addirittura per le case farmaceutiche desiderose di testare nuovi tarmaci su soggetti selezionati” [3].

In altre parole, senza scomodare le ipotesi effettuate da Michael Crichton nel romanzo Next, seguendo le preoccupazioni del garante, condivise da chi scrive, si arriverebbe per mezzo di queste raccolte di materiale genetico a paventare almeno due, ordini di possibili problemi:
1.Il rischio che attraverso l’incrocio dei dati si possano riconoscere le singole persone;
2. La cd. dittatura degli algoritmi.
Quanto al primo punto è evidente che le grandi corporazioni attraverso la mole di dati che sono in grado di acquisire unita alla loro capacità di incrociarli con altri dati possono arrivare se non ora in futuro prossimo non troppo lontano a riconoscere le persone che però a suo tempo avevano prestato il consenso all’uso dei propri dati per scopi differenti.
In altre parole rimanendo al campo assicurativo pensiamo ai sistemi sanitari a forte privatizzazione dove incrociando i dati acquisti per diverse vie le assicurazioni potrebbero arrivare a negare o alzare a livelli insostenibili i premi assicurativi in virtù di una predisposizione personale ad un determinato evento sanitario.
Questa considerazione si connette conseguenzialmente al punto due, ovvero al cd. fenomeno della dittatura dell’algoritmo [4], fenomeno dibattuto dagli studiosi delle tematiche legali collegate ai nuovi fenomeni tecnologici.
Nei fatti abbiamo già diversi esempi di algoritmi che impattano in maniera preponderante sulla vita dei cittadini, si pensi alle pratiche di prestito bancarie ormai risolte attraverso software che valutano l’affidabilità o meno di un creditore, oppure i bot che operano in campo azionario e obbligazionario.
Detto ciò si pensi ora ad arricchire questi algoritmi degli ulteriori dati quali quelli genetici e applicarli al campo assicurativo, qui avremmo un’esclusione di fatto di fette importanti della popolazione sulla base di speculazioni predittive che nella realtà potrebbero non trovare corrispondenza alcuna. Oltre gli evidenti effetti dal punto di vista sociale, parecchi dubbi sorgono anche dal punto di vista giuridico. Infatti, riavvolgendo un attimo il nastro dell’origine del campo assicurativo troviamo quale causa della sua esistenza quello di ripartire l’alea di un determinato evento incerto e infuturo non sul solo singolo ma su una collettività, ciò sulla considerazione che il
singolo da solo non sarebbe in grado di farvi fronte indipendentemente. Bene, ricordato questo nel caso in cui questa profilazione “rafforzata” andrebbe nei casi di riconoscimento della singola persona ad azzerare l’alea de contratto e pertanto la sua stessa causa, mentre nel secondo caso, quello di esclusione di intere categorie di cittadini da determinate prestazioni assicurative risulterebbe evidentemente discriminatorio in quanto contrario non solo all’interesse pubblico generalmente inteso ma anche a norme e trattati.

Alcuni autori [5] ritengono diversamente che i timori del garante siano infondati richiamando il considerando numero quattro del nuovo regolamento europeo sul trattamento dei dati personali che afferma: “il trattamento dei dati personali dovrebbe essere al servizio dell’uomo. Il diritto alla protezione dei dati di carattere personale non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale e va contemperato con altri diritti fondamentali, in ossequio al principio di proporzionalità”, però con riferimento alla ricerca scientifica e alla sperimentazione clinica, invece risulta di tutta evidenza come la stessa considerazione non possa valere con riferimento a un settore come quello assicurativo la cui componente lucrativa è sicuramente maggiore. D’altra parte la seconda parte del considerando preso in esame prosegue precisando che: “il presente regolamento rispetta tutti i diritti fondamentali e osserva le libertà e i principi riconosciuti dalla Carta, sanciti dai trattati, in particolare il rispetto della vita privata e familiare, del domicilio e delle comunicazioni, la protezione dei dati personali, la libertà di pensiero, di coscienza e di religione, la libertà di espressione e d’informazione, la libertà d’impresa, il diritto a un ricorso effettivo e a un giudice imparziale, nonché la diversità culturale, religiosa e linguistica”, pertanto, richiamando i diritti fondamentali che devono sempre avere valore preminente. Detto in altre parole, nell’ipotesi di raccolta indiscriminata di dati genetici si provocherebbe il rischio concreto di discriminare intere categorie di persone sulla base di questi dati (spesso raccolti chissà come), il che come detto potrebbe portare alla violazione di numerose leggi e trattati internazionali, in materia di diritti umani, quali ad esempio il diritto alla salute e alla non discriminazione, il cui bilanciamento con i contrapposti interessi privati e non solo delle compagnie assicurative sarà una delle sfide cui i legislatori saranno tenuti a dare una risposta, si spera equilibrata, nel futuro.

Contributo di Salvatore Familiari, Perfezionato in Computer Forensics e Data Protection – Cultore della materia alla cattedra di Informatica Giuridica Avanzata dell’Università degli studi di Milano presso cui è anche membro del Information Society Law Research Centre

Note:
[1] http://www.lastampa. it/2017/10/31/italia/cronache/la-banda- che-si- arricchiva-con- il-dna- dei-centenari- sardi-dB64kDPknrGQEPcAgyalOP/pagina.html;
[2] http://www.garanteprivacy.it/web/guest/home/docweb/-/docweb- display/docweb/7065427;
[3] http://www.garanteprivacy.it/web/guest/home/docweb/-/docweb- display/docweb/7065427;
[4] Tra le varie sul tema si confronti Cfr. Pag.7, European Data Protection Supervisor, “the challenges of big data”, opinion n.7/2015;
[5] http://www.ictlex. net/?p=2119

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *