L’avvocato Massimiliano Masnada, Partner di Hogan Lovells, commenta la decisione del Garante della Privacy di bloccare temporaneamente ChatGPT in Italia
di Massimiliano Masnada, Partner di Hogan Lovells
L’intervento del Garante anzitutto sembra contestare a ChatGPT la mancanza di trasparenza, intesa come mancanza di informativa agli utenti rispetto alle finalità e modalità del trattamento dei dati personali eventualmente comunicati.
Il provvedimento, inoltre, richiama la necessità che sia individuata una base giuridica rispetto alla legittimità del trattamento da parte di OpenAI dei dati personali eventualmente raccolti dagli utenti. Infine, il Garante lamenta una mancanza di trasparenza sui filtri e altri meccanismi adottati da ChatGPT per impedire ai minori di 13 anni di utilizzare il servizio.
Quest’ultimo punto, peraltro, accomuna l’intervento del Garante nei confronti di ChatGPT a quello che, a suo tempo, fece nei confronti di TikTok.
Il provvedimento odierno, che – va ricordato – ha natura temporanea di blocco del trattamento ma non implica necessariamente un divieto definitivo all’uso del servizio, pone numerose riflessioni, al di là delle misure specifiche che saranno intraprese da OpenAI per superare il blocco del Garante, sul futuro dei meccanismi di AI e su quanto è necessario fare per creare una cultura di legalità rispetto al loro utilizzo.
Non bastano, ad opinione di chi scrive, i pur necessari meccanismi di privacy by design e privacy by default ovvero i controlli e i rimedi per tutelare la privacy degli interessati, specie se minori.
Occorre creare una nuova cultura tecnologica che si fondi sull’etica e sul rispetto dei diritti fondamentali.
Non è questo il luogo, né sarei in grado di dare indicazioni e, tanto meno, soluzioni, certo che un certo tipo di “pessimismo di maniera” connesso all’evoluzione degli strumenti tecnologici alimenta solo la paura e la preoccupazione senza essere utile in alcun modo a sviluppare una cultura della legalità.
Occorre, a mio parere, abbracciare il progresso pur mantenendo lo spirito critico necessario per evitare usi distorti e dannosi. In tal senso, credo sia importante diffondere informazioni in modo quanto più neutro possibile, raccogliere preoccupazioni e opinioni, porre i problemi per cercare le soluzioni.
Tutto ciò non può prescindere da un dati incontrovertibile. I dati, a prescindere che siano personali o meno, sono il carburante necessario per lo sviluppo di meccanismi di AI come ChatGPT. L’accesso ai dati consente di avere algoritmi più precisi ed idonei all’utilizzo per migliorare la vita delle persone.
Il loro deve avvenire in modo sicuro ed etico. Per fare ciò non bastano i divieti. Un primo passo, in tale senso, sarà la corretta implementazione delle regole sul riuso dei dati che sono alla base del Data Governace Act, di prossima entrata in vigore, e del successivo Data Act. La giostra è appena partita.