Al momento stai visualizzando G7 Digital Track, focus sull’utilizzo consapevole dell’IA

G7 Digital Track, focus sull’utilizzo consapevole dell’IA

Condividi su

Il Garante privacy italiano, in occasione del G7 Digital Track delle Autorità per la protezione dei dati e la privacy, raccomanda un uso limitato dell’intelligenza artificiale applicata ai dati personali degli utenti.

Il Garante della privacy italiano, nel corso del G7 Digital Track, organizzato in relazione alla protezione dei dati e la libertà di informazione, tenutosi il 7 e 8 settembre, richiede un uso oculato “dell’intelligenza artificiale applicata ai dati personali, che porti a forme di sorveglianza massiva. Con l’evidente scopo di controllare e manipolare i comportamenti degli individui a partire dai dati personali, raccolti, analizzati e incrociati in grandi quantità, varietà e velocità”.

Il documento elaborato alla fine della riunione, propone un’alternativa all’utilizzo dell’ IA. Infatti, i Garanti dei paesi del G7  continueranno a impegnarsi con l’obiettivo di sviluppare un piano d’azione e preparare i prossimi incontri, che saranno svolti sotto la presidenza dell’Autorità garante giapponese (Ppc) nel 2023.

L’incontro

Il G7 si è focalizzato sulle questioni normative e tecnologiche, in merito agli sviluppi nel contesto del “Data Free Flows with Trust (Dfft)“. Obiettivo è  condividere le conoscenze sulle prospettive di “spazi di dati internazionali”, una nuova visione della condivisione di dati affidabile e volontaria, all’interno e tra organizzazioni e settori, sia a livello nazionale che internazionale. Fondamentale è il sostegno  all’innovazione nel mondo accademico, nell’industria e nel settore pubblico.

I temi affrontati riguardano gli strumenti per il trasferimento internazionale dei dati, dunque  la certificazione, le tecnologie di miglioramento della privacy (Pet), gli standard di anonimizzazione, il rafforzamento dei principi di minimizzazione dei dati per affrontare le sfide della sorveglianza commerciale, il ruolo delle Autorità di protezione dati nella definizione e successiva promozione di un modello etico e culturale per la governance dell’IA.

Maria Antonietta Ferraro