ADSENSE
|
Deepfake privacy poteri garante: la richiesta di intervento
Di fronte alla crescente diffusione di contenuti generati tramite intelligenza artificiale, il Garante della privacy ha ribadito l’urgente necessità di maggiori poteri per contrastare l’utilizzo improprio dei deepfake.
La richiesta si concentra sulla possibilità di intervenire rapidamente per tutelare i diritti fondamentali delle persone.
La questione deepfake privacy poteri garante è di centrale importanza nel dibattito attuale sulla sicurezza digitale e la protezione dei dati personali.
La pericolosità dei deepfake e la violazione della privacy
L’utilizzo di servizi basati sull’intelligenza artificiale, come Grok, ChatGPT e Clothoff, consente la creazione e la condivisione di contenuti che manipolano immagini o voci reali.
Questo può portare alla generazione di rappresentazioni non consensuali, come la “spogliazione” digitale di individui.
Tali pratiche non solo configurano potenziali reati, ma causano anche gravi violazioni dei diritti e delle libertà individuali, con conseguenze significative, anche in termini di sanzioni, previste dalla normativa europea sulla protezione dei dati personali.
La rapidità di intervento è cruciale per arginare la diffusione di questi materiali dannosi.
Interventi passati e la necessità di un quadro normativo più forte
Già in passato, l’Autorità Garante ha adottato misure preventive.
A gennaio, è stato emesso un provvedimento di avvertimento rivolto agli utilizzatori di piattaforme di intelligenza artificiale.
In precedenza, a ottobre 2025, la piattaforma Clothoff era già stata oggetto di un provvedimento di blocco.
Nonostante questi sforzi, il Garante sottolinea la necessità di poter disporre di strumenti più efficaci, come la facoltà di interdire il collegamento dall’Italia a tali servizi.
Questo evidenzia una lacuna nel quadro normativo attuale e la richiesta di un aggiornamento che consenta un’azione più incisiva contro la diffusione dei deepfake e la protezione della privacy.