Introduzione
L’evoluzione tecnologica ha trasformato i sistemi di videosorveglianza tradizionali in strumenti dotati di intelligenza artificiale capaci di riconoscimento facciale, analisi comportamentale, rilevazione di emozioni e classificazione demografica. Questa rivoluzione solleva complesse questioni giuridiche in materia di protezione dei dati personali e di tutela dei diritti fondamentali.
Il quadro normativo
I sistemi di videosorveglianza intelligente devono conformarsi a un duplice framework regolatorio. Il Regolamento (UE) 2016/679 (GDPR) impone principi fondamentali quali liceità, minimizzazione dei dati, limitazione delle finalità e conservazione temporanea. In ambito nazionale, il Garante per la protezione dei dati personali indica in linea generale un periodo di conservazione delle immagini pari a 24-48 ore per finalità di sicurezza, salvo esigenze specifiche e documentate.
L’AI Act, entrato in vigore nel 2024, introduce ulteriori restrizioni. In particolare, vieta l’identificazione biometrica remota in tempo reale negli spazi pubblici, salvo eccezioni tassative quali la ricerca di vittime di reati gravi, la prevenzione di minacce terroristiche imminenti o il perseguimento di reati punibili con almeno quattro anni di reclusione. Tali eccezioni richiedono autorizzazione giudiziaria e una valutazione d’impatto sui diritti fondamentali.
La giurisprudenza italiana
Un precedente significativo è rappresentato dal caso del Comune di Trento, sanzionato dal Garante nel gennaio 2024. L’ente aveva installato telecamere dotate di microfoni ambientali e algoritmi di analisi comportamentale senza effettuare la valutazione d’impatto obbligatoria, fornendo informative inadeguate e implementando misure di sicurezza insufficienti. Il Garante ha ordinato la sospensione immediata del sistema.
La Corte di Cassazione, con ordinanza n. 19550/2024, ha inoltre chiarito che il titolare del trattamento deve documentare in modo puntuale la necessità di conservare le immagini oltre i termini indicati dal Garante, rafforzando il principio di accountability.
Categorie di dati trattati
Le immagini videoregistrate costituiscono sempre dati personali. Quando i sistemi di intelligenza artificiale estraggono informazioni ulteriori, occorre distinguere diverse categorie:
- Dati biometrici, come riconoscimento facciale, vocale o dell’andatura, soggetti al regime rafforzato dell’art. 9 GDPR.
- Dati relativi alla salute, qualora i sistemi di emotion recognition inferiscano stati di disagio psicofisico.
- Dati demografici, il cui utilizzo può generare rischi di discriminazione algoritmica.
Basi giuridiche e limiti
Il legittimo interesse è spesso invocato come base giuridica per la videosorveglianza a fini di sicurezza, ma richiede un rigoroso test di bilanciamento, adeguatamente documentato. Il Comitato europeo per la protezione dei dati ha chiarito che tale base è difficilmente sostenibile per sistemi di videosorveglianza su larga scala che impiegano riconoscimento facciale o forme avanzate di profilazione.
Obblighi di compliance
Per i sistemi di videosorveglianza intelligente la valutazione d’impatto sulla protezione dei dati (DPIA) è sempre obbligatoria. Essa deve includere:
- descrizione dettagliata del sistema e delle sue funzionalità;
- analisi dei rischi, come sorveglianza invasiva, discriminazione algoritmica e violazioni di sicurezza;
- misure di mitigazione adottate;
- valutazione dei rischi residui.
L’informativa deve seguire un modello “a doppio livello”: cartellonistica semplificata prima dell’area videosorvegliata e informativa completa, accessibile online, che descriva le capacità analitiche dell’IA e le modalità di intervento umano.
Misure tecniche essenziali
Il principio di privacy by design impone scelte architetturali volte a ridurre al minimo il trattamento dei dati personali:
- limitazione delle aree riprese;
- mascheramento delle zone non rilevanti;
- attivazione delle sole funzionalità strettamente necessarie;
- pseudonimizzazione tramite mascheramento automatico dei volti;
- riduzione della risoluzione delle immagini ove possibile.
Per i sistemi ad alto rischio è obbligatoria la supervisione umana: ogni alert generato dall’algoritmo deve essere validato da un operatore prima di produrre effetti concreti.
Le misure di sicurezza devono comprendere cifratura dei dati, autenticazione a più fattori, segregazione delle reti, logging degli accessi e verifiche periodiche di vulnerabilità.
La questione dei bias algoritmici
Gli algoritmi di intelligenza artificiale possono incorporare pregiudizi presenti nei dati di addestramento, generando trattamenti discriminatori. È quindi necessario valutare le prestazioni dei sistemi su diversi gruppi demografici, applicare metriche di fairness e prevedere un monitoraggio continuo per individuare eventuali derive.
Conclusioni
L’utilizzo di sistemi di videosorveglianza basati su intelligenza artificiale richiede un approccio fondato sull’accountability. I titolari del trattamento devono effettuare analisi preventive di necessità e proporzionalità, coinvolgere il DPO fin dalle fasi di progettazione, svolgere DPIA sostanziali, fornire informative trasparenti, garantire una reale supervisione umana e monitorare costantemente il funzionamento dei sistemi.
Solo attraverso un’applicazione rigorosa dei principi di data protection e delle garanzie previste dall’AI Act è possibile conciliare innovazione tecnologica e tutela delle libertà fondamentali, evitando che la sicurezza si trasformi in una forma di sorveglianza generalizzata incompatibile con i valori democratici.

