Skip to main content

L’Europa si è avvicinata pericolosamente all’approvazione di Chat Control. È stato così ribattezzato il Regolamento per la rivelazione di materiali di abuso sessuale sui minori, che prevede misure intrusive di sorveglianza di massa digitale con il pretesto della tutela dei minori. Con questo ogni messaggio sarebbe letto e analizzato, dicendo addio alla privacy. Quello che accade davvero è che si vuole fare un uso strumentale di un’emergenza morale, quella della tutela dei minori, e si presenta così una misura “necessaria” che però prevede un controllo preventivo delle comunicazioni private. Sarebbe un pericolosissimo precedente che non punta a indagini mirate, ma a una sorveglianza estesa con alto rischio di falsi positivi e intrusioni indebite.

Per ora il voto è stato rimandato grazie al fatto che la Germania si è sfilata dai Paesi favorevoli, ma la proposta torna regolarmente sui banchi di discussione. Non si può infatti non temere questo tipo di misura, sempre più invasiva, e l’uso pervasivo che si fa della tecnologia per entrare nella sfera privata del singolo. Sono tecnologie di sorveglianza che, se messe in mano a privati o a Stati, rischiano di creare un sistema di controllo di massa che allontana ogni futuro immaginario di libertà, dalla quella di opinione a quella di organizzazione.

Che cos’è Chat Control?

In pochissime parole, Chat Control è la proposta di legge che vuole limitare le immagini CSAM, ovvero child sexual abuse material. Sulla carta un buon proposito, ma il prezzo da pagare sembra essere un po’ troppo alto. Ci viene infatti richiesto di pagare la protezione dei minori con una falla nella privacy collettiva. Lasciamo lo scenario peggiore al capitolo successivo, quello che prevede il rischio di dover provare la propria innocenza, perché già solo analizzando come funziona Chat Control c’è da preoccuparsi per le ripercussioni sulla vita quotidiana.

Chat Control infatti imporrebbe la scansione di qualsiasi comunicazione privata, dai messaggi alle mail, comprese immagini e video all’interno dell’Unione Europea. Verrebbe quindi meno il principio di crittografia delle comunicazioni, come quello in uso su WhatsApp, che permette di crittografare una comunicazione e impedirne la lettura durante il percorso che va da chi lo invia a chi lo riceve.

Già dal 2022 il cuore della normativa è il client-side scanning, ovvero la scansione automatica dei contenuti direttamente sui dispositivi degli utenti prima ancora che vengano criptati. “Automatica”, ovvero passata sotto un occhio IA che produce inevitabilmente falsi positivi che finiscono per colpire anche innocenti.

Un possibile strumento di controllo

Nel paese degli uomini ciechi, colui che ha un occhio solamente è re!, dice lo spacciatore cieco nel film “Minority Report”, riprendendo un proverbio medievale. Visto in questi termini, Chat Control è un possibile strumento di controllo. Il rischio è quello di mettere fine alla messaggistica privata come la conosciamo oggi. Apre anche a scenari molto più preoccupanti, come lo scardinamento del diritto alla privacy, la legalizzazione di un meccanismo di polizia predittiva e il ribaltamento del principio di presunzione di innocenza.

E in questa lista di rischi, la tutela dei minori è tanto distante quanto molto più vicina è la normalizzazione di un panopticon digitale, ovvero una tecno-sorveglianza attraverso la raccolta preventiva di dati prima ancora di un’investigazione. Un simile controllo ci rende tutti possibili criminali.

Cosa differenzia, o quanta distanza c’è, tra questo sistema di controllo e la proposta di una polizia predittiva come quella immaginata da Philip K. Dick e resa a schermo da Steven Spielberg in “Minority Report”?

Questo tipo di sorveglianza è da temere. Il rischio è che qualsiasi autorità governativa possa leggere i messaggi che ci scambiamo. E anche se non siamo tutti autori o possessori di un certo tipo di materiale esplicito con minori, il punto è che Chat Control rischia di essere lo spiraglio di una porta che non vogliamo aprire del tutto. Dentro ci siamo noi, dall’altra parte un governo che potrebbe volerci spiare e schedare.

Si rischia di creare una società che vive su un binario della buona condotta impostata dalla morale politica dominante, alla quale potrebbe non andare bene moralmente la violenza su minori (certo!), ma magari anche la decisione di interrompere una gravidanza, una relazione omosessuale o per cosa protestare. Per timore di essere letti, analizzati, scansionati, additati e poi gettati nella zona dei criminali, potremmo controllare noi stessi e gli altri e limitare così la nostra e la libertà altrui.

Rimandata la discussione, quando entra in vigore

Per ora la discussione e il voto per l’applicazione del Regolamento sono stati rimandati. Accantonata già una volta per via di pressioni e proteste, il 14 ottobre il Consiglio dell’Unione Europea non voterà. Allo stato attuale sempre più Stati che avevano appoggiato la proposta si stanno sfilando dai Paesi a favore per inserirsi in quelli indecisi o contrari.

Il progetto resta in discussione a livello tecnico, ma con il mancato sostegno della Germania si è bloccato l’iter legislativo. Il Paese infatti ha preso posizione contro il progetto, facendo venir meno la maggioranza qualificata necessaria. Le trattative riprenderanno, questo è certo, ma non c’è ancora una nuova data di scadenza.

La decisione della Germania, così come per i Paesi contrari, arriva da una crescente consapevolezza a livello tecnico. Infatti non è tanto il timore di creare una società priva di privacy che ha frenato alcuni Stati, o di facilitare pratiche di sorveglianza a oppositori politici e giornalisti, come per il caso Paragon, ma il problema della compromissione degli standard di sicurezza. Infatti introdurre meccanismi di scansione comprometterebbe la sicurezza digitale. Una volta aperta una porta, ovvero permettendo l’accesso alle informazioni, inevitabilmente si aprirebbero anche varchi a possibili intrusioni, abusi e attacchi da parte di hacker.

È lo stesso motivo per il quale, quando gli Stati Uniti chiesero ad Apple di sbloccare l’iPhone dell’assassino autore della strage di San Bernardino, Apple si rifiutò. La sua motivazione era semplice: evitare di creare una porta dalla quale lasciare entrare chiunque, anche i malintenzionati.

Autore