Ti stanno leggendo i messaggi. E dicono che è per il tuo bene
Chat Control: l’Europa prepara la sua dittatura digitale
Il 14 ottobre, l’Unione Europea deciderà se accettare o meno la proposta di regolamento nota come CSAR – Child Sexual Abuse Regulation, meglio conosciuta con il suo nome più sincero: Chat Control. Nella retorica ufficiale è una misura per contrastare la pedopornografia online; nella pratica, rappresenta il primo esperimento di sorveglianza preventiva di massa nella storia europea.
Questa proposta di legge riguarda tutte le app di messaggistica: telegram, whatsapp, signal, tutte.
Nessun posto sarà più sicuro.
Dietro la patina morale della “protezione dei minori”, si nasconde una domanda politica molto più grande: fino a che punto siamo disposti a cedere la nostra privacy se ci dicono che serve a salvarci?
Non è una legge tecnica, ma un test di obbedienza.
Questa nuova legge è un modo per abituare milioni di cittadini all’idea che lo Stato, o meglio l’algoritmo che ne incarna la volontà, possa leggere le nostre conversazioni in nome della sicurezza collettiva.
La narrazione è impeccabile, come sempre accade quando il potere vuole travestirsi da cura: ti convincono che il sacrificio è un gesto altruista. Ma ogni sistema di sorveglianza inizia così, con parole piene di buone intenzioni e un lessico che suona rassicurante. Nessun regime nasce dichiarandosi tale. Comincia con un “è solo per il tuo bene.”
Le soluzioni esistono, ma non servono al potere, quindi vengono ignorate. Si potrebbero rafforzare le indagini mirate, con autorizzazione giudiziaria e strumenti forensi sui singoli account sospetti; si potrebbe investire nella cooperazione internazionale tra le unità specializzate, migliorare i protocolli di segnalazione e potenziare i servizi di prevenzione. Si potrebbero imporre audit indipendenti (gli audit indipendenti sono valutazioni esterne condotte da enti terzi indipendenti, come gli organismi di certificazione, per verificare la conformità di un’azienda a standard specifici, ottenendo evidenze oggettive e fornendo un giudizio imparziale.), limiti temporali chiari e trasparenza sugli algoritmi. Tutto questo sarebbe efficace, legittimo e democratico. Ma avrebbe un difetto imperdonabile: non costruirebbe un’infrastruttura permanente di sorveglianza. E a Bruxelles, come ovunque, la tentazione di creare potere che non scade mai è troppo forte per essere rifiutata.
Il cuore del problema si chiama client-side scanning.
Immagina di scrivere una lettera, metterla in una busta e spedirla: con la crittografia tradizionale quella busta resta sigillata e la apre solo il destinatario. Con il client-side scanning invece ti viene chiesto di aprire la busta prima di imbucarla, far leggere il contenuto da un software e poi richiuderla. Il messaggio non è più privato: è già stato visto dal programma sul tuo telefono.
Il funzionamento, detto semplice, è questo. Prima di premere “invia”, l’app sul tuo dispositivo controlla il testo, la foto o il video. Confronta il contenuto con esempi già noti considerati pericolosi e applica regole basate su algoritmi che cercano parole, immagini o pattern sospetti. Se qualcosa sembra rilevante, l’app segnala l’elemento: può inviare un avviso a un server centrale, mandare una miniatura o salvare dei metadati per un controllo umano successivo. Sembra efficiente, finché non si guarda cosa significa davvero che «il dispositivo legge».
Questa lettura preventiva è, in termini pratici, una backdoor autorizzata dalla legge (ovvero un accesso segreto e nascosto a un sistema informatico, una rete o un software, che bypassa i normali meccanismi di sicurezza e autenticazione per consentire un accesso non autorizzato).
Non è un bug nascosto: è la capacità tecnica e giuridica del software di accedere ai contenuti in chiaro. E questo pone tre problemi concreti. Primo, chiunque controlli quel codice può, tecnicamente, leggere i messaggi; non serve un hacker sofisticato: basta modificare il software. Secondo, le app si aggiornano continuamente. Un aggiornamento può cambiare cosa viene cercato o aggiungere nuovi criteri, e arriva sul tuo telefono senza che tu lo noti. Terzo, le segnalazioni non restano isolate: spesso inviano al server hash, pezzi di file o informazioni contestuali che si accumulano in registri (significa che quando un messaggio viene segnalato, il sistema non invia solo l’avviso, ma anche piccoli frammenti del contenuto o codici che lo rappresentano , chiamati hash, insieme a dati di contesto come orari o ID utente e tutti questi elementi finiscono in archivi centrali che possono essere consultati o incrociati). Anche quando si parla di “dati anonimi”, combinando più elementi è possibile risalire alle persone. In sostanza si crea un enorme archivio di sospetti, interrogabili e vulnerabili.
Esistono alcune soluzioni tecniche per ridurre i rischi, ma nessuna davvero risolve il problema. Alcuni propongono sistemi “più sicuri” che controllano il codice o usano tecniche di cifratura più complesse, ma sono troppo pesanti per funzionare su miliardi di messaggi e su tutti i telefoni. Altri chiedono di rendere pubblico il codice per farlo controllare da esperti indipendenti, ma anche questo serve a poco se i programmi di intelligenza artificiale che decidono cosa cercare restano segreti e possono essere modificati in qualsiasi momento. In pratica, chi ha il potere di aggiornare questi sistemi può sempre cambiare le regole del gioco.
Le implicazioni pratiche sono semplici e inquietanti. Avendo una infrastruttura che legge prima della crittografia, può inviare segnali a server centrali, essere aggiornata per cercare nuovi pattern e generare log interrogabili, il passaggio da protezione a repressione è questione di volontà politica. Con pochi cambi di criteri, gli stessi strumenti possono essere riadattati per cercare tracce di traffici illegali, parole chiave usate dagli attivisti, o segnali associati all’identità di persone LGBTQ+ in contesti repressivi.
La conclusione è che le soluzioni non sono solo tecniche: servono limiti legali stringenti, trasparenza reale, audit indipendenti con accesso ai modelli usati, soglie per ridurre i falsi allarmi e garanzie procedurali come l’autorizzazione giudiziaria prima di raccogliere materiali sensibili. Senza queste tutele, la promessa di «scansionare solo per materiale noto» resta una rassicurazione non dimostrabile. Il fatto fondamentale non cambia perché se la legge ti obbliga a installare una serratura che apre le tue cose, prima o poi qualcuno troverà la chiave.
Proteggere i minori è urgente e necessario. Il problema è che la proposta CSAR pretende di farlo sovrapponendo alla tutela uno strumento che annulla la riservatezza universale delle comunicazioni. Qui salta il principio giuridico fondamentale della proporzionalità: nelle democrazie le limitazioni alle libertà devono essere mirate, necessarie e proporzionate rispetto al fine perseguito. Il client-side scanning, invece, giustifica una scansione generalizzata di miliardi di messaggi sulla base di un obiettivo legittimo, ma la misura non è tarata sul singolo sospetto.
La crittografia end-to-end non è un capriccio tecnologico: è la garanzia che solo mittente e destinatario possano leggere una conversazione. Trasformarla in un “ostacolo da aggirare” significa cancellare un diritto: la privacy digitale diventa un optional che lo Stato può chiedere di sospendere quando vuole. Quando la legge ti ordina di installare sul dispositivo una funzione che legge in chiaro contenuti privati, la promessa di protezione si trasforma in potere di controllo.
Ciò che dovrebbe essere protezione diventa strumento di controllo, e la sicurezza proclamata si traduce in pratica in censura preventiva.
Chi parla, scherza o si organizza rischia di vedere la propria libertà di parola ridotta non da un giudice ma da un algoritmo che segnala, dal basso, sospetti che poi qualcuno controlla. Questo è il paradosso: per difendere i più deboli si costruisce un apparato che rende tutti più vulnerabili.
L’intelligenza artificiale non capisce. Non interpreta, non conosce ironia o contesto: classifica. Trasforma il linguaggio umano in categorie binarie (sicuro o pericoloso, lecito o sospetto) e lo fa con l’arroganza di chi non sa di non capire. Nel sistema del Chat Control, questo significa che ogni messaggio, immagine o video viene ridotto a un punteggio di rischio, a una serie di corrispondenze statistiche con modelli addestrati su milioni di esempi.
Una parola ironica, una battuta ambigua, una foto fraintesa possono bastare per scatenare un allarme. Quello che per un essere umano è umorismo o provocazione, per l’algoritmo è un’anomalia da segnalare. E ogni segnalazione automatica genera una catena: log, controlli, indagini, notifiche alle autorità. L’errore tecnico si trasforma in sospetto giudiziario.
Il risultato è un clima di inquietudine permanente.
Sapere che un software analizza ogni parola e ogni immagine spinge le persone a correggersi da sole. Si scrive meno, si scherza meno, si pensa due volte prima di parlare. È la nascita di una nuova forma di autocensura preventiva, più efficace di qualsiasi legge: non serve punire ciò che viene detto, basta far sapere che si sta ascoltando. La sorveglianza non elimina il crimine, elimina la spontaneità.
Mission creep: la deriva annunciata
Ogni infrastruttura di sorveglianza ha una caratteristica quasi biologica: non rimane confinata alla sua funzione originaria. Si espande. Sempre.
Oggi la giustificazione è la lotta alla pedofilia; domani basterà un’emergenza, una campagna mediatica o una richiesta delle forze dell’ordine per usarla anche contro terrorismo, traffico di droga, disinformazione o persino il dissenso politico. Questo slittamento graduale ha un nome tecnico e cinico: mission creep.
È la malattia cronica del potere: prendere uno strumento pensato per un fine limitato e normalizzarlo per usi sempre più ampi finché nessuno si ricorda più perché era stato introdotto.
Non è teoria. Abbiamo esempi pratici che dovrebbero mettere i brividi. Dopo l’11 settembre è nato il Patriot Act, concepito per il terrorismo e poi usato per controlli di polizia su vasta scala. Spyware come Pegasus sono stati creati per cacciare criminali ma si sono ritrovati su telefoni di giornalisti e attivisti. Il riconoscimento facciale, venduto come strumento per la sicurezza pubblica, è finito a sorvegliare piazze e manifestazioni, spesso senza adeguate garanzie. Questi casi mostrano come una tecnologia “mirata” diventi rapidamente uno strumento generale di controllo.
Il punto è semplice e implacabile: apri una sola porta tecnica alla sorveglianza nonostante te la vendono come necessaria e temporanea e quella porta resterà aperta. Non serve un complotto: basta che il quadro politico cambi, che arrivi una crisi, o che qualcuno decida che “ora serve anche per…” E così la protezione promessa si trasforma in meccanismo permanente di sorveglianza.
Il Chat Control nasce per combattere la pedopornografia, ma il suo disegno tecnico non ha confini.
È una macchina programmabile: basta cambiare ciò che deve cercare. Gli algoritmi non fanno domande morali, eseguono istruzioni. Se oggi vengono addestrati a riconoscere materiale di abuso, domani possono essere riadattati per individuare qualunque comportamento considerato “sospetto” o “deviato” dal potere di turno.
Il regolamento prevede infatti i cosiddetti “ordini di rilevamento”, che permettono alle autorità di imporre scansioni ai fornitori di servizi. E non si parla solo di indagini mirate: possono essere ordini generali, applicati all’intera piattaforma o a categorie di utenti, con la giustificazione di ridurre i rischi.
È la formula perfetta per la sorveglianza di massa travestita da misura di sicurezza.
Da lì la deriva è quasi naturale. L’intelligenza artificiale può essere riadattata per cercare linguaggi e contenuti legati al traffico di droga, o per riconoscere parole chiave usate da movimenti politici e sociali. Nei paesi dove l’aborto è vietato, lo stesso strumento può identificare chat in cui si cercano informazioni su cliniche, pillole o aiuti medici. Negli stati che reprimono l’omosessualità, può diventare un mezzo per schedare persone LGBTQ+, individuando messaggi, emoji, fotografie o community online.
E non è difficile immaginare l’uso più comodo di tutti: il controllo delle manifestazioni. Le stesse funzioni potrebbero intercettare gruppi organizzativi, individuare i luoghi di ritrovo, o segnalare “assembramenti potenzialmente pericolosi” in nome dell’ordine pubblico. È già successo: basti pensare alle leggi anti-rave o alle restrizioni recenti sulle proteste pacifiche.
Così la sorveglianza preventiva, nata come scudo contro il crimine, diventa uno strumento di moralizzazione e repressione politica. La tecnologia non distingue tra bene e male: lo farà chi la comanda. E a quel punto non serve più chiamarla sicurezza, basta chiamarla disciplina.
Non tutti in Europa hanno deciso di bere la pozione della “sicurezza a ogni costo”. Mentre le istituzioni procedono con la solita calma burocratica, una parte del mondo giornalistico, accademico e tecnico sta gridando che il Chat Control non è una legge di tutela, ma un esperimento di sorveglianza di massa.
Le Monde ha definito la proposta «un’intrusione generalizzata» che rovescia il principio stesso di segretezza della corrispondenza: per la prima volta nella storia europea si autorizzerebbe un controllo preventivo e sistematico delle comunicazioni private. El País, da parte sua, ha smontato il mito della “tutela preventiva”, ricordando che non esiste alcuna prova che la sorveglianza totale renda i bambini più sicuri; al contrario, produce un effetto di normalizzazione del controllo e di fragilità dei sistemi di sicurezza digitale.
Il sito tedesco Netzpolitik ha scelto parole ancora più dirette: «la fine della comunicazione privata in Europa». Secondo gli analisti, il voto del 14 ottobre sarà una scelta tra libertà e controllo algoritmico, e la Germania (ancora indecisa) determinerà se l’Unione imboccherà la strada della trasparenza o quella della sorveglianza permanente.
Sul fronte tecnico, organizzazioni come EDRi (European Digital Rights) e piattaforme come Signal hanno denunciato apertamente il rischio di creare un precedente globale. Se l’UE legittima la scansione preventiva delle chat in nome della sicurezza morale, altri governi potranno copiarne il modello per censurare il dissenso, limitare la libertà di stampa o colpire minoranze già vulnerabili.
La convergenza è rara ma netta: ingegneri, giuristi, giornalisti, attivisti. Tutti dicono la stessa cosa, ognuno con il proprio linguaggio: il Chat Control non è un progetto di protezione, è una minaccia concreta alla democrazia digitale.
La vera mutazione non è tecnologica, è culturale.
Il Chat Control non nasce per reprimere la disobbedienza: nasce per impedirti di pensarla.
È l’evoluzione più sofisticata del controllo politico, quella che non ha più bisogno di manganelli o censure ufficiali, perché il cittadino finisce per auto-sorvegliarsi da solo.
Quando ti convincono che “se non hai nulla da nascondere, non hai nulla da temere”, la partita è già persa. Hai accettato il principio cardine di ogni regime moderno: la trasparenza obbligatoria del suddito, contrapposta all’opacità assoluta del potere.
È la logica perfetta per costruire consenso senza doverlo più negoziare.
Ti abitui a essere controllato, a sentirti al sicuro solo se qualcuno ti guarda. L’obbedienza smette di essere imposta e diventa un riflesso.
Il passaggio è sottile ma decisivo: dal consenso politico, quello che si ottiene con il dibattito, con le elezioni, con la fatica della democrazia, al consenso algoritmico, costruito con la manipolazione della paura e l’automazione del sospetto.
Ecco perché è necessario reagire, subito. Perché il rischio non è che domani ti leggano i messaggi: è che ti convincano che sia giusto farlo. Che la sorveglianza diventi la nuova forma di partecipazione civile. Che la libertà si riduca a un margine concesso da un software di sicurezza.
Mobilitarsi oggi non è un atto idealista, è un gesto di autodifesa democratica. Significa ricordare che la privacy non è un capriccio da hacker, ma l’ultima barriera tra cittadino e suddito. Chi rinuncia alla propria riservatezza in nome della sicurezza sta scegliendo una cosa sola: la comodità del guinzaglio.
La domanda è semplice e terribile: vogliamo vivere in una società che considera ogni cittadino un sospetto?
Perché è questo che accadrà quando la sorveglianza preventiva diventerà legge.
Il Chat Control non è un tema per nerd o giuristi: è un referendum sulla libertà, solo che nessuno ci farà votare.
In un’Europa che restringe il diritto all’aborto, che criminalizza le proteste pacifiche, che tollera la discriminazione delle persone LGBTQ+ mentre si riempie la bocca di “valori europei”, consegnare ai governi un algoritmo capace di leggere ogni messaggio non è sicurezza: è suicidio democratico.
La fine della libertà non arriverà con un golpe o con i carri armati nelle piazze. Arriverà con un aggiornamento di sistema. Con un pop-up sullo schermo che ti chiede di “consentire l’accesso per la tua sicurezza”. E tu, distratto, premerai “Accetta”. Da quel momento non sarai più un cittadino, ma un profilo sotto osservazione.
La linea tra libertà e controllo non verrà imposta: la firmerai tu.
Per maggiori informazioni puoi consultare questa fonte.


Leggeranno anche gli SMS?
A causa di un bug (in senso letterale) qualche Archibald Tuttle sarà interrogato a morte al posto del terrorista Archibald Buttle di Terry Gilliam memoria(Brazil).
Solo che non mi viene da ironizzare, né da ridere questa volta.