Con ChatControl entra nell’UE il cavallo di Troia della sorveglianza

Con ChatControl entra nell’UE il cavallo di Troia della sorveglianza

Loading

La proposta di regolamento dell’Ue rischia di aprire al controllo sistematico e di massa su tutti i cittadini europei, in violazione di regole fondamentali come la proporzionalità nel trattamento dei dati personali e il principio di presunzione d’innocenza

Da quasi un anno l’Unione Europea sta discutendo una proposta di regolamento denominata “ChatControl”, il cui scopo è la ricerca di materiale pedopornografico ma che rischia di sfociare in una gigantesca violazione dei diritti fondamentali dei cittadini europei.

La proposta prevede l’istituzione di apposite “autorità coordinatrici” in ogni Stato Membro, le quali avranno il potere – di concerto con altre autorità nazionali – di emanare “ordini di rilevazione” (o detection order) attraverso i quali potranno imporre ad alcuni servizi digitali (come social network e servizi di messaggistica) di installare un sistema di analisi automatizzata delle conversazioni di tutti gli utenti per individuare contenuti pedopornografici.

A seguito di questi ordini e per un periodo di massimo 24 mesi le conversazioni di tutti gli utenti sarebbero costantemente monitorate e confrontate con database contenenti “indicatori” in grado di rilevare la presenza di immagini sensibili. La scansione riguarderebbe tutti gli utenti, senza distinguere, ad esempio, tra account precedentemente segnalati, specifiche utenze o zone geografiche.

Le preoccupazioni che questo regolamento suscita sono molteplici. Nonostante le soluzioni tecniche finora proposte potrebbero prevedere l’utilizzo di sistemi di cifratura delle informazioni sottoposte ad analisi, si verificherebbe comunque un controllo sistematico e di massa su tutti i cittadini europei, in violazione di regole fondamentali come la proporzionalità nel trattamento dei dati personali e il principio di presunzione d’innocenza.

L’implementazione di questi sistemi, inoltre, impedirebbe di utilizzare sistemi di crittografia end-to-end. Questo tipo di crittografia è molto diffusa (la utilizzano, ad esempio, WhatsApp, Signal e iCloud) e permette a chi ne beneficia di avere il massimo livello di sicurezza delle informazioni, in quanto solo il mittente e il destinatario di un’informazione possono accedere ai dati. Al contrario, qualsiasi accesso da parte di soggetti terzi è escluso.

La scansione dei messaggi deve operare su informazioni non cifrate e questo livello di sicurezza sarebbe impossibile da mantenere. Con ogni probabilità si verrebbe a creare un paradosso: da un lato gli utenti comuni non potrebbero più utilizzare la crittografia end-to-end e sarebbero esposti ad intrusioni di terzi, sia privati che pubblici; dall’altro coloro che diffondono materiale pedopornografico si rivolgerebbero a servizi diversi, meno conosciuti e insensibili a questo tipo di soluzioni, come reti decentralizzate.

I rischi non riguardano solo gli abusi ma anche gli errori dell’algoritmo, che sarebbero amplificati dalla quantità di dati interessati dai controlli. Ad esempio, su WhatsApp vengono scambiati oltre 70 miliardi di messaggi al giorno. Con questi numeri, anche una percentuale di errore dell’1% comporterebbe quantità enorme di segnalazioni errate, con conseguenti costi e tempi di gestione, nonché notevoli disagi per i soggetti coinvolti. In termini pratici, lo scambio di immagini per finalità assolutamente lecite, come la trasmissione di una foto da parte di un genitore ad un pediatra, potrebbe far scattare un allarme e un inutile accertamento.

Ciò che non ci convince è l’approccio al problema. In questi ultimi anni, il progresso tecnologico ha generato una tendenza alle raccolte massive di dati, in un’ottica di controllo e repressione dei comportamenti illeciti, nell’illusione che la tecnologia possa fornire soluzioni semplici e immediate a problemi complessi e radicati. In realtà, è molto comune che l’analisi di grandi quantità di dati pregiudichi l’efficacia delle investigazioni poiché inonda l’autorità di informazioni non utili, che richiedono tempo e risorse per essere gestite.

Il Regolamento ChatControl è, quindi, un caso di soluzionismo tecnologico. Senza voler sottovalutare il problema dello sfruttamento di minori on-line e del rischio di adescamento, le soluzioni dovrebbero essere differenti. In primo luogo tenere effettivamente conto dei diritti dell’intera comunità e, in secondo luogo, incoraggiando un approccio di tipo preventivo, che investa sulla consapevolezza di bambini e genitori e sul recupero di chi ha commesso reati legati allo sfruttamento di minori.

 

* Head del dipartimento legale e Legal officer di Privacy Network

Fonte/autore: Gabriele Ientile, Riccardo Apa, il manifesto

 

 

ph by Jakob Rieger, CC0, via Wikimedia Commons



Related Articles

Variante Delta. Si gonfiano i profitti di Pfizer nell’impotenza della politica

Loading

Variante Delta e terze dosi. L’azienda ha comunicato le previsioni economiche per il 2021: grazie al vaccino conta di ottenere ricavi per oltre 33 miliardi di dollari, 7 in più rispetto alle previsioni di maggio. Il rialzo è determinato dalla diffusione della variante delta

Carcere. Il 41bis e l’ostentazione della disumanità della pena

Loading

Alfredo Cospito è una persona che, per lo sciopero della fame durato più di quattro mesi, rischia di morire. Per questo lo Stato dovrebbe fare di tutto per salvarlo

“La trattativa Stato-mafia partì dopo Capaci”

Loading

Il pentito Brusca: me lo disse Riina. Cosa nostra voleva uccidere anche Vizzini e Mannino   

No comments

Write a comment
No Comments Yet! You can be first to comment this post!

Write a Comment