Europa. Un regolamento sull’Intelligenza Artificiale a maglie larghe

Europa. Un regolamento sull’Intelligenza Artificiale a maglie larghe

Alle battute finali il complesso sistema di norme che regolamenterà il futuro dell’Intelligenza Artificiale nel vecchio continente. Troppe le esenzioni allo studio: via libera totale a militari e forze di polizia. E mano libera anche alle società private. Ma qualcuno, per fortuna, protesta

 

Vietato. Un po’ vietato. Meglio ancora: sarebbe vietato, salvo nei tanti casi nei quali sarà ammesso. Facendo saltare tutte le “protezioni”. Per i più deboli, per i migranti, per le minoranze.

Facendo saltare tutti i diritti.

Siamo in Europa, che da anni, da quando vincevano le idee di Rodotà, si vanta delle più avanzate e innovative norme su tutto ciò che è immateriale, digitale. Ora l’Europa sta discutendo l’AiAct, una complessissima serie di misure per regolamentare l’uso dell’intelligenza artificiale.

Sta cominciando a discuterne ma i tempi sono stretti: giorni fa s’è riunito il “comitato dei rappresentanti permanenti” (nei documenti si chiama Coreper) che svolge un ruolo essenziale nel processo decisionale del vecchio continente: prepara i testi che poi vanno al Consiglio d’Europa. Già fissato, con quest’ordine del giorno, per i primi giorni di dicembre.

Tema delicatissimo quello dell’uso delle intelligenze artificiali che fa discutere e lacera i ricercatori in tutto il mondo. Per gli effetti dirompenti che può avere sulla vita delle persone.

Comunque sia, a questi appuntamenti, le istituzioni europee ci arrivano con un primo testo già scritto. L’ha presentato la presidenza di turno, che spetta alla repubblica ceca. Repubblica guidata da una strana ed eterogenea coalizione di centrodestra della quale fa parte – in una posizione di rilievo – anche il partito pirata, particolare non secondario come vedremo.

Il testo è stato accompagnato da tante dichiarazioni di molti esponenti europei, con le solite frasi altisonanti: l’Europa è in prima fila a combattere i potenziali danni causati dall’intelligenza artificiale, ora l’applicazione di quei sistemi sarà sottoposta a rigidi controlli, non ci sarà spazio per le discriminazioni, eccetera, eccetera. Cose così.

Frasi che – ovviamente – all’inizio hanno suscitato commenti positivi, provenienti addirittura dall’altra parte dell’Oceano. Commenti che si limitavano a valutare però la “filosofia dichiarata” – solo dichiarata – dell’Artificial Intelligence Act.

Poi, è successo che un europedutato verde-pirata tedesco, Patrick Breyer abbia diffuso ma soprattutto cominciato ad analizzare lo sterminato testo. E abbia scoperto le magagne.

Tante. Che potrebbero portare a conseguenze disastrose.

Magagne concentrate in pochi articoli in un documento burocratico di centinaia di paragrafi. Magagne a cominciare dal problema dei riconoscimenti facciali. Perché è vero che l’articolo 5 – come dovrebbe pretendere qualsiasi organizzazione e governo democratico – prevede “il divieto di identificazione biometrica in tempo reale”. Per capire: non si potranno controllare tutte le persone, indistintamente, mentre accedono ad una fermata della metropolitana.

Il testo però limita esattamente il divieto al “tempo reale”. Tradotto per chi sa leggere le norme – come le 23 associazioni europee per i diritti digitali che hanno scritto un lungo documento di protesta – questo significa che il riconoscimento facciale sarà invece permesso “attraverso filmati memorizzati”. Come sa chiunque abbia visto un qualsiasi telefilm americano.

Ed ancora, di più subdolo. Il divieto di utilizzare il riconoscimento facciale riguarderebbe – sempre “in tempo reale e nei luoghi pubblici” – solo le forze di polizia. Qualsiasi società privata potrebbe farlo e “vendere” quelle immagini.

Ma poi, davvero le polizie non potranno mai usare questi strumenti?

C’è qui forse la magagna più grave: le forze dell’ordine potranno chiedere una “deroga” al divieto, in presenza di una grave minaccia alla “sicurezza nazionale”. Che, ovviamente, non è meglio specificata nel testo. Può essere la notizia di un attentato, può essere una sparatoria. Ma può essere una manifestazione, un corteo. Può essere uno sbarco di una nave di migranti.

Le polizie dovranno chiedere un permesso alla magistratura per questa deroga – questo il compromesso trovato nelle ultime ore – ma anche qui siamo all’aria fritta. Nel senso che comunque davanti alle emergenze potranno far ricorso subito alle telecamere, salvo poi, nel caso un giudice stabilisca che non c’era una vera emergenza, cancellare i dati raccolti.

Proseguendo tra le magagne. Il testo prevede una totale esenzione dalle regole per il comparto militare. Lì, le imprese potranno continuare a sperimentare l’intelligenza artificiale nella difesa – nelle guerre – senza render conto a nessuno.

E non è finita. Perché tutto il sistema di regole – che prevede che prima di essere applicate le intelligenze artificiali, o meglio: le imprese che le gestiscono, debbano fare una valutazione dell’impatto, sarà istituita una nuova autorità che le controlli, si contemplano una serie di analisi prima di rilasciare le autorizzazioni –, tutti i vincoli legislativi, si diceva, non si applicano neanche a ciò che riguarda le frontiere.

Esentati dunque anche gli organismi, le polizie preposte a difendere la fortezza Europa. Pure qui tradotto: significa un altro via libera alla sperimentazione del progetto EUMigraTool. Solita sigla che evoca modernità, che evoca strumenti tecnologici sofisticati ma che nasconde un progetto distopico: servirà esattamente a “prevedere” i flussi migratori. A prevedere quando le persone potrebbero muoversi dai “paesi a rischio”. Per fermarle in anticipo.

Tradotto, ancora, la deroga nell’AIAct significa la possibilità di utilizzare il riconoscimento facciale alle frontiere per tracciare per sempre chi scappa da guerre, disastri. Fame.

Magagne, terribili magagne. Che almeno però un piccolo risultato l’hanno ottenuto.

Dopo tanto tempo, l’altro giorno in una saletta del parlamento europeo, si sono seduti assieme esponenti della sinistra, dei verdi, dei pirati, dei socialdemocratici. Presenti anche più di venti ong e – è importante sottolinearlo – il coordinamento delle tifoserie calcistiche.

Convergenti su un punto: il riconoscimento facciale va vietato. Sempre e comunque. Così come va vietato l’uso dell’intelligenza artificiale per “la categorizzazione delle emozioni e del genere, l’analisi comportamentale e il controllo della folla”.

Richieste minime perché “sappiamo dell’effetto agghiacciante che il monitoraggio di chiunque avrebbe sulla nostra società”, per usare le parole del verde-pirata Patrick Breyer, uno dei promotori dell’incontro.

Richieste minime, come l’abrogazione di quelle “deroghe”, preteso anche da AccessNow. “Perché – come spiega Caterina Rodelli, che per l’autorevole organizzazione internazionale studia l’impatto delle tecnologie sui migranti – quelle deroghe sono la ricetta perfetta per promuovere un’intelligenza artificiale discriminatoria”. Quindi pericolosa. Mostruosamente pericolosa.

* Fonte/autore: Stefano Bocconetti, il manifesto



Related Articles

Caso Mastrogiovanni, tutti condannati

Salerno. Medici e infermieri colpevoli per la morte del maestro in Tso

Volontari. La meglio Italia

A Genova sono arrivati da tutto il Paese per spalare il fango Ma ogni giorno milioni di volontari lavorano gratis per gli altri Lo fanno all’interno di un’associazione o da soli dedicando qualche ora del proprio tempo libero

“Svuota carceri”: 4700 persone ai domiciliari: previste oltre 9 mila

Al 31 ottobre sono 67.510 i reclusi nei 206 penitenziari italiani contro una capienza massima di 45.572 posti. Il 99% di chi usufruisce di misure alternative non ha commesso reati in recidiva

No comments

Write a comment
No Comments Yet! You can be first to comment this post!

Write a Comment