Il regolamento prova a definire cosa sia l’intelligenza artificiale, compito niente affatto facile anche per gli esperti. Nel novero l’Unione comprende i sistemi di apprendimento automatico come il deep learning (usato dal computer per battere a scacchi ogni umano), quelli basati sulla logica e sulla conoscenza come ChatGPT, il sistema in grado di dialogare con una persona via computer supportato da un’amplissima banca dati – e gli «approcci statistici» (qualunque cosa significhi). Si tratta di un campo piuttosto vasto i cui confini non sono ben chiari. Ma è una vaghezza necessaria, poiché nel giro di uno o due anni ogni definizione troppo restrittiva rischia di diventare obsoleta.

IL PARLAMENTO ha classificato per grado di rischio queste tecnologie, stabilendo che per alcune di esse il pericolo di abusi è così grave da giustificarne il divieto assoluto. Ad esempio, saranno proibiti i sistemi di valutazione dell’affidabilità delle persone come il cosiddetto «credito sociale» sperimentato in alcune città della Cina. Altrettanto vietati i sistemi di identificazione biometrica negli spazi pubblici, di classificazione basati su caratteristiche sensibili come genere, etnia o cittadinanza, di «polizia predittiva» e di riconoscimento delle emozioni da parte delle forze dell’ordine. Il gruppo dei Popolari europei ha tentato in extremis di ammorbidire il divieto alla sorveglianza biometrica, che molti esponenti della destra – compreso il ministro degli interni italiano – vorrebbero utilizzare a scopo securitario. Il blitz non è riuscito ma preannuncia un percorso accidentato per il regolamento. «Sarà un negoziato probabilmente difficile» ha confermato Benifei al sito Guerre di rete. «Il Parlamento Europeo ha una visione diversa rispetto a quella che probabilmente avranno molti Governi».

Invece, per mettere in circolazione i sistemi classificati «ad alto rischio» per la salute, la sicurezza e il rispetto dei diritti umani saranno necessari requisiti giuridici «in relazione a dati e governance dei dati, documentazione e conservazione delle registrazioni, trasparenza e fornitura di informazioni agli utenti, sorveglianza umana, robustezza, accuratezza e sicurezza». In altre parole, i creatori di queste intelligenze dovranno dimostrare di aver preso in considerazione tutti i rischi e di aver stabilito un piano efficace per ridurli. Per le cosiddette «intelligenze indipendenti» come ChatGPT è prevista la creazione di un apposito registro che ne aumenti la trasparenza e la sorveglianza. «Vogliamo che i contenuti generati dall’intelligenza artificiale siano riconoscibili come tali» ha detto Benifei incontrando i giornalisti dopo il voto. «I deepfake non avvelenino la nostra democrazia». Chi crea un’intelligenza artificiale dovrà anche dichiarare quali dati coperti da diritto d’autore siano stati utilizzati nell’addestramento. Questo sistema di controllo è «il risultato di due anni di lavoro preparatorio, derivato dagli orientamenti etici del gruppo di esperti ad alto livello sull’intelligenza artificiale, guidato da più di 350 organizzazioni», si legge nella relazione che accompagna il regolamento europeo.

STRASBURGO non ha tuttavia ascoltato le posizioni più critiche giunte dai movimenti a difesa dei migranti. Il nuovo regolamento, dicono, non è abbastanza chiaro sulle possibili applicazioni dell’intelligenza artificiale nel controllo delle frontiere, dove viene usata in modo piuttosto disinvolto. Ong e associazioni hanno proposto emendamenti per bandire le valutazioni automatiche del rischio e l’analisi predittiva applicate ai migranti, ma sono stati respinti. «Purtroppo, la difesa dei diritti umani al Parlamento europeo non ha incluso anche la protezione dei migranti dagli abusi dell’intelligenza artificiale, che può essere utilizzata per facilitare i respingimenti illegali» ha detto Sarah Chandler, portavoce della rete European Digital Rights che riunisce 47 Ong a difesa dei diritti umani. «L’Ue sta creando un regolamento a due velocità, in cui i migranti sono meno tutelati rispetto al resto della società».

* Fonte/autore: Andrea Capocci, il manifesto