UE approva il regolamento contro il terrorismo online – Il 28 aprile il Parlamento dell’Unione Europea ha approvato il cosiddetto ‘Regolamento sul Terrorismo’ (TERREG) per il contrasto della diffusione di contenuti ‘terroristici’ online. Per i suoi promotori, il regolamento bilancia rispetto dello stato di diritto e necessità di contrastare le minacce alla sicurezza. Per i suoi detrattori, la normativa presenta rischi per la libertà di espressione e potrebbe diventare uno strumento politico nelle mani delle forze illiberali presenti nell’UE, quali i governi di Ungheria e Polonia.
Contrasto al terrorismo online: di cosa si tratta?
Passato in sordina sulla stampa italiana, il nuovo regolamento ha implicazioni importanti. La misura principale impone la rimozione entro un’ora dei contenuti identificati dalle competenti autorità nazionali come ‘terroristici’. Nel rispetto dello stato di diritto, questa misura prevede la possibilità di appello nel caso in cui si ritenesse che il contenuto sia stato ingiustamente giudicato come ‘terroristico’.
Sul piano delle responsabilità, questo aspetto della normativa conferma un principio importante: le piattaforme sono responsabili, anche se indirettamente, per i contenuti che gli utenti pubblicano su di esse. Tuttavia, viene compiuto un passo successivo: gli enti proprietari di piattaforme diventano responsabili per l’applicazione tempestiva (entro un’ora) dei pronunciamenti dell’autorità competente. Su questo punto vertono alcune delle principali preoccupazioni sollevate dalle Organizzazioni non governative (ONG) e dagli altri enti che si oppongono a questa normativa. Tra queste realtà, compaiono importanti (ONG) internazionali quali Amnesty International e Human Rights Watch, think tank accademici quali l’americano Internet Governance Project e l’associazione italiana per lo stato di diritto Antigone.
Le opposizioni e le critiche
Nella lettera redatta congiuntamente da queste organizzazioni, si fa notare che l’obbligo di rimuovere i contenuti entro un’ora rischia di forzare, di fatto, i gestori di piattaforme a utilizzare meccanismi automatizzati per la rimozione dei contenuti. Questo potrebbe avvenire nel tentativo non solo di applicare i pronunciamenti dell’autorità competente, ma anche di anticiparli eliminando a priori contenuti potenzialmente pericolosi, vista la celerità richiesta. La rimozione automatizzata di contenuti è ritenuta rischiosa poiché difficilmente gli algoritmi esistenti sono in grado di distinguere, ad esempio, immagini propagandistiche che ritraggono miliziani da immagini satiriche che ritraggono gli stessi in forma parodiata.
In secondo luogo, le realtà critiche della nuova normativa sollevano preoccupazioni riguardo alla salute dello stato di diritto in alcuni paesi dell’UE. Infatti, sono i governi dei paesi membri a dover nominare le autorità competenti all’individuazione dei contenuti ‘terroristici’. Questo fa temere che quei governi che hanno ridotto l’autonomia degli organi indipendenti dello stato possano usare la nuova normativa antiterrorismo come strumento per censurare l’opposizione, con implicazioni transnazionali a livello europeo. Infatti, qualunque autorità competente di uno stato membro potrà ordinare la rimozione di contenuti con effetto negli altri paesi UE.
Alcune realtà critiche quali la Electronic Frontier Foundation (EFF), fondata negli anni ’90 da John Perry Barlow, autore della Dichiarazione di Indipendenza del Cyberspazio, riconoscono che il legislatore europeo ha accolto molte delle richieste della società civile. Tuttavia, tornano a ribadire l’importanza dei punti illustrati, sottolineando il parere critico espresso dalla stessa Agenzia dell’UE per i Diritti Fondamentali (FRA). L’assenza di una chiara definizione di ‘terrorismo’ rimane una preoccupazione di molti osservatori.
Alcune osservazioni
Per concludere, il nuovo regolamento, che entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta Ufficiale dell’UE, si inserisce in un dibattito annoso. In un contesto in cui le piattaforme costituiscono di fatto una sorta di spazio transnazionale privato aperto al pubblico, non è chiaro fino a che punto debbano essere responsabili per i contenuti pubblicati dagli utenti. Le piattaforme che in passato hanno adottato una politica di laissez-faire riguardo ai contenuti l’hanno fatto per attrarre un bacino di utenza che agisce ai limiti della legalità con finalità discriminatorie e violente, quali i gruppi organizzati di estrema destra. Tuttavia, la caratteristica transnazionale delle piattaforme rende difficile l’applicazione differenziata della legge di ogni paese, sollevando inoltre preoccupazioni per la libertà di espressione in quei paesi in cui questa è gravemente minacciata. In breve, si tratta di una questione che solleva domande di natura etica che vanno al di là del testo e dello spirito delle leggi.
Se da una parte l’UE ha il dovere di contrastare il terrorismo in ogni sua forma, dall’altra le misure antiterrorismo devono seguire un criterio di proporzionalità nel rispetto delle convenzioni internazionali (anche europee) e favorire l’adozione di strumenti tecnici e giuridici che riducano al minimo il rischio di colpire forme libere e legittime di espressione. Per un efficace contrasto al terrorismo nel rispetto dello stato di diritto e delle libertà civili, è fondamentale che l’UE si doti di una definizione il più possibile chiara e circoscritta di ‘terrorismo’.