Libertà e sicurezza. L’«era dell’insicurezza digitale» ci espone anche al rischio di una private governance della libertà di espressione e di religione

Andrea Casiere - 11/04/2022

Gli attentati del 2001 alle Torri di Yamasaki hanno risvegliato l’Occidente dal placido sogno dell’«ordre dans la rue» (hauriou m.). Nell’immaginario collettivo, il cratere del World Trade Center testimonia l’ingresso del mondo atlantico nell’«era dell’insicurezza» (fattori g.).

Nei due decenni successivi, anche l’Europa ha pagato il proprio tributo di sangue al terrorismo jihadista e, ancor prima che quest’ultimo maturasse una vocazione digitale, l’opinione pubblica occidentale ha sancito il divorzio tra sicurezza e libertà, privilegiando la parte dell’equazione secondo cui «security may in some sense be regarded as a prerequisite for the enjoyment of liberties» (barak a.).

La rivoluzione digitale e la nascita della Società dell’Algoritmo (balkin j.m.) hanno complicato la tormentata relazione tra sicurezza e libertà, dando luogo a un duplice ordine di rischi.

Da un lato, la naturale ingovernabilità del web ha consentito alle organizzazioni terroristiche (in particolare quelle affiliate all’Islamic State) di amplificare esponenzialmente l’attività di propaganda, di reclutamento e di pianificazione degli attentati, ricorrendo a «mezzi più o meno sofisticati, che vanno dalle riviste on-line a videogame, chat e messaggi semplicemente social o cifrati, a video o lungometraggi [etc.] non solo nel deep e dark web ma anche nel clear web» (martucci l.s.), con grave allarme per la sicurezza pubblica. 

D’altro canto, la risposta securitaria di cooperazione e cooptazione pubblico-privata, consistita nel «blandire o costringere i proprietari di infrastrutture private [Big Tech] a eseguire gli ordini [delle Istituzioni] e aiutare nella sorveglianza e nella regolazione» delle condotte in rete (balkin j.m.), ha esposto l’utente-cittadino ai rischi di una censura indiscriminata con relativo affievolimento delle garanzie costituzionali in tema di libertà.

Quanto ai numeri della propaganda digitale, è sufficiente considerare due tra le analisi più significative degli ultimi anni: il monumentale «The ISIS Twitter Census» (berger j.m., morgan j.) secondo cui, nel solo 2014, c’erano sul social tra 46.000 e 70.000 profili di supporter dello Stato islamico, con circa 1000 follower e una media di 7 tweet ciascuno al giorno; in secondo luogo, lo studio condotto tra il 2017 e il 2018 dalla George Washington University, che ha rintracciato circa 636 canali e gruppi Telegram pro-ISIS nella sola lingua inglese in un periodo di dodici mesi.  

Per arginare la massiccia diffusione di contenuti di matrice terroristica, l’Unione europea ha esercitato un certo “soft power” nei confronti di Big Tech, aderendo al modello indicato in dottrina come «public-private cooperation and co-optation», che ha dato la stura a una «private governance» della libertà di espressione (balkin j.m.). Detto altrimenti, le istituzioni euro-unitarie hanno “sollecitato” l’attività di sorveglianza e censura da parte delle grandi piattaforme, nonché la progressiva implementazione di sistemi di filtraggio basati sull’intelligenza artificiale, in grado di intervenire rapidamente sui contenuti condivisi dagli utenti. La ragione pratica di questa scelta è riscontrabile nella circostanza per cui «it is usually easier for nation-states to regulate the infrastructure operator or owner than to locate and regulate individual speakers. There may be too many speakers, they may be anonymous or not even people, they may be difficult to find or they may be located outside of the nation-state’s jurisdiction» (balkin j.m.).

Tra le numerose misure con effetti di cooperation and co-optation, vale la pena menzionare la piattaforma del Forum dell’UE su Internet; la firma condivisa dei codici di condotta; la strategia e la direttiva sulla lotta al terrorismo; la comunicazione sulla lotta ai contenuti illeciti online. Ancora, più di recente, è opportuno menzionare il regolamento (UE) n. 2021/784 (cfr. infra), la proposta di regolamento sull’intelligenza artificiale (cd. AI Act) e la proposta di regolamento relativo a un mercato unico dei servizi digitali (cd. Digital Service Act che, modificando la direttiva 2000/31/CE, prevede un significativo riordino della disciplina dei servizi digitali, tra cui il regime della responsabilità degli intermediari ed i relativi obblighi).

Condizionate da questo “soft power”, le società di Big Tech hanno intrapreso un’azione muscolare di censura (sospensione, ban e rimozione), ottenendo un certo effetto deflattivo dei contenuti di matrice terroristica. Ben presto, però, anche questa azione ha visto ridotta la propria efficacia, superata da ingegnose tecniche come l’out-linking, (reindirizzamento verso piattaforme e comunità esterne, quali e.g. telegram e justpast.it; cfr. macdonald s. et alii; martucci l.s.), ciò che ha richiesto un ulteriore sforzo nello sviluppo di una tecnica algoritmica di prevenzione della diffusione di contenuti terroristici.

Nel frattempo, l’affermando modello di «private governance», assieme alla progressiva concentrazione di potere nelle mani di Big Tech, ha prodotto un effetto collaterale sul «funzionamento dei processi democratici», consistito in un cambio di paradigma della concezione della libertà nella sfera pubblica, in cui a «censori privati» è permesso  «sopprimere arbitrariamente certi punti di vista senza che ai soggetti colpiti sia data la possibilità di una qualche forma di ricorso» (brandimarte l. et alii), con ricadute significative sulla libertà di espressione (e anche di propaganda religiosa e/o politica) e più in generale sul processo democratico (si pensi agli insidiosi meccanismi algoritmici brain-hacking based, quali le bolle di filtraggio e la targetizzazione dei feed degli utenti anche a fini elettorali).

La materia è tanto delicata che la dottrina ha ritenuto necessaria la «predisposizione di idonee garanzie» che evitino una «attività di censura o di imbavagliamento», onde scongiurare «una illegittima compressione della stessa libertà di espressione [che è un] diritto consacrato non solo a livello costituzionale dall’art. 21 cost., ma anche dalle fonti sovranazionali all’art. 19 della Dichiarazione universale dei diritti dell’uomo e all’art. 10 CEDU» (signorato s.).

Questo gestione intermediata della sfera pubblica, mascherata dal rapporto contrattuale tra gestore del servizio digitale e utente, ha suscitato il dissenso di una parte della dottrina nord-americana; si è difatti osservato che la «private governance […] has many aspects of a nineteenth-century autocratic state, one that protects basic civil freedoms but responds to public opinion only in limited ways» (balkin j.m.).  

Di analogo tenore sono le critiche mosse dall’EDRi (European Digital Rights), che da anni denuncia l’escalation della politica europea di cooptazione delle corporation digitali; la tesi della nota associazione, il cui scopo sociale è la difesa dei “diritti digitali”, riecheggia quella della dottrina a stelle e strisce nell’evidenziare che «the European Commission is pushing ‘voluntary’ censorship to internet giants to avoid legislation that would be subject to democratic scrutiny and judicial challenge […] institutionalises a role for Facebook and Google in regulating the free speech of Europeans. The Commission needs to be smart and to finally start developing policy based on reliable data and not public relations spin» (2018).

L’esigenza di un ripensamento della disciplina delle piattaforme digitali è avvertita in maniera crescente anche dall’opinione pubblica. Di recente, il magnate Elon Musk ha twittato le seguenti parole: «Free speech is essential to functioning democracy. Do you believe Twitter rigorously adheres to this principle? / Given that Twitter serves as the de facto public town square, failing to adhere to free speech principles fundamentally undermines democracy. What should be done?» .

L’ideale public town square di Elon Musk, meglio nota in dottrina come public sphere (habermas j.), è oggi una «digital public sphere» (balkin j.m.), in cui gli utenti-cittadini esercitano facoltà essenzialmente connesse alle libertà fondamentali (e in ultima analisi al principio democratico), garantite dalle Costituzioni e dalle Carte sovranazionali e che oggi sono esposte alle decisioni arbitrarie e difficilmente reclamabili di Big Tech.  

I provider di servizi digitali, infatti, «possono imporre regole più restrittive dello Stato»; per far fronte a questa circostanza, volendo salvaguardare lo statuto privatistico e il valore del libero mercato, sarebbe auspicabile l’esistenza di «una pluralità di questi attori […] che rappresent[ino] le diverse sensibilità, culture e credi che sono presenti in una società ideale», poiché «la sfera pubblica è il luogo dove si realizzano i valori della libertà di parola e di espressione. La libertà di parola è alla base della partecipazione democratica che contribuisce alla formazione dell’opinione pubblica» (brandimarte l. et alii; balkin j.m.). Tuttavia, l’anelato pluralismo appare nient’altro che un miraggio ove si consideri che i «cinque giganti statunitensi» (Google, Amazon, Facebook, Apple e Microsoft) hanno raggiunto un valore economico di oltre 9 trilioni di dollari e cioè «più dell’intero mercato azionario europeo (Regno Unito e Svizzera inclusi)», continuando a fagocitare nuove realtà promettenti (come avvenuto nel caso di WhatsApp e Instagram) con effetti che conducono «automaticamente al monopolio, o al più, all’oligopolio» (brandimarte l. et alii).

Ad aggravare il quadro, vi sono i rischi derivanti dal modello privatistico, che appaiono significativi specie se comparati ai principi e alle tutele che caratterizzano il rapporto tra l’azione amministrativa o penale e libertà o diritti fondamentali; a tal proposito, la dottrina ha ampiamente denunciato il deficit di trasparenza degli interna corporis aziendali, l’assenza delle garanzie del due process of law (contraddittorio, decisione completa, motivata e efficacemente impugnabile), l’indebita intrusione nella vita privata attraverso meccanismi di sorveglianza digitale (raccolta delle tracce digitali, profilazione e commercializzazione dell’identità degli utenti), nonché la discriminazione algoritmica (l’AI è in grado di riprodurre inconsapevolmente regole discriminatorie sulla base dei dati raccolti).

Tali profili critici si aggiungono alla vexata quaestio dell’esclusione dei provider digitali dal novero degli editori e all’assenza di ogni altro obbligo generale di sorveglianza attiva dei contenuti pubblicati dagli end-users (cfr. direttiva 2000/31/CE, d.lgs. 70/2013), circostanze che certamente hanno permesso un esponenziale sviluppo del settore sgravandolo di forme di responsabilità che ne avrebbero pregiudicato l’economicità. Questo privilegio, tuttavia, appare ragionevole solo laddove l’intermediario mantenga la propria neutralità, rinunciando a compiere scelte editoriali e garantendo eguale fruibilità del servizio a prescindere dalle opinioni espresse dagli utenti e salvo l’ordine dell’autorità pubblica (il vaglio della cui legittimità è assicurato dai consueti strumenti messi a disposizione dall’ordinamento).

Le predette osservazioni conducono quindi a valorizzare la seconda parte dell’equazione (citata in apertura) secondo cui «in another sense, the protection of liberties is necessary to ensure security (against the power of the State)» (barak a.), che appare opportuno completare con l’agiunta della formula “against the power of Big Tech”.

L’idea che non possa esservi ordine senza libertà è presente anche nella dottrina costituzionale italiana laddove si sostiene la necessità di «rigettare l’opinione che sia consentito far ricorso, allo scopo di giustificare limiti ai diritti fondamentali, ad un generico principio di “ordine pubblico”, all’infuori dei casi in cui la costituzione lo richiama in modo espresso» (mortati c.; di contro, la Consulta ha ritenuto, sin da epoca remota, bensì possibile il limite implicito dell’ordine pubblico rispetto ad altre libertà costituzionali, tra cui proprio quella ex art. 19 cost.)

L’impostazione da ultimo compendiata si concilia con la teorica della sicurezza integrata di cui alle Linee guida OSCE 2019 (su libertà di religione o convinzione e sicurezza), cui la dottrina riconosce il merito di un «approccio olistico» (annichino p.)  nella definizione di un modello di «comprehensive security» nel quale il rispetto dei diritti umani recita il ruolo di pietra angolare di un’autentica sicurezza.

Una peculiare sfumatura di questa dottrina integrata, dunque, potrebbe operare anche nell’ambito della gestione dell’ordine pubblico in Rete, ravvivando quel «ragionevole compromesso […] teso a garantire l’ordine pubblico e la sicurezza contro forme di eversione tanto imprevedibili quanto devastanti» salvaguardando allo stesso tempo «i diritti fondamentali di tutte le persone», proprio a partire da quei delicati «settori di normazione legale […] ante-delictum» (alicino f.).

A chiosa, è utile considerare altresì lo spunto proveniente dal recentissimo reg. (UE) 2021/784 relativo al contrasto della diffusione di contenuti terroristici online, adottato il 29 aprile 2021 e la cui efficacia è stata differita al prossimo 7 giugno 2022 (per consentire agli Stati membri di svolgere le individuate attività di coordinamento dell’ordinamento interno).

Dopo aver delimitato l’ambito di applicazione, l’oggetto e le definizioni (artt. 1 e 2), il regolamento prevede il nuovo strumento dell’ordine di rimozione (europeo) di contenuti terroristici (art. 3): l’autorità competente (la cui individuazione è rimessa ai singoli Stati) ha facoltà di emettere un ordine di rimozione nei confronti dei prestatori di servizi digitali, che sono tenuti a disabilitare l’accesso a contenuti terroristici in tutti gli Stati membri, entro il più breve tempo possibile e comunque entro un’ora dal ricevimento del provvedimento.

In disparte i profili critici del regolamento che non rilevano in questa sede, sembra utile evidenziare la distanza dal modello esaminato della private governance, richiamando quanto la dottrina italiana ha osservato in relazione alla analoga misura già presente nell’ordinamento nazionale sin dal 2015, il cui merito principale è stato quello di attribuire all’autorità giudiziaria la competenza a emanare l’ordine di rimozione.

Con il d.l. 18 febbraio 2015, n. 7, infatti, nell’ambito del contrasto al terrorismo, è stata prevista la possibilità che l’A.G. emani un provvedimento che ordina: a) inibizione dell’accesso dei siti; b) di rimozione del contenuto illecito o c) di interdizione dell’accesso al dominio internet (oltre che l’istituzione di una black list, a cura del Ministero dell’Interno, di siti web utilizzati per le attività e le condotte di cui agli artt. 270-bis e 270-sexies cod. pen.).

La dottrina ha osservato come tale scelta appaia «opportuna e garantista, soprattutto ove si consideri che, invece, in talune legislazioni europee, si assiste ad un arretramento delle garanzie, tanto da ammettere che venga disposta in via meramente amministrativa, e senza alcun controllo giurisdizionale, persino la misura della rimozione da internet dei contenuti che, seppur non illeciti, appaiano comunque ricollegabili ad una attività a matrice terroristica» (signorato s.).

Questa considerazione fa proprie le medesime preoccupazioni sollevate dalla dottrina nordamericana, sciogliendone il nodo nella piena operatività dei limiti sanciti dalla Costituzione all’attività giurisdizionale di limitazione delle libertà fondamentali, ma anche con riguardo alla scelta di non ricorrere ad una misura meramente amministrativa (o, ancor peggio, privatistica).

La soluzione proposta non sembra neppure allontanarsi molto dalle conclusioni del contributo Regulating terrorist content on social media: automation and the rule of law (macdonald s. et alii), in cui gli autori rilanciano la necessità di sottoporre l’uso antiterroristico dell’intelligenza artificiale al rule of law.

In conclusione, il modello della private governance pone in seria tensione i due termini dell’equazione (libertà – sicurezza), le cui molteplici combinazioni conducono ai risultati più disparati: dalla responsabilizzazione pseudo-editoriale dei provider, che si tradurrebbe in un grossolano incentivo alla censura totale da parte delle piattaforme, al riconoscimento della utilità pubblica o nazionalizzazione dei servizi, che porta con sé l’avvisaglia di un capitalismo di sorveglianza alla cinese.

Come anticipato, una possibile soluzione (in termini di bilanciamento) sembra offerta dalla dottrina che sostiene «l’unica via ragionevole per uscire da questo intreccio [tra sicurezza e libertà di espressione, ma anche religione]», cioè «quella di vietare il dissenso radicale solo quando l’apologia di comportamenti […] abbia la concreta capacità di provocare l’immediata esecuzione di delitti» (pace a.), specificando che, anche nella public digital sphere, a dispetto di ogni ostacolo tecnico, l’azione preventiva e repressiva dovrebbe restare appannaggio esclusivo dell’autorità pubblica (specie quando incida sulle libertà fondamentali).

 

 

 

Bibliografia essenziale

 

alicino f. (a cura di), Terrorismo di ispirazione religiosa. Prevenzione e deradicalizzazione nello Stato laico, Apes Editrice, Roma, 2019

annichino p., La traduzione delle Linee Guida OSCE 2019 in materia di libertà di religione o convinzione e sicurezza, in G. FATTORI, Libertà religiosa e sicurezza (con la prima traduzione italiana delle Linee Guida OSCE 2019 su Libertà di religione o convinzione e sicurezza), Pacini Giuridica, Pisa, 2021.

balkin j.m., Free speech is a triangle (Essay), Columbia Law Review, n. 116/2018.

barak a., Foreword: A judge on judging: the role of the Supreme Court in a democracy, Harvard Law Review, 2002.

berger j.m., morgan j., The ISIS Twitter Census: Defining and Describing the Population of ISIS supporters on Twitter, The Brookings Institution, Washington DC, 2015.

brandimarte l., pecchi l., piga g., Le imprese Big Tech: schiave delle leggi per poter essere liberi?, Diritto Pubblico, 3/2021.

brunetti l., Libertà religiosa e ordine pubblico. Tra bilanciamento e prevalenza, Casa Editrice Persiani, Bologna, 2019.

edri, Open letter: civil society urges Member States to respect the principles of the law in Terrorist Content Online Regulation, 27 marzo 2020, www.edri.org

fattori g. (a cura di), Libertà religiosa e sicurezza (con la prima traduzione italiana delle Linee Guida OSCE 2019 su Libertà di religione o convinzione e sicurezza), Pacini Giuridica, Pisa, 2021.

habermas j., The structural transformation of the public sphere: an inquiry into a category of bourgeois society, MIT press, 1991.

hauriou m., Précis de droit administratif, contenant le droit public et le droit administrative, Larose et Forcel, Parigi, 1892.

macdonad s. et alii, Regulating terrorist content on social media: automation and the rule of law, International Journal of Law in Context, 15/2019.

martucci l.s., in alicino f., op. cit.

mortati c., Istituzioni di diritto pubblico 2, Giuffre, Milano, 1969.

o’callaghan d. et alii, Undercovering the wider structure of extreme right communities spanning popular online networks, WebSci ’13, Proceedings of the 5th Annual ACM Web Science Conference, New York, 2013.

pace a., La sicurezza pubblica nella legalità costituzionale, Rivista AIC, 1/2015.

signorato s., Le misure di contrasto in rete al terrorismo, in kostoris r.e. e viganò f. (a cura di), Il nuovo pacchetto antiterrorismo, Giappichelli Editore, Torino, 2015.

zuboff s., The age of surveillance capitalism: The fight for a huma future at the new frontier of power, Public Affairs, 2019.