Artificial intelligence diplomacy – La governance dell’intelligenza artificiale come nuovo strumento di politica estera dell’Unione Europea

Alessandro Cristallini - 06/07/2021

Raccomandazioni chiave:

  • l’UE dovrebbe istituire una Commissione europea di sicurezza sull’IA i cui membri dovrebbero venire scelti tra i diversi Stati membri UE, il settore privato e la società civile. La Commissione dovrebbe analizzare l’impatto dell’IA sulla sicurezza europea e sviluppare raccomandazioni su come affrontare le sfide di sicurezza create dall’IA.
  • l’UE dovrebbe istituire un centro europeo di ricerca incentrato sulle questioni relative all’IA che sono di immediata rilevanza per l’Europa. Potrebbe servire da hub per la comunità fiorente di ricercatori europei che lavorano su questi temi in diversi Stati europei. Dovrebbe anche aiutare a educare i politici, per esempio attraverso una breve formazione e un impegno regolare con le istituzioni e i decision-makers.
  • l’UE e gli europei dovrebbero lavorare a stretto contatto con gli USA. Lo studio discute alcuni difficoltà nella cooperazione transatlantica in materia di IA, ma propone una serie di settori in cui L’UE e gli USA possono lavorare a stretto contatto.
  • l’UE dovrebbe continuare a concentrarsi sul l’etica e sul l’affidabilità dell’IA e lavorare per diffondere ulteriormente questo approccio in altri paesi.
  • l’UE dovrebbe incoraggiare gli Stati membri a pubblicare strategie militari di AI, al fine di consentire un’armonizzazione degli approcci. I membri dell’UE che sono membri della NATO dovrebbe lavorare all’interno della NATO per garantire l’interoperabilità tra gli alleati.

Negli Stati Uniti è emersa una tematica: l’intelligenza artificiale sarà un elemento caratterizzante potenza geopolitica, che ha un forte impatto sul risultato della grande competizione di potere tra gli Stati Uniti e la Cina, e l’equilibrio globale del potere più in generale. Nel 2018, il Congresso degli Stati Uniti ha istituito il “National Security Commission on AI”. La relazione finale della commissione è stata pubblicata nel marzo 2021 e ha presentato una strategia per “vincere l’era dell’intelligenza artificiale”. Ha notato che i sistemi di AI saranno utilizzati per la ricerca del potere”[1]. Nell’agosto 2019, l’ex statista e politico statunitense Henry Kissinger, insieme con l’ex CEO di Google Eric Schmidt e l’accademico Daniel Huttenlocher, hanno avvertito che in The Atlantic che l’IA potrebbe comportare lo sviluppo di nuove armi, strategie e tattiche militari e quindi minare o annullare l’equilibrio militare esistente[2]. Il presidente russo Vladimir Putin era un aderì in anticipo alla tematica del “l’intelligenza artificiale è potere”, asserendo nel 2017 che “l’intelligenza artificiale è il futuro, non solo per la Russia, ma per tutta l’umanità. […] Chi diventa il leader in questa sfera diventerà il sovrano del mondo[3]. Il programma AI 2017 di Pechino prevede il sorpasso dell’Occidente entro il 2025[4]. Una “razza AI” globale è stata definita: anche se il termine e l’idea di fondo sono state criticate da molti esperti[5].

L’Europa, tuttavia, si avvicina a questa nuova sfida in modo diverso. Un sondaggio del 2021 ha rilevato che solo l’11% degli europei considera il rischio derivante dalle tecnologie come una delle principali sfide globali per il futuro dell’UE, mettendola in classifica al penultimo posto tra tutte le opzioni[6]. Tuttavia, le istituzioni dell’UE sono attive nello spazio digitale. La Commissione ha proclamato il “decennio digitale”, lavora su una “bussola digitale”, e mira a diventare un “player digitale globale”[7]. Nell’aprile 2021, La Commissione ha presentato il primo piano globale per regolamentare l’intelligenza artificiale[8]. C’è il Digital Services Act, il Digital Markets Act, il Digital Decade, la Cyber-Security Strategy, il Data Strategy e altro ancora. Dopo il Regolamento Generale sulla Protezione dei Dati (GDPR), dal 2018, l’UE ha raddoppiato il suo ruolo di regolatore globale sulla tecnologia e vuole prendere il comando globale in quella zona. Tuttavia non vuole impegnarsi nella politica di potere sempre più associata con AI. Può l’Europa, può l’UE, stare fuori da questa apparente lotta di potere geopolitico per l’IA, ignorare la retorica, e concentrarsi sulla regolamentazione? Per quanto possa sembrare allettante, sembra improbabile – e potrebbe essere sconsigliabile – per due ragioni.

In primo luogo, la tecnologia è geopolitica. La regolazione dell’AI può sembrare come un soggetto noioso per i burocrati. Tuttavia è anche un campo di battaglia geopolitico, così come lo sviluppo tecnologico e l’adozione di tecnologie più in generale. Tagliare i ponti con le aziende tecnologiche degli Stati Uniti in un momento in cui gli Stati Uniti stanno lottando per la supremazia con la Cina è un atto geopolitico. Escludere le società cinesi di telecomunicazioni dalle reti europee è una decisione geopolitica. Le azioni dell’Europa hanno conseguenze geopolitiche che vanno oltre l’Unione. Nel processo di definizione delle politiche, tuttavia, questo è spesso trascurato. Fare Policy-making all’interno dell’UE è così complesso che poco tempo o spazio è lasciato per anticipare l’impatto sugli attori esterni. Se l’impatto sugli altri Stati è riconosciuto, di solito facendo riferimento all’effetto Bruxelles, l’idea è che la regolamentazione UE, attraverso il potere di mercato del blocco commerciale, diventa un modello per gli altri[9]. Questo è spesso raffigurato come un effetto automatico, piuttosto che qualcosa che richiede ulteriore riflessione. In generale, c’è poca considerazione circa gli effetti internazionali di secondo e terzo ordine a seguito delle azioni dell’UE.

In secondo luogo, si pensa troppo poco al modo in cui le azioni interne del l’UE influenzano il suo stesso potere geopolitico. Nel corso della storia, la tecnologia ha trasformato le economie e le società, ha ridistribuito il potere (anche militare) tra gli Stati, ha dato potere a nuovi attori, e ha modellato le relazioni internazionali. Tuttavia l’UE, nonostante il suo lavoro di regolamentazione, non sembra avere pienamente compreso a pieno le tecnologie digitali geopolitiche di oggi, tra cui AI. Alla Conferenza sulla sicurezza tenutasi a Monaco di Baviera nel 2020, è stato dolorosamente ovvio che l’UE è stata nel migliore dei casi considerata un moderatore tra le due potenze reali, gli Stati Uniti e la Cina[10]. In parte, questo punto cieco geopolitico è dovuto a questioni di competenza dell’UE, ma ancora di più è legata al modo in cui l’UE vede sé stessa – nonostante la retorica più recente parli di un'”unione geopolitica”[11]. L’UE è un’entità trainata dal mercato in cui “l’alta politica” (come la sicurezza e la difesa) è lasciata nelle mani dei suoi Stati membri. Tuttavia gli Stati membri non hanno preso il testimone geopolitico su AI. Mentre si può vedere questo come uno dei tanti progressi di civiltà dell’Unione europea, resta il fatto che, mentre l’Europa può non voler pensare alla geopolitica, la geopolitica sta certamente pensando all’Europa. Quindi, anche se l’Europa non vuole aderire alla tematica del potere politico dell’AI politica, o unirsi alla retorica su un “razza di AI”, deve prendere in considerazione le implicazioni geopolitiche dell’AI. Deve considerare la dimensione esterna delle sue azioni, e come trattare con gli alleati, i partner, i paesi che vuole sostenere, e avversari. L’UE ha bisogno di un piano per la diplomazia AI. Questo documento esamina come l’IA influenza la geopolitica e cosa significa per l’Europa e l’Unione Europea. Inizia con un breve inventario: “dove siamo al momento in termini di capacità di AI” (sezione 2). Successivamente si tuffa nel cuore della questione, discutendo di sei modi in cui l’IA potrebbe plausibilmente, o già, sta influenzando il l’equilibrio globale del potere e la posizione dell’Europa al suo interno (sezione 3). Nella sezione 4 si discute se gli Stati membri europei stanno esaminando le questioni sollevate nella sezione 3 e stanno affrontando l’IA come un tema geopolitico. Il documento si conclude con raccomandazioni per l’UE e i suoi Stati membri, volte a dare loro gli strumenti giusti per affrontare le sfide che si presenteranno.

L’Intelligenza Artificiale (IA) è diventata uno strumento della politica di potere e un elemento della diplomazia di uno Stato. L’Unione europea, tuttavia, affronta l’IA principalmente da un punto di vista economico, sociale e normativo. Questo documento discute il modo in cui l’IA ha un impatto sul potere geopolitico dell’Unione Europea e le sue relazioni con altri paesi. Presenta possibili scenari per i quali l’IA può cambiare l’equilibrio internazionale del potere e raccomanda modi di rispondere per l’UE e i suoi membri.

C’è un ampio consenso sul fatto che l’intelligenza artificiale plasmerà il futuro. L’uso di tecnologie di tipo machine learning promette di rivoluzionare molti settori, trasformare le imprese e il mercato del lavoro, e cambiare il modo di fare la ricerca. Ciò è ben inteso in Europa e in tutto mondo, infatti, gli Stati dell’UE stanno lavorando su come rafforzare il loro ecosistema di IA, integrare l’IA nel settore privato e sostenere l’uso dell’IA nel settore pubblico. Le istituzioni del l’UE stanno lavorando alla regolamentazione del l’IA, da ultimo proponendo il primo piano globale al mondo per regolare l’intelligenza artificiale[12], nonché concentrandosi su un’IA affidabile ed etica. Purtroppo, mentre in economia, e in una certa misura in Europa le ripercussioni sociali del crescente utilizzo dell’IA sono intesi, un settore risulta ancora in gran parte ignorato: il modo in cui l’IA influenza la politica globale e l’equilibrio globale del potere, e come l’IA può contribuire a un riordino della politica internazionale.

Questo studio[13] mira a sostenere il lavoro della Special Committee on Artificial Intelligence in a Digital Age (AIDA) fornendo un’analisi dell’impatto geopolitico dell’IA. Discutendo circa il modo in cui l’IA ha un impatto sul potere geopolitico dell’Unione Europea e le sue relazioni con altri paesi.

Sono trattate sei aree attraverso le quali l’IA può cambiare l’equilibrio internazionale del potere:

  • ruolo dell’IA nella competizione sino-americana;
  • l’uso di AI per il controllo autoritario e l’indebolimento della democrazia;
  • nazionalismo dell’IA;
  • contributo dell’IA all’aumento del potere del settore privato rispetto allo Stato;
  • impatto dell’IA sul potere militare e sul settore della difesa;
  • la possibilità di uno sviluppo di Artificial General Intelligence (AGI) con un potenziale molto ampio
    di ripercussioni.

L’UE dovrà trovare risposte a tutte queste sfide e, dopo un’analisi (in gran parte carente) dell’attuale presa di posizione degli Stati membri su questo tema, questo studio raccomanda modi per l’UE e i suoi membri di rispondere.

La tecnologia è geopolitica. L’intelligenza artificiale è diventata un elemento di grande potere nella competizione tra gli Stati. Questa è la realtà che l’UE e i suoi Stati membri devono affrontare. L’IA è destinata ad influenzare l’equilibrio globale del potere, e le relazioni tra gli Stati, così come la geopolitica più in generale. L’UE deve prendere sul serio questa sfida, e impegnarsi con i cambiamenti delineati in questo documento; dovendo inoltre considerare la dimensione esterna della sua azione e come trattare con alleati, partner, paesi che vuole sostenere, e gli avversari. Il presente documento fornisce una panoramica delle capacità del l’UE in materia di AI, e tratta di sei modi in cui l’IA potrebbe influenzare l’equilibrio globale del potere e la posizione dell’Europa al suo interno. Ha proposto come l’UE e i suoi Stati membri possono affrontare queste sfide – qualcosa che la maggior parte degli stati europei non hanno ancora iniziato a fare. È giunto il momento per l’Europa di investire più tempo, impegno e, in ultima analisi, denaro per garantire che l’Europa benefici delle sfide internazionali che l’IA sta introducendo, mitigando nel frattempo gli aspetti negativi di questo sviluppo.

L’Europa sta lavorando per sviluppare l’intelligenza artificiale. Nonostante alcuni ostacoli, la seconda sezione di questo documento ha dimostrato che gli Stati europei si trovano in una posizione ragionevolmente favorevole per sostenere la ricerca e lo sviluppo dell’IA, nonché l’adozione di sistemi abilitati all’IA. Le sfide esistono e devono essere affrontate a livello nazionale dai vari governi e dall’UE, e le differenze interne europee dovrebbero essere affrontate. L’UE deve affrontare alcune sfide specifiche, come una politica ibrida che non ha le stesse capacità delle nazioni, ma che riunisce ancora, non ci sono ragioni fondamentali per cui l’Europa non dovrebbe essere in corsa “per la medaglia di bronzo” – o più. La Sezione 3 delinea i sei modi in cui i sistemi di AI potrebbe avere implicazioni geopolitiche – mentre la sezione 4 ha dimostrato che tutte queste preoccupazioni persistono in modo preoccupante in Europa. Quest’ultima sezione prende i sei temi e raccomanda modi come l’UE e i suoi Stati membri possono affrontare le sfide che ne derivano. Tuttavia, più di una delle seguenti raccomandazioni è di fondamentale importanza per l’UE incoraggiare il dibattito, e finanziare la ricerca europea sugli elementi geopolitici dell’IA.

Questo documento ha fatto riferimento più volte alle oltre 700 pagine che la sicurezza nazionale degli Stati Uniti con la propria Commissione su AI ha pubblicato all’inizio del 2021. Il documento ha anche citato molti studi degli Stati Uniti, in particolare le analisi effettuate dalla Centro per la sicurezza e le tecnologie emergenti (CSET), un centro di ricerca presso l’Università di Georgetown che è stato fondato nel 2019 con il supporto di istituzioni filantropiche e aziende tecnologiche statunitensi. Ciò può essere sorprendente in uno studio sull’interesse geopolitico europeo e sulle preoccupazioni in materia di sicurezza europea relativo ad AI. Ma è anche una testimonianza del predominio del pensiero degli Stati Uniti in questo spazio – e una testimonianza della relativa assenza di pubblicazioni ufficiali europee.

[1]US National Security Commission on Artificial Intelligence, Final Report, March 2021.

[2]Henry A. Kissinger, Eric Schmidt, and Daniel Huttenlocher, The Metamorphosis, The Atlantic, August 2019.

[3]James Vincent, Putin says  the nation that leads in AI ‘will be  the  ruler of the world’, The Verge, 4 September 2017.

[4]Sophie-Charlotte Fischer, Artificial Intelligence: China’s High-Tech Ambitions, CSS Analyses in Security Policy N0. 220, February 2018; Dewey Murdick, Daniel Chou, Ryan  Fedasiuk, Emily Weinstein , The  Public AI Research Portfolio of China’s Security Forces. A High-Level Analysis, C SET, March 2021.

[5]Peter Thiel, Good for Google, Bad for America, New York Times, 1 August 2019; Paul Scharre, Killer Apps. The Real Dangers of an AI Arms Race , Foreign Affairs, May/June 2019; Franz-Stefan Gady, Elsa B. Kania on Artificial Intelligence  and Great Power Competition, The Diplomat, 31 December 2019; FLI Podcast: Beyond the Arms Race Narrative: AI & China with Helen Tone r & Elsa Kania, Future of L ife Institute, 30 August 2019.

[6]Special Eurobarometer 500 – First Results, European Union, 2021.

[7]The Digital Compass, European Union; Brussels Europe’s Digital Decade: Commission sets the course  towards a digitally empowered Europe by 2030, Press release, European Commission, 9 March 2021.

[8]Proposal for a Regulation laying down harmonised rules on artificial intelligence, European Commission, April 2021.  

[9]Anu Bradford, The Brussels effect: How the European Union rules the world, Oxford University Press, USA, 2020.

[10]Ulrike Franke, Upstaged: Europe’s struggles to play the great tech game, ECFR, 25 February 2020; Carla Hobbs (ed.), Europe’s digital sovereignty: From rulemaker to superpower in the age of US-China rivalry, Essay Collection , ECFR, 30 July 2020.

[11]Lili Bayer, Meet von der  Leyen’s  ‘geopolitical Commission’, Politico, 4 December 2019.

[12]Proposal for a Regulation laying down harmonised rules on artificial intelligence, European Commission, April 2021.

[13]Cfr. Artificial Intelligence diplomacy | Artificial Intelligence governance as a new European Union external policy tool