Usi e abusi dell’intelligenza artificiale
Il 19 Novembre è stato pubblicato un nuovo rapporto sviluppato dall’Europol, dall’Istituto interregionale delle Nazioni Unite per la ricerca sulla criminalità e la giustizia (UNICRI) e da Trend Micro, leader globale nella sicurezza informatica, che esamina gli attuali usi criminali e previsti dell’intelligenza artificiale (AI).
Il rapporto fornisce alle forze dell’ordine, ai responsabili politici e ad altre organizzazioni, informazioni riguardo gli attacchi esistenti che sfruttano l’intelligenza artificiale e le raccomandazioni su come mitigare questi rischi.
Edvardas Šileris, capo del Centro europeo per la criminalità informatica di Europol, sostiene che “l’intelligenza artificiale promette al mondo maggiore efficienza, automazione e autonomia. In un momento in cui il pubblico è sempre più preoccupato per il possibile uso improprio dell’IA, dobbiamo essere trasparenti sulle minacce, ma anche esaminare i potenziali benefici della tecnologia.” I criminali possono utilizzare l’intelligenza artificiale per facilitare e migliorare i loro attacchi massimizzando le opportunità a scopo di lucro in tempi più brevi, sfruttando nuove vittime
e creare attività criminali più innovative, riducendo le possibilità di essere fermati.
I gruppi della criminalità organizzata hanno rapidamente integrato nuove tecnologie nel loro modus operandi, attuando delle nuove sfide per le forze dell’ordine e per la sicurezza informatica in generale.
Il modello di business Crimeas-a-Service (CaaS), il quale consente ai criminali non tecnologicamente esperti di procurarsi strumenti e servizi tecnici nel sottosuolo digitale che consentono loro di estendere la loro capacità di attacco e raffinatezza, aumenta ulteriormente il potenziale per le nuove tecnologie, come ad esempio la stessa intelligenza artificiale, di essere abusata da criminali e diventare un fattore di criminalità.
Acquisire conoscenze sul potenziale uso dell’IA da parte dei criminali, migliorerà la capacità del settore della sicurezza informatica per anticipare possibili attività dannose e criminali nonché di prevenire, rispondere o mitigare gli effetti di tali attacchi in modo proattivo. Questo rapporto utilizza l’importante distinzione che dovrebbe essere rilevata fin dall’inizio: vale a dire, la distinzione tra usi dannosi e abusi dell’IA. Gli “usi” in “usi dannosi di intelligenza artificiale” si riferiscono a casi in cui i criminali potrebbero impiegare sistemi di intelligenza artificiale per promuovere i loro obiettivi di attacco, ad esempio utilizzando il “machine learning” per automatizzare gli attacchi informatici e migliorare il malware. D’altra parte, gli “abusi” in “abusi maligni” si riferisce ai casi in cui i criminali potrebbero provare ad attaccare e sfruttare sistemi di IA esistenti.
A tal fine, è necessario soffermarsi sulla prima parte del rapporto, che presenta gli attuali sviluppi dell’intelligenza artificiale e di come i criminali sfruttano quest’ultima per guadagni personali e gli stessi tentativi di abuso di alcuni sistemi.
L’uso dell’intelligenza artificiale per migliorare l’efficacia dei malware è ancora all’inizio. La ricerca è ancora svolta a livello accademico e gli attacchi sono per lo più teorici e realizzati come prove di concetto. Attualmente coloro che sviluppano malware possono utilizzare l’intelligenza artificiale, senza essere rilevati da analisti o ricercatori. Nel 2015 è stata fatta una dimostrazione su come creare messaggi di posta elettronica per aggirare i filtri antispam. Questo sistema, come dimostrato, utilizza una grammatica generativa in grado di creare un ampio dataset di testi di posta con un alto grado di qualità semantica. I testi vengono quindi utilizzati per confondere il sistema antispam e adattarsi a diversi filtri. Nel 2017, durante la Black Hat USA, una conferenza sulla sicurezza delle informazioni, diciassette ricercatori hanno dimostrato come utilizzare le tecniche di “machine learning” per analizzare anni di dati, relativi agli attacchi di compromissione della posta elettronica aziendale (BEC), una forma di crimine informatico che utilizza la frode tramite posta elettronica per truffare e per identificare potenziali bersagli di attacco.
Questo sistema sfrutta sia le fughe di dati, che le informazioni sui social media. In particolare, in base alla sua storia, il sistema può prevedere con precisione se un attacco avrà successo o meno.
Infine, l’intelligenza artificiale può anche migliorare le tecniche di hacking tradizionali, introducendo nuovi modi di eseguire attacchi che sarebbero difficili da prevedere. Durante il DEF CON 2017, una delle più grandi convention di hacking clandestine, i partecipanti Dan Petro e Ben Morris hanno presentato DeepHack, uno strumento di intelligenza artificiale open source volto a eseguire test di penetrazione web senza dover fare affidamento su alcuna conoscenza preliminare del sistema di destinazione. DeepHack implementa una rete neurale in grado di creare stringhe di SQL injection senza altre informazioni oltre alle risposte del server di destinazione, automatizzando così il processo di hacking dei database.
Oltre all’uso del malware per raccogliere documenti e rendere gli attacchi più efficienti e l’uso delle tecniche hacking, l’intelligenza artificiale può essere utilizzata per supportare l’evasione del riconoscimento delle immagini e della biometria vocale; per gli attacchi ransomware, attraverso il targeting intelligente e l’evasione e per l’inquinamento dei dati, identificando i punti ciechi nelle regole di rilevamento.
Alla luce di questi sviluppi le tre organizzazioni hanno formulato diverse raccomandazioni per conludere il rapporto. E’ importante sfruttare il potenziale della tecnologia di intelligenza artificiale come strumento di lotta alla criminalità per rendere a prova di futuro l’industria della sicurezza informatica e la polizia. Promuovere e sviluppare quadri sicuri di progettazione dell’intelligenza artificiale e continuare la ricerca per stimolare lo sviluppo della tecnologia difensiva. In ultima analisi sfruttare i partenariati pubblico-privato e promuovere la creazione di gruppi multidisciplinari di esperti di cyber-sicurezza.