Intelligenza Artificiale e le sfide alla sicurezza psicologica internazionale in Internet

Internet offre indubbiamente grandi opportunità per lo sviluppo della civiltà umana, ma contiene anche molte minacce. È possibile citare alcune di queste minacce cercando di comprendere in che modo contestualizzare la capacità dell’Intelligenza Artificiale (IA) in Internet messa in relazione con le nuove sfide alla sicurezza psicologica internazionale di oggi.
Perché la sicurezza psicologica? Perché il comportamento adeguato degli attori statali e non statali nell’arena internazionale è una garanzia, se non per la pace, ma per un approccio equilibrato delle parti per quel che riguarda tematiche di importanza fondamentale a livello globale. La destabilizzazione psicologica degli attori può condurre oggigiorno in maniera piuttosto facile ad una guerra mondiale.

Tra le possibili minacce di un uso illecito dell’IA (Malicious Use of Artificial Intelligence – MUAI) attraverso Internet, che potrebbero essere pericolose per la stabilità internazionale, è possibile citare:

  • La crescita di sistemi complessi che vedono una partecipazione attiva o un ruolo guida dell’IA aumentando così il rischio di intromissioni esterne e intercettazioni dannose. Numerosi infrastrutture, ad esempio i sistemi di trasporto robotico e autoapprendimento controllati dall’IA, possono diventare un obiettivo conveniente per attacchi terroristici ad alta tecnologia attraverso Internet. Pertanto, l’intercettazione della gestione di un sistema di controllo del traffico aereo centralizzato in una grande città può portare a numerose vittime. Secondo Marc Ph. Stoecklin, principale membro dello staff di ricerca e manager di Cognitive Cybersecurity Intelligence (CCSI), una classe di malware “come DeepLocker non è mai stata vista in natura fino ad oggi; questi strumenti di IA sono disponibili pubblicamente, così come le tecniche di malware utilizzate, quindi è solo una questione di tempo prima di iniziare a vedere questi strumenti utilizzati da attori contraddittori e criminali informatici. In effetti, non saremmo sorpresi se questo tipo di attacco fosse già stato implementato “.i
  • Riproposizione del terrorismo di sistemi di IA commerciali. I sistemi commerciali possono essere utilizzati in maniera dannosa anche non intenzionale come ad esempio i droni oppure i veicoli autonomi e con sistema di autoguida che potrebbero essere sfruttati per il trasporto di materiale esplosivo oppure per causare incidenti.ii
  • Si deve sottolineare come il mondo della ricerca sia attivamente impegnato nella dura battaglia contro i deepfakes, ossia algoritmi di IA che creano immagini, audio e video finti ma convincenti. Da questo si evince come un video o un’immagine falsa di un leader mondiale intento a commettere un’azione dannosa, nel caso fosse ritenuto vero dalla maggior parte dell’opinione pubblica, potrebbe causare una guerra commerciale e convenzionale. Altrettanto pericolosa è la possibilità che la tecnologia dei deepfake si diffonda al punto che le persone non siano più disposte a fidarsi delle prove video o audio.iii Un esempio calzante potrebbe essere quello della messa in rete di un falso video del primo ministro israeliano Benjamin Netanyahu o di altri funzionari governativi in cui si parla di un possibile e imminente attacco per conquistare il Monte del Tempio di Gerusalemme e la Moschea di Al-Aqsa con significativa diffusione a macchia d’olio in tutto il Medio Oriente e ripercussioni sulla stabilità sia dello Stato di Israele e sia dell’intera regione mediorientale.iv
  • Amplificazione e influenza sui contenuti visibili. Gli studi indicano che i robot costituivano oltre il 50% di tutto il traffico online nel 2016. Le entità che promuovono artificialmente i contenuti possono manipolare il principio “agenda setting, il quale impone alle persone di vedere determinati contenuti ritenuti importanti per loro.v In questo caso si evince come il ruolo fondamentale dei bot nel costruire la reputazione di una persona durante le campagne politiche può essere trasformanto in una minaccia: i gruppi terroristici, infatti, potrebbero utilizzare questi robot con l’intento di attirare nuovi sostenitori oppure pianificare assassini mirati di esponenti politici.
  • Il processo di “sentiment analysis” (analisi del sentimento) fornisce dati dettagliati e accurati sull’emozione complessiva del contenuto di un testo incorporato in fonti come blog, articoli, forum, sondaggi, ecc. Questo strumento potrebbe essere utilizzato dai terroristi per comprendere lo stato emotivo di un autore o in generale della popolazione e così trarne vantaggio.
  • L’IA, il Machine Learning (apprendimento meccanico/automatico – ML) e il sentiment analysis vengono descritti come strumenti in grado di ‘predire il futuro analizzando il passato’ e quindi vengono spesso etichettati come il Sacro Gral del settore finanziario il cui potenziale, però, potrebbe essere utilizzato anche dalle organizzazioni terroristiche. Uno dei prodotti esistenti nel campo della ‘anticipazione dell’Intelligence’ è in funzione da più di tre anni, ovvero il programma EMBERS lanciato dalla IARPA nel 2012, acronimo di Early Model Based Event Recognition Using Surrogates (Rilevamento di eventi basato su modelli precedenti con l’uso di surrogati).vi Il programma, che si basa sull’utilizzo di Big Data per prevedere eventi significativi come disordini sociali, epidemie e risultati elettorali in Sud America, in mani sbagliate, per esempio quelle dei terroristi, potrebbe essere utilizzato per prevedere le possibili vittime a seguito di una manifestazione di protesta di circa 10 mila persone con l’obiettivo finale di rovesciare un governo. Alcune organizzazioni terroristiche, ma anche diverse agenzie di Intelligence e sicurezza, dopo aver ricevuto informazioni rilevanti un mese prima dell’evento potrebbero cerca di aggravere ulteriormente la situazione e il bilancio degli scontri e delle vittime con l’intento di diffondere l’idea che il governo di un determinato paese sia una ‘dittatura sanguinaria’. In questo modo, sfruttando il programma EMBERS e ‘giocando’ con la previsione del numero delle vittime è possibile visualizzare scenari futuri di un determinato paese e cercare quindi di influenzarne la politica interna e la sicurezza nazionale.
  • Si può inoltre immaginare che, sulla base di una combinazione di tecniche di impatto psicologico unite ai sistemi di IA complessi e ai Big Data, nei prossimi anni saranno disponibili prodotti di informazione sintetica di natura simile ai software maligni modulari i quali agiranno direttamente sulle persone o sulle masse come esseri psicologici e biofisici. Un prodotto informativo sintetico conterrà moduli software che possano favorire la diffusione della depressione tra le persone a cui seguiranno programmi di suggestione psicologica i quali, facendo appello alle abitudini, agli stereotipi e persino alla psicofisiologia, incoraggeranno le masse a compiere azioni rigorosamente definite.vii
Trend principali della Intelligenza Artificiale nel 2018 (Fonte: PwC)

Quelle elencate qui sopra sono soltanto alcune delle possibilità/minacce di MUAI attraverso Internet, strumento dagli enormi benefici il quale, però, nelle mani di gruppi statali o non statali può rappresentare un grande pericolo.

In questo ambito è interessante vedere i rapidi e drastici cambiamenti da parte delle autorità pubbliche e della comunità della sicurezza degli Stati Uniti in merito alle potenziali minacce provenienti dall’utilizzo dell’IA. In un documento della Casa Bianca riguardante l’amministrazione uscente di Barack Obama nel 2016 gli esperti nel settore sicurezza affermavano che l’IA generale non sarebbe stata raggiunta almeno per alcuni decenni.viii Due anni dopo, negli organismi di sicurezza nazionale degli Stati Uniti è possibile evidenziare una chiara rivalutazione della possibile minaccia da parte dell’IA generale. Il rapporto GAO 2018 si concentra sulle minacce emergenti a lungo raggio che possono verificarsi in circa cinque o più anni, come identificato da vari membri presso il Dipartimento della Difesa (DOD), il Dipartimento di Stato (Stato), il Dipartimento della Sicurezza Nazionale (DHS) e l’Ufficio del Direttore dell’Intelligence Nazionale (ODNI). Tra le tecnologie a duplice uso, l’IA è la prima della lista nel report GAO. Questo cambiamento negli ultimi due anni negli Stati Uniti in merito alla possibilità dell’IA non è però una coincidenza, anzi sottolinea come questo campo sia divenuto sempre più di maggiore interesse.ix

Il sondaggio preparato nel 2018 dai ricercatori delle università di Oxford e Yale e dalla Impact IA dal titolo “When Will AI Exceed Human Performance?x si basa su un campione composto da 352 ricercatori che hanno pubblicato e presentato esperimenti e ricerche nelle conferenze NIPS e ICML del 2015 (due degli eventi principali per la ricerca in machine learning). I risultati di questo sondaggio mostrano che esiste un 50% di probabilità che la High-Level Machine Intelligence (HLMI) si raggiunga entro 45 anni e un 10% che si verifichi entro 9 anni. L’indagine mostra le previsioni probabilistiche per un sottoinsieme casuale di individui, così come le previsioni medie. In effetti, vi è un’ampia variazione tra soggetti: i dati dell’indagine mostrano che gli intervistati asiatici si aspettano un HLMI nei prossimi 30 anni, mentre i nordamericani la prevedono in 74 anni. L’indagine sottolinea inoltre un divario simile tra i due paesi con il maggior numero di intervistati nel sondaggio: Cina (media 28 anni) e USA (media 76 anni).xi

Si evince quindi che la maggior parte dei ricercatori di diversi paesi ora crede che l’IA generale sia qualcosa di reale e che il suo raggiungimento sia possibile in decenni o anni. Facendo fede a queste previsioni si deduce che la preoccupazione dei professionisti nel settore sicurezza sia seria e reale. Inoltre, la convinzione da parte della comunità degli esperti cinesi sul fatto che l’IA generale possa essere raggiunta in tempi brevi, unita al fatto che la Cina sia in una fase di rapido sviluppo in questo settore tale da raggiungere gli Stati Uniti e in alcuni aspetti superarlo, giustifica le preoccupazioni della Casa Bianca.

Oggigiorno Internet è il mezzo principale per trasmettere informazioni di diversa natura sull’IA favorendone lo sviluppo. Il collasso di Internet e l’emergere di firewall rigidi non fermeranno la creazione di IA generale, ma potranno soltanto rallentarlo, così come la sua successiva distribuzione. È molto probabile che la creazione di IA generale in pochi anni porterà al suo auto-miglioramento e all’emergere della Super IA. Questo non è un dato, non una garanzia, ma una reale opportunità che il mondo deve saper sfruttare per evitare l’insorgere di problemi maggiori.

L’auspicio è quello di una collaborazione congiunta tra colleghi di diversi paesi per affrontare le sfide future, come avvenuto già in differenti forum scientifici internazionali. È possibile citare, ad esempio, i futuri eventi di San Pietroburgoxii oppure di Oxfordxiii in questa direzione. La soluzione più appropriata di queste problemati per lo sviluppo sicuro dell’IA può essere rappresentata dalla reale cooperazione internazionale in tutti i livelli dai ricercatori alle agenzie di stato per poi arrivare all’intera società civile.

*Estratto del discorso del Professor Pashentsev tenuto alla Tavola Rotonda International Safer Internet Day. Global Trends and Common Senseil 5 febbraio 2019 organizzato da MIA “Russia Today”.

Note:

i Kirat, D., Jang, J., and Stoecklin, M. Ph. (2018). DeepLocker – Concealing Targeted Attacks with AI Locksmithing. [online] Black Hat. Available at: https://www.blackhat.com/us-18/briefings/schedule/#deeplocker—concealing-targeted-attacks-with-ai-locksmithing-11549

ii Brundage, M., Avin, Sh., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Dafoe, A., Scharre, P., Zeitzoff, Th., Filar, B., Anderson, H., Roff, H., Allen, G. C., Steinhardt, J., Flynn, C., Ó HÉigeartaigh, S., Beard, S., Belfield, H., Farquhar, S., Lyle, C., Crootof, R., Evans, O., Page, M., Bryson, J., Yampolskiy, R., and Amodei, D. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Oxford, AZ: Future of Humanity Institute, University of Oxford. – P. 27.

iii Waddel, K. (2018). The Impending War over Deepfakes. [online] Axios. Available at: https://www.axios.com/the-impending-war-over-deepfakes-b3427757-2ed7-4fbc-9edb-45e461eb87ba.html

iv  The Times of Israel. (2018). ‘I Never Said That!’ The High-Tech Deception of ‘Deepfake’ Videos. The Times of Israel, [online] pages. Available at: https://www.timesofisrael.com/i-never-said-that-the-high-tech-deception-of-deepfake-videos/

v  Horowitz, M. C., Allen, G. C., Saravalle, E., Cho, A., Frederick, K., and Scharre, P. (2018). Artificial Intelligence and International Security. Washington: Center for a New American Security (CNAS). – P. 5 – 6.

vi  See: Doyle, A., Katz, G., Summers, K., Ackermann, Chr., Zavorin, I., Lim, Z., Muthiah, S., Butler, P., Self, N., Zhao, L., Lu, Ch.-T., Khandpur, R. P., Fayed, Y., and Ramakrishnan, N. (2014). Forecasting Significant Societal Events Using the EMBERS Streaming Predicative Analytics System. Big Data, 4, 185 – 195.

vii  Larina, E., and Ovchinskiy, V. (2018). Iskusstvennyj intellekt. Bol’shie dannye. Prestupnost’ [Artificial intelligence. Big Data. Crime]. Moscow: Knizhnyj mir. – P. 126 – 127.

viii  Executive Office of the President, National Science and Technology Council, Committee on Technology. 2016. Preparing for the Future. National Science and Technology Council of Artificial Intelligence. Washington. – P. 7 – 8.

ix  U. S. Government Accountability Office (GAO). (2018). Report to Congressional Committees National Security. Long-Range Emerging Threats Facing the United States as Identified by Federal Agencies. GAO-19-204SP. Washington, DC: GAO. – P. 8

Grace, K., Salvatier, J., Dafoe, A., Zhang, B., Evans, O. (2018). When Will AI Exceed Human Performance? Evidence from AI Experts. Journal of Artificial Intelligence Research, 62, 729-754. – P. 1.

xi Ibidem. – P. 5.

xii The Panel Artificial Intelligence: New Opportunities and Social, Political and Psychological Challenges in Latin America // Russia and Iberoamerica in the Global World Fourth International Forum (1-3th October 2019).

xiii Mini Track on the Malicious Use of Artificial Intelligence: New Challenges for Democratic Institutions and Political Stability//ECIAIR 2019. European Conference on the Impact of AI and Robotics 31 October -1 November 2019 at EM-Normandie Business School, Oxford, UK.


AUTORE

Evgeny N. Pashentsev. Dottore in Storia, ricercatore emerito presso l’Accademia Diplomatica del ministero degli Affari Esteri della Federazione Russa, direttore del Centro Internazionale per gli Studi Politici e Sociali (ICSPSC). Professore presso la cattedra di Filosofia del Linguaggio e della Comunicazione della Università Statale di Mosca Lomonosov.