martedì, 9 Marzo, 2021
Società

Cybersecurity ed Intelligenza Artificiale: una commistione potenzialmente pericolosa

La Cybersecurity (sicurezza informatica), già di per sé ricca di sfide, sta diventando sempre più complessa con l’accentuarsi dell’importanza dei sistemi di intelligenza artificiale (AI). Quando l’AI (Artificial intelligence) e la sicurezza informatica trovano un punto d’incontro, la società in generale e la sicurezza nazionale in particolare, sono soggette a nuove insidie.

Nei sistemi di AI la questione più importate è, sicuramente, la sicurezza informatica in quanto, nei sistemi di intelligenza artificiale, le probabilità di essere “attaccati”, nei software di utilizzo comune, sono le stesse che ci sono per altri tipi di codifiche e linguaggi di computer. Come abbiamo visto per decenni, gli hacker possono sfruttare le vulnerabilità dei software stessi, per propri fini, e non vi è alcun motivo di pensare che non cercheranno di fare lo stesso con i sistemi di intelligenza artificiale su cui, a volte, potrebbero riuscirci con successo. Questa possibilità è particolarmente preoccupante data l’importanza di alcune applicazioni dell’AI. Pertanto bisognerà rafforzare la vigilanza che è fondamentale per preservare la sicurezza informatica.

Eppure, se focalizziamo la nostra attenzione ai soli tipi tradizionali di vulnerabilità dei software ci accolliamo il rischio di esporci ad una notevole probabilità di essere attaccati su una grande quantità di strutture che i sistemi di intelligenza artificiale ci pongono. In buona sostanza l’architettura di rete neurale che sottende l’intelligenza artificiale moderna è molto potente, ma presenta anche una nuova classe di rischi di sicurezza informatica che stiamo incominciando a scoprire solo adesso. 

Utilizzando l’apprendimento derivante da tesi più o meno contraddittorie, gli hacker possono creare reti neurali per causare errori e strutturare dei sistemi che si basano proprio sulle stesse reti per pubblicare informazioni riservate o individuarne altre top secret. L’ex Direttore del IARPA e il Direttore fondatore del Centro per la sicurezza e la tecnologia emergente Jason Matheny, stima che solo circa l’1% della spesa per la ricerca in AI va alla sicurezza. Una spesa sicuramente troppo bassa.

Gli hacker moderni in molti casi non hanno bisogno di intelligenza artificiale per raggiungere i loro fini. Ricordiamo alcuni tra gli attacchi informatici più potenti che ci sono stati, quello nel 2016, ovvero il blackout in Ucraina, Stuxnet e l’attacco nel 2017, oltre al ben noto ransoware conosciuto come NotPetya i quali causarono almeno dieci miliardi di dollari di danni, naturalmente aiutati da alcune forme automatizzate di propagazione e capacità di attacco. Si potrebbe immaginare un mondo in cui le operazioni informatiche useranno funzionalità automatizzate più sofisticate per realizzare compiti particolari, come ad esempio la scoperta della vulnerabilità, la selezione dei target, il comando e controllo.

Tale automazione potrebbe offrire aspetti positivi e significativi per gli hacker più sofisticati di fronte ad obiettivi complessi. In alcuni aspetti, l’eventuale rialzo di automazione è superiore in questo settore piuttosto che in guerra fisica. Se un aereo è gestito da un essere umano, si applicano le leggi della fisica, ma è probabile, nel caso in cui si utilizzassero sistemi informatici automatizzati, che la velocità nell’operare raggiungerebbe livelli esponenziali rispetto alla controparte umana. 

Questo porta alla terza area di analisi: la possibilità che l’intelligenza artificiale possa essere d’aiuto soprattutto nella difesa cibernetica. Questa idea è anche oggetto di un sacco di hype e un sacco di investimenti in capitale di rischio. Sembra che ci siano sempre più sofisticati modi in cui l’AI può aiutare i sistemi informatici ad essere più sicuri, ovvero nello scoprire le vulnerabilità prima che gli hackers agiscano. Nel valutare i progressi di sicurezza informatica in questo settore, dobbiamo confrontarli con le linee di base delle tecnologie, molte delle quali già coinvolgono l’automazione, e capire come l’intelligenza artificiale possa migliorare le nostre difese.

Queste tre aree, il contraddittorio di apprendimento, il cyber attacco e la cyber difesa meritano molta più attenzione. I politici hanno cominciato a prendere in considerazione queste importanti questioni, tant’è vero che è stata avviata una discussione sul tema in una sottocommissione sulla Sicurezza Nazionale del Congresso USA. Durante i primi decenni dell’era di Internet, la nuova tecnologia ha iniziato a cambiare il mondo senza pensare alle sue implicazioni sulla sicurezza. Nell’era della AI, non bisogna ripetere lo stesso errore.

Oltre ciò non abbiamo ancora citato tutte le grandi aziende che si possono permettere sofisticati software di sorveglianza che inducono l’utente a cliccare su uno specifico link, utilizzando programmi come, ad esempio, Pegaso e FinSpy, che vengono rispettivamente prodotti dal Gruppo NSO israeliano e la FinFisher tedesca. Aziende sulle quali i rispettivi governi avrebbero l’obbligo di controllo al fine che tali software non finiscano in mani sbagliate. Nel 2010 FinFisher avrebbe richiesto la somma di Euro 280.000 al Governo Egiziano per FinSpy, mentre Pegaso oggi sarebbe disponibile a oltre un milione di USD.

In conclusione il nostro messaggio punta a far sì che ci sia un maggiore controllo, da parte della Comunità Internazionale, in un’epoca come questa dove la proliferazione di software di sorveglianza potrebbe essere utilizzata da quei governi di regime, più o meno draconiani, il cui unico scopo è solo quello di accrescere il loro potere e la loro espansione geopolitica.

Sponsor

Articoli correlati

Sicurezza informatica e competenze digitali nella PA ai tempi del Covid

Giuseppe Gorga

Tecnologie in sanità, stima giro d’affari +15,9% entro 2021

Redazione

A Pisa convegno sull’innovazione digitale

Ettore Di Bartolomeo

Lascia un commento