Sono sempre più frequenti ed evidenti i rischi di un uso inappropriato dei big data e degli strumenti di intelligenza artificiale per influenzare l’opinione pubblica ed il comportamento di voto in occasione di elezioni politiche o di consultazioni referendarie.
Durante un’importante consultazione elettorale (ad es., per l’elezione di un Presidente della Repubblica oppure, come è di recente accaduto, in occasione di un referendum), soggetti interessati possono organizzare un mirato e massivo attacco cibernetico e di c.d. information disorder (deep fake, trolling, ecc.).
Ecco alcune conseguenze di un attacco del genere:
- prima vengono penetrati importanti datacenter;
- poi, tramite intelligenza artificiale, anche mediante i dati trafugati, vengono studiate tecniche manipolative di massa;
- infine, vengono veicolate in modo massiccio e pervasivo informazioni false e fortemente pericolose in termini di capacità manipolativa del consenso elettorale, perché elaborate tramite algoritmi di persuasione che fanno leva su debolezze e bias cognitivi della collettività.
Se ben condotto (manipolazioni di questo tipo sono rivolte soprattutto alla categoria degli “indecisi”, sovente decisivi nel far pendere l’ago della bilancia), l’attacco, ha come effetto un danno enorme alle fondamenta dello stato democratico.
Dei nuovi rischi legali al contesto globale, il legislatore nazionale si è dimostrato consapevole intervenendo non solo con l’introduzione del perimetro della sicurezza cibernetica (d.l. n. 105 del 2019), ma apportando anche significative innovazioni alla disciplina del c.d. golden power (d.l. n. 21 del 2012), al fine di includere i settori ad alta intensità tecnologica, con particolare riferimento alle infrastrutture critiche o sensibili, inclusa la sicurezza in rete e, in specie, la tecnologia 5G, che rappresenta la piattaforma abilitante dell’internet of things.
Vero è che il pluralismo, mentre è richiamato Regolamento (UE) 2019/452 sul controllo degli investimenti esteri, non è tuttavia espressamene menzionato nella normativa sulla protezione delle infrastrutture strategiche, ma è evidente che i presídi assicurati da tale disciplina incidono in maniera decisiva sui rischi manipolativi e la parità di condizioni. La sicurezza del mondo «materiale» dipende sempre più da quella «immateriale» tenendo conto di tutte le ingenti misure messe in campo per l’attuazione della transizione digitale, nel cui alveo si colloca anche il ruolo affidato agli strumenti telematici nello svolgimento dei procedimenti elettorali e delle consultazioni referendarie.
Di qui la necessità di un’azione pubblica mirata alla sicurezza cibernetica nell’àmbito della quale si inscrive lo strumento del c.d. potere speciale, non a caso sistematicamente e funzionalmente coordinato, a livello normativo, con la disciplina sul perimetro nazionale della sicurezza cibernetica.
Con il d.p.c.m. 179 del 2020, è stata stilata una lunghissima lista di nuovi attivi strategici, potenzialmente oggetto di poteri speciali. Vi rientrano infrastrutture elettorali e finanziarie, tecnologie di avanguardia, settore della salute, alimentare: soprattutto, fa la sua comparsa l’universo “in divenire” dell’intelligenza artificiale.
La dialettica politica necessaria alla formazione del consenso libero in un sistema democratico deve, dunque, essere riguardata anche in tale prospettiva imposta dall’attuale assetto di disciplina, nel quale si peraltro è inserita di recente l’istituzione dell’Agenzia per la cybersicurezza nazionale, che potrà costituire un riferimento prezioso per i profili di più stretta afferenza tecnica correlati alla sicurezza.