Sono trascorsi vent’anni dall’emanazione della Direttiva europea sull’allertamento: normativa che dal 2004 ha dato l’avvio a indirizzi operativi per la gestione del sistema di allertamento nazionale per il rischio idrogeologico e idraulico. È l’origine del sistema di allertamento, basato sulla rete dei centri funzionali, che nel nostro paese garantisce le attività di previsione e monitoraggio per eventi meteorologici, idrologici e idrogeologici, permettendo di definirne specifici livelli di allerta e mettere in campo le adeguate misure di prevenzione e protezione, compresa l’informazione alla cittadinanza.
Le previsioni migliorano
Da allora tanta acqua è passata sotto (e sopra) i ponti e, fortunatamente, c’è stato un consistente avanzamento scientifico e tecnologico fino all’intelligenza artificiale che, però “può potenzialmente mimare ciò che oggi fanno i previsori umani, ricostruendo la parte di valutazione attraverso algoritmi di calcolo addestrati a collegare determinati parametri e valori – per esempio in termini di precipitazione su un certo tipo di territorio – con i loro effetti al suolo”, spiega Luca Molini, ricercatore della Fondazione Cima. “Questo non significa far venire meno il ruolo umano, di sicuro non nel breve periodo; significa, però, poter analizzare in maniera massiva i dati per ricondurli a situazioni che si sono già verificate nel passato, e poter identificare gli eventi estremi che una previsione probabilistica ha difficoltà a individuare.”
Omogeneizzazione delle verifiche
Molini spiega che le prospettive dell’allertamento toccano anche altri aspetti: non si tratta solo di questione scientifica, ma a cavallo tra scienza e società, e riguarda la valutazione delle allerte. Se è infatti indubbia l’importanza delle nuove tecnologie in termini di protezione civile, non è altrettanto semplice eseguirne un’analisi. “Uno dei grandi temi aperti – spiega Molini – è quello dell’omogenizzazione del sistema di verifica, per avere un confronto tra effetti al suolo reali e previsioni. Al momento, infatti, non è possibile tenere conto di alcuni effetti al suolo che si verificano quando, per esempio, il terreno è già saturo (per cui anche una precipitazione relativamente limitata può avere effetti significativi), o per fenomeni non strettamente misurabili, come la grandine. Servirebbe un approccio condiviso e una metodologia robusta e omogenea per la registrazione dei danni a livello regionale, così da capire l’impatto reale dei diversi eventi e correggere eventuali bias di sovra o sottostima degli eventi stessi.”
Rischio previsioni errate
Il limite più grande nell’utilizzo di tecniche di machine learning, ovvero di intelligenza artificiale, in questo campo è rappresentato soprattutto dalla “qualità” dei dati disponibili, che siano corretti, quanto più possibile completi, affidabili e rappresentativi del fenomeno che si vuole modellare. Poiché il machine learning fa pieno affidamento sulla qualità dei dati di training, avere un dataset di bassa qualità produrrà risultati scadenti. Allo stesso modo, avere un bias nei dati di addestramento produrrà un sistema con bias intrinsechi, il che può produrre output errati in determinate situazioni.