1. Premessa
Nell’articolo “AI punto di non ritorno” de “La discussione” del 18 luglio 2025 abbiamo affermato che l’AI sarà -inevitabilmente- sempre più “presente” nelle nostre scelte quotidiane e che il primo passo per avere un approccio corretto, consapevole e “per cavalcare l’onda” sollevata da questa tecnologia, sia necessario l’esercizio del dubbio e della critica, necessariamente attraverso la conoscenza -almeno generale- dei meccanismi informatici e dei principi etici con cui debbono essere costituiti gli algoritmi. Nello svolgimento del lavoro ho utilizzato “l’intelligenza artificiale”, interrogandola opportunamente. L’avvertenza, lungi dal voler far declinare la responsabilità su quanto scritto, vuole essere una legittima informazione al lettore affinché possa doverosamente esercitare il dubbio e la critica, rispondendo altresì al principio di trasparenza e della responsabilità umana nell’utilizzo dell’A.I., di cui parleremo nel corso del lavoro. Se, per caso, lo scritto dovesse risultare di qualche valore, avremmo la prova concreta dell’utilità dell’A.I. e della misura in cui questo strumento possa semplificare l’attività di studio e intellettuale in termini di tempo e di precisione dei dati.
Quanto seguirà, ampliando a scopo divulgativo l’aspetto etico dell’AI, tratterà la gestione della cosiddetta “Algoretica”, termine coniato da padre Benanti, sacerdote francescano, teologo ed esperto di etica delle tecnologie e intelligenza artificiale, professore universitario, Presidente della commissione AI per il governo italiano, unico italiano membro del comitato sull’intelligenza artificiale delle Nazioni Unite.
Il termine è la sintesi tra la parola algoritmo ed etica a significare che i contenuti etici debbono essere individuati e messi in atto già in fase di progettazione degli algoritmi: debbono cioè far parte di una sorta di “corredo genetico” dell’AI volta a prevenire qualsiasi uso distorto della stessa attraverso il suo utilizzo o i suoi conseguenti comportamenti, pensando alle macchine ed ai robot da essa governabili.
Procedendo con metodo, affronteremo l’argomento secondo i seguenti passaggi suddivisi per capitoli:
2. STATO DELL’ARTE E PRINCIPI ETICI INDIVIDUATI.
a. generalità sull’impiego dell’AI.
L’intelligenza artificiale sta diventando una tecnologia pervasiva, capace di influenzare sicurezza, economia, cultura e perfino le relazioni tra cittadini e istituzioni. Eppure, a differenza di altre tecnologie critiche, non esiste ancora un corpus giuridico completo e globalmente riconosciuto che ne disciplini l’uso.
Nonostante questo vuoto, l’IA di oggi si sviluppa ispirandosi ad una serie di principi etici che, pur non essendo normati positivamente, funzionano già come criteri-guida.
Questi principi – trasparenza, equità, responsabilità, sicurezza, privacy, sostenibilità – sono nati nelle università, nelle agenzie internazionali, nei comitati etici e nelle prime legislazioni sperimentali. Oggi rappresentano una sorta di costituzione morale preliminare dell’intelligenza artificiale e sono generalmente condivisi da organismi internazionali come UE, UNESCO, OCSE, IEEE e grandi centri di ricerca.
La criticità è costituita dal fatto che questi principi, al momento, soprattutto in ambito extraeuropeo, non sono obbligatori ma vengono lasciati alla libera applicazione ed interpretazione delle aziende informatiche che, pur nelle loro “buone intenzioni” ad adeguarsi al loro utilizzo ed impiego, possono trovare dei limiti e difficoltà per motivi di concorrenza, economici (costi alti),rapidità di sviluppo ed evoluzione dei prodotti informatici, gestione e ricerca dei dati per alimentare i sistemi ed altro.
L’intelligenza artificiale sta entrando in ogni ambito della vita pubblica: amministrazioni, sanità, sicurezza, informazione, imprese. Ma mentre l’impatto cresce, il quadro normativo rimane incompleto. Le grandi democrazie stanno lavorando a regole comuni, ma il diritto procede più lentamente dell’innovazione.
L’IA di oggi non nasce nel vuoto: si sviluppa già seguendo una serie di principi etici condivisi che rappresentano una sorta di codice preliminare delle tecnologie intelligenti, non sono ancora norme vincolanti, ma orientano ricerca, progettazione e utilizzo.
L’etica svolge la funzione di infrastruttura provvisoria, un insieme di linee-guida che anticipano ciò che domani sarà probabilmente necessario tradurre in diritto positivo dato che l’alternativa — un futuro governato da algoritmi opachi, irresponsabili o discriminatori — non è accettabile né umanamente, né tecnicamente, né culturalmente, né politicamente.
Secondo quanto indicato da padre Benanti, l’etica dovrebbe essere la prima infrastruttura che anticipi il futuro quadro giuridico volta a garantire che l’innovazione non diventi arbitrio e che la tecnologiarimanga alleata della società e inizi a governare molto prima delle leggi, precisamente dai principi e nei meccanismi che decidiamo di far entrare nel motore degli elaboratori. Dunque la sfida non è solo tecnicama politica, culturale e istituzionale.
L’A.I., se ben governata, deve essere comprensibile, controllabile, giusta, sicura e sempre al servizio della dignità umana, potendo diventare uno strumento di tutela dell’onestà intellettuale. Così come l’introduzione dell’informatica nella trattazione della burocrazia ha ridotto l’arbitrarietà, la discrezionalità, l’errore, il tempo dei procedimenti per la formazione e trasmissione delle determinazioni, l’AI – se progettata adeguatamente– può aumentare esponenzialmente la produzione scientifica e culturale poiché è strutturalmente coerente, non incline al tornaconto personale, né soggetta a paura, convenienza o pressione sociale. L’informatica ha portato trasparenza procedurale e riduzione dei tempi tecnici nella burocrazia, l’IA può portare trasparenza cognitiva ed etica nel lavoro intellettuale a patto che l’intenzione resti umana. L’AI non ha volontà, non ha scopo, non ha desiderio, può essere strumento di chiarezza o di manipolazione a seconda di chi la guida e di come viene usata.
In sintesi l’IA va controllata e guidata da principi etici, può migliorare la società ma la responsabilità ultima deve sempre rimanere umana, perché essa non sostituisce la coscienza, tuttavia può diventare uno specchio costante che costringe la coscienza umana a confrontarsi con sé stessa.
Se usata bene, può rafforzare rigore, “honestas”, spirito critico e cultura del dubbio sano, non rende l’uomo migliore automaticamente, ma può aiutare a migliorarlo molto, se utilizzata con criteri logici.
b. Cos’è l’Algoretica secondo Paolo Benanti.
Il termine “algoretica” (algor- + etica) nasce per definire una nuova branca dell’etica pensata per l’intelligenza artificiale: è l’“etica degli algoritmi”.
Secondo il pensiero di Benanti non basta scrivere algoritmi efficienti, serve che quei processi informatici siano costruiti tenendo conto di principi morali e di dignità umana, in modo che le macchine operino non solo in termini numerici o funzionali, ma anche con criteri etici. In questo senso, l’algoretica diventa una governance etica dell’innovazione tecnologica, cioè un insieme di “guard-rail morali” (o vincoli), posti in essere da esseri umani e “tradotti in comandi” che le macchine possano comprendere e applicare, per evitare lo straripare dei risultati verso finalità non lecite, non eccedenti e non pertinenti. E’ evidente che la logica razionale, asettica e tesa al raggiungimento del singolo scopo delle macchine, possa ignorare la tutela delle regole umane come la dignità, la giustizia sociale e la libertà individuale e collettiva nelle sue varie declinazioni. L’algoretica risponde al problema di una crescente “Algocrazia” – ovvero il dominio degli algoritmi sulla società- poiché essi condizionano e regolano in automatico decisioni che incidono su vite umane (scuola, lavoro, salute, credito, informazione…).
In sintesi, l’algoretica cerca di garantire che l’IA e gli algoritmi siano al nostro servizio, sia per le necessità materiali che per le aspettative morali e umane, evitando l’opposto e cioè che l’uomo possa essere influenzato e condizionato dal rigore procedurale e limitato degli algoritmi che, se non programmati ad hoc, non sono in grado analizzare tutte le variabili umane.
L’idea può sembrare astratta, e di difficile attuazione ma secondo Benanti e altri studiosi va tradotta in pratiche concrete di sviluppo e regolazione dell’IA, insomma “applicarla ingegneristicamente” traducendo i valori etici in tecnologia.
Ecco uno schema che indica i processi logici da seguire nella concezione e progettazione dell’algoritmo:
| Tipo di applicazione | Che cosa significa concretamente | Perché è un’espressione di Algoretica |
| Design dell’algoritmo “etico” | Quando si sviluppa un modello di IA, inserire nei criteri (o cost functions) non solo efficienza/performance, ma anche vincoli etici (p.es. non discriminazione, rispetto privacy, trasparenza, equità). | Significa che la macchina “decide” tenendo conto di valori morali, non solo ottimizzazione tecnica. |
| Governance / regolamentazione e policy | Creare leggi, standard, linee guida (governance pubblica o aziendale) che definiscano in quali ambiti l’IA può essere usata, con quali limiti, e con quali controlli umani. | Serve a evitare derive di “algocrazia”: l’IA non deve decidere da sola su questioni vitali senza supervisione etica. |
| “Human-in-the-loop” / supervisione umana | Fare in modo che le decisioni critiche (prestiti bancari, diagnosi mediche, sentenze, assunzioni…) prevedano intervento o verifica umana, non solo decisione automatica. | Garantisce che la dignità e la responsabilità umana restino insostituibili: l’algoritmo è strumento, non arbitro ultimo. |
| Trasparenza, audit e responsabilità | Progettare sistemi che consentano di capire come e perché un algoritmo ha preso una certa decisione (logica, spiegabilità, tracciabilità) — così da poter verificare se rispetta principi etici. | Permette di verificare che l’IA operi secondo l’algoretica; in caso di errori o abusi, qualcuno (umano) può intervenire. |
| Valutazione dell’impatto sociale / umano | Prima di implementare un’IA su scala (in medicina, lavoro, giustizia, pubblica amministrazione…), fare un’analisi etica e sociale: rischi, benefici, impatti su diritti, lavoro, equità, dignità. | Significa che lo sviluppo tecnologico non è neutro: va progettato pensando al bene comune e alla tutela delle persone. |
c. Alcune sfide, “limiti ingegneristici” e perché è necessario programmare secondo principi etici.
Nell’applicare l’algoretica concretamente, sorgono problemi complessi: Tradurre valori umani (giustizia, equità, dignità) in regole numeriche o logiche è difficile e soggettivo. Ciò che per alcuni è “equo” può non esserlo per altri. Le macchine non “capiscono” valori ma applicano regole. Serve quindi un contesto umano, normativo e istituzionale che stabilisca chi decide cosa è etico. L’IA tende a amplificare sia i benefici che i rischi connessi al suo utilizzo e senza una governance adeguata, può aumentare disuguaglianze, discriminazioni, perdita di controllo sulla realtà. Il progresso tecnologico è rapido: le regole, le normative e la cultura etica devono correre alla pari e ciò, spesso non è facile.
L’IA sta entrando a far parte del nostro quotidiano in ogni ambito della vita (sanità, informazione, lavoro, finanza, comunicazione…) e non possiamo lasciare che decisioni vitali vengano prese solo dalle macchine. E’ necessario proteggere la dignità umana, la libertà e la giustizia sociale nel mondo digitale per evitare che il potere algoritmico (chi possiede i dati, i server, i modelli IA) si trasformi in una nuova forma di dominio sociale — una “algocrazia”. Vi è la necessità di costruire una società in cui tecnologia e umanità avanzino insieme realizzando una sorta di “umanesimo digitale”.
d. Quali sono i principi etici.
- Trasparenza: capire come e perché l’IA prende una decisione
La trasparenza è il primo requisito dell’etica dell’IA.
Questo non significa rivelare i segreti industriali di un modello, ma permettere di comprendere che un sistema è artificiale e non umano, quali dati usa, quali criteri applica, quali limiti o incertezze possiede, quando l’utente interagisce con un’IA, scopi, limiti e logiche generali dei programmi e infine, evitare la creazione di eventuali sistemi “opachi” che decidono senza dare spiegazioni.
L’IA contemporanea, anche al di fuori di un obbligo giuridico, viene progettata per generare tracciabilità, logicità di decisione e indicatori di sicurezza.
La trasparenza è ciò che consente all’essere umano di mantenere consapevolezza e il controllo delle informazioni che riceve. I cittadini devono sapere quando interagiscono con un sistema artificiale e quali criteri esso utilizza.
La trasparenza ha un fondamento democratico nell’utilizzo dell’IA perché permette controllo pubblico, fiducia, comprensibilità e riconoscibilità. In sintesi la chiarezza e la comprensione servono a spiegare il perché l’IA suggerisce delle decisioni e quali fattori ha considerato. Si capisce facilmente l’importanza e la rilevanza della conoscenza di queste premesse fondamentali in ambiti come sanità, giustizia, finanza.
- Equità e non discriminazione
Gli algoritmi rischiano di amplificare ingiustizie presenti nei dati.
Per questo, uno dei principi fondanti dell’etica dell’IA è l’equità e la giustizia, evitando che sistemi automatici possano penalizzare le persone sulla base di genere, etnia, età, religione, stato sociale o economico.
Le IA moderne includono già meccanismi di verifica dei bias (tendenza che influenza la scelta allontanandola dall’imparzialità) e test comparativi benché non siano ancora obbligatori, tuttavia è una prassi consolidata e funzionale al corretto esercizio dell’AI.
Un algoritmo non deve penalizzare persone o gruppi sulla base di origine, genere, età o condizione economica, le tecnologie più avanzate integrano già controlli contro bias e distorsioni, perché la legittimità e l’efficienza dell’IA dipende naturalmente dalla sua imparzialità.
- Sicurezza e robustezza: l’IA non deve creare rischi
La sicurezza è il criterio più concreto: un sistema di IA deve funzionare in modo affidabile, prevedibile, controllabile. Per questo oggi l’IA incorpora già sistemi di prevenzione degli errori, ridondanze, avvisi di confidenza, filtri contro comportamenti dannosi, limiti incorporati (“guardrails”).
Anche questi meccanismi non esistono perché imposti da una legge, ma sono unanimemente accettati e costituiscono una delle basi tecniche dell’etica dell’IA. I sistemi devono essere affidabili, controllabili e progettati per evitare errori o comportamenti imprevisti.
- Privacy e protezione dei dati
L’intelligenza artificiale necessita di una mole straordinaria di dati in aggiornamento continuo e proprio per questo la corretta quantità, qualità e finalità dei dati raccolti è essenziale per il suo corretto funzionamento ed efficacia.
La privacy è un principio etico prima ancora che normativo. Le IA moderne, tendono indipendentemente da obblighi legali, ad implementare e trattare i dati secondo questi criteri di massima, affinché l’utente mantenga possibilità di scelta, protezione, riservatezza e libertà, sui suoi dati, sul suo profilo e sulle sue interrogazioni:
- minimizzazione dei dati;
- anonimizzazione;
- conservazione limitata;
- filtri contro l’accesso a informazioni sensibili
- Resistente a errori, manipolazioni e attacchi
- Testata prima della diffusione
- No manipolazione occulta
- No sistemi coercitivi
- Raccolta limitata e consapevole
- Rispetto del GDPR e principi di minimizzazione.
Anche in assenza di una legge globale, il settore considera la protezione dei dati un requisito imprescindibile in quanto l’informazione personale è importantissima a livello economico per l’IA. Anche senza una legge globale, i modelli più avanzati di AI adottano criteri come minimizzazione dei dati, anonimizzazione e limitazione delle finalità. La sicurezza pur non essendo un vincolo burocratico, è un requisito strategico ed una necessità economica per le aziende che producono AI in quanto, senza di essa, l’IA non può essere adottata nel settore pubblico.
- Sostenibilità e impatto ambientale
L’IA consuma energia e risorse e da pochi anni anche la sostenibilità ambientale è entrata a far parte dei criteri e principi etici che guidano lo sviluppo dei modelli. In particolare, pur non essendovi obblighi, le aziende si sforzano di ridurre l’impronta energetica degli addestramenti e ottimizzare l’efficienza dei modelli;
- Umanocentrismo: l’IA deve potenziare la persona, non sostituirla
Il principio più profondo – e anche tra i più difficili da mettere in pratica – è che l’intelligenza artificiale resti al servizio dell’umano senza sostituirne la dignità, lacentralità della persona e senza impattare sulla centralità dell’atto decisionale critico che spettaall’uomo.
Gli orientamenti etici internazionali convergono e convengono su tre principi: l’IA deve ampliare le capacità dell’uomo, non rimpiazzarlo, l’ultima parola deve spettare al decisore umano, le tecnologie devono essere progettate per il benessere collettivo. L’IA è uno strumento, non un soggetto politico o morale. La sua funzione è di semplificare, snellire e potenziare le possibilità offerte dal lavoro e dai servizi pubblici, stimolando creatività ed efficienza ingegneristica senza non rimpiazzare indiscriminatamente l’intervento umano.
Le democrazie liberali convergono sul punto che la tecnologia deve restare un mezzo, non diventare un fine e nonostante l’AI possa “decidere”, il responsabile della decisione deve essere l’uomo che la utilizza e la controlla.
Il principio etico fondamentale è che la responsabilità resta umana e le decisioni devono poter essere spiegatee essere riconducibili ad un responsabile, in particolare è necessario che chi progetta l’IA deve rispettare criteri di sicurezza, chi la usa deve essere formato, chi la supervisiona deve poter intervenire, esplicitare perché l’IA ha preso quella decisione e quali fattori ha considerato.
Questo principio, pur non codificato in legge in modo uniforme, è uno standard tecnico ormai adottato in quanto le IA vengono costruite con meccanismi di override (far prevalere una nuova azione o decisione su quella esistente), supervisione e auditabilità (capacità di un sistema, processo o decisione di essere verificato, controllato e ricostruito in modo trasparente e tracciabile). L’IA può supportare qualsiasi decisione ma mai dovrebbe sostituire la responsabilità dell’utilizzatore fruitore.
Chi progetta, adotta o utilizza questi sistemi deve rispondere delle scelte effettuate in quanto le macchinerestano “strumenti” seppur molto utili anche in ambiti come sanità, giustizia, finanza
- Beneficenza e non maleficenza
L’IA deve fare il bene ed evitare il danno promuovendobenessere sociale rifuggendo da un suo uso nocivo o distruttivo facendo del bene e senza nuocere.
- Governance e supervisione etica
Devono esistere regole e controlli attraverso Enti di vigilanza, normative chiare, valutazioni d’impatto eticoin sintesi attraverso una compiuta ed uniforme regolamentazione dei principi etici e della produzione dell’AI.
3. ETICA E REGOLAMENTAZIONE
Come abbiamo constatato l’etica e la sua regolamentazione sono un tema su cui si discute molto nell’ambito delle aziende produttrici di intelligenza artificiale, tanto che esse spesso adottano principi etici “per loro conto” dichiarando di avere principi etici interni ad esempio trasparenza, rispetto della privacy, equità, responsabilità, protezione dei dati, evitare discriminazioni, rispetto dei diritti umani ed altro.
Alcune aziende adottano formalmente “codici etici” o “carte etiche” e cercano di tradurli in pratica implementando la “governance interna” attraverso comitati etici, i controlli, i processi di audit (controllo indipendente per accertare che tutto funzioni correttamente), le misure di compliance (agire secondo regole stabilite, evitando violazioni e rischi legali o reputazionali).
Molte aziende dichiarano di aver definito impegni/principi etici per l’IA tuttavia, nella maggior parte dei casi lo sforzo è ancora “molto più culturale che strutturale” perché solo poche, per ora, hanno messo in piedi una governance matura e robusta (monitoraggio continuo, audit indipendenti, controllo su tutte le fasi di sviluppo passando dalla strategia all’azione “deploy”).
In mancanza di vincoli giuridici spesso le aziende “fanno da sé”, cercando di orientarsi verso un uso “responsabile” dell’IA, ma la concretezza e l’efficacia di queste pratiche variano moltissimo perché in molti casi ci sono principi, magari precedentemente codificati, la cui applicazione reale è ancora parziale o poco standardizzata.
a. Perché negli Stati Uniti la regolamentazione è poco vincolante e cosa significa
Negli USA non esiste (al momento) una normativa federale ampia e specifica che regolamenti l’IA in generale. Ciò significa che lo sviluppo e la distribuzione di sistemi di IA avvengono in un quadro legale spesso ereditato da leggi su privacy, concorrenza, tutela consumatori, senza una disciplina organica dedicata.
Alcune agenzie federali (come la Federal Trade Commission — FTC) si sono dichiarate disponibili a interpretare le normative esistenti come applicabili anche all’IA (ad esempio in caso di pratiche commerciali ingannevoli, discriminazioni, uso improprio di dati), ma questo non equivale a una regolamentazione dedicata e uniforme per tutti i casi.
A partire dal 2025 alcuni stati (o autorità locali) hanno iniziato a muoversi, ad esempio lo stato di California ha approvato una legge – Transparency in Frontier Artificial Intelligence Act (SB-53) – per richiedere alle imprese AI di documentare pubblicamente i rischi dei loro modelli, segnalare incidenti gravi, fornire trasparenza sulle misure di sicurezza, prevedere protezioni per whistleblower.
Tuttavia la strada verso una regolamentazione coerente e federale è ancora lunga, dato il modello normativo “a macchia di leopardo” — che alterna leggi generali, iniziative di singoli stati e autoregolamentazione — le aziende godono oggi di molta libertà operativa. Questo consente innovazione rapida, ma anche un alto grado di eterogeneità nella qualità dell’etica e della sicurezza.
In pratica: molte aziende di IA negli USA operano in un contesto “light-touch” (approccio leggero, poco invasivo, flessibile), con poche regole vincolanti specifiche, e in molti casi si affidano a pratiche volontarie interne. Questo genera da una parte un ambiente favorevole allo sviluppo, dall’altro rischi di scarsa omogeneità e responsabilizzazione.
In sintesi negli USA molte aziende di IA usano principi etici indipendenti essendovi scarsa regolamentazione e ciò, senza dubbio offre maggiore libertà d’azione. La realtà si presenta quindi disomogenea in quanto alcune aziende fanno veri sforzi di governance, altre adottano etica “di facciata” per cui il sistema USA (sia pubblico che privato) resta per ora un mosaico, senza una regolamentazione unica e vincolante.
Il contesto cambia molto in UE (e in paesi come l’Italia), dove si sta spingendo verso una regolamentazione più sistematica con leggi che pongono limiti, definiscono obblighi di trasparenza, di controllo, di valutazione del rischio.
Questo significa che, anche se le aziende possono definire principi etici da sole, le regole esterne stanno diventando più incisive rendendo l’etica “non solo volontaria”, ma in parte obbligata per consuetudine.
b. Conseguenze: pro e contro dell’approccio “ibrido” degli USA (eticità volontaria e regolamentazione debole)
- Pro:
Innovazione più rapida: le aziende possono sperimentare liberamente, adattarsi, rilasciare rapidamente nuovi sistemi.
Flessibilità: modelli e processi possono evolvere con l’IA, senza essere soffocati da regolamenti rigidi.
Autonomia aziendale: le imprese possono definire principi etici coerenti con la loro missione e visione, piuttosto che subire regole generali (talvolta inadatte).
- Contro / rischi:
Mancanza di standard comuni: ciò che è “etico” per un’azienda può non esserlo per un’altra; l’utente finale può trovarsi in situazioni molto diverse da un provider a un altro.
Rischio di “green-washing etico”: dichiarazioni di principi etici magari bene intenzionate, ma senza un sistema di controlli reali e verificabili.
Incertezza legale e di responsabilità: quando un’IA causa danni — bias, discriminazioni, violazioni di privacy — è più difficile stabilire responsabilità certe.
Vulnerabilità rispetto a abusi, se non c’è supervisione esterna o normativa forte.
4. ESEMPI DI APPLICAZIONE DI REGOLE ETICHE INCORPORABILI NEI SISTEMI (ALGORETICA) E COSTRUZIONE DEGLI ALGORITMI SECONDO PRINCIPI ETICI.
a. Come vengono applicate le regole etiche.
Pur avendo un quadro normativo disomogeneo a livello internazionale si forniscono alcuni esempi di programmi che tengono in considerazione principi etici legittimando “algoritmi etici”:
- EU AI Act (Unione Europea)
È la prima legge al mondo che classifica i sistemi di IA per rischio (minimo, limitato, alto, vietato), impone trasparenza, supervisione umana, non -discriminazione, vieta pratiche pericolose (manipolazione psicologica, social scoring di massa). Tale legge è algoretica perché stabilisce vincoli etici che diventano requisiti ingegneristici durante lo sviluppo dell’IA.
- Model Cards (Google) e Datasheets for Datasets (MIT + Google)
Sono due documenti per descrivere in modo chiaro come funzionano i modelli e da dove vengono i dati, con l’obiettivo di rendere i sistemi AI più comprensibili, responsabili ed affidabili. Essi spiegano come è stato addestrato un modello, indicano limiti, rischi, bias, condizioni d’uso, aiutando ingegneri e utenti a prendere decisioni consapevoli. Si tratta quindi di un’applicazione pratica dell’algoretica in quanto si ottiene la trasparenza codificata come parte del ciclo di sviluppo.
- Fairness Toolkit (IBM AI Fairness 360)
E’ una libreria open-source di strumenti pensata per aiutare i data scientist sviluppatori e team AI a misurare, comprendere e mitigare i bias (pregiudizi) nei modelli di machine learning e nei data set, offre algoritmi per mitigarli e genera report verificabili. Tali strutture sono algoretiche perché traducono concetti come “equità” in metriche computabili (es. disparate impact, equal opportunity).
- Explainable AI (XAI) – usata in sanità, finanza, PA
Si tratta di intelligenza artificiale spiegabile, è l’insieme di metodi, tecniche e principi che permettono di capire, interpretare e spiegare come e perché un sistema di AI prende una certa decisione, Ospedali, banche e pubbliche amministrazioni utilizzano strumenti come LIME, SHAP, saliency maps, report di spiegabilità obbligatori nei sistemi critici, in quanto l’AI incide sulle persone. Tale AI è algoretica in quanto la decisione dell’algoritmo deve essere comprensibile, e tracciabile, per essere moralmente verificabile.
- Human-in-the-loop nelle decisioni critiche
Tale processo nelle decisioni critiche implica che una persona è attivamente coinvolta nel processo decisionale, soprattutto prima che una decisione automatizzata produca effetti rilevanti su individui, organizzazioni o società. Ad esempio si possono citaresistemi di diagnosi medica assistita (radiologia, cardiologia), algoritmi per l’erogazione di credito (con revisione obbligatoria di un funzionario umano), sistemi di predictive policing (limitati da verifiche e approvazioni manuali). Tale costruzione algoretica è volta a garantire che l’umano conservi responsabilità e controllo.
- Bias Audit obbligatori (New York City – Local Law 144)
Tale norma locale, adottata dalla città di New York approvata nel 2021 e in vigore dal 2023 richiede che strumenti di IA usati per assunzioni, screening del personale vengano auditati da terze parti per verificare la correttezza dei processi decisionali ed evitare discriminazioni. Tale norma è algoretica perché è funzionale a verificare che gli algoritmi non danneggino gruppi sociali vulnerabili.
- Content Moderation trasparente (Meta, YouTube, TikTok)
Le piattaforme stanno introducendo politiche e processi con cui i contenuti pubblicati dagli utenti vengono controllati, filtrati, rimossi e/o segnalati con trasparenzaal pubblico indicando funzionamento e procedura. In pratica gli utenti possono capire perché un contenuto è stato rimosso, come funziona l’algoritmo di moderazione, come fare appello o contestare la decisione. Tale procedura è algoretica poiché volta allatutela della dignità delle persone contro decisioni automatizzate opache.
- Autonomous Vehicles: “ethical liars”
Nei veicoli autonomi, che possono muoversi e prendere decisioni di guida a vari livelli di autonomia senza intervento umano, grazie a sensori AI, machine learning e sistemi di controllo, viene inserita una Ethical Black Box, ovvero un sistema di tracciamento decisionale simile a una “scatola nera”, progettato per rendere verificabili le scelte dell’IA, utile per responsabilità e sicurezza. Gli ethical liars invece sono informazioni parziali o ingannevoli per motivi etici, per massimizzare la sicurezza o ridurre danni: ad esempio l’automezzo autonomo comunica ad un pedone di fermarsi anche se il veicolo è in sicurezza con la frenata, oppure in altro contesto, omette dettagli sensibili per proteggere la privacy. Tale programmazione è algoretica rispondendo al principio dell’accountability (obbligo di rispondere alle proprie azioni) incorporata nella progettazione.
- Linee guida etiche interne (Microsoft, OpenAI, DeepMind)
Molte grandi aziende hanno introdotto comitati etici, principi di “responsabile AI” implementando nei processi di sviluppo dell’AI, checklist obbligatorie prima del rilascio di un modello. Anche questa linea gestionale è Algoretica perché volta ad addestrare sensibilizzare e governare gli operatori umani che operano nella costruzione dell’AI.
L’algoritmo è “algoretico” quando rimuove variabili potenzialmente discriminatorie, mantiene la spiegabilità incorporata (deve dire perché decide), prevede un human-in-the-loop quando l’incertezza è alta, le metriche sono controllabili e auditabili.
Algoretica significa integrare i principi etici dentro gli algoritmi stessi,
senza aggiungerli dopo, facendo sì che la tecnologia nasca già orientata al bene umano. È come la progettazione di un ponte che considera la sicurezza integrandola nella struttura portante, non aggiungendola alla fine del lavoro. Padre Benanti chiama metaforicamente questi limiti operativi “guardrail”.
In sintesi i sistemi di IA moderni hanno limiti e controlli interni progettati per non violare la privacy, non tracciare le persone, non accedere a dati esterni senza permesso, non diffondere informazioni sensibili o dannose, non essere manipolabili per usi impropri.Questi limiti non sono “censure”, ma funzioni di sicurezza integrate.
b. Come si costruisce un algoritmo
Indipendentemente dal linguaggio o dal tipo (IA, classico, ottimizzazione…), un algoritmo nasce attraverso fasi strutturate:
Definizione del problema: Qual è l’obiettivo? Che input riceve e che output deve produrre? Vincoli? (tempo, memoria, etica, costo, accuratezza…) Esempio: decidere se approvare un prestito.
Modellazione: Formalizzare il problema in modo matematico o logico, definendo variabili, soglie, funzioni, regole decisionali. Esempio:
- reddito, età, storico creditizio = variabili;
- rischio = funzione f (reddito, debiti, affidabilità passata).
Scelta dell’approccio che può essere:
- algoritmo deterministico (if/else, calcoli logici, ricerca…)
- algoritmo probabilistico
- algoritmo di machine learning
Progettazione dove si usano strumenti come:
- diagrammi di flusso
- formulazione passo-passo
- specifica delle condizioni e dei cicli
- definizione dei controlli etici (algoretica!)
- Codifica.
È la parte “programmativa e consiste nella scrittura dell’algoritmo in un linguaggio (Python, C, Java…)”.
- Test e validazione volti a collaudare e verificare l’adeguatezza dello strumento
- test di unità
- test di integrazione
- test su casi reali
- debug
- controlli di bias, sicurezza, privacy
- verifica dell’aderenza ai vincoli etici (se previsti)
Manutenzione e miglioramento.
Gli algoritmi vivono, si aggiornano, vanno corretti e perfezionati durante il loro utilizzo e si ottimizzano col tempo.
5. CRITICITA’, ERRORI ED ALLUCINAZIONI RISCONTRATE NELL’UTILIZZO DELL’A.I.
a. Cos’è il bias nell’AI ed i suoi effetti nelle decisioni.
Bias significa distorsione sistematica nei dati, nel modello o nelle decisioni di un sistema AI, che porta a risultati ingiusti, discriminatori o non corretti verso persone o gruppi. In questo caso il sistema non è neutrale e tratta persone o situazioni in modo non equo.
L’IA “impara” dai dati; se i dati riflettono pregiudizi sociali, se i data set non sono sufficientemente rappresentativi o vi sono errori o dati mancanti, sono sbilanciati, discriminatori o incompleti, allora anche l’IA agirà in modo discriminatorio.
Può essere sbagliato anche il modello sulle scelte di progettazione dell’algoritmo o in caso l’AI venga utilizzata in un contesto diverso da quello per cui è stata progettata. Ad esempio se un modello vede milioni di foto di “ingegnere” e il 90% sono uomini, tenderà a credere che un ingegnere debba essere uomo, quindi farà errori e discriminazioni. Si può avere sempre per esempio che un sistema di recruting penalizzi le donne, un algoritmo di credito che svantaggi certi quartieri di residenza, si può avere un riconoscimento facciale meno accurato su alcune etnie. L’IA non è neutrale: riflette tutto ciò che le viene mostrato.
I bias possono essere di vari tipi:
- Bias razziale
- Bias di genere
- Bias sociale o economico
- Bias geografico o linguistico
- Bias statistico (campioni sbilanciati)
A scopo esemplificativo possiamo avere i seguenti errori di valutazione da parte dell’AI:
- Sistemi di riconoscimento facciale che discriminano.
Alcuni sistemi automatici usati negli USA in campo giudiziario identificavano erroneamente persone afroamericane con una frequenza molto superiore rispetto ai bianchi e il risultato è stato che si sono avuti vari casi in cui persone innocenti sono state identificate ingiustamente perché il sistema “credeva” di averle riconosciute. (bias razziale).
- Algoritmi per la concessione di prestiti con pregiudizi.
Algoritmi di AI connessa a servizi bancari hanno concesso meno prestiti a donne o minoranze etniche perché i modelli erano addestrati su dati storici in cui queste categorie ricevevano già meno credito. In questo caso l’IA ha amplificato una discriminazione preesistente.
- Recruiting automatico discriminatorio.
un sistema di selezione automatizzata filtra CV penalizzando nomi femminili, università meno prestigiose, aree geografiche con reddito più basso. Il modello non “vuole discriminare”, ma apprende correlazioni distorte dai dati storici delle assunzioni dell’azienda riproducendo dei pregiudizi storici dai dati precedenti acquisiti del datore di lavoro.
- Sistemi di giustizia predittiva inesatti.
Sempre nel campo giudiziario, algoritmi come COMPAS (USA) stimavano il “rischio di recidiva”. Si è scoperto che attribuivano punteggi più alti (quindi più “pericolosi”) a persone afroamericane anche con precedenti modesti, ciò ha influenzato sentenze, cauzioni, libertà vigilate.
- IA generativa e “allucinazioni”.
I modelli generativi possono inventare fatti inesistenti, diffondere diffamazioni, attribuire reati a persone innocenti, generare contenuti deepfake realistici (audio, video, testi). Ad esempio avvocati USA hanno presentato in tribunale documenti generati dall’IA contenenti sentenze inventate, causando un caso giudiziario vero. L’Errore è scaturito dall’IA e dalla mancanza di controllo umano.
b. Violazioni delle privacy e sicurezza.
- Raccolta massiva di dati per addestrare modelli
Alcuni modelli sono stati addestrati su dati presi senza consenso, foto private pubblicate sui social, forum, chat, commenti, email, dati sensibili. Il risultato potrebbe portare l’AI a ripetere testualmente frasi private apprese durante l’addestramento o possono essere generati e diffusi dati personali o confidenziali senza autorizzazione.
- “Re-identificazione”
Anche quando i dati sono anonimizzati, l’IA può ricostruire identità, comportamenti, preferenze, malattie,orientamento politico o sessuale, anche senza un addestramento o domanda specifica.
- Deepfake realistici
Deepfake audio e video possono imitare politici, imitare manager, truffare aziende (“fake CEO scam”), produrre materiale non consensuale, soprattutto contro donne e minori. Tale errore è uno dei rischi più gravi che attualmente può essere attuato.
c. Come dovrebbero funzionare i “codici etici” delle aziende di AI e quali possono essere le distorsioni.
In teoria un buon codice etico per l’IA dovrebbe includere principi chiari come trasparenza, non discriminazione, privacy, sicurezza, responsabilità e processi etici come controlli prima del rilascio. Sono ancora necessari audit interni ed esterni, valutazioni del rischio, test per bias e sicurezza, procedure di segnalazione incidenti, e supervisione indipendente attraverso comitati etici, revisori esterni, rapporti periodici pubblici.
In pratica potrebbe succedere che i codici etici esistano formalmente nell’azienda ma non siano vincolanti o applicati bene per cui, anche se le aziende avessero buoni documenti di controllo etico, non essendo obbligatori, misurabili, controllati da enti terzi, danno luogo alla cosiddetta eticità di facciata soprattutto se non prevedano sanzioni interne per la loro inosservanza.
Altre ragioni possono indurre le aziende a non utilizzare e mettere a punto un sistema di monitoraggio controllo e revisione continua dei programmi e possono essere che:
- L’etica viene dopo il marketing o gli investitori.
La pressione a rilasciare prodotti rapidamente porta a test insufficienti, controlli minimi, rischi noti ma “accettati”.
- I comitati etici interni vengono ignorati.
Può succedere che il comitato etico segnali un rischio ma che il management lo ignori perché “blocca o rallenta i risultati”, per cui il comitato venga sciolto o svuotato delle sue funzioni.
- I team di sicurezza vengono ridotti.
A volte, per risparmiare o seguire i ritmi e le attese del mercato e dell’evoluzione, le aziende non assumano o non tengano conto dei team di etica, tagliano budget di sicurezza e mettano in attività programmi assumendosi i rischi.
- Gli incidenti vengono scoperti “dopo”.
Molti problemi (bias, errori, fughe di dati) vengono scoperti dagli utenti, da giornalisti, da ricercatori indipendenti e non dai controlli interni.
In sintesi le aziende pubblicano codici etici, ma spesso si prestano ad essere applicati su base volontaria, non sono previste sanzioni in caso di parziale o mancato utilizzo, non vengono applicati integralmente e vengono messi in secondo piano rispetto alla velocità di sviluppo ed alle logiche del mercato.



