0

Dr. Google? Quando l’IA rischia di fare più male che bene

Come un’inchiesta del Guardian ha costretto Google a fare un passo indietro sulle risposte mediche dell’IA e perché il problema è molto più profondo
venerdì, 16 Gennaio 2026
2 minuti di lettura

All’inizio del 2026, Google ha deciso di limitare e in alcuni casi rimuoverle risposte automatiche della sua intelligenza artificiale su domande mediche. Il motivo non è un aggiornamento ordinario, ma un’inchiesta del quotidiano britannico The Guardian che ha mostrato come questi riassunti generati dall’IA, chiamati AI Overviews, potessero essere non solo imprecisi, ma potenzialmente pericolosi per la salute degli utenti.

Quando la sintesi diventa un rischio

Gli AI Overviews sono brevi sintesi che compaiono in cima ai risultati di ricerca, pensate per offrire una risposta rapida e “autorevole” alle domande degli utenti. In teoria, dovrebbero aiutare a orientarsi tra fonti complesse. In pratica, secondo l’inchiesta, in molti casi hanno prodotto l’effetto opposto: semplificazioni fuorvianti, dati fuori contesto e suggerimenti che contrastano con le linee guida mediche ufficiali.

I numeri senza contesto

Uno dei problemi più gravi riguarda la presentazione di valori clinici considerati “nella norma” senza alcuna contestualizzazione. Parametri come quelli dei test epatici, ad esempio, dipendono da variabili fondamentali come età, sesso, condizioni preesistenti e storia clinica. Isolarli dal loro contesto può portare una persona a credere di stare bene quando in realtà non è così. In altri casi, le risposte dell’IA hanno suggerito comportamenti alimentari potenzialmente dannosi per pazienti oncologici, dimostrando una scarsa comprensione delle specificità mediche.

Le organizzazioni sanitarie e gli esperti interpellati dal Guardian hanno usato parole forti: “allarmante”, “pericoloso”, “fuorviante”.

La risposta di Google

Di fronte a queste rivelazioni, Google ha reagito. L’azienda ha rimosso gli AI Overviews per alcune ricerche particolarmente sensibili e ha dichiarato di essere al lavoro per migliorare l’affidabilità del sistema. Ha anche ribadito che molte delle risposte si basano su fonti autorevoli e che alcuni dei casi evidenziati erano già in fase di revisione. Tuttavia, la risposta non ha convinto tutti.

Secondo diversi osservatori, il problema non è risolvibile semplicemente eliminando alcune risposte sbagliate. Le stesse informazioni, con lievi variazioni nella formulazione della domanda, tendono a riemergere. Il nodo centrale è che l’intelligenza artificiale, per sua natura, non “capisce” la medicina: rielabora testi, individua schemi, genera risposte plausibili. Ma la plausibilità non è sinonimo di correttezza clinica.

L’illusione dell’autorevolezza

Questo limite è ampiamente documentato dalla letteratura scientifica. Diversi studi mostrano che i modelli linguistici generativi possono fornire risposte mediche incomplete, imprecise o addirittura pericolose se utilizzati senza supervisione umana. In alcuni casi, fino a quasi la metà delle risposte analizzate presenta criticità potenzialmente dannose.

Quando un utente legge un’informazione generata da un motore di ricerca, tende a considerarla affidabile per definizione. L’IA non mostra dubbi, non esplicita incertezze, non suggerisce consulti medici con la stessa forza con cui un professionista umano farebbe. E così il confine tra informazione e diagnosi si assottiglia pericolosamente.

Una questione che va oltre Google

Il caso Google si inserisce in un contesto più ampio. L’intero settore dell’IA sanitaria è in una fase di espansione rapidissima, con chatbot, assistenti virtuali e sistemi di supporto decisionale che promettono di rivoluzionare l’accesso alla salute. Ma questa promessa si scontra con una realtà fatta di responsabilità, complessità clinica e rischi concreti.

Il punto non è demonizzare l’intelligenza artificiale. Al contrario, questi strumenti potrebbero diventare risorse straordinarie per la divulgazione, il triage informativo e il supporto ai pazienti. Ma solo se verranno progettati con criteri rigorosi, con un controllo umano reale, con trasparenza sulle fonti e con una comunicazione chiara dei propri limiti.

Lascia un commento

Your email address will not be published.

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:

Potrebbero interessarti

“Sono l’arbitro della democrazia, ma i giocatori mi aiutino”

“L’immagine dell’arbitro l’ho adoperata anche io. Ho invitato anche i…

“Lei conosce il quotidiano la Discussione”? “Sì, conosco”

Ho fatto una chiacchierata con Luigi Einaudi. Scrivo per la…