All’inizio del 2026, Google ha deciso di limitare e in alcuni casi rimuoverle risposte automatiche della sua intelligenza artificiale su domande mediche. Il motivo non è un aggiornamento ordinario, ma un’inchiesta del quotidiano britannico The Guardian che ha mostrato come questi riassunti generati dall’IA, chiamati AI Overviews, potessero essere non solo imprecisi, ma potenzialmente pericolosi per la salute degli utenti.
Quando la sintesi diventa un rischio
Gli AI Overviews sono brevi sintesi che compaiono in cima ai risultati di ricerca, pensate per offrire una risposta rapida e “autorevole” alle domande degli utenti. In teoria, dovrebbero aiutare a orientarsi tra fonti complesse. In pratica, secondo l’inchiesta, in molti casi hanno prodotto l’effetto opposto: semplificazioni fuorvianti, dati fuori contesto e suggerimenti che contrastano con le linee guida mediche ufficiali.
I numeri senza contesto
Uno dei problemi più gravi riguarda la presentazione di valori clinici considerati “nella norma” senza alcuna contestualizzazione. Parametri come quelli dei test epatici, ad esempio, dipendono da variabili fondamentali come età, sesso, condizioni preesistenti e storia clinica. Isolarli dal loro contesto può portare una persona a credere di stare bene quando in realtà non è così. In altri casi, le risposte dell’IA hanno suggerito comportamenti alimentari potenzialmente dannosi per pazienti oncologici, dimostrando una scarsa comprensione delle specificità mediche.
Le organizzazioni sanitarie e gli esperti interpellati dal Guardian hanno usato parole forti: “allarmante”, “pericoloso”, “fuorviante”.
La risposta di Google
Di fronte a queste rivelazioni, Google ha reagito. L’azienda ha rimosso gli AI Overviews per alcune ricerche particolarmente sensibili e ha dichiarato di essere al lavoro per migliorare l’affidabilità del sistema. Ha anche ribadito che molte delle risposte si basano su fonti autorevoli e che alcuni dei casi evidenziati erano già in fase di revisione. Tuttavia, la risposta non ha convinto tutti.
Secondo diversi osservatori, il problema non è risolvibile semplicemente eliminando alcune risposte sbagliate. Le stesse informazioni, con lievi variazioni nella formulazione della domanda, tendono a riemergere. Il nodo centrale è che l’intelligenza artificiale, per sua natura, non “capisce” la medicina: rielabora testi, individua schemi, genera risposte plausibili. Ma la plausibilità non è sinonimo di correttezza clinica.
L’illusione dell’autorevolezza
Questo limite è ampiamente documentato dalla letteratura scientifica. Diversi studi mostrano che i modelli linguistici generativi possono fornire risposte mediche incomplete, imprecise o addirittura pericolose se utilizzati senza supervisione umana. In alcuni casi, fino a quasi la metà delle risposte analizzate presenta criticità potenzialmente dannose.
Quando un utente legge un’informazione generata da un motore di ricerca, tende a considerarla affidabile per definizione. L’IA non mostra dubbi, non esplicita incertezze, non suggerisce consulti medici con la stessa forza con cui un professionista umano farebbe. E così il confine tra informazione e diagnosi si assottiglia pericolosamente.
Una questione che va oltre Google
Il caso Google si inserisce in un contesto più ampio. L’intero settore dell’IA sanitaria è in una fase di espansione rapidissima, con chatbot, assistenti virtuali e sistemi di supporto decisionale che promettono di rivoluzionare l’accesso alla salute. Ma questa promessa si scontra con una realtà fatta di responsabilità, complessità clinica e rischi concreti.
Il punto non è demonizzare l’intelligenza artificiale. Al contrario, questi strumenti potrebbero diventare risorse straordinarie per la divulgazione, il triage informativo e il supporto ai pazienti. Ma solo se verranno progettati con criteri rigorosi, con un controllo umano reale, con trasparenza sulle fonti e con una comunicazione chiara dei propri limiti.



