Airbus al posto di Boeing: grave errore di AI Overview di Google su disastro Air India

https://www.hdblog.it/applicazioni/articoli/n621778/airbus-boeing-grave-errore-ai-overview-google/

HDblog.it Jun 13, 2025 · 4 mins read
Airbus al posto di Boeing: grave errore di AI Overview di Google su disastro Air India
Share this

La funzione AI Overview di Google Search ha commesso un errore particolarmente grave: parlando del disastro aereo del volo Air India 171, in cui hanno perso la vita 241 persone a bordo e almeno 28 a terra, ha indicato come coinvolto un Airbus A330-243 invece del Boeing 787 Dreamliner realmente precipitato. L'errore è stato documentato da almeno un utente su Reddit, che ha condiviso una schermata dello snippet errato, priva di segni di manipolazione.

Cercando "incidenti che coinvolgono aerei Airbus", un utente ha notato che l'AI Overview associava il disastro dell'Air India a un Airbus A330, citando informazioni completamente errate. Eseguendo ulteriori test è emerso un quadro ancora più caotico: a seconda delle variabili della ricerca, le risposte AI identificavano ora Boeing, ora Airbus, e in alcuni casi addirittura una combinazione confusa dei due nomi.

Il motivo di queste discrepanze non è semplice da individuare. Gli algoritmi generativi di Google sono di tipo non-deterministico, il che significa che possono fornire risposte diverse anche a partire dagli stessi input. Una possibile spiegazione è che l'AI, nell'analizzare i risultati disponibili, abbia registrato menzioni di Airbus come principale concorrente di Boeing, presenti in molti articoli sull'incidente, traendone conclusioni errate in fase di sintesi automatica.

COSA E' AI OVERVIEW

AI Overview è la nuova funzione introdotta da Google Search nel 2024, recentemente attivata anche in Europa e in Italia. La sua comparsa tra i risultati di ricerca viene spiegata così dall'azienda: "quando i nostri sistemi stabiliscono che l'AI generativa può essere particolarmente utile, ad esempio per comprendere rapidamente le informazioni provenienti da una serie di fonti". Il sistema genera un riassunto in apertura dei risultati, spesso con un linguaggio sicuro e assertivo, che può indurre l'utente a prenderlo per corretto.

Alla fine dello snippet, così come nella pagina ufficiale di supporto, è riportata una formula di avvertimento: "le risposte dell'AI potrebbero contenere errori" e "sebbene entusiasmante, questa tecnologia in rapida e continua evoluzione potrebbe fornire informazioni imprecise o offensive". Tuttavia, in un contesto come quello di un disastro aereo, in cui l'attribuzione del costruttore è un dettaglio rilevante per comprendere la dinamica dei fatti e le responsabilità industriali, la presenza di un disclaimer a piè di pagina risulta del tutto insufficiente.

LE CONSEGUENZE E I PRECEDENTI

L'errore ha un impatto non solo informativo ma anche reputazionale. Coinvolgere Airbus in un disastro che ha riguardato un Boeing significa distorcere la percezione pubblica e compromettere il principio di accuratezza che dovrebbe regolare la presentazione delle notizie. D'altra parte, l'errore può offrire una copertura involontaria a Boeing, azienda già messa sotto pressione da una lunga serie di criticità legate al proprio portafoglio aeronautico, in particolare la linea 737.

Non è la prima volta che AI Overview si rende protagonista di situazioni simili. Durante la fase di test negli Stati Uniti nel 2024, alcune risposte sbagliate sono diventate virali: tra queste, l'invito a usare la colla per far aderire meglio la mozzarella alla pizza, o il consiglio di mangiare un piccolo sasso ogni giorno per migliorare la digestione, preso da un articolo satirico pubblicato da The Onion. Se in quei casi l'assurdità dell'informazione era evidente, lo stesso non può dirsi per eventi tragici e reali.

IL RISCHIO DI UN'INFORMAZIONE PROBABILISTICA

L'episodio mette in luce un rischio strutturale dei sistemi basati su modelli linguistici di grandi dimensioni (LLM): quello di generare, con un'apparente coerenza, risposte errate, incomplete o fuorvianti. Anche in presenza di fonti corrette, l'AI può imboccare una direzione sbagliata a causa della sua incapacità di comprendere realmente il significato e il contesto. A differenza degli errori della stampa tradizionale, che sono firmati, verificabili e spesso circoscritti, quelli dell'intelligenza artificiale si diffondono in modo silenzioso ma capillare, con la forza dell'automazione e la velocità dell'indicizzazione.

Quando queste informazioni errate si inseriscono in quel meccanismo ormai radicato nel comportamento sociale del "l'ho trovato su Google", il rischio che l'informazione diventi probabilistica, e non fattuale, è estremamente alto. Anche più alto, in certi casi, degli errori commessi dal giornalismo tradizionale, perché avvolto da un'apparenza di neutralità tecnica che maschera la mancanza di comprensione.

LA RISPOSTA DI GOOGLE

A seguito della segnalazione, Google ha dichiarato ad Ars Technica di aver rimosso manualmente la risposta errata da AI Overview. In una nota ufficiale, l'azienda ha affermato:

"Come per tutte le funzioni di ricerca, apportiamo costantemente miglioramenti e utilizziamo esempi come questo per aggiornare i nostri sistemi. Questa risposta non viene più visualizzata. Manteniamo standard di alta qualità per tutte le funzioni di ricerca e il tasso di accuratezza delle panoramiche AI è pari a quello di altre funzioni come i featured snippet."

Una dichiarazione che, pur sottolineando la reattività del team di Search, non affronta fino in fondo il tema della responsabilità informativa. Il fatto che un errore simile sia stato corretto solo dopo l'intervento di un utente e la segnalazione alla stampa dimostra quanto sia fragile, nel modello attuale, il rapporto tra AI e controllo editoriale. Questo caso diventa così un ulteriore campanello d'allarme sull'affidabilità dell'AI applicata alla ricerca, proprio nel momento in cui Google ne sta promuovendo l'estensione su scala globale. Il consiglio per gli utenti, ovviamente, è quello di approfondire sempre ulteriormente le ricerche di informazioni, senza mai prendere subito per certo quello che viene generato da un'AI.