Nel 2018 Apple sembrava finalmente pronta a dare una svolta alla propria strategia sull'intelligenza artificiale. L'arrivo di John Giannandrea, proveniente da Google e figura chiave nello sviluppo dei sistemi di ricerca e AI di Mountain View, era stato interpretato come un segnale chiaro: l'azienda intendeva recuperare il terreno perso nel campo dell'assistenza vocale e del machine learning, dopo anni in cui Siri era rimasta ferma a funzioni basilari. A Giannandrea fu affidata la responsabilità di unificare tutti i team che lavoravano sull'AI, riportando direttamente al CEO, Tim Cook, con l'ambizione di farne uno dei pilastri strategici di Cupertino.
Sette anni dopo, quelle promesse non si sono concretizzate. Lo sviluppo dell'AI in Apple è segnato da ritardi strutturali, bug tecnici, cambiamenti di leadership e una gestione conservativa che, secondo numerose fonti interne, ha minato ogni reale possibilità di competere con l'avanzata dei modelli linguistici generativi promossi da OpenAI, Google e Meta. In un'approfondita ricostruzione pubblicata da Bloomberg, Mark Gurman e Drake Bennett hanno messo in fila tutti i passaggi di un "fallimento organizzativo e strategico" che oggi minaccia anche i prodotti futuri dell'azienda.
RITARDI, FUNZIONI INCOMPLETE E UNA SIRI MAI PRONTANel giugno 2024, Apple aveva presentato "Apple Intelligence" come piattaforma unificante per le proprie soluzioni AI, introducendo strumenti di scrittura assistita, riassunti intelligenti, generazione di emoji personalizzate e, soprattutto, una Siri profondamente rinnovata, finalmente capace di interagire con i dati personali e i contenuti su schermo. Ma all'uscita dell'iPhone 16, il dispositivo "costruito da zero per Apple Intelligence", le funzioni promesse erano ancora assenti. Alcune sono arrivate settimane dopo, altre sono state rinviate di mesi e altre ancora, come la nuova versione di Siri, non sono mai uscite.
I problemi non erano solo tecnici. La demo presentata alla WWDC 2024, mostrata come una sessione dal vivo, era in realtà un video preregistrato con un prototipo preliminare. Quando Federighi ha provato sul proprio iPhone la beta di iOS 18.4, ha scoperto che molte funzioni chiave, come il recupero del numero della patente tramite comando vocale, non funzionavano. Il rilascio di Siri è stato prima rinviato ad aprile, poi a maggio e infine rimandato a data indefinita. Le pubblicità televisive, che mostravano scenari di utilizzo realistici ma irrealizzabili, sono state ritirate. Alcuni utenti hanno avviato cause legali per pubblicità ingannevole.
La nuova Siri non sarà pronta nemmeno per la WWDC di giugno 2025, a un anno esatto dall'annuncio. Al posto di un assistente completamente rinnovato – per non parlare di un vero concorrente di ChatGPT, come quelli già disponibili presso altre aziende – il pubblico dovrà accontentarsi di promesse di un'espansione graduale di Apple Intelligence. Durante l'evento, Apple presenterà una serie di aggiornamenti software non legati all'AI, tra cui una nuova interfaccia grafica pensata per rendere più coerente l'esperienza tra iPad, iPhone e Mac, ispirata al sistema operativo del visore Vision Pro.
UNA STRUTTURA RIGIDA, UN CODICE FRAMMENTATOSecondo numerosi ingegneri coinvolti nel progetto, uno dei principali ostacoli è stata l'architettura tecnica di Siri, divisa tra il vecchio codice responsabile delle funzioni tradizionali (sveglie, meteo, messaggi) e i nuovi moduli basati su AI generativa. La coesistenza tra le due parti ha creato problemi di integrazione costanti: funzionalità che lavoravano bene isolatamente fallivano nei test combinati. Il risultato è stato un ciclo continuo di bug e rinvii.
Apple sta ora lavorando a una nuova base software, soprannominata internamente "LLM Siri", sviluppata dal team AI di Zurigo, con l'obiettivo di passare a un modello monolitico interamente costruito su un motore linguistico generativo. Intanto, migliaia di analisti stanno valutando l'accuratezza delle risposte prodotte da Apple Intelligence, confrontando l'output con i contenuti di origine per individuare le cosiddette allucinazioni. Un sistema di raccolta dati sintetici, migliorato grazie a un aggiornamento software che consente agli iPhone di confrontare linguaggio fittizio con frasi reali nelle email, serve per alimentare il training senza compromettere la privacy.
LE TENSIONI INTERNE E LA FRATTURA SU SIRIGiannandrea, inizialmente incaricato anche della supervisione di Siri, è stato progressivamente esautorato. La divisione è ora guidata da Mike Rockwell, noto per aver diretto lo sviluppo del visore Vision Pro, e che oggi risponde direttamente a Federighi. Rockwell ha riorganizzato il team portando con sé gli ingegneri di fiducia del progetto headset, mentre Robby Walker, ex capo di Siri, è stato riassegnato.
Apple ha scelto di integrare ChatGPT nelle funzioni di Siri, per gestire le richieste più complesse, e sta lavorando per aggiungere Google Gemini come opzione alternativa in iOS 19. Sono in corso anche contatti preliminari con Perplexity, possibile fornitore di motore AI per Safari. Il chatbot proprietario, testato internamente, avrebbe compiuto progressi notevoli negli ultimi sei mesi, tanto che alcuni dirigenti lo ritengono ormai allineato ai modelli GPT più recenti. L'obiettivo è farne un motore di ricerca vocale in grado di interagire con il web e con le app, proteggendo i ricavi dell'App Store e quelli derivanti dall'accordo da 20 miliardi di dollari l'anno con Google per il motore predefinito in Safari.
UN'AI FUORI TEMPO RISPETTO AL MODELLO APPLEMolti dei problemi riscontrati derivano anche dal modo in cui Apple costruisce i propri prodotti. Abituata a rilasciare soluzioni rifinite, basate su tecnologie sviluppate internamente, l'azienda si è trovata impreparata davanti a un paradigma, quello dell'AI generativa, che richiede iterazioni rapide, infrastrutture cloud estese e accesso a grandi quantità di dati. Il rifiuto di usare i dati utente, insieme a una politica restrittiva sull'accesso a contenuti esterni, ha obbligato Apple a fare affidamento su dataset sintetici o concessi in licenza.
Anche sul fronte hardware, la prudenza ha avuto un costo. L'ex CFO Luca Maestri ha mantenuto per anni una linea cauta nell'acquisto di GPU, rivelatasi inadeguata quando la domanda globale è esplosa. Apple si è trovata senza accesso a risorse critiche già accaparrate da Amazon, Microsoft e Google, rallentando ulteriormente l'addestramento dei modelli.
Intanto, all'interno del team Siri si moltiplicano le frustrazioni: "Stiamo lavorando da anni e nessuno ci chiede com'è andata. Ci saltano addosso perché non siamo arrivati alla meta, ma ignorano tutto il lavoro fatto per avvicinarla", avrebbe detto Robby Walker in una riunione interna. I problemi, però, restano centinaia. "È come un software patchwork, dove ogni pezzo sembra funzionare, finché non li metti insieme," ha dichiarato un ingegnere.
"Tutte le aziende che sviluppano modelli fondamentali non hanno idea di cosa sia davvero un assistente, mentre Apple lavora su questo concetto dal 2010," ha dichiarato Dag Kittlaus, co-creatore di Siri. "Hanno ancora il pulsante, il marchio e, se faranno un trapianto di cervello a Siri, avranno tutte le possibilità di diventare l'assistente preferito."
UN CAMBIO DI STRATEGIAIntanto, l'assistente AI interno, ora in test, avrebbe raggiunto un livello qualitativo considerato allineato ai modelli GPT più recenti. Apple punta a trasformarlo in un sistema capace di navigare il web, aggregare fonti e gestire con precisione le app installate. Un passaggio fondamentale per evitare che i chatbot sostituiscano le applicazioni stesse, mettendo a rischio il modello dell'App Store.
Secondo quanto emerso, l'azienda starebbe anche preparando una strategia di comunicazione distinta per Apple Intelligence, separandola progressivamente dal marchio Siri, il cui nome continua ad avere una reputazione compromessa. La funzione di health coaching AI e la nuova modalità di gestione energetica intelligente dovrebbero essere tra le novità annunciate alla WWDC.
Nel frattempo, Apple sta lavorando anche per adeguarsi alle normative europee che impongono una maggiore apertura delle piattaforme. Secondo quanto riportato da Bloomberg, l'azienda introdurrà la possibilità, per gli utenti dell'Unione Europea, di impostare un assistente vocale di terze parti come predefinito al posto di Siri. La modifica dovrebbe interessare tutte le principali piattaforme software dell'azienda, a partire da iOS, iPadOS e macOS. In base a questa nuova impostazione, gli utenti potranno scegliere, ad esempio, Google Assistant o Amazon Alexa come assistente vocale predefinito, analogamente a quanto già avviene con browser, app di messaggistica e navigazione.
In parallelo, Apple ha deciso di abbandonare la pratica di annunciare funzionalità con troppo anticipo rispetto al rilascio effettivo. Secondo Bloomberg, la nuova linea prevede che gli annunci vengano fatti solo nei mesi immediatamente precedenti alla disponibilità. Una scelta dettata anche dai ritardi accumulati non solo con Siri, ma anche con il nuovo sistema CarPlay, presentato nel 2022 e arrivato solo nel 2025 su veicoli Aston Martin.