Snap ha annunciato che nel 2026 lancerà una nuova generazione di Spectacles, dispositivi indossabili basati su realtà aumentata e intelligenza artificiale. La comunicazione è arrivata durante l’Augmented World Expo di Long Beach, dove la società ha descritto il nuovo modello come un significativo passo avanti rispetto alle versioni precedenti, sia in termini di peso e design, sia per quanto riguarda le capacità computazionali e le funzioni integrate.
Secondo Snap, i nuovi Spectacles sono progettati per interagire con l’ambiente circostante tramite un sistema avanzato di machine learning e per ospitare un’interfaccia tridimensionale basata sull’AI. Il dispositivo è pensato come una postazione di lavoro indossabile, in grado di supportare attività di navigazione, gioco, collaborazione e fruizione di contenuti digitali. Tra gli elementi distintivi figurano le lenti trasparenti, che permettono di sovrapporre elementi digitali al contesto fisico, mantenendo la piena visibilità del mondo reale.
Nel comunicato diffuso dall’azienda, il CEO, Evan Spiegel, ha dichiarato che Snap considera questa nuova generazione di occhiali un'evoluzione del concetto di computer personale, resa possibile dai recenti sviluppi nel campo dell’intelligenza artificiale e della realtà aumentata.
I nuovi Spectacles seguono un percorso già tracciato dalla versione attuale, destinata alla community di sviluppatori. Le Lenti AR di Snapchat vengono utilizzate quotidianamente oltre 8 miliardi di volte, e più di 400.000 sviluppatori hanno realizzato oltre 4 milioni di Lenti sfruttando gli strumenti di Snap. L’azienda conferma che il nuovo modello sarà orientato a un pubblico più ampio, ma continuerà a basarsi su una solida rete di creazione e sperimentazione già esistente.
Tra le applicazioni AR in fase di sviluppo per i nuovi Spectacles figurano:
- Super Travel di Gowaaa, per tradurre testi su cartelli, menù o ricevute e convertire valute in tempo reale durante i viaggi.
- Drum Kit di Paradiddle, che insegna a suonare la batteria sovrapponendo elementi visivi su strumenti reali.
- Pool Assist di Studio ANRK, utile per migliorare i tiri nel biliardo.
- Cookmate di Headraft, che suggerisce ricette e fornisce istruzioni passo-passo a partire dagli ingredienti disponibili.
- Wisp World di Liquid City, un’esperienza narrativa e interattiva per esplorare in modo giocoso l’ambiente circostante.
Contestualmente al nuovo hardware, Snap ha introdotto una serie di aggiornamenti al sistema operativo proprietario Snap OS, con l’obiettivo di ampliare le possibilità di sviluppo e integrazione con strumenti AI. L’azienda ha reso noto di aver rafforzato la collaborazione con OpenAI e con il servizio Gemini di Google Cloud, offrendo agli sviluppatori l’opportunità di creare Lenti multimodali che rispondano a stimoli visivi, vocali e ambientali in tempo reale.
Tra le nuove funzionalità software ci sono:
- un modulo Depth API, che consente di ancorare con precisione contenuti AR in tre dimensioni a partire da input testuali o visivi;
- un sistema di riconoscimento vocale automatico, compatibile con oltre 40 lingue, pensato per abilitare la trascrizione in tempo reale;
- un’API Snap3D, destinata alla generazione dinamica di oggetti tridimensionali all’interno delle esperienze AR.
Snap ha inoltre rafforzato l’offerta di strumenti legati alla geolocalizzazione, introducendo una modalità di gestione remota per flotte di dispositivi Spectacles, una funzione per l’avvio guidato di Lenti in modalità singola o multiplayer, e una modalità di navigazione progettata per facilitare lo sviluppo di tour AR tematici. Quest’ultima è già in fase di utilizzo da parte di Enklu, realtà attiva nella gestione del teatro olografico Verse Immersive, presente in diverse città statunitensi. A Chicago, gli utenti possono già partecipare a sessioni del gioco SightCraft attraverso i nuovi occhiali.
Tra le prospettive a breve termine, Snap ha annunciato la prossima integrazione del sistema Visual Positioning di Niantic all’interno di Lens Studio e dei nuovi Spectacles, con l’obiettivo di sviluppare una mappa del mondo condivisa e arricchita tramite AI. Un ulteriore passo in questa direzione sarà rappresentato dall’introduzione del supporto WebXR direttamente nel browser degli Spectacles, permettendo agli sviluppatori di testare e distribuire esperienze immersive fruibili in modo indipendente dalle app native.
Gli sviluppatori interessati a prendere parte al programma in vista del lancio del nuovo modello possono candidarsi attraverso la piattaforma dedicata: