Meta aggiorna gli occhiali Ray-Ban: nuove funzioni per utenti ipovedenti

https://www.hdblog.it/indossabili/articoli/n618659/ray-ban-meta-accessibilita-ai/

HDblog.it May 16, 2025 · 1 min read
Meta aggiorna gli occhiali Ray-Ban: nuove funzioni per utenti ipovedenti
Share this

In occasione della Giornata globale della consapevolezza sull’accessibilità, Meta ha annunciato una serie di aggiornamenti per gli occhiali intelligenti Ray-Ban Meta, con un’attenzione particolare alle persone con problemi di vista. L’intelligenza artificiale integrata negli occhiali diventa ora ancora più reattiva e personalizzabile, offrendo risposte dettagliate basate sull’ambiente circostante.

Una delle novità più attese è l’espansione della funzione “Chiama un volontario” (Call a Volunteer), nata dalla collaborazione tra Meta e l’organizzazione Be My Eyes. Questo servizio consente all’utente di mettersi in contatto con un volontario – selezionato tra oltre 8 milioni disponibili nel mondo – che, attraverso la videocamera degli occhiali, può offrire assistenza visiva in tempo reale. Dopo il debutto nel 2024 in Stati Uniti, Canada, Regno Unito, Irlanda e Australia, il servizio sarà presto attivo in tutti i 18 Paesi dove è disponibile Meta AI, raggiungendo nuove fasce di utenti.

La funzione si attiva semplicemente con un comando vocale come “Sii i miei occhi”, rendendo l’interazione completamente a mani libere, estremamente utile in situazioni quotidiane come leggere etichette, trovare oggetti caduti o muoversi in ambienti sconosciuti.

Ma le iniziative di Meta per rendere la tecnologia più accessibile non si fermano qui e riguardano anche altri dispositivi. L’azienda ha messo in evidenza anche gli sforzi nel campo della realtà estesa (XR), con strumenti già disponibili come i sottotitoli in tempo reale e il riconoscimento vocale su dispositivi come Quest e sulla piattaforma Horizon Worlds.

Un altro progetto interessante è il chatbot sviluppato da Sign-Speaks per WhatsApp, capace di tradurre in tempo reale la lingua dei segni americana (ASL) in testo e viceversa. Il sistema utilizza l’API di Sign-Speaks e i modelli linguistici Llama di Meta, e punta a facilitare la comunicazione tra persone sorde o con difficoltà uditive.

Guardando al futuro, Meta sta già lavorando di futuri nuovi modelli di occhiali smart. Secondo le indiscrezioni, il focus sarà sul riconoscimento facciale avanzato.