Sommario
Meta sta introducendo funzionalità AI multimodali per gli occhiali intelligenti Ray-Ban, permettendo agli utenti di sperimentare le più recenti innovazioni AI. Queste funzionalità saranno disponibili inizialmente in un test di accesso anticipato.
Funzionalità AI Multimodali
Le nuove funzionalità AI multimodali consentono agli occhiali di riconoscere e descrivere oggetti e suoni catturati dalla fotocamera e dai microfoni degli occhiali. Mark Zuckerberg ha dimostrato l’aggiornamento in un video su Instagram, chiedendo agli occhiali di suggerire pantaloni che si abbinassero a una camicia che stava tenendo. L’assistente AI ha risposto descrivendo la camicia e offrendo suggerimenti per i pantaloni.
Traduzione e Didascalie Immagini
Zuckerberg ha anche mostrato come l’assistente AI degli occhiali possa tradurre testi e fornire didascalie per le immagini. Queste funzionalità sono simili a quelle comuni in altri prodotti di Microsoft e Google.
Intervista e Visione di Zuckerberg
In un’intervista con Alex Heath di The Verge a settembre, Zuckerberg aveva rivelato queste funzionalità AI multimodali per gli occhiali Ray-Ban, suggerendo che le persone potrebbero parlare con l’assistente AI di Meta “durante tutto il giorno per diverse domande”.
Altre Funzionalità
Il CTO di Meta, Andrew Bosworth, ha spiegato altre funzionalità, come chiedere all’assistente di aiutare a scrivere didascalie per le foto scattate o richiedere traduzioni e riassunti.
Periodo di Test Limitato
Il periodo di test sarà limitato negli Stati Uniti a “un piccolo numero di persone che optano per partecipare”. Le istruzioni per partecipare possono essere trovate sul sito di Meta.
Impatto e Potenziale
Questo aggiornamento rappresenta un passo significativo nel campo degli occhiali intelligenti, combinando la moda con la tecnologia avanzata e offrendo agli utenti un’esperienza più interattiva e informativa.