Meta ha aggiornato i suoi Smart Glasses Ray-Ban con nuove funzioni che vanno ad aggiungere nuove interazioni con l’intelligenza artificiale e li rendono effettivamente utili. Ora, gli occhiali possono “vedere” ciò che vede l’utente e interagire con l’ambiente circostante in tempo reale, grazie alla funzione “live AI”. Questa tecnologia apre le porte a un’assistenza a mani libere in diverse situazioni, come cucinare, fare giardinaggio o esplorare nuovi luoghi.
L’intelligenza artificiale degli occhiali Ray-Ban è in grado di comprendere il contesto delle richieste dell’utente e di fornire risposte pertinenti, senza bisogno di utilizzare la parola di attivazione “Hey Meta”. Meta prevede che in futuro l’IA sarà in grado di anticipare le esigenze dell’utente ed offrire suggerimenti utili prima ancora che vengano richiesti.
Tra le altre novità, gli occhiali Ray-Ban offrono ora la traduzione in tempo reale tra inglese e spagnolo, francese o italiano. Inoltre, grazie all’integrazione con Shazam, gli occhiali possono identificare le canzoni che l’utente sta ascoltando.
Purtroppo queste nuove funzioni sono disponibili tramite un Early Access Program, aperto ai possessori di occhiali Meta solo negli Stati Uniti e Canada, tra l’altro con pochi posti disponibli.
Lascia un commento