Okulary Ray-Ban Meta zaktualizowane o obsługę Live AI, tłumaczenia i Shazam
Aktualizacja oprogramowania Meta v11 dla inteligentnych okularów Ray-Ban może teraz korzystać z Live AI, która pozwala Meta AI stale widzieć to, co widzą użytkownicy i zapewniać kontekstową pomoc w czasie rzeczywistym za pomocą poleceń głosowych.
Użytkownicy mogą zadawać pytania bez używania komendy "Hey Meta", a system zapamiętuje rzeczy, o których użytkownik mógł wspomnieć wcześniej w rozmowie. Użytkownicy mogą przerwać w dowolnym momencie, aby zmienić temat lub zadać kolejne pytania. Aplikacja będzie również uczyć się wzorców użytkownika i ostatecznie "udzielać przydatnych sugestii, nawet zanim o to zapytasz"
Tłumaczenie na żywo przetłumaczy mowę w czasie rzeczywistym w języku angielskim, hiszpańskim, francuskim lub włoskim. Podczas interakcji z osobą mówiącą w innym języku użytkownicy mogą usłyszeć tłumaczenia w czasie rzeczywistym od mówców lub wyświetlić transkrypcje na podłączonym telefonie.
Zarówno sztuczna inteligencja na żywo, jak i tłumaczenia na żywo są dostępne dla członków programu wczesnego dostępu Meta. Meta twierdzi, że "te funkcje sztucznej inteligencji mogą nie zawsze działać poprawnie", a program wczesnego dostępu jest ograniczony do Stanów Zjednoczonych i Kanady.
Oprócz tych funkcji, Meta ogłosiła również integrację z usługą rozpoznawania muzyki Shazam. Użytkownicy mogą znaleźć nazwę utworu muzycznego, mówiąc "Hej Meta, co to za piosenka?" w USA i Kanadzie.