Inteligentne okulary Meta Ray-Ban Uzyskaj aktualizację obsługującą sztuczną inteligencję na żywo, tłumaczenia i Shazam

Meta zaktualizowała swoje inteligentne okulary Ray-Ban, zwiększając ich funkcjonalność dzięki sztucznej inteligencji na żywo, tłumaczeniom w czasie rzeczywistym i integracji z Shazam. Funkcje te umożliwiają dostęp do informacji bez użycia rąk, ułatwiają komunikację między językami i pomagają identyfikować muzykę.

Aktualizacje mają na celu poprawę wygody i rozrywki użytkowników w USA i Kanadzie, którzy uczestniczą w programie wczesnego dostępu, co stanowi znaczący postęp w technologii inteligentnych okularów.

Inteligentne okulary Meta Uzyskaj wzmocnienie AI

Inteligentne okulary Ray-Ban Meta szybko się rozwijają dzięki częstym aktualizacjom oprogramowania i wprowadzaniu nowych funkcji. Od czasu premiery w Connect użytkownicy zyskali kilka możliwości, w tym przypomnienia aktywowane głosem, dostęp bez użycia rąk do Spotify i Amazon Music, integrację z Be My Eyes, adaptacyjne ustawienia głośności i różnorodne opcje głosu gwiazd dla Meta AI.

Wraz z wydaniem aktualizacji v11 członkowie programu wczesnego dostępu mogą teraz korzystać z nowych, ekscytujących funkcji, takich jak „sztuczna inteligencja na żywo”, która wykorzystuje analizę wideo w czasie rzeczywistym do pomocy w codziennych zadaniach, oraz „tłumaczenie na żywo”, które umożliwia natychmiastową konwersję języka z angielskiego na hiszpański, francuski lub włoski. Dodatkowo integracja Shazam pozwala użytkownikom szybko zidentyfikować dowolną piosenkę odtwarzaną w pobliżu, po prostu pytając: „Hej Meta, co to za piosenka?”

Chociaż możliwości oparte na sztucznej inteligencji są wciąż udoskonalane, opinie użytkowników będą odgrywać kluczową rolę w kształtowaniu przyszłych ulepszeń. W 2025 r. spodziewanych jest więcej ulepszeń oprogramowania i potencjalnie nowych niespodzianek, dzięki czemu okulary Ray-Ban Meta będą w dalszym ciągu stawać się inteligentniejsze, bardziej pomocne i przyjemniejsze w użyciu.

https://www.meta.com/blog/quest/ray-ban-meta-v11-software-update-live-ai-translation-shazam/

Co nowego w aktualizacji Meta Smart Glasses?

Meta wydała dużą aktualizację swoich inteligentnych okularów. Ta aktualizacja dodaje kilka bardzo przydatnych funkcji. Obejmują one interakcje ze sztuczną inteligencją na żywo, tłumaczenia w czasie rzeczywistym i identyfikację muzyki za pomocą Shazam. Te nowe funkcje sprawiają, że okulary są znacznie bardziej przydatne w codziennych zadaniach.

Interakcje AI na żywo

Najciekawszą nowością jest sztuczna inteligencja na żywo. Możesz teraz rozmawiać z asystentem AI przez okulary. Może odpowiadać na pytania, dostarczać informacji, a nawet pomagać w zadaniach. Wszystko to odbywa się bez użycia rąk, za pomocą głosu. Ułatwia to uzyskanie informacji bez wyjmowania telefonu.

Tłumaczenia w czasie rzeczywistym

Okulary mogą teraz tłumaczyć rozmowy w czasie rzeczywistym. Jest to idealne rozwiązanie w przypadku podróży lub rozmów z ludźmi mówiącymi różnymi językami. Tłumaczenia pojawiają się w Twoim polu widzenia, dzięki czemu możesz łatwo zrozumieć, co zostało powiedziane. Ta funkcja może przełamać bariery językowe i znacznie ułatwić komunikację.

Integracja z Shazamem

Meta dodała także Shazam do swoich inteligentnych okularów. Jeśli usłyszysz piosenkę, która Ci się podoba, możesz poprosić okulary, aby ją rozpoznały. Informacje o utworze pojawią się wówczas w Twoim widoku. Ułatwia to odkrywanie nowej muzyki bez konieczności wyciągania telefonu.

Jak działają te funkcje?

Funkcje te korzystają z wbudowanych w okulary kamer, mikrofonów i głośników. Okulary łączą się z telefonem poprzez Bluetooth. Przetwarzanie AI odbywa się w chmurze, dlatego do prawidłowego działania tych funkcji potrzebne jest połączenie internetowe. Okulary rejestrują dźwięk i obraz. Informacje te są wysyłane na serwery Meta, gdzie sztuczna inteligencja wykonuje żądane zadania i wysyła informacje z powrotem do okularów.

Korzyści z tych nowych funkcji

Te nowe funkcje oferują kilka korzyści:

  • Wygoda:Możesz uzyskać dostęp do informacji i wykonywać zadania bez użycia rąk.
  • Poprawiona komunikacja:Tłumaczenia w czasie rzeczywistym ułatwiają rozmowę z ludźmi mówiącymi różnymi językami.
  • Ulepszona rozrywka:Integracja z Shazam pozwala szybko zidentyfikować utwory, które lubisz.

Potencjalne obawy

Istnieje kilka potencjalnych obaw, które należy wziąć pod uwagę:

  • Prywatność:Niektóre osoby mogą martwić się koniecznością ciągłego nagrywania przez kamerę. Meta oświadczyła, że ​​dba o prywatność użytkowników.
  • Żywotność baterii:Korzystanie z tych funkcji może spowodować szybsze wyczerpanie baterii.
  • Dokładność:Dokładność sztucznej inteligencji i tłumaczeń może się różnić w zależności od sytuacji.

Porównanie funkcji

FunkcjaOpisKorzyść
Żywa sztuczna inteligencjaAktywowany głosem asystent AIDostęp do informacji bez użycia rąk
Tłumaczenia w czasie rzeczywistymTłumaczy rozmowy w czasie rzeczywistymPoprawiona komunikacja między językami
ShazamaIdentyfikuje muzykę odtwarzaną w pobliżuŁatwe odkrywanie muzyki

Dostępność i interfejs użytkownika

Meta skupiła się na tym, aby te funkcje były łatwe w użyciu. Polecenia głosowe są proste i intuicyjne. Informacje są wyraźnie widoczne w polu widzenia użytkownika. Dzięki temu okulary są dostępne dla szerszego grona użytkowników.

Krótkie podsumowanie:

  • Meta ujawnia możliwości sztucznej inteligencji na żywo umożliwiające płynne interakcje bez słów aktywacji.
  • Aktualizacja obejmuje tłumaczenie w czasie rzeczywistym i integrację z Shazam w celu rozpoznawania muzyki.
  • Wszystkie nowe funkcje są obecnie dostępne wyłącznie dla członków programu wczesnego dostępu w USA i Kanadzie.

Niedawno wprowadzona wersja 11 oprogramowania sprzętowego Meta wprowadza rewolucyjne aktualizacje inteligentnych okularów Ray-Ban Meta, w szczególności wprowadzenie sztucznej inteligencji na żywo, tłumaczenie na żywo i funkcję rozpoznawania muzyki Shazam. Ulepszenia te mają na celu podniesienie poziomu interaktywnych doświadczeń użytkowników, umieszczając Meta na czele inteligentnych technologii w branży okularów.

Przedstawiamy sztuczną inteligencję na żywo: towarzysza rozmów

Dzięki funkcji AI na żywo asystent AI Meta staje się znacznie bardziej wciągający. Jak opisano podczas wydarzenia Meta Connect 2024, ta innowacja umożliwia użytkownikom ciągłą rozmowę z asystentem, który analizuje obraz na żywo z przedniej kamery.

„Możesz zadawać dodatkowe pytania, zmieniać tematy, a nawet przerywać sztuczną inteligencję bez konieczności używania słowa „Hej, Meta”” – zauważyła Meta w swoim ogłoszeniu.

Funkcja sztucznej inteligencji na żywo ułatwia dyskusje w czasie rzeczywistym na temat otoczenia użytkownika. Użytkownicy mogą zadawać pytania o środowisko, wzbogacając rozmowy kontekstowe, takie jak pytania o widoczne przedmioty, pogodę lub okoliczne punkty orientacyjne. Ta kluczowa zmiana w kierunku bardziej zintegrowanego doświadczenia pozycjonuje Meta jako lidera na rynku inteligentnych okularów, oferującego funkcjonalności przypominające konwersacyjną sztuczną inteligencję na różnych współczesnych platformach.

Ponadto przyszłe ulepszenia, o których wspomniała Meta, obiecują przydatne sugestie wyprzedzające, które mogą jeszcze bardziej usprawnić interakcje użytkowników i wzbogacić ogólną funkcjonalność.

Przełamywanie barier językowych dzięki tłumaczeniu na żywo

Aby zapewnić płynną komunikację, wyróżniającym się dodatkiem jest funkcja tłumaczenia na żywo. Umożliwia użytkownikom prowadzenie dwustronnych rozmów między osobami mówiącymi po angielsku a osobami biegle posługującymi się językiem hiszpańskim, francuskim lub włoskim.

Kiedy użytkownicy rozmawiają z osobą posługującą się jednym z tych języków, okulary tłumaczą wypowiadane słowa na angielski za pomocą dyskretnych głośników nausznych, ułatwiając naturalne śledzenie rozmowy. Użytkownicy mogą również uzyskać dostęp do transkrypcji tekstowej na swoich sparowanych urządzeniach mobilnych.

„Celem jest bezproblemowe wzmocnienie dialogu międzynarodowego poprzez połączenie technologii z życiem codziennym” – podkreśliła Meta w swoim poście na blogu na temat tych postępów.

Ta funkcja wychodzi naprzeciw globalnemu zapotrzebowaniu na skuteczne narzędzia tłumaczeniowe, szczególnie w środowiskach wielokulturowych i wielojęzycznych. Chociaż tłumaczenie na żywo Meta ma tendencję do niewielkich opóźnień w porównaniu z podobnymi ofertami Google, jego konstrukcja bez użycia rąk zapewnia wyjątkowe wrażenia, które mogą usprawnić wymianę w czasie rzeczywistym.

Odkrywanie muzyki dzięki integracji z Shazam

Oprócz imponujących ulepszeń sztucznej inteligencji, integracja Shazam sprawia, że ​​identyfikowanie muzyki jest łatwiejsze niż kiedykolwiek. Użytkownicy mogą po prostu powiedzieć: „Hej, Meta, Shazam, ta piosenka”, a inteligentne okulary zidentyfikują utwór odtwarzany w tle.

Ponieważ rozpoznawanie muzyki jest popularną funkcją w różnych urządzeniach, to nowe rozwiązanie zapewnia użytkownikom inteligentnych okularów Ray-Ban Meta kolejną warstwę rozrywki, jednocześnie zwiększając ich wielofunkcyjność.

„Dzięki tym możliwościom poszerzamy horyzonty inteligentnych okularów, czyniąc je nie tylko akcesoriami, ale raczej niezbędnymi narzędziami codziennego użytku” – stwierdził rzecznik Meta podczas prezentacji produktu.

Dostępność i perspektywy na przyszłość

Obecnie funkcje sztucznej inteligencji i tłumaczenia na żywo są dostępne tylko dla wybranych użytkowników uczestniczących w programie wczesnego dostępu w USA i Kanadzie. Ta wyłączność pozwala Meta udoskonalić te funkcje w oparciu o opinie użytkowników, zanim zostaną one udostępnione szerszemu gronu odbiorców. Zainteresowani użytkownicy mogą zapisać się do programu wczesnego dostępu za pośrednictwem oficjalnej strony Meta, co da im szansę bycia jednymi z pierwszych, którzy poznają te innowacyjne narzędzia.

Chociaż te nowe możliwości sygnalizują znaczny postęp w integracji technologicznej w urządzeniach do noszenia, obecna konfiguracja zawiera zastrzeżenie: Meta ostrzega użytkowników, że funkcje sztucznej inteligencji i tłumaczenia na żywo mogą nie zawsze działać idealnie. „Nadal uczymy się, co działa najlepiej, i ulepszamy doświadczenie dla wszystkich” – zauważyła firma w swoich komunikatach.

Funkcja rozpoznawania muzyki Shazam jest szerzej dostępna, chociaż na razie również jest ograniczona do Ameryki Północnej.

Większy obraz

Aktualizacje te odzwierciedlają także strategiczne dążenie Meta w zmieniającym się krajobrazie, w którym nasila się konkurencja w sektorze rzeczywistości rozszerzonej (AR). Dzięki projektom takim jak nadchodzące okulary AR firmy Google i istniejące systemy, takie jak zaawansowany tryb głosowy OpenAI, innowacje Meta stanowią kluczową część jej szerszej strategii mającej na celu zwiększenie zaangażowania użytkowników i codziennej funkcjonalności.

Co więcej, regulacje w UE opóźniły wdrożenie tych funkcji sztucznej inteligencji, koncentrując się zamiast tego na rynkach w Ameryce Północnej. W takich miejscach jak Francja, Włochy i Hiszpania wdrażanie rozpoczęło się początkowo w listopadzie ubiegłego roku, przygotowując grunt pod stopniowe wdrażanie nowych technologii zgodnie z lokalnymi przepisami dotyczącymi sztucznej inteligencji i ochrony danych.

Dowiedz się więcej:Apple anuluje plany dotyczące aparatu w Apple Watch i skupia się na inteligentnych okularach AI

Meta w dalszym ciągu ulepszając możliwości swoich inteligentnych okularów Ray-Ban nie tylko czyni postępy w przestrzeni technologii konsumenckich, ale także wyznacza punkt odniesienia w zakresie możliwości dostosowania inteligentnych okularów do codziennego życia użytkowników.

„Dzięki okularom Ray-Ban Meta przesuwamy granice możliwości okularów pod względem użyteczności i integracji z codziennymi czynnościami użytkownika” – podsumował starszy dyrektor Meta.

Możliwości, jakie niosą ze sobą te zmiany, mogą wydawać się nieograniczone, zwłaszcza że przewidujemy dalsze ulepszenia i rozszerzenia funkcji. Niezależnie od tego, czy chodzi o pomoc użytkownikom w nawigacji w zagranicznych rozmowach, rekomendowanie najlepszych strojów na daną okazję, czy po prostu rozpoznawanie chwytliwej melodii, najnowsza aktualizacja Meta pokazuje potencjał inteligentnych okularów w zmienianiu codziennych doświadczeń.