Apple marketing funkcji Vision Pro EyeSight wydaje się bardziej wirtualny niż rzeczywisty
Jednym z aspektów Vision Pro który był zaskakujący, to zauważalna luka między marketingowymi ujęciami funkcji Vision Pro EyeSight a tym, jak wygląda ona w rzeczywistości. Dla niewtajemniczonych, EyeSight to skierowany na zewnątrz wyświetlacz z przodu Vision Pro, który wykorzystuje kamery umieszczone wewnątrz zestawu słuchawkowego, aby wyświetlać oczy użytkownika na zewnątrz dla wszystkich w pobliżu. Przed premierą Vision Pro, EyeSight był reklamowany jako charakterystyczna cecha Vision Pro, odróżniająca go od innych zestawów słuchawkowych na rynku, które całkowicie odcinają twarz użytkownika od innych. Apple wyjaśnia tę funkcję na swojej stronie internetowej:
Apple Vision Pro pomaga pozostać w kontakcie z osobami wokół. EyeSight ujawnia oczy i pozwala osobom w pobliżu wiedzieć, kiedy korzystasz z aplikacji lub jesteś w pełni zanurzony w doświadczeniu. Gdy ktoś się zbliża, Apple Vision Pro jednocześnie pozwala zobaczyć tę osobę i ujawnia jej oczy.
Opierając się na zdjęciach marketingowych, nierzadko zdarza się, że ludzie mylą tę funkcję z całkowicie przezroczystym oknem z przodu zestawu słuchawkowego. Jednak odkąd zestaw słuchawkowy AR/VR trafił do sprzedaży 2 lutego, stało się jasne, że marketing Applenie był całkowicie przejrzysty, ponieważ sprawił, że ujęcia tej funkcji wyglądały jak na zdjęciach promocyjnych. Jak widać na zdjęciach dołączonych do artykułu, różnica między ujęciami promocyjnymi a zdjęciami klientów Vision Pro korzystających z funkcji EyeSight jest wyraźnie inna.
Zamiast wyraźnie widzieć oczy użytkownika Vision Pro, w najlepszym przypadku, skierowany na zewnątrz panel OLED oferuje bardzo pikselowy obraz, który jest często zasłonięty przez efekt soczewkowy zewnętrznej warstwy szkła, z niebieskawą poświatą emanującą z przodu zestawu słuchawkowego, gdy jest używany przez użytkownika. To tylko jeszcze bardziej zasłania oczy użytkownika zewnętrznemu obserwatorowi, który prawdopodobnie nie będzie wiedział, co ta poświata ma reprezentować, chyba że zostanie mu to wcześniej wyjaśnione. Jednak marketing Apple pokazuje ludzi korzystających z zestawu słuchawkowego w miejscach publicznych, w tym w samolotach. Aktywuje się on również automatycznie, gdy zestaw słuchawkowy wykryje kogoś zbliżającego się - co w samolocie może być jednym z wielu członków personelu pokładowego lub przypadkowych pasażerów.
Appleujęcia marketingowe pokazują również, że oczy użytkownika znajdują się tam, gdzie można by się ich spodziewać w stosunku do reszty odsłoniętej lub odsłoniętej twarzy. Oczy pojawiają się dokładnie tam, gdzie powinny w stosunku do czoła, nosa, ust, policzków i szczęki. W rzeczywistości jednak wydają się być umieszczone w miejscu, w którym znajdowałaby się brew lub nawet czoło użytkownika. Sprawia to wrażenie, że twarz użytkownika jest nienaturalnie wydłużona. Tak więc, podczas gdy funkcja ta miała sprawić, że interakcje z osobami noszącymi zestaw słuchawkowy będą bardziej "naturalne", w rzeczywistości wywołuje odwrotny efekt, sprawiając, że interakcje między użytkownikiem a obserwatorami są dziwniejsze i bardziej dziwaczne niż mogłoby to mieć miejsce w innym przypadku.
Na tym wczesnym etapie nie wydaje się, aby istniały jakiekolwiek oczywiste rozwiązania problemów, które obecnie przedstawia funkcja EyeSight. Aktualizacja oprogramowania mogłaby potencjalnie pomóc w poprawie wydajności funkcji, jeśli pikselacja ma coś wspólnego z kamerami i przetwarzaniem wideo. Możliwe jednak, że problem leży w jakości panelu Apple i materiałach między panelem a zewnętrzną częścią Vision Pro. Stanowiłoby to znacznie większe wyzwanie do naprawienia.
W chwili pisania tego tekstu, Apple nie skomentował publicznie wydajności funkcji EyeSight w Vision Pro, ale z pewnością będziemy mieć oko na tę kwestię.
*Uwaga: Artykuł został zaktualizowany, aby wyjaśnić, że niebieska poświata ma reprezentować, że użytkownik przegląda zawartość.
Meta Quest 3 można nabyć w sklepie Amazon w cenie od 499 USD.
Źródło(a)
Własny