Podczas trwającego Mobile World Congress (MWC) 2025 w Barcelonie, Google zaprezentowało kilka nowych możliwości swojego asystenta AI Gemini. Funkcja Screenshare umożliwia udostępnianie asystentowi ekranu smartfona i zadawanie pytań w oparciu o kontekst tego, co widzi.
Google zademonstrował tę funkcję za pomocą filmu, który pokazuje użytkownika udostępniającego swój ekran Gemini i proszącego go o pomysły na strój na podstawie obrazu pary dżinsów na stronie internetowej. Nie jest to całkowicie nowy grunt dla Google. Lens może identyfikować rzeczy na podstawie tego, co podświetlasz na ekranie, ale sparowanie go z asystentem głosowym AI, z którym można prowadzić naturalne rozmowy, wydaje się logicznym krokiem naprzód.
Eliminuje monotonię i automatyzuje większość pracy. Przybliża również Gemini o krok do ChatGPT, który jest multimodalny i obsługuje różne dane wejściowe, od obrazów po wideo. ChatGPT może również przeprowadzać analizę wideo w czasie rzeczywistym w zaawansowanym trybie głosowym, a Google zwróciło na to uwagę.
Druga nowa funkcja, zaprezentowana jako część Gemini Live, pozwala asystentowi przetwarzać i analizować wideo na żywo za pośrednictwem kamery telefonu.
Przykładowy film pokazuje użytkownika uruchamiającego kamerę, aby pokazać Gemini wazon i poprosić go o sugestie dotyczące koloru.
Funkcje te zostaną wkrótce udostępnione subskrybentom planu Google One AI Premium subskrybentów. Plan obejmuje również dostęp do Gemini Advanced i 2 TB przestrzeni dyskowej w chmurze.