Modele LL oparte na Google Stable Diffusion będą hostowane lokalnie na Google Pixel 10 i Pixel 10 Pro, a inne funkcje sztucznej inteligencji również będą dostępne
Kamila Wojciechowska twierdzi, że odkryła różne wskazówki dotyczące przyszłych funkcji sztucznej inteligencji, które Google planuje wprowadzić w wielu urządzeniach Pixel w ciągu najbliższych kilku lat. Dla porównania, Wojciechowska nadal cytuje źródło z działu gChips Google dla wszystkich swoich informacji związanych z niewydanymi chipsetami Tensor.
W szczególności Wojciechowska mówi o tym, że Google aktywnie rozwija technologię Video Generative ML, która ma wykorzystywać algorytmy sztucznej inteligencji w Zdjęciach Google, a być może nawet w YouTube Shorts, aby usprawnić edycję wideo. Co więcej, Wojciechowska wspomina również o "Speak to Tweak" i "Sketch-to-Image", z których ta druga jest już dostępna w takiej czy innej formie w niektórych najnowszych urządzeniach Samsung Galaxy.
Co więcej, nowy "NanoTPU" może zadebiutować wraz z serią Pixel 11, aby pomóc w monitorowaniu śledzenia snu, wykrywaniu upadków i bezdechu sennego. Co więcej, oczekuje się, że modele Google Stable Diffusion oparte na LL będą działać lokalnie począwszy od Pixela 10, a nie na rozwiązaniu opartym na chmurze, które Google obecnie oferuje.
Podobno nowe procesory sygnału obrazu (ISP) i jednostki przetwarzania tensorowego (TPU) w Tensor G5 i Tensor G6 są źródłem tych ulepszeń opartych na sztucznej inteligencji. Według doniesień, Google nie planuje wprowadzać żadnej z tych nowych funkcji najwcześniej w Pixelu 10, który powinien pojawić się latem 2025 roku. Istnieje jednak szansa, że zostaną one opóźnione o rok, aby zbiegły się z wydaniem Android 17 i ewentualnie serii Pixel 11.