Google AI ogłasza Gemini 1.5 Pro i Gemma 2 dla deweloperów
Google AI zaczęło zapewniać deweloperom dostęp do rozszerzonych okien kontekstowych i funkcji obniżających koszty, począwszy od dużego modelu językowego Gemini 1.5 Pro (LLM). Wcześniej dostępne za pośrednictwem listy oczekujących, pełne okno kontekstowe 2 milionów tokenów jest teraz otwarte dla wszystkich programistów. Google wprowadza również buforowanie kontekstu, aby zmniejszyć koszty zadań, które ponownie wykorzystują podobne informacje w wielu monitach.
Dzięki nowej aktualizacji modele Gemini 1.5 Pro i Flash mogą teraz dynamicznie generować i wykonywać kod Pythona. Modele mogą dalej wykorzystywać analizę danych i matematykę do skutecznego rozwiązywania problemów związanych z rozumowaniem. Według Google, środowisko wykonywania kodu jest bezpieczne i nie ma dostępu do Internetu; firma twierdzi również, że deweloperzy będą rozliczani tylko za ostateczne dane wyjściowe wygenerowane przez model. Lekki model Gemma 2 jest teraz również dostępny do użytku w Google AI Studio. Zainteresowani mogą uzyskać do niego dostęp w "Ustawieniach zaawansowanych" w Google AI Studio.
Kilka firm korzysta już z Google Gemini 1.5 Flash. Lista aplikacji wykorzystujących tę technologię obejmuje Envision, która pomaga niedowidzącym użytkownikom, analizę polityki Plural, przetwarzanie wideo Zapier i spersonalizowany system pamięci AI Dot. Inną rzeczą, która jest obecnie udostępniana programistom, jest to, co post Google nazywa "dostrajaniem tekstu", a pełny dostęp do tej funkcji spodziewany jest w połowie lipca.