Notebookcheck Logo

Wojny AI: Microsoft prezentuje Phi-3, wydajny model sztucznej inteligencji, który z łatwością mieści się w telefonie

Mały, ale potężny? (Źródło: DALL-E)
Mały, ale potężny? (Źródło: DALL-E)
W odpowiedzi na niedawne wydanie Llama-3 firmy Meta, Microsoft opublikował wyniki dotyczące najnowszej iteracji swojego lekkiego modelu sztucznej inteligencji. Raport techniczny pokazuje, że Phi-3-mini przewyższa LLM, takie jak GPT-3.5, mimo że jest ułamkiem ich rozmiaru.
AI

Microsoft uruchomił Phi-3 na początku tego tygodnia w HuggingFace, Ollama i katalogu Azure AI. Chociaż nie do końca dorównuje on ogólnym umiejętnościom wiedzy Windows Copilotto technologia open-source AI reprezentuje czwartą generację małych modeli językowych z Redmond, które rywalizują z głównymi modelami LLM pod względem szybkości, wydajności i wydajności.

Przy 3,8 miliarda parametrów, Phi-3 jest nieco większy niż jego poprzednik ale pozostaje wystarczająco mały, aby działać na zaledwie 1,8 GB pamięci mobilnej. Dla porównania, typowy złożony LLM, taki jak Llama lub GPT-3.5, wykorzystuje setki miliardów parametrów do zrozumienia danych wejściowych i jest niepraktyczny do natywnego przechowywania. GPT-5, uruchomiony tego latama mieć rozmiar bilionów parametrów. Zgodnie z konwencjonalnymi prawami skalowania, więcej parametrów oznacza bardziej inteligentne wyniki. Jednak według Microsoftu niekoniecznie musi tak być.

Wykres porównujący modele Phi-3 z Llama-3, Gemma i Mixtral (Źródło: Microsoft)
Wykres porównujący modele Phi-3 z Llama-3, Gemma i Mixtral (Źródło: Microsoft)

Microsoft przedstawia kilka śmiałych twierdzeń w swoim raporcie technicznym https://arxiv.org/pdf/2404.14219głównym z nich są benchmarki wydajności, które, jak przyznaje sama firma, są czysto akademickie. W 12 z 19 testów porównawczych, Phi-3-mini wydaje się przewyższać Llama-3-instruct, mimo że działa na ponad dwukrotnie większej liczbie parametrów. W przypadku 7B Phi-3-small i 14B Phi-3-medium wyniki były jeszcze bardziej oszałamiające.

Inżynierowie przypisują ten wzrost wydajności swojemu starannie wyselekcjonowanemu zestawowi danych szkoleniowych pochodzącym z dwóch źródeł: "podręcznikowej jakości" zawartości stron internetowych i danych generowanych przez sztuczną inteligencję, zaprojektowanych w celu nauczania języka, wiedzy ogólnej i zdroworozsądkowego rozumowania, z wyselekcjonowaną listą 3000 słów służących jako elementy składowe. Naukowcy Microsoftu twierdzą, że tego rodzaju przepis na dane umożliwił zeszłorocznemu Phi-2 dorównanie wydajnością znacznie większemu (70 B) modelowi Meta Modelu Llama-2.

Porównanie benchmarku Phi-3 z głównymi programami LLM. (Źródło: Azure)
Porównanie benchmarku Phi-3 z głównymi programami LLM. (Źródło: Azure)

Eric Boyd, wiceprezes Azure AI, pochwalił się za pośrednictwem The Verge, że Phi-3 jest tak samo wydajny jak GPT-3.5, choć w "mniejszej obudowie". Jednak Phi-3 nadal cierpi na niedobór wiedzy faktograficznej ze względu na swój ograniczony rozmiar. Być może jest to konieczny kompromis, aby sztuczna inteligencja działała natywnie, a nie za pośrednictwem chmury obliczeniowej?

Biorąc pod uwagę, że elastyczność i efektywność kosztowa są kluczowymi kwestiami dla przedsiębiorstw, nie dziwi fakt, że firmy zaczęły już wykorzystywać możliwości SLM. Phi-3 ma jednak silną konkurencję. Meta's Llama-3, Anthropic Claude-3 suitegoogle Gemini i Gemma wszystkie mają lekkie wersje, które są w stanie obsługiwać przetwarzanie brzegowe na urządzeniach mobilnych. I choć Phi-3 wydaje się konkurować korzystnie, Gemini Nano trafił już do urządzeń takich jak Google Pixel 8 Pro i Samsung Galaxy S24(784 USD na Amazon).

Rodzina modeli AI Phi-3 nie jest bynajmniej jedynym SLM, nad którym pracuje Microsoft. W zeszłym miesiącu firma zaadaptowała Mistral do stworzenia Orca-Mathwyspecjalizowany model, który okazał się znacznie dokładniejszy niż Llama, GPT-3.5 i Gemini Pro w matematyce w szkole podstawowej. AutoDev, nowszy projekt, opiera się na AutoGen i Auto-GPT, aby autonomicznie planować i wykonywać zadania programistyczne w oparciu o cele zdefiniowane przez użytkownika. Wojny ze sztuczną inteligencją są dalekie od zakończenia, ale przynajmniej na niższą skalę mamy wiodącego pretendenta.

Orca-Math osiąga 86,8% zdawalności przy problemach GSM8K, przewyższając każdy inny testowany model. (Źródło obrazu: Microsoft)
Orca-Math osiąga 86,8% zdawalności przy problemach GSM8K, przewyższając każdy inny testowany model. (Źródło obrazu: Microsoft)
Przegląd struktury AutoDev (źródło obrazu: Microsoft Research)
Przegląd struktury AutoDev (źródło obrazu: Microsoft Research)

Źródło(a)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 04 > Wojny AI: Microsoft prezentuje Phi-3, wydajny model sztucznej inteligencji, który z łatwością mieści się w telefonie
Sarfo Ashong-Listowell, 2024-04-26 (Update: 2024-04-26)