8-warstwowe układy HBM3E firmy Samsung pokonują przeszkody związane z ciepłem i mocą, aby uzyskać zgodę Nvidii
Samsung Electronics pomyślnie przeszedł rygorystyczne testy Nvidii dla swoich 8-warstwowych układów pamięci HBM3E, pozycjonując się jako kluczowy dostawca dla szybko rozwijającej się branży chipów AI. HBM, czyli pamięć o wysokiej przepustowości, to wyspecjalizowany typ pamięci DRAM zaprojektowany do obsługi ogromnych ilości danych z błyskawiczną prędkością. Jest to kluczowy komponent do zasilania złożonych obliczeń wymaganych w aplikacjach sztucznej inteligencji. HBM3E, najnowsza iteracja, oferuje jeszcze wyższą wydajność i energooszczędność niż HBM3.
Uzyskanie zgody Nvidii było przeszkodą dla firmy Samsung, która wcześniej musiała stawić czoła wyzwaniom związanym z ciepłem i zużyciem energii w swoich układach HBM w swoich układach HBM. Od tego czasu firma zajęła się tymi kwestiami, aby spełnić standardy Nvidii, ponieważ aplikacje AI stają się coraz bardziej wymagające. Samsung, wraz z firmami takimi jak SK Hynix i Micronstara się sprostać temu zapotrzebowaniu.
Podczas gdy 12-warstwowe układy HBM3E Samsunga są nadal w fazie oceny, zatwierdzenie 8-warstwowej wersji jest krokiem naprzód dla firmy. Nvidia również niedawno zatwierdziła Czwartej generacji układów pamięci o wysokiej przepustowości, HBM3, po raz pierwszy. Jednak Reuters wcześniej stwierdził, że chipy będą prawdopodobnie używane tylko w Specyficznych dla Chin kartach graficznych Nvidia.