Samsung i SK Hynix podobno zwiększą wydajność akceleratorów AI wraz z pojawieniem się standardu HBM4 DRAM
Pamięć HBM DRAM jest nadal droga w porównaniu do rozwiązania GDDR, które widzimy zintegrowane z konsumenckich kartach graficznychale cena w większości przypadków uzasadnia wzrost wydajności. Dlatego też HBM jest na razie dostarczane z akceleratorami HPC i AI. Jest to również powód, dla którego najnowsze karty Nvidii H100 kosztują tak dużo, ponieważ zawierają pamięć HMB3E DRAM. Południowokoreańskie źródła bliskie DigiTimes twierdzą, że sytuacja może wkrótce ulec zmianie wraz z wprowadzeniem standardu HBM4, który podwaja szerokość magistrali pamięci w stosunku do poprzedniej wersji.
Według DigiTimes, HBM4 będzie najważniejszą aktualizacją w historii HBM DRAM, ponieważ zwiększy szerokość magistrali stosu z 1024 do 2048 bitów. Obecny standard HBM3 oferuje ~9 GT/s na chip, co przekłada się na 1,15 TB/s szczytowej przepustowości dla wszystkich stosów. Jeśli standard HBM4 utrzyma tę samą liczbę stosów, szczytowa przepustowość może zasadniczo osiągnąć 2,30 TB/s.
Weźmy na przykład Nvidia H100na przykład. Karta ta wyposażona jest w sześć 1024-bitowych matryc HBM3E (KGSD), co daje 6144-bitowy interfejs. Ze względu na obawy dotyczące zwiększonych trudności w produkcji stosów pamięci z więcej niż 1024 przelotkami krzemowymi, Samsung i SK Hynix będą musiały udowodnić, że rzeczywiście są w stanie utrzymać tę samą liczbę stosów przy jednoczesnym zwiększeniu szerokości magistrali do 2048 bitów, pomimo twierdzeń o niemal 100% wydajności.
Kup kartę obliczeniową Nvida H100 z 80 GB pamięci RAM HBM2E na Amazon
Źródło(a)
przez Tom's Hardware