Nvidia zamierza wykorzystać wzrost generatywnej sztucznej inteligencji, wprowadzając na rynek nowy superukład Grace Hopper, pierwszy na świecie z pamięcią RAM HBM3e
Nvidia zaprezentowała swój najnowszy Grace Hopper zaprojektowany do zasilania centrów danych, które zasilają generatywną sztuczną inteligencję lub inne przyspieszone obliczenia. Chociaż Nvidia nadal produkuje układy oparte na architekturze Arm dla konsumentów w różnych formach, to kilka lat temu obróciła się w kierunku priorytetowego traktowania serwerowych układów SoC opartych na architekturze Arm, które można dodatkowo przyspieszyć, integrując platformę Grace Hopper z procesorami graficznymi klasy serwerowej. Zakład firmy opłacił się w dużym stopniu po pojawieniu się technologii generatywnej sztucznej inteligencji, w tym między innymi ChatGPT i Midjourney, co spowodowało, że cena akcji firmy wzrosła o około 200 procent od początku roku.
Podobnie jak w przypadku oryginalnego superukładu Grace Hopper, nowy GH200 w podwójnej konfiguracji zwiększa liczbę rdzeni Neoverse z serii Arm V do 144. Podobnie jak poprzednio, procesor (Grace) jest sparowany z procesorem graficznym Nvidii H100 Tensor Core (Hopper). Układy GPU H100 mogą zapewnić co najmniej 51 teraflopów obliczeń FP32, a połączona architektura GH200 zapewnia imponujące 8 petaflopów wydajności sztucznej inteligencji.
Aby osiągnąć te nowe poziomy wydajności w GH200 - pomimo zachowania niezmienionej architektury krzemowej - Nvidia ulepszyła architekturę pamięci o 282 GB najnowszej pamięci HBM3e. HBM3e jest o 50 procent szybsza niż zwykła pamięć HBM3 z łączną przepustowością 10 TB/s. Pozwala to GH200 na przetwarzanie modeli, które są 3,5 razy większe niż układ pierwszej generacji i czyni go pierwszym na świecie wyposażonym w pamięć HBM3e.
Nvidia twierdzi również, że platforma Grace Hopper jest skalowalna dzięki obsłudze dodatkowych układów Grace Hopper, które można podłączyć za pomocą interkonektu NVLink firmy Nvidia. Pamięć koherentna (współdzielona przez wszystkie CPU i GPU w klastrze) może osiągnąć nawet 1,2 TB. Nvidia twierdzi, że wiodący producenci serwerów powinni dostarczyć systemy z konfiguracjami GH200 w ponad 100 wariantach serwerów w 2. kwartale 2024 roku.
Zestaw deweloperski Nvidia Jetson Nano AI można kupić w sklepie Amazon za 149 USD.