Notebookcheck Logo

XAI Elona Muska wprowadza do sieci klaster szkoleniowy Colossus 100k H100

Procesor graficzny Nvidia Hopper H100 (źródło obrazu: Nvidia)
Procesor graficzny Nvidia Hopper H100 (źródło obrazu: Nvidia)
Pod koniec 122-dniowego wysiłku zespołowi programistów xAI udało się uruchomić najpotężniejszy jak dotąd system treningowy sztucznej inteligencji na świecie. Na razie ma on 100 tys. procesorów graficznych H100, ale Musk twierdzi, że liczba ta podwoi się w ciągu kilku miesięcy. Google osiągnął szczyt na poziomie 90 tys. procesorów graficznych, podczas gdy najwyższej klasy system treningowy sztucznej inteligencji OpenAI ma 80 tys. procesorów graficznych.
AI Nvidia GPU Science

Wprowadzony na rynek pod koniec września 2022 roku Procesor graficzny Nvidia Hopper H100 zasila obecnie najpotężniejsze na świecie systemy treningowe sztucznej inteligencji. W miniony weekend firma xAI należąca do Elona Muska wyprzedziła konkurencję dzięki systemowi treningowemu Colossus 100k H100, który wymagał 122 dni pracy od rozpoczęcia jego wdrażania do uruchomienia online. Jak sama nazwa wskazuje, wykorzystuje on nie mniej niż 100 000 procesorów graficznych H100. Jego głównymi konkurentami są Google (90 000), OpenAI (80 000) i Meta (70 000). Microsoft i Nvidia zajmują kolejne dwa miejsca w czołówce, z 60 000 i 50 000 procesorów graficznych.

Osiągnięcie to nie jest jednak wystarczające dla Elona Muska, który już przedstawił plany dotyczące przyszłości xAI. Geniusz technologii chce jak najszybciej podwoić moc systemu treningowego xAI. W swoim poście dotyczącym nowego systemu treningowego Colossus AI, Musk wspomniał, że "jego rozmiar podwoi się do 200 tys. (50 tys. H200) w ciągu kilku miesięcy", nie wspominając o celu tej szybkiej ekspansji.

W 2023 roku, kiedy założono xAI, Elon Musk powiedział, że celem tej firmy jest "zrozumienie prawdziwej natury wszechświata" i wciąż nie wiadomo, co wyniknie z tego całego wysiłku. Układy H200, które prawdopodobnie zostaną wykorzystane w kolejnej fali ekspansji xAI, mają już swojego następcę, a mianowicie Nvidia Blackwell. W porównaniu do H200, ma on o 36,2% wyższą przepustowość i o 66,7% lepszą całkowitą przepustowość.

Na razie xAI może swobodnie korzystać z systemu szkoleniowego Colossus AI, ale sytuacja może się zmienić od przyszłego miesiąca, jeśli gubernator Kalifornii Gavin Newsom zatwierdzi ustawę o bezpieczeństwie AI. Ci, którzy chcą dowiedzieć się więcej na temat bezpieczeństwa sztucznej inteligencji, powinni zapoznać się z książką Chrisa Ategeka Safeguarding Humanity: A Comprehensive Guide to AI Safety, dostępną za 19,99 USD w miękkiej oprawie.

Źródło(a)

Elon Musk (na Twitterze/X)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 09 > XAI Elona Muska wprowadza do sieci klaster szkoleniowy Colossus 100k H100
Codrut Nistor, 2024-09- 4 (Update: 2024-09- 4)