XAI Elona Muska wprowadza do sieci klaster szkoleniowy Colossus 100k H100
Wprowadzony na rynek pod koniec września 2022 roku Procesor graficzny Nvidia Hopper H100 zasila obecnie najpotężniejsze na świecie systemy treningowe sztucznej inteligencji. W miniony weekend firma xAI należąca do Elona Muska wyprzedziła konkurencję dzięki systemowi treningowemu Colossus 100k H100, który wymagał 122 dni pracy od rozpoczęcia jego wdrażania do uruchomienia online. Jak sama nazwa wskazuje, wykorzystuje on nie mniej niż 100 000 procesorów graficznych H100. Jego głównymi konkurentami są Google (90 000), OpenAI (80 000) i Meta (70 000). Microsoft i Nvidia zajmują kolejne dwa miejsca w czołówce, z 60 000 i 50 000 procesorów graficznych.
Osiągnięcie to nie jest jednak wystarczające dla Elona Muska, który już przedstawił plany dotyczące przyszłości xAI. Geniusz technologii chce jak najszybciej podwoić moc systemu treningowego xAI. W swoim poście dotyczącym nowego systemu treningowego Colossus AI, Musk wspomniał, że "jego rozmiar podwoi się do 200 tys. (50 tys. H200) w ciągu kilku miesięcy", nie wspominając o celu tej szybkiej ekspansji.
W 2023 roku, kiedy założono xAI, Elon Musk powiedział, że celem tej firmy jest "zrozumienie prawdziwej natury wszechświata" i wciąż nie wiadomo, co wyniknie z tego całego wysiłku. Układy H200, które prawdopodobnie zostaną wykorzystane w kolejnej fali ekspansji xAI, mają już swojego następcę, a mianowicie Nvidia Blackwell. W porównaniu do H200, ma on o 36,2% wyższą przepustowość i o 66,7% lepszą całkowitą przepustowość.
Na razie xAI może swobodnie korzystać z systemu szkoleniowego Colossus AI, ale sytuacja może się zmienić od przyszłego miesiąca, jeśli gubernator Kalifornii Gavin Newsom zatwierdzi ustawę o bezpieczeństwie AI. Ci, którzy chcą dowiedzieć się więcej na temat bezpieczeństwa sztucznej inteligencji, powinni zapoznać się z książką Chrisa Ategeka Safeguarding Humanity: A Comprehensive Guide to AI Safety, dostępną za 19,99 USD w miękkiej oprawie.
Źródło(a)
Elon Musk (na Twitterze/X)