arzh-CNenfrdejakoplptesuk
Szukaj, znajdź 4120  disqus społecznościowy  tg2 f2 lin2 in2 Ikona X 3 y2  p2 Tik steam2

NVIDIA rezygnuje z SOCAMM1 i przygotowuje SOCAMM2 z obsługą LPDDR6

Według doniesień z Korei, NVIDIA wstrzymuje rozwój SOCAMM1 i skupiliśmy się na wydaniu nowej wersji modułu - SOCAMM2Źródła twierdzą, że pierwsza wersja napotkała problemy techniczne, a obecnie firma testuje udoskonalone prototypy we współpracy ze wszystkimi głównymi producentami pamięci.

SOCAMMM

Początkowo SOCAMMM został pomyślany jako nowy, modułowy format pamięci dla serwerów AI, oferujący wysoka przepustowość i niskie zużycie energii, podobny do HBM, ale o niższym koszcie. Wspomniano o tym już w dokumentacji produktu NVIDIA: na przykład w specyfikacji GB300 NVL72 potwierdzone wsparcie do 18TB LPDDR5X SOCAMM и Przepustowość 14,3 TB/sOczekiwano, że SOCAMM1 wejdzie do masowej produkcji w 2025 r., a przewidywane dostawy to 600-800 tysięcy modułów.

Jednakże teraz uwaga przesunęła się na SOCAMM2, co według publikacji ma zwiększyć prędkość przesyłu danych z 8 ton/s do 533 ton/s i może otrzymać standardowe wsparcie LPDDR6Dzięki temu NVIDIA będzie mogła zniwelować różnicę między SOCAMM a HBM pod względem wydajności, zachowując jednocześnie kluczową przewagę – dostępność i efektywność energetyczna.

Micron ogłosił wiosną, że jako pierwszy dostarczy SOCAMM dla centrów danych, podczas gdy Samsung i SK Hynix planują rozpocząć masową produkcję w trzecim kwartale 2025 roku. Jeśli przejście na SOCAMM2 rzeczywiście nastąpi, konkurencja będzie miała szansę nadrobić zaległości. NVIDIA nie skomentowała jeszcze tych doniesień, ale rosnące zapotrzebowanie na pamięć dla serwerów AI sprawia, że ​​taki ruch jest całkiem logiczny.