HBM은 GPU에 가까운 초고속 데이터 전송을 가능하게 함으로써 AI 혁명에 기본적입니다.
HBM 성능을 확장하는 것은 JEDEC 프로토콜을 고수할 경우 어려움이 있습니다.
Marvell과 다른 업체들은 HBM 아키텍처를 개발하여 그 발전을 가속화하려고 합니다.
Marvell 기술은 신속히 진화하는 클라우드 인프라 환경에서 중요한 구성 요소인 XPUs의 효율성과 성능을 증가시키기 위해 디자인된 맞춤형 HBM 컴퓨팅 아키텍처를 공개했습니다.
메모리 거장인 Micron, Samsung 및 SK Hynix와 협업하여 개발된 새로운 아키텍처는 다음 세대 데이터 센터의 요구에 맞는 맞춤형 솔루션을 제공하여 전통적인 메모리 통합의 제한사항을 해결하려고 합니다.
이 아키텍처는 AI 및 클라우드 컴퓨팅 시스템에서 사용되는 XPUs가 메모리를 처리하는 방식을 개선하는 데 초점을 맞추고 있습니다. Marvell은 AI 컴퓨팅 실리콘 다이와 고대역폭 메모리 스택 사이의 인터페이스를 최적화함으로써 기술이 표준 HBM 구현과 비교하여 최대 70%의 전력 소비 감소를 실현한다고 주장합니다.
또한, 이 재설계는 실리콘 실제 부지 요구량을 최대 25%까지 줄임으로써 클라우드 운영자가 컴퓨팅 용량을 확장하거나 더 많은 메모리를 추가할 수 있게 합니다. 이는 XPUs가 최대 33% 더 많은 HBM 스택을 지원할 수 있게 함으로써 메모리 밀도를 대폭 높일 수 있습니다.
TechRadar Pro 뉴스 레터에 가입하여 비즈니스가 성공하기 위해 필요한 모든 최신 뉴스, 의견, 기능 및 안내를 받아보세요!