세계 최대 메모리 제조업체와 협력하는 1조원 기술 기업

HBM은 GPU에 가까운 초고속 데이터 전송을 가능하게 함으로써 AI 혁명에 기본적입니다.
HBM 성능을 확장하는 것은 JEDEC 프로토콜을 고수할 경우 어려움이 있습니다.
Marvell과 다른 업체들은 HBM 아키텍처를 개발하여 그 발전을 가속화하려고 합니다.
Marvell 기술은 신속히 진화하는 클라우드 인프라 환경에서 중요한 구성 요소인 XPUs의 효율성과 성능을 증가시키기 위해 디자인된 맞춤형 HBM 컴퓨팅 아키텍처를 공개했습니다.
메모리 거장인 Micron, Samsung 및 SK Hynix와 협업하여 개발된 새로운 아키텍처는 다음 세대 데이터 센터의 요구에 맞는 맞춤형 솔루션을 제공하여 전통적인 메모리 통합의 제한사항을 해결하려고 합니다.
이 아키텍처는 AI 및 클라우드 컴퓨팅 시스템에서 사용되는 XPUs가 메모리를 처리하는 방식을 개선하는 데 초점을 맞추고 있습니다. Marvell은 AI 컴퓨팅 실리콘 다이와 고대역폭 메모리 스택 사이의 인터페이스를 최적화함으로써 기술이 표준 HBM 구현과 비교하여 최대 70%의 전력 소비 감소를 실현한다고 주장합니다.
또한, 이 재설계는 실리콘 실제 부지 요구량을 최대 25%까지 줄임으로써 클라우드 운영자가 컴퓨팅 용량을 확장하거나 더 많은 메모리를 추가할 수 있게 합니다. 이는 XPUs가 최대 33% 더 많은 HBM 스택을 지원할 수 있게 함으로써 메모리 밀도를 대폭 높일 수 있습니다.
TechRadar Pro 뉴스 레터에 가입하여 비즈니스가 성공하기 위해 필요한 모든 최신 뉴스, 의견, 기능 및 안내를 받아보세요!