트리늄은 미리보기 출시 후 단 몇 달 만에 일반 공급에 도달했습니다.
강력한 AI 칩은 훈련 성능을 4배 이상 높였습니다.
구글은 자사의 고급 AI 모델인 Gemini 2.0을 훈련하는 데 사용합니다.
구글은 10년 이상에 걸쳐 자체 AI 가속기인 Tensor Processing Units (TPUs)를 개발해 왔으며, 미리보기로 제공된 후 단 몇 달 후 여섯 번째 세대 TPU가 일반 공급에 도달했음을 발표했으며 이제 대여할 수 있습니다.
트리늄은 HBM 용량과 인터칩 인터커넥트 대역폭을 모두 두 배로 증가시켰으며, 이 기술은 기술 거인의 주력 AI 모델인 Gemini 2.0을 훈련하는 데 사용되었습니다.
구글은 트리늄이 이전 TPU 세대에 비해 훈련 성능 당 달러당 최대 2.5배 개선을 제공한다고 보고 있어 효율적인 AI 인프라를 찾는 기업들에게 매력적인 옵션이 될 것으로 보입니다.
트리늄은 이전 제품보다 4배 이상의 훈련 성능을 제공하는 것을 비롯한 이전 제품과 비교하여 다양한 개선 사항을 제공합니다.
에너지 효율성은 67% 향상되었으며, 칩 당 최대 계산 성능은 4.7배 상승했습니다.
트리늄은 추론 성능도 자연스럽게 향상시킵니다. 구글의 테스트에 따르면, 이미지 생성 모델에 대해 3배 이상 높은 처리량을 제공하며, 대형 언어 모델에 대해 이전 TPU 세대에 비해 거의 2배의 처리량을 제공합니다.
이 칩은 임베딩 집약적 모델에 최적화되어 있으며, 세대 SparseCore 제공을 통해 동적 및 데이터 의존적 작업에 대해 더 나은 성능을 제공합니다.
트리늄 TPU는 또한 구글 클라우드의 AI Hypercomputer의 기초를 형성합니다. 이 시스템은 JAX, PyTorch 및 TensorFlow를 포함한 최적화된 하드웨어, 오픈 소프트웨어 및 인기 있는 머신 러닝 프레임워크를 통합한 Jupiter 네트워크 패브릭을 통해 13 Petabits/sec의 대역폭을 제공하는 100,000개 이상의 트리늄 칩으로 구성됩니다.
트리늄이 이제 일반 공급되면서 구글 클라우드 고객은 Gemini 2.0을 훈련하는 데 사용된 하드웨어에 액세스할 수 있는 기회를 얻게 되었으며, 다양한 응용 프로그램에 대한 고성능 AI 인프라를 보다 접근하기 쉽게 만들 수 있습니다.