본문 바로가기
IT과학

AMD AI침 MI300 성능과 연관 기업

by №℡ 2024. 3. 24.

발표현장

AMD의 AI 칩

AMD의 AI 칩인 Instinct MI300 시리즈는 AI와 HPC(고성능 컴퓨팅) 작업을 가속화하기 위해 설계된 선도적인 가속기입니다.

이 칩은 AMD의 CDNA™ 3 아키텍처를 기반으로 하며, Matrix Core 기술과 다양한 정밀도 기능을 지원합니다. 예를 들어, AI를 위한 INT8과 FP8(희소성 지원 포함)부터 HPC를 위한 FP64에 이르기까지 다양한 데이터 형식을 지원합니다.

MI300 시리즈는 특히 Generative AI 워크로드와 HPC 애플리케이션에 대한 선도적인 성능을 제공하도록 설계되었습니다. 예를 들어, MI300X 가속기는 304개의 GPU 컴퓨트 유닛과 192GB의 HBM3 메모리를 갖추고 있으며, 최대 5.3TB/s의 이론적인 메모리 대역폭을 제공합니다.

또한, MI300A 가속 처리 장치(APU)는 AMD Instinct 가속기와 AMD EPYC™ 프로세서의 힘을 결합하여 향상된 효율성, 유연성 및 프로그래밍 가능성을 제공합니다. 이 APU는 AI와 HPC의 융합을 가속화하여 연구를 진전시키고 새로운 발견을 추진하는 데 도움을 줍니다.


vs NVIDIA H100

AMD는 이러한 칩을 통해 데이터센터 AI 솔루션을 선도하고, 엔비디아의 경쟁 제품을 뛰어넘는 AI 성능을 제공한다고 주장합니다. 특히, Instinct MI300X는 Chiplet 디자인을 채택하여 24개의 Zen4 CPU 코어와 CDNA 3, 8개의 HBM3 메모리 스택을 통합한 구조로, 총 128GB의 HBM3 메모리와 무려 1460억 개의 트랜지스터를 결합하고 있습니다.

AMD의 Instinct MI300 시리즈와 NVIDIA의 H100을 비교할 때, MI300은 특히 AI와 HPC 작업에 있어서 뛰어난 성능을 보여줍니다. MI300X 모델은 192GB의 HBM3 메모리를 지원하며, 이전 모델인 MI250X에 비해 AI 성능이 6.8배 향상되었다고 합니다¹. 또한, MI300X는 NVIDIA H100과 비교하여 FP8 FLOPS에서 30% 더 많은 성능, 메모리 대역폭에서 60% 더 높은 성능을 제공하며, 메모리 용량도 2배 이상입니다.

그러나 NVIDIA H100도 여전히 강력한 경쟁력을 가지고 있으며, 현재 시장에서 널리 사용되고 있는 AI 연구 및 개발에 있어서 큰 생태계를 구축하고 있습니다. H100은 이미 전체 볼륨으로 출하되고 있으며, AMD가 MI300을 출시할 때까지 NVIDIA는 동일한 메모리 용량을 제공할 수도 있습니다.

종합적으로, AMD MI300X는 NVIDIA H100에 비해 몇몇 성능 지표에서 우위를 보이지만, 실제 시장에서의 성능과 수용도는 다양한 요소에 따라 달라질 수 있습니다. 사용자의 특정 요구 사항과 작업에 가장 적합한 솔루션을 선택하는 것이 중요합니다.


MI300 연관 업체

AMD의 MI300X GPU는 마이크로소프트, 메타와 같은 대형 기업들이 관심을 가지고 도입을 고려하고 있는 것으로 알려져 있습니다. 또한, 삼성전자는 AMD의 MI300X GPU에 대한 대량 수주를 완료했다는 보도가 있으며, 이는 삼성전자의 HBM3 메모리 및 패키징 기술이 MI300X GPU에 활용될 것임을 시사합니다. 이러한 협력은 AMD의 AI 성장을 주도할 것으로 예상되며, MI300X GPU는 다양한 AI 및 HPC 애플리케이션에서 사용될 가능성이 높습니다.

728x90
반응형

댓글