
▲사진 : AMD
ZAYA1으로 대규모 MoE 모델 성과 입증
글로벌 반도체 기업 AMD가 혁신적인 AI 스타트업 자이프라(Zyphra)의 프런티어급 AI 모델 학습을 지원한다.
AMD는 자이프라와 협력해 최초의 대규모 전문가 혼합(Mixture-of-Experts, MoE) 파운데이션 모델 ZAYA1을 성공적으로 훈련했다고 25일 발표했다.
이번 성과는 AMD 인스팅트(Instinct) MI300X GPU, AMD 펜산도(Pensando) 네트워킹, 그리고 ROCm 오픈 소스 소프트웨어 스택을 기반으로 달성된 것으로, 대규모 AI 모델 학습 분야에서 AMD의 기술적 우수성을 입증하는 사례로 평가된다.
자이프라가 개발한 ZAYA1 Base 모델은 추론, 수학, 코딩 등 다양한 영역에서 기존 오픈 모델 대비 경쟁력 있는 성능을 보여주었다.
특히 라마 3(Llama 3) 8B와 올모E(OLMoE)를 여러 벤치마크에서 능가했으며, 큐원3(Qwen3) 4B와 젬마3(Gemma3) 12B와 견줄 만한 성능을 입증했다.
전체 83억개 파라미터 중 활성 파라미터가 7억6,000만개에 불과한 ZAYA1은 효율적인 구조를 통해 고성능·저비용 학습을 구현했다.
이는 AMD 인스팅트 MI300X GPU의 192GB 고대역폭 메모리 덕분에 가능했으며, 복잡한 텐서 샤딩(tensor sharding) 절차 없이도 안정적이고 빠른 학습을 지원했다.
AMD 인스팅트 MI300X GPU는 대규모 AI 워크로드에 최적화된 성능과 확장성을 제공한다.
192GB 고대역폭 메모리로 복잡성 감소 및 처리량을 향상 시켰으며, AMD 최적화 분산 I/O로 모델로 저장 시간을 약 10배 단축했고, 효율적 학습 안정성을 확보했다.
AMD 인공지능 그룹의 AI 및 엔지니어링 부사장 에마드 바르숨(Emad Barsoum)은 “AMD는 가속 컴퓨팅 분야의 리더십을 통해 자이프라와 같은 혁신 기업이 AI의 한계를 확장할 수 있도록 지원하고 있다”며 “이번 성과는 AMD 인스팅트 GPU와 펜산도 네트워킹이 제공하는 유연성과 성능을 보여주는 중요한 사례”라고 강조했다.
자이프라의 CEO 크리틱 푸탈라스(Krithik Puthalath)는 “효율성은 자이프라의 핵심 철학으로, 모델 아키텍처 설계와 학습 알고리즘, 최적의 가격 대비 성능을 제공하는 하드웨어 선택까지 모든 과정에 반영되어 있다”며 “ZAYA1은 AMD 플랫폼에서 대규모 학습을 구현한 첫 사례로 매우 뜻깊다”고 말했다.
그는 이어 “이번 성과는 모델 아키텍처를 반도체 및 시스템과 함께 공동 설계하는 접근 방식의 강력함을 보여준다”며 “자이프라는 AMD, IBM과의 협력을 더욱 강화해 차세대 멀티모달 파운데이션 모델을 구축할 것”이라고 밝혔다.