처리 속도를 혁신적으로 끌어올리기 위해 등장한 ‘HBM(High Bandwidth Memory)’은 여러 개의 D램을 TSV(실리콘 관통 전극) 기법으로 수직 연결한 고대역폭 메모리다. HBM 시장은 삼성전자와 SK하이닉스가 양대 산맥을 차지하고 있으며, 마이크론이 이를 뒤쫓고 있다. 트렌드포스에 따르면 지난해 글로벌 HBM 시장 점유율은 SK하이닉스가 50%, 삼성전자(40%), 마이크론(10%)으로 나타났다. 2026년 엔비디아 및 아마존, 구글, MS 등과 같은 클라우드 서비스 제공사(Cloud Service Provider, CSP)의 수요에 맞춰 출시될 HBM4는 지금의 반도체와는 다른 방식이 도입된다.
국내외 AI 반도체 및 데이터센터 등 AI 시장 핵심 인프라에 대한 투자가 촉진되고 있다. 삼성전자는 2021년 메모리 반도체와 AI 프로세서를 하나로 결합한 ‘HBM-PIM’을 지속 발전시키고 있다. SK하이닉스는 AI 추론·학습 성능에 최적화된 차세대 적층형 메모리 ‘HBM3’ 개발에 성공했다. 데이터센터는 빅데이터를 수집·저장·분석할 수 있는 클라우드 컴퓨팅 서비스를 제공하며, AI 모델을 훈련하는 데 적합하다. 국내에서 AI 반도체 개발과 함께 안정적인 인프라 확보를 위한 데이터센터 투자가 가속화되고 있다.
인공지능 기술과 소프트웨어로 기능하는 자동차 등 디바이스에서 요구하는 데이터양이 막대해지고 있다. 늘어나는 데이터 양에 대응하고 이러한 데이터를 활용할 수 있는 기술을 갖추는 데 시장 니즈가 높아지고 있는 가운데 단순히 데이터 처리 속도를 만족하면서 처리할 수 있는 데이터 양까지 충족하기 위해선 프로세서를 지원하는 메모리 속도가 필수적으로 뒷받침돼야 한다.
시장조사업체 트렌드포스는 1일 AI 가속기 칩 수요가 증가하고, 업체들이 자체 칩을 개발하는 추세에 따라 2024년 새로운 HBM3·HBM3e이 시장의 주류가 될 것이라 주장했다. 엔비디아의 거세진 입김을 피하기 위해 최근 업계는 자체 AI 칩 개발에 몰두하고 있다. AI 가속기 칩에 대한 수요가 진화함에 따라 HBM3 및 HBM3e의 성장이 예측된다.