AI시대 필수재 ‘HBM’… 업계, 새 성장동력 낙점

입력 2023-06-21 04:06

생성형 인공지능(AI)의 급부상으로 ‘고대역폭메모리(HBM)’가 주목을 받고 있다. 생성형 AI 구동에는 AI 가속기가 필요한데, 많은 양의 데이터를 원활하게 처리하려면 HBM이 필수다.

HBM은 3차원 실리콘 관통 전극(TSV) 기술을 사용해 D램을 수직으로 여러 개 쌓아 연결한 제품이다. 기존 D램보다 고용량, 고대역폭을 구현할 수 있는 고부가가치 제품이다. 같은 용량 기준으로 DDR5보다 HBM이 5배가량 비싸다. 이런 이유로 HBM은 빠른 속도를 필요로 하는 고가의 그래픽카드 등에만 사용돼 왔다.

하지만 AI가 상황을 바꿨다. AI 학습과 추론을 위해 빠른 속도로 많은 양의 데이터를 학습해야 하는데, 그러려면 HBM 수요가 높아질 수밖에 없다. 엔비디아의 A100, H100과 같은 AI 가속기는 HBM을 기본으로 탑재한다. 20일 시장조사기관 모르도 인텔리전스에 따르면 HBM 시장 규모는 올해 20억4186만 달러(약 2조6130억원)에서 오는 2028년 63억1250만 달러(약 8조810억 달러)로 연평균 25.36% 성장할 것으로 추산된다.


삼성전자와 SK하이닉스가 새 성장동력으로 ‘HBM’을 점찍고 있다. HBM은 SK하이닉스에서 그동안 주도해 왔다. D램 시장 2위였던 SK하이닉스는 그래픽카드용 GDDR 등의 틈새시장을 공략하는 ‘특화제품’을 개발해 왔다. HBM 역시 SK하이닉스가 2013년 세계 최초로 개발해 시장에 안착시킨 제품이다. SK하이닉스는 올해 4월 세계 최초로 D램 12개를 수직 적층해 최고 용량인 24GB(기가바이트)를 구현한 HBM3 개발하기도 했다.

HBM 시장에서 SK하이닉스의 점유율은 50%, 삼성전자는 40%, 마이크론은 10%를 기록 중이다. SK하이닉스는 지난해 4세대 HBM인 HBM3를 양산했고, 삼성전자도 올해 9월 양산에 들어간다. 엔비디아는 AI 가속기 수요 증가에 맞물려, SK하이닉스에 HBM 물량을 늘려달라고 요청한 것으로 알려졌다.

향후 몇 년간 주요 IT 기업이 생성형 AI 구축경쟁을 벌일 것이라는 점을 고려하면, HBM 수요는 기하급수적으로 늘어날 전망이다. 인텔은 최근 서버용 중앙처리장치(CPU) 제온과 HBM 64GB를 묶은 ’제온 CPU 맥스’ 시리즈를 공개하기도 했다. 꼭 AI가 아니라도 HBM 도입이 필요하다는 걸 보여준다.

삼성전자도 HBM 시장에 본격적으로 뛰어들었다. IT팁스터 레베그너스에 따르면 AMD에서 최근 공개한 AI 가속기 MI300X에 삼성전자의 HBM3가 적용된다. 엑시노스 개발 등에서 손을 잡은 AMD와 삼성전자가 AI 반도체에서도 동맹 관계를 이어가게 될 것이라는 관측이 나온다. 삼성전자는 “고객사 정보에 관해서는 확인할 수 없다”는 입장이다.

또한 삼성전자는 주요 고객사에 HBM2, HBM2E 제품을 공급해 왔고 HBM3 16GB와 12단 24GB 제품의 양산 준비를 끝내며 반격 채비를 마쳤다. 반도체 업계 관계자는 “HBM은 아직 D램 전체 시장에서 1% 미만의 비중이다. 시장은 초기 단계다. 메모리, 시스템 반도체, 파운드리를 모두 하는 삼성전자가 본격적으로 뛰어들면 시장 판도는 어떻게 바뀔지 장담할 수 없다”고 말했다.

김준엽 기자 snoopy@kmib.co.kr