엔비디아 아성 넘보는 AMD… AI반도체 경쟁 격화

입력 2023-12-11 04:08

생성형 인공지능(AI) 산업이 급성장하면서 AI 반도체 시장 경쟁이 한층 치열해지고 있다. AI 반도체는 거대언어모델(LLM)을 비롯한 AI 기술에 필요한 연산을 초고속·저전력으로 실행할 수 있도록 하는 그래픽처리장치(GPU) 칩을 뜻한다. 이러한 시스템 반도체를 돕는 메모리 반도체로는 고대역폭메모리(HBM)가 대표적이다. AI 기술·서비스 개발 붐을 타고 이들 AI 반도체를 설계·생산하는 기업 간 경쟁이 뜨거워진 상황이다.

업계에서는 미국 반도체 설계 기업인 AMD가 지난 6일(현지시간) 공개한 차세대 GPU ‘인스팅트 MI300X’를 엔비디아의 독점 구조를 위협할 제품으로 주목했다. 이 제품은 주로 데이터센터 및 서버에 탑재된 AI의 연산을 빠르게 해주는 일종의 ‘가속기’다. 엔비디아의 GPU인 ‘H100’보다 메모리 용량이 배가량 크고, 대역폭은 1.6배 이상이다. MI300X를 쓰면 생성형 AI 모델의 학습 능력이 배로 향상될 수 있다는 게 AMD의 설명이다. AMD는 이날 MI300X와 중앙처리장치(CPU)를 결합한 ‘MI300A’도 선보였다.

최근 엔비디아의 H100이 품귀 현상을 빚고 있는 가운데, 업계에선 경쟁 제품의 등장을 반기는 분위기다. 엔비디아 H100을 사용하던 기업 중에서 AMD 제품 구매 의사를 밝히는 곳도 나오고 있다. 특히 챗GPT 개발사인 오픈AI를 비롯해 마이크로소프트(MS), 메타 등이 AMD의 AI 칩을 사겠다고 나선 상황이다.

리사 수 AMD 최고경영자(CEO)는 “MI300 칩 시리즈는 AMD가 역사상 가장 빠른 시간 안에 매출 10억 달러를 달성하게 할 것”이라며 “내년 중반쯤으로 예상된다”고 말했다. 다만 AMD 제품의 성능이 엔비디아의 칩과 대적할 수 있을지는 좀 더 두고 봐야 한다는 관측도 있다. 엔비디아는 내년 H100의 업그레이드 버전인 H200을 출시할 예정이다.

AI 반도체의 핵심 소재인 HBM 시장 역시 전망이 밝은 편이다. AMD는 MI300에 들어가는 HBM 관련해 특정 업체만을 공급사로 정하지 않겠다는 입장이다. 현재 HBM 시장은 SK하이닉스와 삼성전자가 양분하고 있다.

특히 SK하이닉스는 HBM 분야에서 선두를 유지하는데 사활을 걸고 있다. 이 회사는 HBM 경쟁력을 높이고, 반도체 업계의 ‘업턴(상승)’에 대비한 인재 확보에도 나섰다. 오는 20일까지 D램 설계, HBM 패키지 제품 개발 등 28개 직무에서 경력 사원을 채용하고 최근 조직 개편에서는 ‘AI 인프라’ 조직을 신설했다. 삼성전자는 2025년을 목표로 차세대 HBM 모델 ‘HBM4’를 개발 중이다.

삼성전자와 SK하이닉스는 서버를 거치지 않고 기기에서 AI가 구동되는 ‘온디바이스 AI’ 시장에서도 수혜를 입을 전망이다. 김동원 KB증권 연구원은 “메모리 반도체 업체들은 서버 AI 중심의 HBM, 온디바이스 AI에 특화된 D램으로 수혜 폭이 확대될 것”이라고 말했다.

조민아 기자 minajo@kmib.co.kr