젠슨 황 “HBM4 6개월 빨리 달라”… 최태원 “한번 해보겠다”

입력 2024-11-05 02:35
최태원 SK그룹 회장이 4일 서울 강남구 코엑스에서 열린 ‘SK 인공지능(AI) 서밋 2024’에 참석해 ‘협력과 생태계로 만들어가는 SK의 비전’을 주제로 기조연설하고 있다. 연합뉴스

SK그룹이 글로벌 기업과의 협력을 통해 세계 최고 수준의 인공지능(AI) 인프라 조성에 나선다. 반도체부터 데이터센터 운영, 서비스 개발까지 이어지는 AI 공급망 확보가 글로벌 AI 주도권 경쟁의 핵심이라는 판단에서다.

SK그룹은 4일 서울 강남구 코엑스에서 ‘SK AI 서밋 2024’를 개최했다. SK AI 서밋은 SK그룹 차원에서 매년 열었던 행사로, 올해는 글로벌 AI 리더를 초청해 규모를 확대했다. 챗GPT 개발사인 오픈AI의 그레그 브로크먼 회장을 비롯해 마이크로소프트(MS), AMD, 람다 등 주요 기업 관계자가 참석했다.

최태원 SK그룹 회장은 기조연설자로 나서 AI 시대 협력의 필요성을 강조했다. 최 회장은 AI가 지속 성장하기 위해 해결해야 할 병목으로 이용사례(Use-case), 그래픽처리장치(GPU), 에너지, 양질의 데이터 확보 등을 꼽았다. 단일 기업이 해결하기엔 어려운 과제다. 최 회장은 “AI는 다양한 분야의 리더들이 함께 고민하며 풀어야 하는 많은 난제가 존재한다”면서 “광범위한 변화를 긍정적으로 이끌기 위해 우리 모두가 협력해야 한다”고 말했다.

주요 AI 기업들도 이에 화답했다. 젠슨 황 엔비디아 최고경영자(CEO)는 영상을 통해 “SK하이닉스와 엔비디아가 함께한 고대역폭메모리(HBM) 덕분에 무어의 법칙을 뛰어넘는 진보를 이뤘다”고 말했다. 사티아 나델라 MS CEO는 “SK의 HBM을 우리의 데이터센터에 도입하는 것부터 시작해 SK그룹 전반의 데이터 혁신까지 우리의 파트너십은 계속될 것”이라고 했다.

글로벌 협력의 궁극적 목표는 AI 공급망 확보를 통한 AI 생태계 선도다. 국내 기업들은 AI 반도체 등 기술력을 갖고 있지만 데이터센터 등 인프라 분야에선 크게 뒤처져 있다. 메타는 AI 모델 ‘라마’ 학습을 위해 엔비디아 가속기 H100을 15만개 보유하고 있지만 국내에서 H100 보유량은 2000여개에 불과한 것으로 알려졌다.

이에 SK텔레콤은 AI를 구동할 수 있는 국내 인프라 구축에 집중한다. 유영상 SK텔레콤 CEO는 이날 ‘AI 인프라 슈퍼 하이웨이’ 구축 계획을 공개했다. 가산 데이터센터를 AI 데이터센터로 전환하고, 클라우드 형태로 GPU를 제공하는 ‘GPUaaS’를 출시할 계획이다. 내년부터는 1000억원을 투자해 글로벌 빅테크에 의존하지 않는 ‘한국형 소버린 AI’를 구현한다.

SK하이닉스는 AI 반도체 분야에서 초격차를 지켜낸다는 목표다. 곽노정 SK하이닉스 CEO는 이날 5세대 HBM인 ‘HBM3E’의 16단 제품 출시를 세계 최초로 공식화했다. 내부 분석 결과 16단 제품은 12단 제품 대비 학습 분야에서 18%, 추론 분야에서는 32% 성능이 향상된 것으로 나타났다. SK하이닉스는 6세대 HBM인 ‘HBM4’ 개발 일정을 앞당기고 있다. 최 회장은 “젠슨 황이 HBM4 공급을 6개월 당겨달라고 했다”며 “곽 사장이 최대한 해보겠다고 했다”고 말했다.

임송수 기자 songsta@kmib.co.kr