[세상돌아가는 이야기.. ]/[ICT-Animal9]

[엔비디아 독주에 맞서… 인텔·삼성·네이버 ‘AI 생태계’ 연합] ....

뚝섬 2024. 4. 29. 09:26

[엔비디아 독주에 맞서… 인텔·삼성·네이버 ‘AI 생태계’ 연합] 

[AI 연산 핵심 칩은 ‘GPU’… AI 가속기로 추론하고 이미지 만들어]

 

 

 

엔비디아 독주에 맞서… 인텔·삼성·네이버 ‘AI 생태계’ 연합

 

인텔 CEO, 6 서울 서밋 개최 

 

인텔이 6월 5일 서울에서 팻 겔싱어 최고경영자(CEO)가 참석하는 인텔 인공지능(AI) 서밋을 연다. 세계 여러 나라를 돌며 1년에 여러 차례씩 열리는 행사이지만, 대부분 인텔 현지 법인 중심으로 치러지고 겔싱어가 직접 참석해 연설까지 하는 경우는 매우 드물다. 이번 행사에는 네이버에서 최수연 대표가 참석해 연설한다. 삼성전자에서도 메모리 사업부의 고위 임원이 나와 모든 곳에 AI 있는 시대에 삼성과 인텔의 전략적 협업을 주제로 연설할 것으로 알려졌다.

 

테크 업계는 인텔 주최 AI 행사에 자사 CEO 함께 삼성전자·네이버의 핵심 인사가 등장하는 배경을 예의 주시하고 있다. 현재 ‘AI 반도체 생태계 미국의 엔비디아를 중심으로 대만 TSMC, 한국 SK하이닉스가 연합해 주도하고 있다. 이들이 구축한 탄탄한 공급망에서 벗어나기 위해 인텔이 삼성전자·네이버와 손을 잡으는 것 아니냐는 해석이 나오고 있다.

 

AI 반도체 중 핵심인 AI 가속기 시장은 엔비디아가 97% 이상 점유율을 차지하고 있다. AI 가속기 고대역폭 메모리(HBM) GPU(그래픽 처리 장치) 결합해 만드는 것으로, AI 필수적인 연산이나 추론을 빠르게 수행한다. 엔비디아의 AI 가속기 제조를 파운드리(반도체 위탁 생산) 1위 TSMC, HBM 공급을 이 시장 1위인 SK하이닉스가 맡고 있다.

 

인텔·삼성전자·네이버의 연합은 이들의 독점력에서 벗어나려는 움직임으로 풀이된다. 테크 업계 관계자는 “인텔은 자체 AI 가속기를 개발했지만, 현재 시장 점유율은 0.5% 불과하고, 삼성전자도 HBM 시장에선 후발 주자라며선두 업체를 따라잡으면서 그들의 독점적 지배력에서 벗어날 필요성이 있는 상황”이라고 말했다. 삼성 관계자는 “새로운 고객 확보 차원에서 여러 업체와 협업을 추진 중”이라며 “특정 업체를 염두에 두고 견제나 대항하는 차원은 아니다”라고 밝혔다.

 

인텔과 삼성전자, 네이버가 손을 잡는 것은 개별적으로는 AI 반도체 시장에서 입지를 구축하기 쉽지 않기 때문이다. 인텔은 AI 가속기, 삼성전자는 HBM의 시장 확대를 추진 중이지만, 두 회사 모두 얼마만큼의 주문을 확보할 수 있을지 장담하기 어렵다. 네이버는 엔비디아에서 AI 가속기 수급에 어려움을 겪고 있다. 6월 인텔 AI 서밋 무대에 오르는 최수연 네이버 대표의 연설 제목도 ‘GPU 없이 AI 현대화하기’다. 엔비디아의 GPU 의존하지 않고 AI 하겠다는 뜻으로 풀이된다.

 

이미 엔비디아와 TSMC, SK하이닉스는 협력 관계를 강화하고 있다. TSMC SK하이닉스는 차세대 HBM 공동 개발하기로 했다. 최근 최태원 SK 회장은 엔비디아의 젠슨 황 CEO(최고경영자)를 직접 미국에서 만나 협력 방안을 논의했다. 하드웨어와 소프트웨어가 모두 갖춰져야 성장이 가능한 AI 산업의 특성상 앞으로엔비디아 생태계인텔 생태계처럼 여러 기업이 손을 잡는 협력 체제는 많아질 이라는 게 테크 업계의 전망이다.

 

엔비디아 생태계에 대안 세력 등장

 

인텔과 삼성전자, 네이버의 협업은 조금씩 모습을 드러내고 있다. 겔싱어 인텔 CEO 지난 9 미국 애리조나주 피닉스에서 진행된인텔 비전 2024′ 행사에서 네이버와의 협업을 발표했다. 엔비디아의 반도체와 AI 개발 플랫폼 없이도 AI 개발이 가능한 환경을 만들겠다는 것이다. 엔비디아는 AI 개발 플랫폼인 ‘쿠다(CUDA)’를 자사의 AI 가속기에서만 작동할 수 있도록 하며 AI 반도체 시장을 장악해왔다. 거의 모든 AI 개발자가 쿠다를 이용해 GPT 같은 AI 모델을 만들어왔기 때문에 엔비디아 이외의 다른 기업 반도체를 쓰는 매우 어렵다. 네이버와 인텔은 이를 극복하기 위해 공동 연구소를 만들어 AI 개발 플랫폼을 개발하기로 했다. 또 네이버는 AI를 위한 거대 언어 모델(LLM) 개발에 인텔 AI 가속기인 ‘가우디’를 활용하기로 했다.

 

삼성전자는 급성장하는 HBM 시장에서 SK하이닉스에 한발 뒤처져 있다. SK하이닉스와 차별화되는 공법으로 차세대 HBM 개발에 성공해 상반기 중 납품을 목표로 협상을 진행 중인 것으로 알려졌다. 하지만 당장 충분한 주문을 확보하기는 쉽지 않다. 새로운 공급선을 확보하는 것이 중요하다. 김정호 카이스트 전기전자공학부 교수는 “삼성전자도 자체 AI 가속기 개발에 나섰기 때문에 향후 분야에서 인텔과 경쟁 관계에 놓일 있지만, 당분간은 HBM 납품을 매개로 인텔과 협력 관계를 가질 ”이라고 했다.

 

삼성전자와 네이버는 HBM 필요 없는 새로운 방식의 AI 가속기마하1′ 공동 개발하고 있다.

 

◇AI 반도체에서 한국 입지 강해질까

 

인텔이 새로운 AI 반도체 생태계 구축을 추진하면서 한국 업체인 삼성전자와 네이버를 선택한 것을 국내 테크 업계는 주목하고 있다. AI 가속기 핵심 부품인 HBM 미국의 반도체 회사인 마이크론도 생산하고 있지만, 기술력은 SK하이닉스와 삼성전자가 앞서 있다는 평가가 지배적이다

 

인텔이 네이버에 손을 내민 것도 의미가 있다. 업계 관계자들은 “인텔이 미국의 다른 빅테크에 러브콜을 보냈지만, 빅테크들이 엔비디아 눈치를 보느라 인텔의 제안을 받아들이기 어려웠을 ”이라며 “미국 빅테크를 제외하면 네이버처럼 한국 기업들이 상대적으로 경쟁력이 있다는 것을 보여주는 장면”이라고 했다. 미국과 중국의 갈등이 고조되는 상황 속에 화웨이와 같은 중국 기술 기업과 손을 잡기가 쉽지 않았던 탓도 있다. AI 업계 관계자는 “앞으로 기업 합종연횡을 통해 새로운 ‘AI 생태계 많아질 이라며이런 상황에서 한국 테크 기업들이 새로운 기회를 포착할 있을 ”이라고 말했다.

 

AI 가속기(AI accelerator)

 

대규모 데이터 학습과 추론 등 AI에 특화된 반도체로, 흔히 HBM과 GPU(그래픽 처리 장치)를 조립해 만든다. 머신러닝(기계학습)처럼 AI 필수적인 기능 수행을 가속화하는 역할을 한다는 뜻에서 이런 이름이 붙었다. AI 가속기에 CPU(중앙처리장치) 등을 결합하면 기본적인 ‘AI 컴퓨터’가 된다. 대표적으로 엔비디아의 H100·H200, 인텔의 ‘가우디’가 있고, 삼성전자는 HBM이 필요 없는 ‘마하’ 시리즈를 개발 중이다.

 

-변희원 기자, 조선일보(24-04-29)-

_____________

 

 

AI 연산 핵심 칩은 ‘GPU’… AI 가속기로 추론하고 이미지 만들어

 

AI 반도체, 뭘로 이루어지나

 

인공지능(AI)이 촉발한 반도체 경쟁이 거세지고 있다. 챗GPT 같은 대규모 생성형 AI를 구현하기 위해 메타·구글·마이크로소프트 같은 빅테크 기업들은 고성능 컴퓨터를 앞다퉈 도입하는 중이다. 미국 엔비디아가 치고 나가는 가운데, 삼성전자·SK하이닉스·대만 TSMC 등도 AI 반도체 붐에 올라탔다. 메모리, 비메모리 업계 가리지 않고 ‘AI 반도체’ 시장을 석권하겠다는 각오다. AI 반도체는 도대체 무엇이며, 어느 기업이 어떤 장치를 만들고 어떤 흐름으로 반도체 공급망이 이어지는지 상세히 설명해 보고자 한다.

 

◇AI 반도체 필수 요소, D램과 HBM

 

D램은 정보를 읽고 쓰고 저장하는 용도로 쓰이는 메모리 반도체다. 우리나라가 특히 강한 분야다. 삼성전자, SK하이닉스, 마이크론 등이 시장을 주도하고 있다. 고대역폭메모리(HBM)는 D램을 여럿 쌓아 속도를 높이면서 전력 소비를 줄인 고성능 메모리 반도체다. 정보 처리량이 많은 AI 가속기를 만드는 데 필수 요소로 꼽힌다. 현재 HBM 시장은 SK하이닉스와 삼성전자가 양분하고 있다. SK하이닉스가 4세대 HBM(HBM3)을 엔비디아에 독점적으로 공급하며 시장을 선도하고 있고, 삼성전자가 추격하는 모양새다. 이제 5세대 HBM(HBM3E)까지 등장했다. SK하이닉스의 제품은 초당 풀HD급 영화(5기가바이트) 230편이 넘는 분량을 1초 만에 처리한다. SK하이닉스가 엔비디아에 공급하고, 마이크론도 양산을 공식화했다. 삼성전자는 상반기 중 양산 예정이다. 낸드플래시는 대용량 저장 장치를 만드는 메모리 반도체의 일종이다. 최근 반도체 수퍼사이클을 맞아 D램과 함께 덩달아 가격이 뛰었다.

 

◇AI 연산 핵심 칩, GPU

 

그래픽 처리 장치. 대표적 비메모리 분야 반도체 중 하나다. 1999년 엔비디아가 게임 속 3D 이미지 데이터를 효과적으로 처리하기 위해 개발했다. 명령어를 순서대로 처리하는 중앙처리장치(CPU)와 달리 한 번에 여러 계산을 할 수 있다. 복잡한 AI 훈련과 서비스에 적합해 AI 반도체로 널리 쓰이고 있다. 원조 격인 엔비디아가 점유율 1위이며, AMD·인텔이 엔비디아의 아성에 도전하고 있다. 엔비디아는 반도체 설계만 하고, 대만TSMC에 제조를 위탁한다. 이 회사의 AI 가속기 주력 제품인 H100에 탑재된 GPU 프로세서 GH100은 TSMC의 4나노미터(10억분의 1미터) 공정으로 만들어졌다.

 

없어서 못 파는 AI 가속기

 

AI 반도체 중 가장 널리 알려졌다. PC에 탑재되는 그래픽카드의 일종이지만, AI·딥러닝·머신러닝 같은 분야에 특화돼 있어 게임을 돌릴 수는 없다. 생성형 AI 열풍이 불면서 ‘없어서 못 파는 제품’이 됐다. 엔비디아의 AI 가속기 H100은 메타·마이크로소프트·구글 등 글로벌 빅테크 기업들이 수십만 대씩 주문하는 바람에 대당 5000만원이 넘는 고가 제품이 됐다. 인텔도 자체 설계 AI 가속기 가우스 시리즈로 추격하고 있다. 삼성전자도 내년 초 AI 가속기 ‘마하-1′을 내놓는다는 계획을 세웠다.

 

AI 가속기는 GPU에 데이터 처리용 메모리로 HBM 여러 개를 조립해 만든다. 엔비디아가 설계하고, TSMC가 패키징 작업을 거쳐 납품한다. 이 과정에서 HBM도 함께 탑재되는 것이다. 엔비디아 H100에는 4세대 HBM 4개가 탑재된다. 엔비디아가 지난달 발표한 최신 AI 가속기 블랙웰(B200)에는 8단 5세대 HBM이 8개 들어간다. 이 가속기는 H100보다 AI 추론 성능이 30배 이상 향상된 것이 특징이다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난달 18일 블랙웰을 공개하며 “생성형 AI 산업혁명을 구동하는 엔진이 될 것”이라고 했다.

 

◇AI 컴퓨터와 AI 데이터센터

 

AI 가속기와 CPU, 낸드 등을 조립하면 AI 컴퓨터가 된다. 엔비디아의 AI 컴퓨터 ‘DGX H100′은 AI 가속기(H100) 8개와 인텔의 제온 4세대 CPU를 탑재했다. 여기에 30테라바이트 규모 낸드 저장 장치가 함께 들어간다. DGX H100의 가격은 대당 약 6억원에 달한다. 이런 AI 컴퓨터를 수백~수천 대 모아놓으면 AI 데이터센터가 된다. 단순 데이터 저장용이 아닌, GPT·제미나이 같은 대규모 언어 모델을 학습시키는 초거대 두뇌 역할을 하는 기지인 셈이다. 최근 오픈AI와 마이크로소프트가 AI 데이터센터를 구축하기 위해 1000억달러(약 134조6000억원)를 투자하기로 했다.

 

-장형태 기자, 조선일보(24-04-11)-

 

 

=======================