제보
주요뉴스 GAM

[GAM]엔비디아 2030년 시총 10조달러 ① 블랙웰 新 산업혁명

기사등록 : 2024-06-03 13:28

※ 뉴스 공유하기

URL 복사완료

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게
블랙웰 H100보다 2.5배 빨라
CUDA의 숨은 경쟁력
AI 칩 시장 80~95% 차지

이 기사는 5월 30일 오후 4시12분 '해외 주식 투자의 도우미' GAM(Global Asset Management)에 출고된 프리미엄 기사입니다. GAM에서 회원 가입을 하면 9000여 해외 종목의 프리미엄 기사를 보실 수 있습니다.

[서울=뉴스핌] 황숙혜 기자 = 일명 '천비디아'와 '킹비디아'를 넘어 '갓비디아'로 통하는 미국 반도체 업체 엔비디아(NVDA)가 2030년 시가총액 10조달러 신화를 세울 것이라는 전망이 나왔다.

엔비디아 주가는 2023년 초 이후 세 배 이상 폭등했고, 2024년 초 이후로도 두 배 이상 오른 상황. 인공지능(AI) 칩 H100의 판매 호조가 업체의 시가총액을 2조8000억달러까지 끌어올렸다.

I/O 펀드의 베스 킨디그 IT 애널리스트는 미국 경제 매체 CNBC와 인터뷰를 갖고 차세대 GPU(그래픽 처리장치) 칩 블랙웰(Blackwell)이 또 한 차례 엔비디아의 비약적인 성장을 이끌어낼 것이라고 전망했다.

킨디그 애널리스트는 블랙웰의 판매량이 H100을 앞지를 것으로 예상한다. 아울러 데이터센터 매출액이 2026 회계연도 2000억달러에 이를 것이라는 관측이다.

새로운 산업혁명 엔진으로 기대를 모으는 엔비디아의 블랙웰은 2024년 3월18일(현지시각) 'GTC(GPU 테크놀로지 컨퍼런스) 2024'에서 선보인 신형 인공지능(AI) 반도체 칩이다.

엔비디아가 2022년 공개한 호퍼(Hopper) 아키텍처의 후속 기술로, 무려 2080억개에 달하는 트랜지스터를 탑재한 대규모 GPU다.

블랙웰은 기존 H100에 비해 연산 속도가 2.5배 빠르고 전력 대 성능비는 25배 개선됐다. 인공지능(AI) 칩의 경쟁력이 더 많은 데이터를 더 빠르게 처리하는 데 달려 있다는 점에서 블랙웰의 강점을 짐작할 수 있다.

블랙웰(왼쪽)과 H100(오른쪽)을 들어 보이는 젠슨황 엔비디아 최고경영자 [사진=업체 제공]

주요 외신에 따르면 엔비디아는 블랙웰을 2024년 하반기 본격 출시할 예정이며, 이어 '루빈'이라는 코드명의 후속작도 2025년 하반기 출시를 목표로 준비 중이다.

엔비디아는 2024년 하반기 블랙웰 판매가 42만개에 이르고, 2025년 최대 200만개의 판매 기록을 세울 것으로 예상한다.

칩 하나의 가격이 3만5000~4만5000달러에 달하고 최고 300만달러에 달하는 서버와 함께 공급되는 점을 감안할 때 엔비디아의 블랙웰 판매 전망이 현실화될 경우 막대한 규모의 매출 성장이 가능하다.

엔비디아 분기별 매출액 추이 [자료=뉴스핌]

킨디그 애널리스트는 "블랙웰이 1조개 이상의 거대언어모델(LLM)을 작동시킬 것"이라며 "이런 구성 요소들이 모두 합쳐지면 거대한 하드웨어 데이터센터 부문이 되고, 이어 소프트웨어와 자동차 부문으로 확장될 것"이라고 말했다. 엔비디아의 성장이 여전히 초기 단계라는 주장이다.

젠슨 황 엔비디아 최고경영자(CEO)도 "블랙웰이 새로운 산업 혁명을 일으킬 엔진"이라며 "지금까지의 컴퓨팅 방식과 컴퓨터의 기능을 근본적으로 바꿔 놓는 한편 모든 산업에 인공지능(AI)을 실현시킬 것"이라고 말했다.

AMD(AMD)를 포함한 반도체 업계 경쟁사들이 일제히 인공지능(AI) 칩 개발에 뛰어들었지만 엔비디아가 GPU 부문에서 침범하기 힘든 해자를 확보했다고 킨디그 애널리스트는 강조한다.

전세계 데이터센터 시장 규모가 2027년 4000억달러까지 확대되고, 2030년에는 1조달러에 이를 전망인데 엔비디아가 지배적인 입지를 확보할 것이라는 얘기다.

이에 대한 근거로 킨디그 애널리스트는 하드웨어에 소프트웨어를 통합하는 엔비디아의 전략을 꼽는다. 애플(AAPL)의 운영체제(iOS)가 개발자와 소비자들을 아이폰에 묶어 두는 것처럼 엔비디아의 CUDA(쿠다) 소프트웨어 플랫폼 역시 인공지능(AI) 엔지니어들을 자사 GPU를 사용할 수밖에 없게 한다는 설명이다.

엔비디아의 CUDA(Computer Unified Device Architecture)는 GPU에서 수행하는 병렬 처리 알고리즘을 C 프로그래밍 언어를 비롯한 산업 표준 언어를 사용해 작성할 수 있도록 하는 GPGPU 기술이다.

이 아키텍처를 사용하려면 엔비디아의 GPU와 스트림 처리 드라이버가 필요하다. CUDA는 지포스 8 시리즈급 이상에서 작동하며, 개발하는 엔비디아가 확장한 C언어인 '쿠다 용 C'를 사용해 GPU 상에서 실행시킬 알고리즘을 작성한다.

CUDA는 G7X 시리즈 이후의 모든 엔비디아 GPU를 지원하며, 대상에는 지포스(GeForce)와 쿼드로(Quadro), 테슬라 제품군이 포함된다.

지난 2006년 처음 선보인 CUDA는 지속적으로 업그레이드가 진행중이며, 개발자들이 엔비디아의 GPU를 선택하는 가장 커다란 이유 중 하나로 꼽힌다.

아울러 킨디그 애널리스트는 아마존(AMZN)을 포함한 빅테크들이 일제히 자체 칩 개발에 뛰어들었지만 엔비디아에 대한 의존도를 크게 떨어뜨리기 어렵다고 주장한다.

뿐만 아니라 이들 업체가 인공지능(AI) 칩을 대량 생산해 판매하려는 움직임이 아니기 때문에 엔비디아와 시장에서 직접적인 경쟁을 벌일 여지가 낮다는 지적이다.

뉴욕타임스(NYT)에 따르면 아마존과 구글, 마이크로소프트(MSFT), 메타 플랫폼스(META), 테슬라(TSLA), 오픈AI 등이 100여개에 이르는 빅테크가 엔비디아의 GPU를 사용한다.

기업 당 구매량은 수 백개에서 많게는 10만개에 이른다. 일례로 테슬라는 자율주행 차량의 인공지능(AI) 시스템을 훈련시키는 데 엔비디아의 H100 칩 3만5000여개를 사용하고 있다.

H100은 개당 4만달러에 달하는 고가 상품이지만 신종 코로나바이러스(코로나19) 팬데믹 과정에 생산과 공급에 차질이 발생했고, IT 업체들 사이에 없어서 못 사는 제품이다.

메타 플랫폼스의 마크 저커버그 최고경영자는 2024년 말까지 H100 재고 물량을 35만개까지 확보할 계획이라고 밝힌 바 있다.

킨디그 애널리스트는 2023년 엔비디아의 매출액이 H100 판매 호조에 힘입어 세 배 급증했고, 블랙웰은 이보다 강력한 결과를 가져올 것이라고 예상한다. 2030년 시가총액 10조달러 전망은 이 같은 기대감에 근거한다.

젠슨 황 엔비디아 최고경영자 역시 블랙웰이 2024년부터 '엄청난' 규모의 매출액을 창출할 것이라고 자신했다.

미국 금융 매체 포브스에 따르면 엔비디아는 전세계 인공지능(AI) 칩 시장에서 80~95%에 달하는 시장 점유율을 차지하고 있다. 

 

shhwang@newspim.com

<저작권자© 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>