현재 시장에 풀리는 일반 서버용 DDR4의 경우 기가당 1달러 수준입니다.
하지만 Nvidia의 GPU H100 탑재 HBM3의 경우 GB당 14불로 거의 10배 수준인데요.
- 일반 서버용 64GB DDR4 모듈: 100불 / GB당 1.56불
- 사파이어 래피드용 64GB DDR5 모듈: 250불 / GB당 3.12불
- AI 서버용 128GB DDR5 모듈: 1000불 / GB당 7.81불
- 엔비디아 GPU A100&H800 탑재 40GB HBM2E: 480불 / GB당 12불
- 엔비디아 GPU H100 탑재 80GB HBM3: 1120불 / GB당 14불
이 엔비디아의 H100이
엔비디아의 H100
H100은 엔비디아가 작년 10월 출시한 호퍼 아키텍쳐 기반의 최신 GPU 시스템입니다.
최대 256개를 연결해 엑사스케일 작업을 가속화한 것이 특징으로 전용 트랜스포머 엔진으로 조 단위 매개변수를
가진 대형언어모델(LLM)을 처리하는 역할을 합니다.
우리가 사용하는 ChatGPT 등을 실행할 때 필수적인 시스템인데요.
최근 슈퍼컴퓨터 구성에 사용한 GPU는 대부분 암페어 아키텍처 기반의 A100 시스템을 사용하고 있고,
H100은 A100의 뒤를 잇는 엔비디아의 최신 플래그십 AI 칩입니다.
A100 모듈 가격은 대당 1만달러(1300만원) 수준으로 알려져 있는데요.
오픈AI가 챗AI 개발에 활용한 슈퍼컴퓨터도 이 GPU 탑재돼 있습니다.
보도자료에 따르면 오픈AI는 GPT-4에 A100 1만개를 활용한다고 밝혔습니다.
이러한 상황에 엔비디아 주가 역시 엄청나게 뛰고 있는데요.
300달러까지 갔다가 작년 폭락하였는데요.
다시 올초부터 엄청난 속도로 오르더니 400달러도 돌파하였습니다.
이를 기반으로 반도체 기업 최초로 시가총액 1조달러를 넘어섰습니다.
주가 뿐만 아니라 실적 상승세도 폭발적입니다.
올해 1분기 엔비디아는 매출 71억9000만달러, 순이익 20억4300만달러를 기록했습니다.
게다가 매출은 시장 예상치인 65억2000만달러를 훌쩍 넘는 ‘어닝 서프라이즈’를 거둔 것으로 나타났습니다.
순이익은 전년 동기 대비 26% 늘었습니다.
엔비디아의 실적 고공행진이 주목받는 이유는 반도체 업황을 보더라도 놀라운데요.
현재 전자제품, 서버용 상품 등의 수요 감소로 인해 반도체업계는 ‘한파’가 덮친 상황으로,
삼성전자와 SK하이닉스는 물론 TSMC까지 지난해보다 수익이 크게 줄어 들고 회사의 존폐까지도 논란이 되고 있습니다.
그리고 AMD, 인텔, 마이크론 등도 부진하기는 마찬가지인데 엔비디아만 날라다니고 있습니다.
게다가 미래도 밝습니다. 아직 ChatGPT에 대한 이슈로 AI에 대한 환상이 깨지지 않고 있고,
더 많은 기업들이 AI 에 뛰어들고 있습니다.
과연 엔비디아는 어디까지 올라갈 수 있을까요?