엔비디아, 최신 AI 가속기 H200 공개
엔비디아, AI 가속기 H200 공개...HBM 특수 이끌어낼 전망
미국의 팹리스(반도체 설계전문 기업) 엔비디아가 최신 인공지능(AI) 가속기 H200을 공개했다. H200은 데이터 처리 속도와 용량 등 성능이 전작 대비 약 두 배 향상된 게 특징이다. 이로 인해 삼성전자, SK하이닉스 등 메모리 반도체 기업들의 HBM 특수를 이끌어낼 것으로 전망되고 있다.
엔비디아는 13일(현지시간) 최신 AI 가속기 H200을 공개했다. AI 가속기는 대규모 데이터 학습·추론에 특화된 반도체로, 그래픽처리장치(GPU)를 기반으로 중앙처리장치(CPU), HBM 등을 패키징해 제조된다.
H200은 챗GPT 개발사인 오픈AI의 최신 대규모언어모델(LLM)인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 구매 경쟁을 벌이는 H100의 업그레이드 버전이다. 현재 H100 칩 1개의 가격은 2만5000~4만달러로 추정되고 있으며, LLM을 구동하는 데에는 수천 개의 칩이 필요하다고 알려져 있다. 엔비디아는 H200 가격을 공개하지 않았으며, H200을 적용한 서버는 내년 2분기 본격적으로 출시될 것으로 전망된다.
엔비디아가 H200을 공개하며 특히 주목받은 부분은 메모리 반도체다. H200에는 5세대 HBM을 뜻하는 최신 HBM3E가 적용되었다. HBM은 D램을 수직으로 적층해 데이터 처리용량과 속도를 극대화한 메모리 반도체이다.
엔비디아는 HBM3E를 통해 초당 데이터 처리 속도를 4.8테라바이트(TB)로, 메모리 용량은 141기가바이트(GB)로 대폭 향상시켰다. 이를 통해 엔비디아는 메모리 반도체 분야에서의 경쟁력을 한층 높일 것으로 기대된다.
미국의 팹리스(반도체 설계전문 기업) 엔비디아가 최신 인공지능(AI) 가속기 H200을 공개했다. H200은 데이터 처리 속도와 용량 등 성능이 전작 대비 약 두 배 향상된 게 특징이다. 이로 인해 삼성전자, SK하이닉스 등 메모리 반도체 기업들의 HBM 특수를 이끌어낼 것으로 전망되고 있다.
엔비디아는 13일(현지시간) 최신 AI 가속기 H200을 공개했다. AI 가속기는 대규모 데이터 학습·추론에 특화된 반도체로, 그래픽처리장치(GPU)를 기반으로 중앙처리장치(CPU), HBM 등을 패키징해 제조된다.
H200은 챗GPT 개발사인 오픈AI의 최신 대규모언어모델(LLM)인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 구매 경쟁을 벌이는 H100의 업그레이드 버전이다. 현재 H100 칩 1개의 가격은 2만5000~4만달러로 추정되고 있으며, LLM을 구동하는 데에는 수천 개의 칩이 필요하다고 알려져 있다. 엔비디아는 H200 가격을 공개하지 않았으며, H200을 적용한 서버는 내년 2분기 본격적으로 출시될 것으로 전망된다.
엔비디아가 H200을 공개하며 특히 주목받은 부분은 메모리 반도체다. H200에는 5세대 HBM을 뜻하는 최신 HBM3E가 적용되었다. HBM은 D램을 수직으로 적층해 데이터 처리용량과 속도를 극대화한 메모리 반도체이다.
엔비디아는 HBM3E를 통해 초당 데이터 처리 속도를 4.8테라바이트(TB)로, 메모리 용량은 141기가바이트(GB)로 대폭 향상시켰다. 이를 통해 엔비디아는 메모리 반도체 분야에서의 경쟁력을 한층 높일 것으로 기대된다.
추천
0
비추천0
- 이전글하이트진로, 소방관 유가족에 지원금 전달식 진행 23.11.14
- 다음글대구시, 경제부시장에 정장수 정책혁신특보 내정 23.11.14
박성*
좋은 정보 담아갑니다.
김한*
좋은 뉴스 담아갑니다.
신영*
코리아 핀테크 위크 2023 멋지네요
등록된 댓글이 없습니다.