가나다

대한민국 창업정보의 모든것, 소상공인 창업뉴스


  • Banner #01
  • Banner #02
  • Banner #03
  • Banner #04
  • Banner #05

엔비디아, 차세대 AI 반도체 H200 공개...메모리와 속도 대폭 향상

profile_image
작성자

창업뉴스


댓글

0건

조회

34회

작성일 23-11-14 14:20

d686b1383811fce26e2d2f87b5470a14_1724636607_0839.jpg
엔비디아, 속도 2배 빨라진 차세대 AI 반도체 H200 공개

엔비디아가 메모리와 속도를 대폭 향상시킨 차세대 인공지능(AI) 반도체 H200을 공개했다. 현재 판매 중인 H100보다 속도를 2배 끌어올렸다. 이로써 엔비디아는 경쟁자들과의 격차를 벌려 AI 반도체 부문의 지배력을 강화하는 전략을 세웠다. 엔비디아는 내년 2분기에 이 제품을 판매할 예정이다.

13일 현지시간 CNBC 등에 따르면 엔비디아는 이날 새로운 그래픽처리장치(GPU) H200을 공개했다. 챗GPT를 개발한 오픈AI의 최신 대규모언어모델(GPT-4)을 훈련하는 데 사용된 최고급 GPU H100의 차세대 제품이다.

H200에는 141GB의 차세대 메모리 HBM3가 탑재되어 있다. 고대역폭 메모리인 HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 끌어올리는 고성능 제품이다. 이로 인해 AI 모델을 사용한 텍스트, 이미지 등의 생성 능력과 추론 능력이 향상되었다. 엔비디아는 "메타의 LLM 라마2를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 2배 가량 빠른 것으로 확인되었다"고 설명했다. H200은 H100과 호환된다. H100을 확보한 기업들은 새 제품을 사용하기 위해 서버 시스템이나 소프트웨어를 변경할 필요가 없다.

엔비디아는 이날 H200의 가격을 밝히지 않았다. 현재 H100 칩 1개당 가격이 2만5000달러~4만달러인 점을 감안하면 H200가 이보다 비쌀 것으로 추정된다. LLM을 구동하기 위해서는 수천 개의 칩이 필요하다.

H200은 앞으로 AMD가 개발한 MI300X 칩과 경쟁할 전망이다. AMD는 지난 6월 MI300X 칩을 발표하고 연말부터 본격 출시에 들어간다고 밝혔다. MI300X 칩은 최대 192GB의 ...
추천

0

비추천

0

신영*


코리아 핀테크 위크 2023 멋지네요

이동*


정말 최고예요!

김한*


좋은 뉴스 담아갑니다.

등록된 댓글이 없습니다.

많이 보는 기사

  • 게시물이 없습니다.
광고배너2
d686b1383811fce26e2d2f87b5470a14_1724637509_3615.jpg

광고문의 : news.dcmkorea@gmail.com

Partner site

남자닷컴 | 더큰모바일 | 강원닷컴
디씨엠 로그인