메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 CEO와칭 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
산업>전기/전자

엔비디아, ‘베라 루빈’ 스펙 공개…AI 에이전트 시대 개막

베라 CPU·루빈 GPU 등 7종 칩 통합
와트당 추론 처리량 최대 10배

엔비디아 베라 루빈./엔비디아

엔비디아가 차세대 AI 플랫폼 '베라 루빈(Vera Rubin)'을 공개하며 에이전틱 인공지능(AI) 시대를 겨냥한 인프라 구축에 나섰다.

 

엔비디아는 17일(현지시간) 미국 새너제이에서 열린 글로벌 AI·가속 컴퓨팅 콘퍼런스 'GTC 2026'에서 베라 루빈 플랫폼과 이를 구성하는 7종의 핵심 AI 인프라 칩을 공개했다고 밝혔다.

 

젠슨 황 엔비디아 최고경영자(CEO)는 GTC 기조연설에서 "AI는 이제 소프트웨어를 넘어 산업 전반을 움직이는 인프라가 되고 있다"며 "AI 팩토리는 차세대 데이터센터가 될 것"이라고 말했다. 이어 "베라 루빈 플랫폼은 이러한 AI 팩토리를 구축하기 위한 핵심 기반이 될 것"이라고 강조했다.

 

베라 루빈 플랫폼은 ▲베라 CPU ▲루빈 GPU ▲NV링크(NVLink) 6 스위치 ▲커넥트X-9 슈퍼NIC ▲블루필드-4 DPU ▲스펙트럼-6 이더넷 스위치 ▲그록3(Groq 3) LPU 등으로 구성된다. 해당 칩들은 하나의 AI 슈퍼컴퓨터처럼 작동하도록 설계돼 대규모 학습부터 실시간 에이전틱 추론까지 AI 전 단계 워크로드를 지원한다.

 

대표 시스템인 '베라 루빈 NVL72'는 72개의 루빈 GPU와 36개의 베라 CPU를 NV링크6로 연결한 랙 규모 AI 시스템이다. 엔비디아는 해당 시스템이 기존 블랙웰 플랫폼 대비 GPU 수를 4분의 1 수준으로 줄이면서도 대규모 전문가 혼합(MoE) 모델 학습을 수행할 수 있으며 토큰당 비용은 10분의 1 수준으로 낮출 수 있다고 설명했다. 또한 와트당 추론 처리량은 최대 10배 향상된다고 밝혔다.

 

베라 CPU 랙은 강화학습과 에이전틱 AI 워크로드를 위한 CPU 기반 환경을 제공한다. 256개의 베라 CPU를 통합한 고밀도 액체 냉각 인프라를 적용해 기존 CPU 대비 두 배 높은 효율성과 50% 빠른 처리 속도를 구현했다.

 

이와 함께 엔비디아는 저지연 추론을 위한 '그록3 LPX' 랙과 AI 모델의 키-값(KV) 캐시 데이터를 처리하는 '블루필드-4 STX' 스토리지 랙, AI 데이터센터 네트워크용 '스펙트럼-6 SPX' 이더넷도 공개했다.

 

엔비디아는 이번 플랫폼을 통해 AI 인프라가 개별 서버 중심에서 랙과 POD 규모의 'AI 팩토리(AI Factory)' 구조로 빠르게 확장되고 있다고 설명했다.

 

베라 루빈 기반 제품은 올해 하반기부터 공급될 예정이다. 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 등 주요 클라우드 기업들이 도입을 검토하고 있으며 시스코, 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로 등 글로벌 서버 기업들도 관련 시스템을 공급할 예정이다.

트위터 페이스북 카카오스토리 Copyright ⓒ 메트로신문 & metroseoul.co.kr