베라 CPU·루빈 GPU 등 7종 칩 통합
와트당 추론 처리량 최대 10배
엔비디아가 차세대 AI 플랫폼 '베라 루빈(Vera Rubin)'을 공개하며 에이전틱 인공지능(AI) 시대를 겨냥한 인프라 구축에 나섰다.
엔비디아는 17일(현지시간) 미국 새너제이에서 열린 글로벌 AI·가속 컴퓨팅 콘퍼런스 'GTC 2026'에서 베라 루빈 플랫폼과 이를 구성하는 7종의 핵심 AI 인프라 칩을 공개했다고 밝혔다.
젠슨 황 엔비디아 최고경영자(CEO)는 GTC 기조연설에서 "AI는 이제 소프트웨어를 넘어 산업 전반을 움직이는 인프라가 되고 있다"며 "AI 팩토리는 차세대 데이터센터가 될 것"이라고 말했다. 이어 "베라 루빈 플랫폼은 이러한 AI 팩토리를 구축하기 위한 핵심 기반이 될 것"이라고 강조했다.
베라 루빈 플랫폼은 ▲베라 CPU ▲루빈 GPU ▲NV링크(NVLink) 6 스위치 ▲커넥트X-9 슈퍼NIC ▲블루필드-4 DPU ▲스펙트럼-6 이더넷 스위치 ▲그록3(Groq 3) LPU 등으로 구성된다. 해당 칩들은 하나의 AI 슈퍼컴퓨터처럼 작동하도록 설계돼 대규모 학습부터 실시간 에이전틱 추론까지 AI 전 단계 워크로드를 지원한다.
대표 시스템인 '베라 루빈 NVL72'는 72개의 루빈 GPU와 36개의 베라 CPU를 NV링크6로 연결한 랙 규모 AI 시스템이다. 엔비디아는 해당 시스템이 기존 블랙웰 플랫폼 대비 GPU 수를 4분의 1 수준으로 줄이면서도 대규모 전문가 혼합(MoE) 모델 학습을 수행할 수 있으며 토큰당 비용은 10분의 1 수준으로 낮출 수 있다고 설명했다. 또한 와트당 추론 처리량은 최대 10배 향상된다고 밝혔다.
베라 CPU 랙은 강화학습과 에이전틱 AI 워크로드를 위한 CPU 기반 환경을 제공한다. 256개의 베라 CPU를 통합한 고밀도 액체 냉각 인프라를 적용해 기존 CPU 대비 두 배 높은 효율성과 50% 빠른 처리 속도를 구현했다.
이와 함께 엔비디아는 저지연 추론을 위한 '그록3 LPX' 랙과 AI 모델의 키-값(KV) 캐시 데이터를 처리하는 '블루필드-4 STX' 스토리지 랙, AI 데이터센터 네트워크용 '스펙트럼-6 SPX' 이더넷도 공개했다.
엔비디아는 이번 플랫폼을 통해 AI 인프라가 개별 서버 중심에서 랙과 POD 규모의 'AI 팩토리(AI Factory)' 구조로 빠르게 확장되고 있다고 설명했다.
베라 루빈 기반 제품은 올해 하반기부터 공급될 예정이다. 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 등 주요 클라우드 기업들이 도입을 검토하고 있으며 시스코, 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로 등 글로벌 서버 기업들도 관련 시스템을 공급할 예정이다.
Copyright ⓒ 메트로신문 & metroseoul.co.kr
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성