메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 CEO와칭 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
IT/과학>IT/인터넷

팀네이버, B200 GPU 4000장 집결…국내 최대 AI 컴퓨팅 클러스터 완성

AI가 만든 국내 최대 AI 컴퓨팅 클러스터 완성 이미지

팀네이버가 인공지능(AI) 주권 경쟁력 강화에 속도를 낸다. 팀네이버는 엔비디아의 차세대 GPU B200 블랙웰 4000장 규모를 기반으로 국내 최대 수준의 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다.

 

이번 인프라 구축으로 팀네이버는 글로벌 수준의 연산 자원을 확보하고, 독자 파운데이션 모델 고도화와 AI 기술의 서비스·산업 적용을 위한 핵심 기반을 마련했다.

 

팀네이버는 단순한 GPU 도입을 넘어, 대규모 GPU 자원을 하나의 시스템으로 연결해 성능을 극대화하는 클러스터링 분야에서 경쟁력을 축적해왔다. 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟(SuperPod)'을 세계에서 가장 빠르게 상용화한 이후, 초고성능 GPU 클러스터를 직접 설계·운영하며 실증 경험을 쌓아왔다.

 

이번에 구축한 'B200 4K 클러스터'에는 이러한 경험을 토대로 냉각, 전력, 네트워크 최적화 기술을 집약했다. 대규모 병렬 연산과 초고속 통신을 전제로 설계된 이번 클러스터는 글로벌 톱500 상위권 슈퍼컴퓨터와 비교 가능한 컴퓨팅 규모를 갖춘 것으로 평가받는다.

 

인프라 성능 향상은 AI 모델 개발 속도로 직결된다. 팀네이버는 내부 시뮬레이션 결과, 720억 파라미터 규모 모델 학습 시 기존 A100 기반 인프라 2048장으로 약 18개월이 소요되던 학습 기간을 B200 4K 클러스터에서는 약 1.5개월 수준으로 단축할 수 있는 효과를 확인했다고 설명했다. 해당 수치는 내부 시뮬레이션 기준이며, 실제 학습 환경에 따라 달라질 수 있다.

 

학습 효율이 12배 이상 향상되면서, 팀네이버는 더 많은 실험과 반복 학습을 통해 모델 완성도를 높이고 기술 변화에 기민하게 대응할 수 있는 개발·운영 체계를 갖추게 됐다고 밝혔다. 대규모 학습을 빠르게 반복할 수 있는 환경이 확보되며 AI 연구 전반의 속도와 유연성도 강화됐다.

 

팀네이버는 이번 인프라를 바탕으로 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다. 텍스트뿐 아니라 이미지, 비디오, 음성을 동시에 처리하는 옴니 모델 학습을 대규모로 확장해 글로벌 수준의 성능을 확보하고, 이를 다양한 서비스와 산업 현장에 단계적으로 적용한다는 전략이다.

 

최수연 네이버 대표는 "이번 AI 인프라 구축은 단순한 기술 투자를 넘어 국가 차원의 AI 경쟁력과 AI 자립, 주권을 뒷받침할 핵심 자산을 확보했다는 점에서 의미가 있다"며 "빠른 학습과 반복 실험이 가능한 인프라를 기반으로 AI 기술을 서비스와 산업 현장에 유연하게 적용해 실질적인 가치를 만들어 나가겠다"고 말했다.

트위터 페이스북 카카오스토리 Copyright ⓒ 메트로신문 & metroseoul.co.kr