추론으로 이동하는 AI산업...연산·데이터량 대응 핵심과제
차세대 'HBF' 부상...낸드플래시 적층해 대용량 처리 적합
인공지능(AI) 기술이 고도화되면서 방대한 데이터를 보다 빠르고 효율적이게 처리할 수 있는 메모리 기술이 경쟁력 확보의 요소로 부상하고 있다. 이에 맞춰 삼성전자와 SK하이닉스 등 반도체 기업들은 고대역폭메모리(HBM)를 넘어 차세대 메모리 기술 확보에 잇따라 뛰어드는 모습이다.
◆HBM 적층 한계, 'HBF'로 돌파구 찾는다
차세대 고대역폭 메모리 기술로 가장 주목받는 것은 고대역폭플래시(HBF)다. HBF는 D램이 아닌 낸드플래시를 쌓아 올려 만드는 반도체다. HBM만큼 데이터를 빠르게 처리할 수는 없지만 더 많은 층을 쌓을 수 있어 대규모 데이터를 읽고 쓰는 데 적합한 것이 특징이다.
HBM만으로는 GPU의 연산 속도를 따라가지 못한다는 평가와 함께, AI추론 시대에 폭증하는 데이터 저장 용량의 한계 극복의 필요성이 커지고 있다. 이러한 흐름 속에서 HBM과 유사하게 실리콘 관통 전극(TSV) 기술을 활용해 여러개의 칩을 수직으로 쌓아 대역폭을 높이는 구조가 차세대 대안으로 떠오르는 것이다.
특히 HBF가 각광받는 배경에는 AI산업의 무게 중심이 '학습'에서 '추론'으로 이동하고 있다는 변화가 자리잡고 있다. 생성형 AI가 일상 서비스 영역으로 확장되며 매일 수십억 건의 연산이 처리돼야 하는 상황이 펼쳐지고 있다. 글로벌 자산운용사 브룩필드는 최근 보고서를 통해 오는 2030년까지 전체 AI연산의 약 75%가 추론이 될 것이라고 전망한 바 있다.
이에 SK하이닉스는 경쟁사보다 한발 앞서 HBF 표준 선점에 속도를 내고 있다. SK하이닉스는 지난 8월 샌디스크와 HBF 기술 사양을 공동으로 정의하고 표준화를 추진하기 위한 양해각서(MOU)를 체결했다. 양사는 2026년 하반기에 HBF 메모리샘플을 출시하고 HBF를 탑재한 최초의 AI 추론 시스템을 2027년 초에 선보인다는 목표다.
또 SK하이닉스는 지난 10월 미국 캘리포니아 새너제이에서 열린 '2025 OCP 글로벌 서밋'에서 차세대 낸드 스토리지 제품 전략을 발표했다. 이 서밋은 미래 데이터센터를 만들기 위한 최신 반도체 기술·성과 논의가 이뤄지는 자리다. SK하이닉스는 추론형 AI에 필수적인 낸드를 성능과 대역폭, 용량별로 고도화하겠다는 방침이다. HBM을 이을 차세대 기술로는 낸드를 쌓아 만든 HBF를 통해 추론 AI시장을 선점하겠다는 구상을 밝히기도 했다.
삼성전자는 이달 단행한 조직개편에서 D램과 낸드플래시 개발을 통합·총괄하는 '메모리 개발 담당' 조직을 신설했다. 기존 D램 개발실에 낸드플래시 개발·솔루션·패키징 기능을 통합해 고용량·고성능·저전력 제품 수요 증가에 대응하기 위한 전략으로 풀이된다. 이를 통해 차세대 D램은 물론 HBF 등 낸드 기술 개발에 집중하겠다는 의지다.
◆PIM 기술로 AI추론 성능·에너지 효율 확보
메모리 난제로 꼽히는 병목 현상의 해법으로 프로세싱인메모리(PIM) 기술도 부상하고 있다. HBM은 높은 대역폭을 제공하지만 실리콘 인터포저와 마이크로 범프를 사용하는 등 제조 복잡성과 시스템 비용이 높다는 한계가 있다. PIM은 기존에 데이터 저장 기능만 했던 메모리가 연산 기능까지 수행할 수 있어 데이터 이동을 최소화해 전력소모를 줄이고 처리 속도를 높일 수 있는 기술이다.
삼성전자와 SK하이닉스는 고객사 차세대 칩 개발 일정에 맞춰 D램 기반의 PIM 시장 개화를 준비 중이다. 업계에서는 2027년~2028년 PIM 개념의 제품이 모바일 등 온디바이스를 중심으로 상용화된 이후 2030년대 초반엔 D램 업계 전반적으로 퍼질 가능성이 크다는 전망이 따른다.
양사는 PIM을 D램 기반으로 만드는 데 집중하고 있다. 대용량을 필요로 하는 70억 파라미터(매개변수) 이상의 거대언어모델(LLM)에선 Re램(저항변화메모리), M램 등 로직 반도체에 비휘발성 메모리를 탑재하는 방식보다 D램에 연산 유닛을 탑재해서 활용하는 것이 더 유리하다는 판단에서다.
◆CXL기술로 데이터 처리 효율화
아울러 메모리 부족을 해소할 기술로 컴퓨트익스프레스링크(CXL)가 부각되고 있다. CXL은 중앙처리장치(CPU)와 시스템온칩(SoC), GPU 등을 효율적으로 연결해 대용량, 초고속 연산을 지원한다. 이를 통해 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있고 필요할 때 맞춰 사용할 수 있어 효율적이다. 특히 서버를 교체하지 않아도 메모리를 효율적으로 확장할 수 있어 AI·클라우드 인프라의 핵심 기술로 꼽힌다.
삼성전자는 지난 2021년 5월 세계 최초로 CXL기술을 공개한 뒤 업계 최고 용량인 512GB 모듈을 개발하며 기술 리더십을 확보했다. 최근에는 CXL 3.1개발을 완료하고 샘플 공급을 앞두고 있다. SK하이닉스 또한 기존 DDR5 모듈 대비 용량이 50% 확장된 CXL 2.0 기반 D램 설루션을 개발하는 데 집중하고 있다.
업계 관계자는 "AI고도화와 대규모언어모델(LLM) 확산으로 대용량·고대역폭메모리 요구가 커지고 있다"라며 "CXL이나 HBF 등 차세대 기술이 본격적인 개화 단계에 들어선 것은 아니지만 AI 메모리 구조가 빠르게 변화하고 있어 향후 시장흐름을 예의주시해야하는 상황"이라고 말했다.
Copyright ⓒ 메트로신문 & metroseoul.co.kr
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성