국가AI컴퓨팅센터, 하이브리드 인프라와 K-NPU 연합으로 AI 주권 확보

정부 주도로 구축되는 초대형 국가 AI 컴퓨팅 센터가 글로벌 AI 시장을 사실상 독점하고 있는 엔비디아(NVIDIA)의 그래픽처리장치(GPU) 의존도를 낮추기 위한 현실적인 대안을 제시했다. 천문학적인 구축 비용과 막대한 전력 소모, 공급망 리스크 등 외산 GPU가 안고 있는 한계를 극복하기 위해, 대규모 모델 학습에는 고성능 GPU를, 추론 및 데이터 처리에는 국산 인공지능 신경망처리장치(K-NPU)를 결합하는 하이브리드 아키텍처를 전면 도입한다.
망고부스트, 프라임마스, 리벨리온 등 국내 대표 AI 반도체 혁신 기업들은 각자의 특화 기술을 융합해 최적의 AI 연산 환경 구축에 힘을 보탤 예정이다. 이를 통해 대한민국이 글로벌 소버린 AI(Sovereign AI) 경쟁에서 주도권을 확보할 수 있는 중요한 전환점이 될 전망이다.
과학기술정보통신부와 관련 업계에 따르면, 오는 3분기(7월 예정) 정식 착공에 들어가는 국가 AI 컴퓨팅 센터는 단순한 국산화 테스트베드를 넘어 실제 대규모 거대언어모델(LLM) 학습과 추론을 상용 수준으로 처리할 수 있는 하이브리드 기반 국가급 AI 데이터센터를 목표로 하고 있다.
그동안 전 세계 AI 데이터센터는 엔비디아의 H100, B200 등 고성능 GPU에 절대적으로 의존해 왔다. 그러나 칩당 수천만 원에 달하는 구축 비용과 막대한 전력 소모, 미국의 수출 통제 및 공급망 병목 현상은 국가 차원의 AI 인프라 확충에 부담으로 작용해 왔다. 정부는 이러한 종속 구조를 완화하기 위해 전력 효율이 높고 특정 연산에 최적화된 NPU(신경망처리장치) 중심의 새로운 아키텍처를 채택했다.
리벨리온·망고부스트·프라임마스, K-NPU 삼각편대의 전략적 분업
이번 국가 AI 컴퓨팅 센터의 가장 큰 특징은 단일 기업의 칩에 의존하지 않고 국내 최고 수준의 기술력을 보유한 혁신 기업들의 솔루션을 유기적으로 결합한다는 점이다. 연산, 데이터 병목 해소, 메모리 대역폭 한계 극복 등 각자의 전문 영역을 분담해 전체 시스템 효율을 극대화하는 이기종 통합 아키텍처를 구현한다.
국내 AI 반도체 선두주자인 리벨리온은 센터의 핵심 연산인 대규모 AI 모델 추론을 지원할 예정이다. 리벨리온의 NPU 솔루션은 동급 GPU 대비 전력 소모를 3분의 1 수준으로 낮추면서도 처리 속도를 높여 엔터프라이즈급 안정성을 제공할 것으로 기대된다.
데이터 가속 전문 기업 망고부스트는 DPU(데이터처리장치) 기술을 기반으로 서버 간 데이터 전송 지연, 이른바 폰 노이만 병목현상 해결에 나선다. 스토리지, 메모리, NPU 간 데이터 이동을 지능적으로 분산·최적화해 전체 총소유비용(TCO)을 절감하는 핵심 역할을 맡는다.
차세대 인터페이스 솔루션 기업 프라임마스는 CXL(Compute Express Link) 솔루션을 활용해 대규모 AI 연산 과정에서 발생하는 메모리 용량 및 대역폭 한계를 극복하는 데 기여할 전망이다. 데이터 병목을 완화함으로써 NPU와 GPU가 최적의 성능을 발휘할 수 있도록 지원하는 핵심 기반 역할을 수행할 예정이다.
소프트웨어 생태계 구축 및 향후 전망
정부와 업계는 하드웨어 인프라 구축에 그치지 않고 쿠다(CUDA) 생태계를 보완할 수 있도록 파이토치(PyTorch) 등과 직접 연동되는 통합 컴파일러 지원 등 소프트웨어 생태계 구축에도 공을 들이고 있다.
다만 업계에서는 국산 NPU 생태계가 아직 CUDA 기반 글로벌 개발 환경을 완전히 대체하기는 어렵다는 현실론도 나온다. AI 개발자와 기업들이 오랜 기간 엔비디아 중심 환경에 익숙해져 있는 만큼, 소프트웨어 호환성과 개발 편의성 확보가 향후 경쟁력을 좌우할 핵심 변수라는 분석이다.
전문가들은 한국어 및 국내 데이터 주권에 최적화된 K-AI 인프라 구축 경험이 향후 소버린 AI 수요가 높은 중동, 유럽, 동남아 등 글로벌 시장 진출의 강력한 무기가 될 것으로 내다보고 있다.