‘엔비디아 베라 루빈(NVIDIA Vera Rubin)’ 양산 일정에 맞춘 자사 솔루션 시장 전략 구축
자사 그래픽처리장치(GPU) 관리 솔루션 ‘아스트라고(AstraGo)’ 고도화 및 시장 선점 노린다
차세대 인공지능(AI) 데이터센터 최적화 핵심 기능 탑재로 ‘주목’
씨이랩이 글로벌 컴퓨팅 기술 업체 엔비디아(NVIDIA)의 차세대 로봇 인프라용 그래픽처리장치(GPU) 아키텍처 ‘엔비디아 베라 루빈(NVIDIA Vera Rubin)’ 출시 로드맵에 발맞춰 선제적 대응에 나선다.
이번 조치는 차세대 로봇 인프라 시장을 겨냥한 것으로, 하드웨어 세대교체에 맞춘 최적화된 운영 플랫폼을 통해 시장 주도권을 확실히 굳힌다는 전략이다. 사측은 이러한 전략을 기반으로, 자사 GPU 관리 솔루션 ‘아스트라고(AstraGo)’ 고도화에 착수한다. 이는 지난주 열린 엔비디아 연례 개발자 콘퍼런스 ‘엔비디아 GTC 2026(NVIDIA GPU Technology Conference 2026)’에서 확인된 베라 루빈의 하반기 양산 일정을 토대로 설계됐다.
실제로 젠슨 황(Jensen Huang) 최고경영책임자(CEO)가 이 자리에서 오는 2027년까지 1조 달러(1500조 원) 규모의 베라 루빈 수요를 전망했다. 이 가운데 베라 루빈 72개를 연결해 슈퍼 컴퓨터급 성능을 내는 랙 단위 시스템 ‘베라 루빈 NVL72’이 주목받았다. 이같이 수십 개의 프로세서가 결합된 랙 단위 시스템을 통합 운영하는 기술이 차세대 데이터센터의 핵심 경쟁력이 될 전망이다.
베라 루빈은 엔비디아 차세대 가속 컴퓨팅 아키텍처 ‘블랙웰(Blackwell)’의 뒤를 이어 선보이는 차세대 GPU 아키텍처다. 추론 비용을 기존 대비 10분의 1로 절감하고, 대규모 인공지능(AI) 모델 학습 효율을 4배 이상 높이는 것으로 알려졌다. 특히 필요한 파라미터만 선별적으로 가동하는 ‘대규모 전문가 혼합(Mixture of Experts, MoE)’ 모델 학습에 필요한 GPU 수를 4분의 1로 줄이는 등 효율 개선에 특화됐다.
씨이랩은 이러한 고성능 하드웨어를 관리하는 AI 인프라 솔루션 역량을 갖췄다. 특히 통합 관리(Orchestration) 기술은 다수의 중앙처리장치(CPU)·GPU가 결합된 복잡한 데이터센터 자원을 단일 시스템처럼 관리하고, 최적의 작업 경로를 찾아주는 핵심 운영 소프트웨어 역할을 수행하고 있다.
사측은 앞선 엔비디아발 환경 변화에 대응해 아스트라고에 차세대 오케스트레이션 기능을 탑재한다. 이번 고도화의 핵심은 ▲이중 계층(Two Tier) 메모리 인식 스케줄링 ▲전력 기반 워크로드 자동 배치 ▲랙 단위 통합 관리 기능이다. 이는 데이터 위치와 메모리 계층 구조, 전력 소모량까지 종합적으로 계산해 최적의 위치에 작업을 배치한다. 이로써 GPU 자원의 활용도를 높이고 기업의 인프라 투자수익률(ROI)을 개선한다.
회사는 아스트라고를 글로벌 시장을 선도하는 차세대 데이터센터의 필수 운영 플랫폼으로 포지셔닝할 계획이다. 엔비디아 등 글로벌 빅테크의 기술 로드맵에 맞춘 소프트웨어 기반의 진입장벽을 구축할 방침이다.
윤세혁 씨이랩 대표는 “GTC 2026을 통해 확인된 베라 루빈의 양산은 AI 인프라 시장의 세대교체가 본격화되었음을 의미한다”며 “글로벌 표준에 맞춘 기술 로드맵을 바탕으로 아스트라고를 AI 인프라의 필수 운영 소프트웨어(SW)로 성장시킬 것”이라고 비전을 발표했다.
헬로티 최재규 기자 |





