HPE와 엔비디아는 HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)을 통해 생성형(Generative), 에이전틱(Agentic) 및 피지컬(Physical) AI의 구축을 가속화하는 새로운 엔터프라이즈 인공지능(AI) 솔루션을 발표했다. HPE 기반 엔비디아 AI 컴퓨팅은 성능, 전력 효율, 보안을 강화하고 AI를 위한 풀스택 턴키 프라이빗 클라우드 기능을 추가한 새로운 엔터프라이즈 AI 솔루션으로 모든 규모의 기업이 AI 모델을 효과적으로 훈련, 튜닝 또는 추론할 수 있도록 지원한다. 안토니오 네리 HPE 회장 겸 최고경영자(CEO)는 “AI는 기업에 엄청난 기회를 가져오고 있고 이를 널리 적용하기 위해서는 통합되고 효율적인 솔루션 포트폴리오가 필요하다”며 “HPE와 엔비디아는 AI의 잠재력을 최대한 활용하기 위해 기업의 가치 실현 시간을 단축해 생산성을 높이고 새로운 수익원을 창출하는 포괄적인 AI 솔루션 포트폴리오를 시장에 출시한다”고 말했다. 젠슨 황 엔비디아 회장 겸 CEO는 “엔비디아와 HPE는 생성형 AI와 에이전틱 AI는 물론 로보틱스, 디지털 트윈까지 아우르는 풀스택 인프라를 제공해 기업이 AI를 개발,
HPE는 인공지능(AI)을 위한 통합 데이터 레이어를 공개하고, 엔비디아(NVIDIA)와의 협력을 강화하는 동시에 엔터프라이즈 데이터 스토리지 포트폴리오의 주요 개선 사항을 20일 발표했다. 기업은 HPE 그린레이크 클라우드(HPE GreenLake Cloud)를 통해 멀티벤더 및 멀티클라우드 데이터를 보다 간편하게 액세스하고, 내장 인텔리전스 및 통제된 제어를 통해 인사이트 확보 시간을 단축할 수 있다. 새로운 통합 데이터 레이어는 정형 및 비정형 데이터를 통합해 HPE의 고성능 데이터 패브릭과 정교한 데이터 인텔리전스를 갖춘 선도적인 엔터프라이즈 스토리지의 결합을 통해 AI 데이터 수명 주기를 가속화한다. 새로운 엔비디아 AI 데이터 플랫폼을 통해 배포될 경우 기업은 AI 애플리케이션, 모델, 에이전트에 AI-레디 데이터를 지능적으로 제공할 수 있다. 피델마 루소 HPE 하이브리드 클라우드 부문 사장 겸 최고기술책임자(CTO)는 “에이전틱 AI 시대에서 성공하려면 데이터 관리의 근본적인 변화가 필요하다”며 “HPE의 통합 데이터 레이어, 인텔리전트 스토리지, HPE 프라이빗 클라우드 AI를 통해 기업은 데이터 위치에 상관없이 AI를 대규모로 실행할 수 있
HPE는 ‘모바일 월드 콩그레스 2025(Mobile World Congress 2025)’에서 네트워킹 분야의 혁신을 가속화하는 동시에 통신사가 기업 고객 대상 네트워크 엣지와 클라우드를 연결하는 신규 서비스를 출시할 수 있도록 지원하는 다양한 신규 솔루션과 파트너십을 발표했다. 필 모트람 HPE 아루바 네트워킹 총괄 겸 수석부사장은 “AI가 가져올 시장 변화는 통신 업계의 네트워킹, 엣지, 데이터센터 혁신에 중대한 영향을 미칠 것”이라며 “AI는 통신사들이 고객에게 제공할 수 있는 새로운 수익원, 서비스, 역량을 제공할 수 있는 기회를 열고 있고 HPE 아루바 네트워킹은 이러한 AI 기회를 극대화할 수 있도록 서비스 제공기업(SP)이 차세대 네트워크를 구축할 수 있게 혁신을 이어갈 것”이라고 말했다. 그는 이어 “서비스 제공기업이 그 어느 때보다 복잡한 네트워크 및 서비스 수요에 직면한 상황에서, HPE는 네트워크의 역할을 재정의하고 비즈니스 가치를 창출하는 데 선도하고 있다”고 덧붙였다. HPE는 MWC 2025에서 AI 기회를 극대화하도록 차세대 네트워크 구축을 지원하는 리더십을 강조하는 한편 개방형 랜(Open RAN) 기술의 성장과 성공을 지원하고
HPE는 하이브리드 클라우드 운영 모델로의 원활한 전환을 지원하는 비용 효율적인 가상화 솔루션인 HPE VM 에센셜(HPE Virtual Machine Essentials)을 출시했다고 27일 밝혔다. HPE는 파트너 중심 전략 강화를 위해 HPE VM 에센셜을 채널 생태계에 독점적으로 제공하며 이를 통해 파트너가 고객의 가상화 전략 변화에 효과적으로 대응할 수 있도록 지원한다. HPE VM 에센셜은 독립형 솔루션으로, 고객이 기존 운영중인 VM웨어(VMware) 하이퍼바이저와 더불어 새로운 HPE VM 에센셜 하이퍼바이저(KVM기반)까지 광범위한 종류의 VM(Virtual Machine)을 관리할 수 있게 지원한다. 또한 HPE는 국내 파트너 네트워크를 통해 고객이 보다 개방적이고 비용 효율적인 가상화 인프라 환경을 만들어 갈 수 있도록 돕는다. 많은 기업이 가상화 환경에서 예기치 않은 비용 증가, 비용 효율적인 엔터프라이즈 지원 가상화 옵션에 대한 요구, 벤더 락인(lock-in)에 대한 우려 등 지속적인 과제에 직면해 있다. HPE VM 에센셜은 소켓 기반의 합리적인 가격 모델을 제공하고, VM웨어와 HPE VM 에센셜 하이퍼바이저의 통합적 동시 운영을
HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 첫 번째 솔루션인 엔비디아 GB200 NVL72의 출하를 발표했다. 이 랙 스케일(rack-scale) 시스템은 서비스 제공기업(SP)과 대기업이 첨단 DLC 솔루션을 통해 효율성과 성능을 최적화하며, 복잡한 대규모 인공지능(AI) 클러스터를 신속하게 구축할 수 있도록 설계됐다. HPE 트리시 댐크로거 HPC 및 AI 인프라 솔루션 부문 수석 부사장 겸 총괄은 “AI 서비스 제공기업과 대기업 모델 개발자들은 확장성, 최상의 성능, 빠른 구축 속도를 제공해야 한다는 엄청난 압박을 받고 있다”며 “DLC를 통해 세계 3대 최고속 시스템을 구축한 HPE는 업계 최고의 서비스 전문성으로 고객에게 토큰 당 학습 비용을 낮추고 동급 최고의 성능을 제공한다”고 강조했다. 엔비디아 GB200 NVL72는 하나의 메모리 공간에서 1조 개 이상의 파라미터로 구성된 초대규모 AI 모델을 처리할 수 있도록 설계된 그래픽처리장치(GPU) 기술과 공유 메모리(shared-memory) 및 저지연 아키텍처를 갖추고 있다. 또한 엔비디아의 중앙처리장치(CPU), GPU, 컴퓨트 및 스위치 트레이, 네트워킹, 소프트웨어를 통합
HPE는 인공지능(AI) 기반 관리 기능으로 생산성을 강화한 새로운 HPE 프로라이언트 컴퓨트 Gen 12(HPE ProLiant Compute Gen12) 서버 8종을 출시했다. 새로운 서버에는 곧 출시될 데이터센터 및 엣지 환경을 위한 인텔 제온 6(Intel Xeon 6) 프로세서 가 탑재될 예정이다. 크리스타 새터웨이트 HPE 컴퓨트 수석 부사장 겸 총괄은 “현재 고객들은 데이터 집약적이고 갈수록 복잡해지는 워크로드를 처리해야 하는 상황”이라며 “새로운 HPE 프로라이언트 컴퓨트 Gen12 서버는 정부, 기업, 금융, 헬스케어 등 다양한 산업의 조직이 지속가능성 목표를 달성하고, 비용을 효율적으로 관리하면서도 필요한 성능과 운영 인사이트를 확보할 수 있도록 지원한다”고 설명했다. 또한 “하이브리드 환경에 최적화된 최신 엔터프라이즈 플랫폼인 이 서버는 혁신적인 보안 및 제어 기능을 갖춰 기업들이 기존 하드웨어로는 해결하기 어려운 위협과 성능 문제를 극복할 수 있도록 돕는다”고 덧붙였다. HPE 프로라이언트 컴퓨트 Gen12 포트폴리오는 칩에서 클라우드까지, 모든 레이어와 서버 라이프사이클의 전반에 걸쳐 내장된 보호 기능을 통해 엔터프라이즈 보안의 새로운
HPE는 ‘HPE 디스커버 바르셀로나 2024’에서 HPE 그린레이크(HPE GreenLake) 클라우드의 새 솔루션과 옵션을 발표했다. 새로워진 HPE 그린레이크 클라우드를 통해 고객은 복잡한 하이브리드 IT 환경의 관리를 간소화하고 비즈니스에 민첩성과 혁신을 가져올 수 있다고 HPE는 강조했다. HPE VM 에센셜 소프트웨어는 하이브리드 환경에서 가상화된 워크로드를 관리하기 위한 위한 통합된 환경을 제공해 고객에게 선택과 유연성을 가져다준다. 새 솔루션을 통해 기존의 가상화 워크로드를 HPE VM 에센셜 하이퍼바이저와 통합해 관리 복잡성을 줄일 수 있다. HPE VM 에센셜은 주요 스토리지 프로토콜, 분산 워크로드 배치, 고가용성(HA), 라이브 마이그레이션, 통합된 데이터 보호 등을 지원하며 HPE 그린레이크 클라우드와 HPE VM 에센셜을 도입함으로써 기업은 최대 5배의 총소유비용(TCO) 절감 효과를 누릴 수 있다. 새로운 오브젝트 스토리지 ‘HPE 알레트라 스토리지 MP X10000’는 기업이 더 빠르게 데이터를 저장하고 검색할 수 있도록 하는 뛰어난 성능과 대규모 확장성을 제공한다. 엑사바이트 규모를 위해 설계된 X10000은 경쟁 제품 대비 최
HPE는 미국 애틀란타에서 열린 ‘슈퍼컴퓨팅 2024(SC24)’에서 미국 에너지부(DOE) 로렌스 리버모어 국립 연구소(Lawrence Livermore National Laboratory, LLNL)에 세계에서 가장 빠른 슈퍼컴퓨터인 ‘엘 캐피탄(El Capitan)’을 구축했다고 21일 밝혔다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장 겸 총괄은 “엘 캐피탄은 엑사스케일 슈퍼컴퓨팅의 중요한 이정표를 세웠다”며 “엘 캐피탄은 뛰어난 성능과 에너지 효율성으로 AI 기반 과학적 발견을 가속화하고 국가 안보를 강화하는 동시에 재생 가능 에너지 분야에서 새로운 기회를 창출할 수 있는 역량을 갖추고 있다”고 설명했다. 그는 “미국 에너지부, 국가핵안보국, LLNL 및 AMD와의 강력한 파트너십과 수년간의 연구개발 결과로 이루어진 이 성과를 자랑스럽게 생각하며, 엘 캐피탄이 이끌어낼 미래의 성과와 엔지니어링 혁신이 기대된다”고 말했다. 세계에서 가장 빠른 슈퍼컴퓨터인 엘 캐피탄은 미국이 국가 안보 분야에서 경쟁력을 유지할 수 있도록 지원한다. 국가핵안보국(NNSA)의 연구 기관(LLNL, 샌디아 국립 연구소, 로스앨러모스 국립 연구소)
HPE가 최신 AI 시스템 제조 시설에서 열린 ‘AI 데이(AI Day)’ 행사에서 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 업계 최초의 100% 팬리스 직접 수냉 방식(Fanless Direct Liquid Cooling, Fanless DLC) 시스템 아키텍처를 발표했다. 이번 행사를 통해 HPE는 기업, 정부, 서비스 제공업체, 모델 제작자 등 다양한 분야에서 AI 전문성과 리더십을 선보였다. 차세대 가속기의 효율성이 향상되고 있지만 AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있다. 이에 따라 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다. HPE 관계자는 “차세대 AI 시스템을 냉각하는 최적의 방법은 HPE의 업계 선도적인 DLC를 활용하는 것”이라며 “이 중요한 냉각 기술 덕분에 HPE의 시스템은 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 Green500 리스트의 상위 10대 슈퍼컴퓨터 중 7대를 제공했다”고 강조했다. 100% 팬리스 직접 수냉 방식 아키텍처는 하이브리드 직접 수냉 방식만을 사용할 때보다 서버 블레이드당 냉각 전력 소비를
HPE는 2024 가트너 매직 쿼드런트 SD-WAN 부문에서 HPE 아루바 네트워킹이 리더로 선정됐다고 21일 밝혔다. 이로써 HPE는 7년 연속 가트너의 리더스 쿼드런트(the Leaders Quadrant by Gartner)에 이름을 올렸다. 또한 2024 가트너 피어 인사이트 SD-WAN을 위한 고객의 소리 부문에서 ‘고객의 선택(Customers’ Choice)’으로도 선정됐다. 가트너는 각 기업에 대한 요약과 강점 및 주의사항에 대한 평가가 포함된 SD-WAN 매직 쿼드런트 보고서에서 ‘비전 완성도’와 ‘실행 능력’이라는 두 가지 주요 기준에 따라 기업들을 평가했다. 데이비드 휴즈 HPE 아루바 네트워킹의 최고 제품 책임자는 “HPE 아루바 네트워킹이 7년 연속 리더로 선정된 것은 혁신적인 성능 최적화, 클라우드 온램프, 임베디드 및 파트너 통합 보안 역량을 통해 사용자와 디바이스를 보호하면서 통합 SASE 아키텍처의 기반을 구축할 수 있는 강력한 위치에 있음을 보여준다”고 말했다. 한편 HPE는 2023년 클라우드 보안 제공업체인 액시스 세큐리티를 인수하며 보안 네트워킹 시장에서 SD-WAN 리더십을 더욱 확장했다. 엣지커넥트 SD-WAN(Edg
HPE는 5세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트(Instinct) MI325X 가속기를 탑재한 복합 AI 모델 학습용 HPE 프로라이언트 컴퓨트 XD685(HPE ProLiant Compute XD685) 서버를 출시했다. 새로운 HPE 시스템은 대규모 언어 모델(LLM) 학습, 자연어 처리 및 멀티 모달 학습을 위한 고성능의 에너지 효율적 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 최적화됐다. AI의 잠재력을 실현하고 인력 생산성, 의료, 기후 과학 등 다양한 분야에서 획기적인 성과를 이끌어내기 위한 경쟁이 치열해지고 있다. 이러한 잠재력을 극대화하기 위해 AI 서비스 제공업체, 정부, 대규모 모델 개발자들은 신속하게 시장에 출시할 수 있는 유연하고 고성능의 솔루션을 필요로 한다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장 및 책임자는 “대규모 언어 모델을 효율적으로 학습하려면 뛰어난 확장성, 대규모 병렬 컴퓨팅 성능, 그리고 HPE의 고성능 컴퓨팅 솔루션만이 제공할 수 있는 독보적인 서비스가 필요하다”며 “AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 모델 개발자 시장의 수요에 부응하
HPE가 ‘HPE 프로라이언트 DL145 Gen 11 서버’(HPE ProLiant DL145 Gen11 server)를 출시했다고 30일 밝혔다. 이 제품은 엣지 애플리케이션 및 워크로드의 성능을 개선하고 소매업과 제조업을 비롯한 분산된 조직에 원활한 배포와 실시간 서비스를 제공한다. 다양한 엣지 환경에 맞게 설계된 HPE 프로라이언트 DL145 Gen11은 매장, 병원, 은행, 공장 라인 등 고성능이 요구되는 환경에 적합하다. 또한 먼지가 많은 공간에서도 사용할 수 있도록 공기 필터링, 높은 에너지 효율성, 진동 내구성 및 데이터센터 서버보다 조용한 성능 등 다양한 엔지니어링 기능을 제공한다. 프로라이언트 DL145 Gen11의 유연한 배치 덕분에 분산된 조직들은 데이터센터용 서버를 엣지에 배포하는 복잡한 과정을 거치지 않고도 엣지 이니셔티브를 손쉽게 실행할 수 있다고 회사는 설명했다. 크리스타 새터웨이트 HPE 컴퓨트 수석 부사장 및 총괄은 “엣지 환경에 최적화된 HPE 프로라이언트 DL145는 견고하고 컴팩트한 크기와 조용한 작동 소음, 뛰어난 전력 효율성 덕분에 작은 공간에서도 많은 처리 능력을 제공한다”며 “또한 분산된 위치에 있는 기업이 근처에
HPE는 자사의 보안 중심 인공지능(AI) 기반 네트워크 관리 솔루션인 HPE 아루바 네트워킹 센트럴(HPE Aruba Networking Central)에 새로운 기능을 확장한다고 25일 발표했다. 이번 확장에는 시스코, 주니퍼 네트웍스 및 팔로알토 네트웍스와 같은 업계 공급업체의 타사 네트워크 디바이스 모니터링을 위한 옵스램프(OpsRamp) 통합을 포함, 새로운 AI 인사이트와 역량이 추가됐다. 또한 빠르게 성장하는 고객 기반에서 얻은 AI 인사이트를 기반으로 개선된 네트워크 디바이스 구성 엔진, 확장된 네트워크 옵저버빌리티 및 AI 생성 네트워크 최적화 등 새로운 기능이 HPE 아루바 네트워킹 센트럴에서 제공된다. 데이비드 휴즈 HPE 아루바 네트워킹 최고 제품 및 기술 책임자는 “HPE 아루바 네트워킹 센트럴은 차세대 클라우드 네이티브 관리 기능을 통해 AI 네트워킹을 가속화하고 AI 기반 인사이트로 네트워크 자동화를 개선하도록 설계됐다”며 “이는 현재뿐만 아니라 고객의 요구가 변화하는 미래에도 대응할 수 있다”고 강조했다. 또한 “네트워킹 및 보안 가시성을 위한 AI 기반 인사이트를 광범위한 업계 공급업체로 확장함으로써 고객들이 네트워크를 제어하고
바이브컴퍼니(이하 바이브)가 HPE-엔비디아-동국시스템즈가 공동 주최한 ‘HPE KorLLM 론칭 세미나’에서 최신 LLM 동향을 소개하고 기업의 AI 혁신을 지원하는 자사 AI 솔루션을 소개했다고 13일 밝혔다. 이번 행사는 지난 12일 그랜드 인터컨티넨탈 서울 파르나스에서 AI 기술 도입에 관심도가 높은 기업 관계자 약 100여 명이 자리한 가운데 성황리에 개최됐다. 이번 행사는 HPE, 동국시스템즈, 바이브의 각사 전문가들이 자리해 어떤 AI 기술을 도입해야 하며 동종 업계의 도입 사례와 비용 등 전반적인 궁금증을 해소하기 위해 마련됐다. 세미나에는 바이브컴퍼니의 CTO인 윤준태 부사장이 참석해 '생성형 AI 트렌드와 AI 비즈니스 모델의 현황과 전망'을 주제로 발표를 진행했다. 윤 부사장은 "블룸버그 인텔리전스 경제연구소에 따르면 생성AI 시장 규모가 2032년에는 1조3000억 달러에 이르며 AI 시스템 학습에 필요한 인프라와 AI 기기, 광고 등의 수요로 10년간 매년 42%씩 성장할 것으로 예측했다"며 "현재 전 산업 분야에서 AI 기술이 도입되어 활용되고 있으며 특히 요약 기술, 기업 지식 관리 기술 등 업무 능률을 높여줄 수 있는 AI 기술
HPE는 동국시스템즈, 바이브컴퍼니와 협력해 국내 시장에 최적화된 맞춤형 온프레미스 AI 솔루션을 필요로 하는 기업들을 위해 한국어 대규모언어모델(LLM)을 개발한다고 22일 밝혔다. 최근 기업 고객들이 방대한 고객 데이터를 활용하면서 AI 추론 솔루션 시장이 빠르게 성장하고 있다. 이에 3사는 한국어의 고유한 특성을 고려해 국내 기업 고객들을 위한 혁신적이고 통합된 한국어 LLM 개발에 집중하고 있다. 기업들이 LLM을 활용한 애플리케이션을 배포할 수 있도록 이번 협력은 AI 워크로드를 지원할 수 있는 엔비디아 H100 텐서 코어 GPU를 탑재한 HPE 크레이 XD670과 엔비디아 L40S GPU를 탑재한 HPE 프로라이언트 DL380a Gen11 서버를 기반으로 한다. HPE 크레이 XD670은 대규모 AI 모델의 학습과 조정에 맞게 설계되고 최적화돼 있으며, HPE 프로라이언트 DL380a Gen11 서버는 고집적도 메모리와 빠른 데이터 전송 속도로 까다로운 애플리케이션 실행을 위한 AI 추론 작업을 지원할 예정이다. 바이브컴퍼니는 ▲생성형 AI 기반 모델인 ‘바이브젬(VAIV GeM)’ ▲검색증강생성(RAG) 기술을 바탕으로 한 자동 Q&A 시