알리바바 클라우드가 압사라 컨퍼런스에서 새롭게 출시한 대규모 언어 모델 큐원2.5(Qwen2.5)를 전 세계 오픈소스 커뮤니티에 배포했다. 알리바바 클라우드는 AI 컴퓨팅에 대한 증가하는 수요를 충족시키기 위해 풀스택 인프라도 개편했다. 이 신규 인프라는 컴퓨팅, 네트워킹 및 데이터센터 아키텍처를 강화하는 클라우드 제품과 서비스를 포함한다. 에디 우 알리바바 클라우드 인텔리전스 CEO는 “알리바바 클라우드는 AI 기술의 연구개발과 글로벌 인프라 구축에 적극적으로 투자하고 있다”며 “글로벌 고객에게 미래 AI 인프라를 제공하고, 비즈니스 잠재력을 극대화하도록 돕는 것을 목표로 한다”고 밝혔다. 신규 오픈소스 큐원 2.5 모델은 0.5억에서 720억 개의 매개변수를 갖췄다. 29개 이상의 언어를 지원하며, 자동차·게임·과학 연구 등 다양한 분야에서 엣지나 클라우드 환경에서 폭넓은 AI 애플리케이션으로 활용된다. 이번 큐원 2.5는 100개 이상의 모델이 오픈소스로 공개한다.기본 모델, 인스트럭트 모델, 다양한 정밀도와 방식을 적용한 양자화 모델이 포함되며, 언어, 오디오, 비전 등 다양한 모달리티와 전문적인 코드 및 수학 모델까지 아우른다. 조우징런 알리바바 클
3.6L 초소형 사이즈로 공간 활용성 최적화 AI 컴퓨팅 기능 기반 비디오‧오디오 제작, 워크플로우‧코딩‧고객 서비스 등 효율성↑ 한국레노버가 초소형 폼팩터 데스크탑 ‘씽크센터 네오 울트라’를 출시했다. 해당 제품은 CPU와 독립 NPU, GPU가 서로 보안해 리소스를 극대화하고, 최적의 활동에 맞춰 적합한 프로그램에 할당하는 AI 컴퓨팅 성능을 제공한다. 씽크센터 네오 울트라는 3.6L 사이즈로 내부 공간을 활용도를 높였다. ‘최대 인텔 v프로 엔터프라이즈 플랫폼의 인텔 코어 i9 프로세서’, ‘엔비디아 지포스 RTX 4060 GPU’, ‘업그레이드가 간편한 독립형 NPU’, ‘64GB DDR5 메모리 탑재’가 가능하다. 최대 4개의 써멀 팬 설계로 발열을 최소화한다. 이 모델은 장치 자체적으로 거대언어모델(LLM) 및 AI 기반 앱을 실행하는 NPU와 전문 AI 가속기를 탑재했다. 이를 통해 비디오 및 오디오 제작, 워크플로우 자동화, 코딩, 고객 서비스 등의 작업을 지원한다. 개별 NPU 카드를 탑재해 AI 기능을 추가할 수 있는 옵션도 추후 지원 예정이다. 또 Wi-Fi 7으로 생성형 AI 애플리케이션, 화상통화, 스트리밍 작업에서도 빠른 연결 속도를
화웨이가 올해 주목해야 할 10대 데이터 센터 트렌드에 대한 컨퍼런스를 개최하고 이와 관련된 백서를 발표했다. 이 자리에서 야오 콴 화웨이 데이터센터 시설 도메인 사장은 미래 데이터센터가 갖춰야 할 세 가지 특징을 신뢰성과 단순성, 지속가능성으로 정의했다. 아울러 산업 발전과 집단 지성 발휘를 위해 부품, 제품, 시스템 및 아키텍처 측면에서 드러난 기술 트렌드를 공유했다. 야오 콴 사장은 AI 파운데이션 모델의 성장에 따라 향후 5년 간 글로벌 AI 컴퓨팅 파워 부문이 80% 이상의 연평균 성장률(CAGR)을 보일 것이며 이는 클라우드 데이터센터에서 '클라우드'+지능형 컴퓨팅 데이터센터'로의 전환을 촉진할 것이라고 설명했다. 업타임 인스티튜트(Uptime Institute)에 따르면 2019년부터 2022년까지 데이터센터 서비스 중단으로 인해 10만 달러 이상의 손실을 경험한 비율이 39%에서 71%로 증가하는 등 최근 데이터센터 안전 사고가 눈에 띄게 증가하고 있다. 이 같은 추세는 컴퓨팅 성능 수요가 급증함에 따라 계속해서 늘어날 것으로 보이며 안전성과 신뢰성은 데이터센터의 핵심 요소로서 더욱 주목받을 것으로 전망된다. 이 같은 내용을 포함해 화웨이는 2
인텔리전트 하드웨어 코리아(IHWK)는 인공지능(AI) 컴퓨팅과 관련 추론 알고리즘이 네트워크 엣지에 급속도로 도입됨에 따라 뉴로테크놀로지 디바이스 및 필드 프로그래머블 뉴로모픽 디바이스를 위한 뉴로모픽 컴퓨팅 플랫폼을 개발 중에 있다. 마이크로칩테크놀로지는 자회사인 실리콘 스토리지 테크놀로지(SST)를 통해 슈퍼플래시 멤브레인 뉴로모픽 메모리 솔루션 평가에 사용되고 있는 시스템을 제공해 이 플랫폼 개발을 지원하고 있다. 이 솔루션은 업계에서 이미 검증받은 마이크로칩의 슈퍼플래시 기술 기반의 비휘발성 메모리(NVM: nonvolatile memory)를 기반으로 하고 있으며, 아날로그 방식의 인메모리 컴퓨팅 접근을 통해 뉴럴(neural) 네트워크를 위한 벡터 및 행렬 곱 연산(VMM) 수행 작업에 최적화 되어있다. 마이크로칩의 멤브레인 기술 평가 키트는 IHWK가 엣지에서 추론 알고리즘을 실행하는 뉴로모픽 컴퓨팅 플랫폼의 최대 전력 효율성을 입증하기 위한 목적으로 설계됐다. 이를 통해 IHWK는 생성형 AI 모델, 자율 주행 자동차, 의료 진단, 음성 처리, 보안/감시 및 상업용 드론과 같은 애플리케이션을 위한 초저전력 아날로그 처리 장치 개발을 최종 목표
엔비디아, 어드밴텍, 노타의 엣지 AI 컴퓨팅 솔루션 소개하는 웨비나 개최 AI 개발자들을 위해 산업 현장에 다양하게 적용되는 엣지(Edge) AI 솔루션을 소개하는 온라인 세미나(이하 웨비나)가 열린다. 최근 산업 환경의 프로세스를 안전하고 효과적으로 개선하고 비용을 절감하기 위한 AI 활용에 업계의 관심이 쏟아지고 있다. 기술의 발전에 따라 전문화되고 고도화된 AI 기술이 다양한 산업 현장의 시나리오에서 상용화되고 있다. 이에 따라 개발자들은 보다 효율성 높은 엣지 컴퓨팅과, 복잡한 프로세스 없이 신속하게 업데이트할 수 있는 시스템을 원하고 있다. 해당 웨비나에서는 이러한 시장의 요구사항을 반영, 다양한 애플리케이션에 적용 가능한 시스템이 소개될 예정이다. AI 컴퓨팅의 선구자 엔비디아(NVIDIA)의 솔루션과, 어드밴텍이 제안하는 차세대 지능형 팬리스 엣지 AI 시스템, 모델의 효율성을 극대화해줄 노타(NOTA)의 솔루션이 그 주인공이다. 먼저 엔비디아 관계자가 나와 AI 시장의 트렌드와 도전 과제, 그리고 엣지 AI 시스템을 위한 엔비디아의 솔루션을 소개한다. 다음으로 어드밴텍 관계자가 나와 ‘작지만 강력한 어드밴텍 Edge AI 시스템’이라는 제목으
‘자율주행∙스마트시티…’ 산업 현장서 활용되는 엣지 AI 솔루션 소개 AI 개발자들을 위해 산업 현장에 다양하게 적용되는 엣지(Edge) AI 솔루션을 소개하는 온라인 세미나(이하 웨비나)가 열린다. 최근 산업 환경의 프로세스를 안전하고 효과적으로 개선하고 비용을 절감하기 위한 AI 활용에 업계의 관심이 쏟아지고 있다. 기술의 발전에 따라 전문화되고 고도화된 AI 기술이 다양한 산업 현장의 시나리오에서 상용화되고 있다. 이에 따라 개발자들은 보다 효율성 높은 엣지 컴퓨팅과, 복잡한 프로세스 없이 신속하게 업데이트할 수 있는 시스템을 원하고 있다. 해당 웨비나에서는 이러한 시장의 요구사항을 반영, 다양한 애플리케이션에 적용 가능한 시스템이 소개될 예정이다. AI 컴퓨팅의 선구자 엔비디아(NVIDIA)의 솔루션과, 어드밴텍이 제안하는 차세대 지능형 팬리스 엣지 AI 시스템, 모델의 효율성을 극대화해줄 노타(NOTA)의 솔루션이 그 주인공이다. 먼저 엔비디아 관계자가 나와 AI 시장의 트렌드와 도전 과제, 그리고 엣지 AI 시스템을 위한 엔비디아의 솔루션을 소개한다. 다음으로 어드밴텍 관계자가 나와 ‘작지만 강력한 어드밴텍 Edge AI 시스템’이라는 제목으로 엣
도쿄-1 엔비디아 DGX 슈퍼컴퓨터로 일본 제약업계 선도기업의 신약개발 가속화 AI 컴퓨팅 기술 기업 엔비디아가 GTC 2023 글로벌 컨퍼런스에서 미쓰이물산과의 협업을 통해 도쿄-1 이니셔티브를 추진하고 있다고 27일 밝혔다. 엔비디아는 이번 협업으로 일본 제약업계 선도기업에 고해상도 분자역학 시뮬레이션 및 신약개발을 위한 생성형 AI 모델 등의 기술을 지원할 예정이다. 도쿄-1 프로젝트는 일본 제약사 및 스타트업에게 엔비디아 DGX AI 슈퍼컴퓨터를 지원하는 것이 특징이다. 이는 미국과 중국에 이어 세계에서 세 번째로 큰 1000억달러 규모의 일본 제약산업을 가속화할 것이라고 엔비디아는 밝혔다. 미쓰이의 아베 유히 디지털 헬스케어 사업부 총괄은 "일본 제약사들은 웨트 랩(web lab) 연구의 전문가지만, 아직 고성능 컴퓨팅과 AI를 대규모로 활용한 적은 없다"며 "미쓰이는 도쿄-1을 통해 AI로 가속화된 약물 발견을 위한 최첨단 툴로 제약산업의 환경을 변화시킬 수 있는 혁신 허브를 만들고 있다"고 말했다. 이 프로젝트는 고객에게 분자역학 시뮬레이션, 대규모 언어 모델(LLM) 훈련, 양자화학, 잠재 약물에 대한 새로운 분자구조를 생성하는 생성형 AI 모
데이터센터 엑스퍼트 적용으로 인프라 전반의 통합 관리 구현 슈나이더 일렉트릭 코리아가 광주과학기술원(GIST, 이하 지스트) 고성능컴퓨팅(HPC-AI) 기반 공용인프라에 엣지 데이터센터를 적용했다고 밝혔다. 전 세계적으로 HPC 기반 인공지능(AI) 컴퓨팅 인프라 구축이 경쟁이 활발하다. 전체적인 AI 연구의 방향이 하이퍼스케일로 나아가는 가운데 규모 있는 인프라는 필수적이다. 지스트 HPC-AI 공용 인프라는 컴퓨팅 클러스터 운영을 위해 국내 대학 최초로 엔비디아(NVIDIA)의 최신 DGX-A100 GPU 시스템을 도입해 데이터 분석 성능을 높였다. 지스트는 공용 인프라의 운영 효율성과 전력 안정성, 확장성을 해결하기 위해 슈나이더 일렉트릭 엣지 데이터센터 솔루션을 도입했다. 솔루션 제품에 대한 구성 및 프로젝트 수행은 데이터센터 전문기업 데우스시스템즈와 협업해 달성했다. 슈나이더 일렉트릭은 효율적인 인프라 운영 및 안정적인 전력 공급을 위해 슈퍼컴퓨팅 센터 랙(Rack) 인프라와 전원분배장치(Power Distribution Unit, 이하 PDU)를 설치했다. 슈나이더 일렉트릭 Easy Rack PDU는 표준 랙마운트 규격 기반의 엣지 인프라나 고밀도
높은 투자수익률·인간과의 협업·안전·사이버 보안 등 다양한 사례 제시 AI 컴퓨팅 기술 분야의 선두주자인 엔비디아가 2023년 주목해야 할 5가지의 엣지(Edge) AI의 트렌드를 21일 발표했다. 2022년 한 해 동안 세계는 지속적인 변동을 겪었다. 그 중 일부 기술은 급속한 변화를 겪기도 했으며, 이와 대조적으로 답보 상태에 머무른 기술도 있었다. 공급망 문제와 인력난, 경제적 불확실성으로 인해 기업들은 신기술에 책정된 예산을 재평가해야 했다. 많은 조직에서 AI는 효율성 향상, 차별화, 자동화 및 비용 절감을 가져오는 많은 불확실성에 대한 일종의 해결책으로 간주되고 있다. 지금까지 AI는 대부분의 경우 클라우드에서만 배타적으로 작동했다. 그러나 점점 많은 다양한 데이터 스트림이 엣지의 센서에서 24시간 생성되기 시작했다. 이들은 실시간 추론을 필요로 하며, 보다 많은 AI가 엣지 컴퓨팅에 구축될 수 있도록 이끈다. AI를 활용하면 공항, 상점, 병원 등의 장소에서 자동화와 효율성 제고, 나아가 비용 절감 효과까지 누릴 수 있다. 이로 인해 작년부터 엣지 AI의 채택에 가속도가 붙었다. 현재 당면한 문제가 내년에도 비슷하게 이어질 것으로 예상되는 상황에
인공지능 반도체 기업 그래프코어(한국 지사장 강민우)가 과학기술정보통신부의 지원을 받아 고효율 AI 컴퓨팅을 위한 새로운 소프트웨어 접근법을 개발 중인 한국전자통신연구원(ETRI)와 다년간의 파트너십을 체결했다. 2025년까지 유효한 양 사의 이번 파트너십은 한국 정부의 자금지원을 받게 된다. 연구개발(R&D) 지출 및 라이선스 수입 기준 국내 최대 공공 연구기관인 ETRI의 역량과 머신 인텔리전스를 위한 고효율·고성능 컴퓨팅 시스템의 개발 및 상용화 분야에서 입증해온 그래프코어의 리더십이 결합돼 상당한 시너지를 낼 수 있을 것으로 기대된다. 자연어 처리(NLP) 등을 위한 최첨단 AI 모델은 지난 10년 동안 그 규모가 기하급수적으로 증가했다. 매개변수가 수억 개에서 수천억 개로 증가했으며 이제는 수조 개에 달한다. 이러한 거대 모델을 비용 및 시간 효율적인 방식으로 훈련하는 것은 점점 더 까다로워지고 있는데, 그 크기가 급격히 증가하고 있는 AI 모델의 요구를 트랜지스터 밀도를 높이고 클럭 속도와 산술 정밀도를 개선하는 것으로 충족시키는 것이 이제는 어렵기 때문이다. 그래프코어와 ETRI의 파트너십은 AI 컴퓨팅 성능, 효율성, 접근성을 개선하는