데이터, 가속 컴퓨팅, 소프트웨어 도구 등 사용해 맞춤형 모델 생성 및 배포하도록 지원 엔비디아가 엔비디아 AI 파운드리로 AI의 역량을 활용하고자 하는 기업들이 특정 산업 요구에 맞는 맞춤형 모델을 구축할 수 있도록 지원한다고 밝혔다. 엔비디아 AI 파운드리는 기업이 데이터, 가속 컴퓨팅, 소프트웨어 도구 등을 사용해 맞춤형 모델을 생성하고 배포할 수 있도록 지원하는 서비스다. 이를 통해 기업은 생성형 AI 이니셔티브를 강화할 것으로 보인다. 엔비디아 AI 파운드리는 다른 기업이 AI 모델을 개발하고 맞춤화할 수 있도록 인프라와 도구를 제공한다. 기업들은 엔비디아 AI 파운드리 서비스를 통해 DGX 클라우드, 파운데이션 모델, 엔비디아 네모 소프트웨어, 엔비디아 전문 지식, 에코시스템 도구와 지원을 사용할 수 있다. 이는 마치 TSMC가 다른 기업이 설계한 칩을 제조하는 것과 같다. 가장 큰 차이점은 제품이다. TSMC는 실제 반도체 칩을 생산하는 반면, 엔비디아 AI 파운드리는 맞춤형 모델을 제작하는 데 도움을 준다. 두 기업 모두 혁신을 지원하고 방대한 도구와 파트너 에코시스템을 연결하고 있다. 기업은 AI 파운드리를 사용해 메타의 새로운 라마 3.1
데이터 센터는 AI 개발과 데이터 분석, 클라우드 컴퓨팅과 같은 기술의 핵심 인프라로 자리매김했다. 이 기술의 급격한 발전과 더불어 데이터 센터 수요도 기하급수적으로 증가하는 추세다. AI 개발을 주도하는 주요 국가들은 필수 지역에 데이터 센터 구축을 요구하며, 기업들은 그 전략에 부응해 데이터 센터를 구축하고 있다. 무엇보다 데이터 센터와 관련해 AI 연구 개발이 전력 소비를 크게 증가시키고 있어, 데이터 센터의 에너지 관리와 탄소중립은 어느 때보다 중요한 이슈로 부상하고 있다. AI 경쟁과 심화하는 전력 소비 최근 빅테크 사이에서 발표된 환경 보고서가 화제다. 이에 따르면, AI 인프라 구축 과다로 인한 기후변화 대처에 미숙했다는 내용이 골자다. 구글은 지난해 자사 온실가스 배출량이 전년 대비 13% 증가한 1430만t을 기록했다고 공개했다. 이는 5년 만에 온실가스 배출이 48% 증가했다는 것을 의미한다. 구글은 주 요인으로 데이터 센터 증가를 꼽았다. 구글은 2030년까지 탄소중립을 완성하는 것은 어려운 일이라며, AI가 미래 환경에 미칠 영향에 대해 불확실성이 존재한다고 밝혔다. 지난 5월 마이크로소프트(MS)는 데이터 센터로 인해 2020년 이후
HBM(High Bandwidth Memory)이 가진 시장 가치가 치솟고 있다. 최근 반도체 시장이 호황에 접어들면서, HBM은 AI 반도체에 필수 요소로 자리잡았다. 더욱이 HBM을 원하는 시장 수요가 점차 증가하는 추세다. HBM을 생산하는 주요 기업의 행보도 연일 뉴스거리다. HBM3E 납품을 시작한 SK하이닉스, 마이크론 테크놀로지와 아직 HBM3E 검증기간을 거치는 삼성전자가 그 주인공들이다. 업계에서는 주요 고객사로 납품되는 5세대 HBM3E을 넘어 6세대 HBM4의 향방을 점치고 있다. 수출, 고객 수요에서 영향력 확대되는 HBM 국내 수출 부문에서 큰 비중을 차지하는 분야는 단연 반도체다. 반도체 안에서도 메모리 반도체가 대부분을 차지하는 가운데, HBM 비중이 점차 확대되고 있다. 산업통상자원부 조사에 따르면, 6월 국내 반도체 수출액은 134억2000만 달러였으며, 이중 HBM을 포함한 메모리 반도체 수출액은 88억 달러로, 반도체 수출에서 65.8%를 차지한 것으로 알려졌다. 산업부는 시스템 반도체 수출이 상대적으로 더디게 증가하는 과정에서 메모리 반도체 수출이 빠르게 확대되고 있다고 언급했다. AI 성능 개선을 위해 요구되는 HBM의
라마 3.1 405B 포함해 다양한 규모와 기능에서 새로운 업데이트 모델 제공 인텔은 메타의 최신 대규모 언어 모델(LLM)인 라마 3.1에 데이터 센터, 엣지 및 클라이언트 AI 제품 전반에 걸친 성능 데이터 및 최적화를 제공한다고 밝혔다. 인텔은 ‘AI 에브리웨어’ 전략을 위해 AI 소프트웨어 생태계에 지속적으로 투자하며, 새로운 모델이 인텔의 AI 하드웨어에 최적화하도록 보장하고 있다. 메타는 지난 4월 라마 3 출시에 이어, 지난 23일(현지 시각) 현재까지 가장 성능이 뛰어난 모델인 라마 3.1을 출시했다. 라마 3.1은 공개적으로 사용 가능한 가장 큰 파운데이션 모델인 라마 3.1 405B(4050억 개 모델)를 포함해 다양한 규모와 기능에서 여러 새로운 업데이트 모델을 제공한다. 이 새로운 모델들은 파이토치 및 인텔 파이토치 익스텐션, 딥스피드, 허깅 페이스 옵티멈 라이브러리, vLLM 등 개방형 생태계 소프트웨어를 통해 인텔 AI 제품에서 활성화 및 최적화된다. 또한 생태계 전반에서 최고의 혁신을 활용하는 개방형, 멀티 벤더, 강력하고 컴포저블한 생성형AI 솔루션을 만들기 위한 LF AI 및 데이터 재단의 새로운 오픈 플랫폼 프로젝트인 OPEA
4개 분기 연속으로 예상치에 못 미치는 '어닝 미스' 기록해 테슬라가 2분기 시장의 기대에 못 미치는 부진한 실적을 낸 데다 일론 머스크 최고경영자(CEO)의 발표 내용도 실망스럽다는 평가가 나오면서 24일(현지시간) 주가가 10% 넘게 폭락했다. 이날 뉴욕증시에서 테슬라 주가는 전장보다 12.33% 내린 215.99달러에 마감했다. 장중 한때는 214.71달러(12.85%↓)까지 내리기도 했다. 앞서 테슬라 주가는 지난 4월 22일 138.80달러까지 떨어져 52주 신저가를 기록했다가 다음날 1분기 실적 발표에서 머스크가 밝힌 로보택시 사업 계획 등에 힘입어 상승세로 돌아섰다. 이후 11주간 주가는 74% 올라 연초와 비슷한 수준으로 회복했다. 전날 종가 기준 시가총액은 약 7858억 달러를 기록했다. 하지만 이날 하루 만에 주가가 10% 넘게 급락하면서 시총에서 약 969억 달러가 증발해 6888억 달러 수준으로 내려앉았다. 이달 들어 플러스로 전환했던 연중 주가 수익률도 이날 다시 마이너스(-) 13%로 돌아섰다. 테슬라는 전날 증시 마감 후 월가의 예상치보다 부진한 실적을 발표했다. 테슬라의 2분기 주당순이익은 0.52달러로 월가의 예상치인 0.62달
AI 투자가 예상보다 늘어나면서 수익성 우려가 제기된 데 따른 것으로 보여 구글 모회사 알파벳이 2분기 호실적 발표에도 24일(현지시간) 주가는 큰 폭으로 하락했다. 전날 실적을 발표한 전기차 업체 테슬라 주가도 두 자릿수 하락을 기록하면서 실적 발표를 앞둔 다른 빅테크 기업의 주가도 크게 내렸다. 이날 뉴욕 증시에서 알파벳 주가는 전날보다 5.03% 내린 174.37달러(24만 원)에 거래를 마쳤다. 종가 기준으로 지난달 3일(174.22달러) 이후 가장 낮은 수준이다. 구글 주가가 이날 큰 폭으로 내린 것은 전날 실적 발표에서 인공지능(AI) 투자가 예상보다 늘어나면서 수익성 우려가 제기된 데 따른 것으로 풀이된다. 구글의 2분기 매출은 지난해 같은 기간보다 14% 증가하며 네 분기 연속 두 자릿수 성장을 이어갔고, 순이익은 1년 전보다 29% 증가했다. 매출과 순이익 모두 월스트리트의 전망치를 충족했다. 그러나 2분기 자본 지출이 132억 달러로 증가했다고 밝혀 분석가들이 예상했던 122억 달러를 8% 초과했다. 생성형 AI 서비스를 지원하는 데 필요한 인프라에 투자가 늘어난 것이다. 알파벳은 이 지출을 통해 구글의 AI 프로그램과 컴퓨팅 수요를 지원했
SK하이닉스가 올해 2분기 고대역폭 메모리(HBM) 효과로 6년 만에 분기 영업이익 5조 원대를 기록했다. 최근 인공지능(AI) 시장 확대로 HBM 수요가 폭증한 데다, 고성능·고용량 낸드 수요도 크게 늘며 1분기에 이어 호실적을 냈다. SK하이닉스는 연결 기준 올해 2분기 영업이익이 5조4685억 원으로 지난해 동기(영업손실 2조8821억 원)와 비교해 흑자 전환한 것으로 잠정 집계됐다고 25일 공시했다. 반도체 슈퍼 호황기였던 2018년 2분기(5조5739억 원)와 3분기(6조4724억 원) 이후 6년 만에 5조 원대의 영업이익을 냈다. 연합인포맥스가 집계한 시장 전망치 5조5059억 원에도 부합했다. 매출은 16조4233억 원으로 작년 동기 대비 124.8% 증가했다. 매출은 분기 기준 역대 최대 실적으로, 기존 기록인 2022년 2분기 13조8110억 원을 크게 뛰어넘었다. 순이익은 4조1200억 원으로 흑자로 돌아섰다. 2분기 영업이익률은 전 분기보다 10%포인트 상승한 33%를 기록했다. SK하이닉스는 "HBM, eSSD 등 AI 메모리 수요 강세와 함께 D램과 낸드 제품 전반적으로 가격 상승세가 이어졌다"며 "이와 함께 프리미엄 제품 중심으로 판
공정성, 투명성, 책임성, 프라이버시 보호, 안정성을 5대 핵심 원칙 강조 인텔리빅스는 24일 오후 서울 백석예술대학교 비전센터에서 신뢰성과 윤리성을 핵심으로 한 자사 AI 윤리경영원칙을 선포했다고 밝혔다. 인텔리빅스 AI 윤리경영원칙은 2023년 제정된 세계 최초 인공지능(AI) 경영 시스템 국제규격인 ISO/IEC 42001 가이드라인에 맞춰 제정된 것으로 AI 기술을 개발하고 제공하는 과정에서 지켜야하는 원칙을 의미한다. AI 기술의 개발, 배포, 사용에 있어 윤리적 원칙과 기준을 확립해 인텔리빅스의 AI기술이 사회에 긍정적인 영향을 미치고, 부정적인 영향을 최소화를 목표로 한다. 자사 AI 기술의 책임 있는 사용을 촉진하고, 다양한 이해관계자가 인텔리빅스의 AI 시스템을 신뢰하도록 하기 위해 마련됐다. 인텔리빅스는 AI 윤리경영 도입을 위해 AI 경영매뉴얼을 수립했다. 이와 함께 물리보안 중소기업 최초로 한국표준협회(KSA)가 주관하는 ISO42001 인증 획득을 추진하고 있다고 밝혔다. ISO/IEC 42001이란 국제표준화기구(ISO)와 국제전기기술위원회(IEC)가 공동으로 제정한 인공지능 경영시스템 관련 글로벌 표준으로, 기업과 조직이 윤리적 책
이번 업데이트로 딥엘 글로벌 커뮤니케이션 강화 예상돼 딥엘이 자사 번역 서비스에 중국어 번체를 추가했다. 이로써 딥엘 번역기의 지원 언어는 총 33개로 늘어나, 더 많은 비즈니스와 기업이 정확한 AI 번역 서비스를 이용할 수 있게 됐다. 전 세계 3300만 명이 서면 상에서 중국어 번체를 주된 언어로 사용하는 만큼 딥엘은 이번 업데이트를 딥엘의 글로벌 커뮤니케이션을 강화하는 데 중요한 이정표가 될 것으로 보고 있다. 중국어 번체는 대만, 홍콩, 마카오와 같은 주요 시장에서 핵심 서면 커뮤니케이션 수단으로 활용되며 국제 비즈니스 관계에서 중요한 위치를 점하고 있다. 야렉 쿠틸로브스키(Jarek Kutylowski) 딥엘 창업자 겸 CEO는 "딥엘은 글로벌 무역에서 해당 지역이 가지는 중요성을 깊게 인지하고 있다”며, "중국어 번체 추가를 통해 해당 지역 기업의 사업 영역 확장을 도울 뿐 아니라 아시아에서 가장 영향력 있는 시장 진출을 희망하는 기업을 지원하게 됐다"고 덧붙였다. 딥엘은 AI 커뮤니케이션 기술을 선도하며 법률, 소매, 의료, 기술, 제조 등 다양한 산업 분야의 전 세계 10만 개 이상 기업, 정부 기관 및 기타 조직을 고객으로 두고 있다. 딥엘의
다양한 오픈소스 및 상용 모델 선택 가능 및 용도에 따라 변형해 IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포하도록 하기 위한 노력의 일환으로 왓슨x에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화한 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량
"지속적인 기술 개발과 혁신으로 고객에게 높은 가치 제공할 것" 플레이태그가 기술력과 시장성을 바탕으로 정부 지원 및 다양한 육성 프로그램에 선정되며 본격적인 성장의 발판을 마련했다고 25일 밝혔다. 플레이태그는 최근 중소벤처기업부 ‘2024년도 글로벌 액셀러레이팅(GMEP) 지원 사업’, 삼성물산 ‘2024 퓨처스케이프’, IBK기업은행 ‘IBK창공’에 잇따라 선정됐다. 각 프로그램의 목적에 맞게 제공되는 글로벌 시장 진출, 기술 협력, 사업화 자금 확보, 전문가 컨설팅, 연구 개발, IR 활동 지원 등을 활용해 본격적인 성장의 기회로 삼는다는 계획이다. 중소벤처기업부 글로벌 액셀러레이팅 지원사업은 글로벌 진출을 희망하는 기업이 해외진출 가능성을 검증하고 경쟁력을 높일 수 있도록 국내외 액셀러레이팅 프로그램과 자금을 지원하는 사업이다. 국내 및 미국 현지에서 이뤄지는 협업 기업 방문, 데모데이 등이 특징이다. 비슷한 시기 선정된 2024 퓨처스케이프는 서울경제진흥원과 삼성물산이 올해 5월부터 공동 운영하고 있는 오픈이노베이션 프로그램이다. 삼성물산과 협업을 통해 현재 영유아 대상 서비스를 시니어 및 주거시설에 적용될 수 있도록 고도화할 예정이다. IBK창공
젠슨 황 "라마 3.1, 최첨단 생성형 AI 애플리케이션 구축할 수 있는 문 열어" 엔비디아가 메타의 오픈소스 AI 모델 컬렉션인 라마 3.1을 통해 전 세계 기업의 생성형 AI를 강화하는 엔비디아 AI 파운드리 서비스와 엔비디아 NIM 추론 마이크로서비스를 발표했다. 이제 기업과 국가는 엔비디아 AI 파운드리를 통해 라마 3.1과 엔비디아 소프트웨어, 컴퓨팅, 전문성을 활용해 도메인별 산업 사용 사례에 맞는 맞춤형 ‘슈퍼모델’을 만들 수 있다. 기업은 자체 데이터는 물론, 라마 3.1 405B와 엔비디아 네모트론 리워드 모델에서 생성된 합성 데이터로 이러한 슈퍼모델을 훈련할 수 있다. 엔비디아 AI 파운드리는 세계 최고의 퍼블릭 클라우드와 공동 설계된 엔비디아 DGX 클라우드 AI 플랫폼으로 구동된다. 이를 통해 AI 수요 변화에 따라 쉽게 확장할 수 있는 방대한 컴퓨팅 리소스를 기업에게 제공한다. 새로운 서비스는 기업뿐 아니라 독자적인 AI 전략을 개발 중인 국가들의 맞춤형 거대 언어 모델(LLM) 구축을 지원한다. 이들은 고유한 비즈니스나 문화를 반영하는 생성형 AI 애플리케이션을 위해 도메인별 지식을 갖춘 맞춤형 LLM을 구축하고자 한다. 엔비디아 창
내년 하반기에 파네시아 CXL 3.1 스위치 칩을 고객사에 제공할 계획 밝혀 파네시아가 반도체공학회 메인 키노트 발표에서 CXL 핵심 제품군의 개발 현황과 로드맵을 발표했다. 파네시아는 CXL 3.1 스위치 SoC 칩을 생산해 내년 하반기에 고객사에 제공할 계획이다. 해당 스위치 칩에는 파네시아가 순수 국산 기술력으로 개발한 설계자산(IP)이 내제되며 LLM 등 대규모 AI 응용을 처리하기 위한 차세대 데이터 센터 구조를 설계하는 데 활용된다. 데이터 센터에서 요구하는 메모리 용량은 급속도로 증가하고 있다. 빅테크는 비용 및 성능 측면에서 효율적인 메모리 확장을 가능하게 하는 연결 기술인 CXL가 주목받고 있다. CXL을 활용하면, 엔지니어가 원하는 비율로 계산 자원·메모리 자원을 연결해 통합된 메모리 공간을 구성하기에 비용 효율적인 메모리 확장이 가능하다. 이와 동시에 확장된 메모리 자원을 관리하는 일련의 동작을 CXL 컨트롤러에서 하드웨어 가속된 형태로 수행하기에 성능 측면에서도 합리적이다. 파네시아는 지난 2022년 USENIX 연례회의에서 세계 최초로 CXL 2.0 전체 시스템을 공개하며 주목받기 시작했다. 이듬해에는 앞선 시스템을 발전시켜 CXL 3
미국과 중국, 두 나라의 치열한 AI 경쟁이 벌어지고 있다. 두 나라를 보고 있으면, 과거 냉전시대, 달에 먼저 발을 내딛기 원했던 우주 경쟁이 떠오른다. AI는 21세기의 새로운 우주임에 틀림없다. 이처럼 미국과 중국은 최첨단의 AI를 확보하기 위해 치열한 전략을 펼치고 있다. 두 나라의 경쟁은 단순히 속도뿐 아니라, 각국의 산업 기반, 정책, 투자 환경에 따라 복잡해지고 있으며, 이는 곧 세계 AI 시장에서 얼마나 영향력을 발휘할 수 있느냐를 결정짓는 요소가 되고 있다. 첫 번째 전장, 투자와 논문 세계에서 가장 진보한 AI 기술을 가진 국가는 단연 미국이다. AI 경쟁력을 논할 때 표면적으로 비교할 수 있는 분야는 투자 규모다. 한국지능정보사회진흥원(NIA)의 글로벌 정부·민간 분야 AI 투자 동향 분석 보고서에 따르면, 작년 미국 정부·민간의 AI 투자액은 874억1000만 달러(약 120조7800억 원)에 달했다. 동년 전 세계 정부·민간 AI 투자액이 1419억 달러 규모로 추정될 때, 미국 투자액이 전체에서 62%를 차지할 정도로 막대하다. 뒤이어 유럽연합(EU)가 8%로 2위, 중국이 7%로 3위를 차지해 미국과는 다소 큰 격차를 보였다. 각국
D램, 낸드 등 자동차·데이터 센터 및 AI 관련 대용량·고성능 제품이 대거 전시 예정 삼성전자와 SK하이닉스가 낸드 플래시 업계 주요 행사인 '플래시 메모리 서밋(FMS) 2024'에 참가한다. 24일 업계에 따르면, 다음 달 6∼8일(현지시간) 미국 캘리포니아주 샌타클래라에서 열리는 FMS 2024에 삼성전자, SK하이닉스는 기조연설에 나서는 동시에 최신 제품을 선보일 예정이다. 행사에는 일본 키옥시아, 미국 웨스턴디지털, 마이크론 등 글로벌 메모리 업체들도 대거 참여한다. 올해로 18주년을 맞는 FMS는 매년 플래시 메모리 반도체 업체들과 스타트업, 업계 관계자 등이 참석해 신기술·제품과 시장 트렌드를 공유하는 자리다. '메모리와 스토리지의 미래(the Future of Memory and Storage)'를 주제로 열리는 올해 행사에서는 D램, 낸드 등 자동차·데이터 센터 및 인공지능(AI) 관련 대용량·고성능 제품이 대거 전시될 예정이다. 특히 FMS가 낸드 중심의 행사인 만큼 이와 관련한 낸드 신제품 및 신기술 발표도 예상된다. 삼성전자는 지난해 행사에서 PCIe 5.0 데이터 센터용 솔리드스테이드드라이브(SSD) 'PM9D3a'를 처음 공개했고,