스노우플레이크가 주최하는 ‘스노우플레이크 서밋 2025’가 6월 2일부터 5일까지(현지시간) 미국 캘리포니아주 샌프란시스코 모스콘센터에서 열린다. 이 행사에서 스노우플레이크는 데이터 마이그레이션을 자동화하는 ‘스노우컨버트 AI(SnowConvert AI)’, 고객사 쿼리에 생성형 AI로 직접 통합할 수 있는 ‘코텍스(Cortex) AISQL’를 공개하며 자사 엔터프라이즈 AI 스위트인 코텍스 AI(Cortex AI) 기능을 강화했다고 발표했다. 스노우컨버트 AI는 기업들이 오라클, 테라데이터, 구글 빅쿼리 등 레거시 플랫폼에서 스노우플레이크 데이터 플랫폼으로 마이그레이션의 효율성을 높인 에이전틱 자동화 솔루션이다. 데이터 웨어하우스, 비즈니스 인텔리전스(BI), ETL까지 시간 소모가 많은 마이그레이션 작업의 속도를 획기적으로 높였다. BI에서 ETL 도구까지 전체 데이터 생태계 전체를 마이그레이션할 수도 있어 워크플로우 중단 없이 리스크, 비용, 복잡성을 줄일 수 있다. 이를 통해 데이터 전문가들은 수작업을 줄이면서 더 빠르고 경제적으로 데이터 인프라를 현대화할 수 있다. 코텍스 AISQL은 생성형 AI로 고객 쿼리에 직접 통합해 멀티모달 데이터를 분석하고
스노우플레이크(Snowflake)가 자사 생성형 AI 기반 애플리케이션 생성 도구인 ‘코텍스 AI(Cortex AI)’에서 ‘딥시크-R1(DeepSeek-R1)’ 모델을 지원한다고 5일 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 최초의 오픈소스 모델로 자체검증, 스스로 답을 찾는 추론하는 사고체계(Chain-of-Thought, CoT), 추론 생성 등이 가능하다. 폐쇄형 모델인 오픈AI의 o1 수준의 고급 추론, 수학, 코딩 성능을 보이며 응답의 무한 반복, 언어 혼재, 낮은 가독성 문제를 해결하고 추론 능력을 개선하기 위해 콜드 스타트 데이터를 전략적으로 통합했다. 딥시크-R1은 스노우플레이크 코텍스 AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API) 모두를 통해 액세스할 수 있어 기존 데이터 파이프라인, 애플리케이션 및 통합개발환경(IDE)에 통합된다. 코텍스 AI는 고객이 코텍스 가드(Cortex Guard)를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수
스노우플레이크가 AI와 보안을 강화한 AI 데이터 클라우드 플랫폼을 10일 발표했다. 먼저 스노우플레이크는 데이터 에이전트를 생성하고 실행하도록 하는 ‘스노우플레이크 인텔리전스’를 공개했다. 이를 통해 사용자들은 기업 내에서 데이터를 기반으로 한 비즈니스 질문에 대한 답변을 얻을 수 있게 된다. 셰어포인트, 슬랙, 세일즈포스, 구글워크스페이스 등의 외부 툴을 연결할 수도 있다. 스노우플레이크 인텔리전스를 통해 기업 사용자가 자연어로 엔터프라이즈 데이터와 대화하고 단일 통합 플랫폼에서 결과를 분석, 요약, 실행할 수 있는 데이터 에이전트를 쉽게 만들 수 있다. 엔터프라이즈 데이터를 더욱 직관적으로 활용할 수 있도록 하는 이 플랫폼은 스노우플레이크 데이터 기반에서 업무를 효율화하고 IP를 보호하면서 신뢰할 수 있는 답변을 제공한다. 또한 스노우플레이크는 데이터 환경을 단순화하고 AI 개발과 애플리케이션 구축을 가속화하기 위해 플랫폼과 AI 기능 강화를 발표했다. 주요 업데이트로는 스노우플레이크 코텍스 AI와 스노우플레이크 ML 등이 있다. 스노우플레이크 코텍스 AI는 생성형 AI 및 자연어 처리(NLP), 멀티모달 데이터 분석을 지원해 고품질 대화형 애플리케이션
실시간의 고처리량 추론 구현과 추론 시스템 스택 개발 및 오픈소싱 추진 스노우플레이크가 기업이 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축하도록 스노우플레이크 코텍스 AI에서 라마 3.1에 대한 호스팅을 개시한다고 발표했다. 라마 3.1은 다중 언어 오픈소스 대규모언어모델(LLM)의 컬렉션이다. 이번에 출시한 서비스에는 메타에서 가장 큰 규모이자 강력한 성능의 오픈소스 LLM인 라마 3.1 405B가 제공된다. 스노우플레이크는 실시간의 고처리량 추론을 구현함은 물론 강력한 자연어 처리 및 생성 애플리케이션의 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈 소싱한다. 스노우플레이크 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 서비스 개시 첫날부터 거대한 128K 컨텍스트 윈도우를 지원한다. 동시에 기존 오픈소스 솔루션에 비해 엔드투엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다. 스노우플레이크는 메타와 협력을 통해 고객에게 AI 데