2024년 연결 기준 매출액 1674억 원, 영업이익 53억 원, 당기순이익 55억 원 기록해 싸이닉솔루션이 금융위원회에 증권신고서를 제출하고 코스닥 상장을 위한 공식 절차에 돌입했다. 이번 상장을 통해 회사는 자본시장과의 접점을 넓히고, 글로벌 반도체 공급망 내 역할 확대에 속도를 낼 계획이다. 상장 주관사는 대신증권이다. 싸이닉솔루션은 이번 공모를 통해 총 350만 주를 발행하며, 공모 희망가는 4300원에서 5100원 사이로 책정됐다. 이에 따른 공모 예정 금액은 약 151억 원에서 179억 원 규모다. 수요예측은 오는 5월 22일부터 28일까지 진행되며, 청약은 6월 4일과 5일 이틀간 진행될 예정이다. 회사는 올해 안에 코스닥 상장을 마무리 짓는 것을 목표로 하고 있다. 2005년 설립된 싸이닉솔루션은 팹리스와 파운드리 사이의 설계 전달을 지원하는 ‘디자인 솔루션 파트너’로 출발했다. 현재는 국내외 220곳이 넘는 고객사를 확보했으며, 국내 디자인하우스 중 가장 넓은 고객 기반을 바탕으로 업계 내 입지를 공고히 하고 있다. 특히 SK하이닉스시스템IC, SK키파운드리, 대만의 PSMC 등 주요 글로벌 파운드리와의 협업을 통해 전공정 설계 지원뿐 아니라
전기차, 로보틱스 등 다양한 응용 분야 겨냥한 고성능 전력 관리 기술 및 레퍼런스 설계 공개 텍사스 인스트루먼트(이하 TI)가 독일 뉘른베르크에서 열린 ‘PCIM 2025(Power Conversion and Intelligent Motion)’ 전시회에서 차세대 전력 설계를 위한 새로운 반도체 솔루션들을 대거 공개하며 기술 리더십을 과시했다. 이번 전시에서 TI는 전기차, 로보틱스, USB PD, 모터 제어 등 다양한 응용 분야를 겨냥한 고성능 전력 관리 기술과 레퍼런스 설계를 선보였다. 특히 지속 가능한 에너지 수요 증가와 전력 설계의 복잡성이 심화되는 가운데, TI는 전력 효율성, 신뢰성, 공간 활용도를 극대화할 수 있는 최신 반도체 기술을 중심으로 실질적인 시스템 최적화 방안을 제시했다. TI는 전기 이륜차 충전기를 위한 3단계 AC/DC 배터리 충전기 데모를 통해 새로운 차량용 인증 LLC 컨트롤러 ‘UCC25661-Q1’을 첫 공개했다. 이 제품은 TI의 특허 기술인 IPPC(Input Power Proportional Control)를 통해 전력 밀도를 2배 이상 향상시키면서도 높은 효율과 신뢰성을 유지하는 전원 공급 장치 설계를 가능하게 한다.
구글, 양 대학에 자사의 첨단 AI 기술과 전문성을 제공할 예정 구글이 연세대학교와 아주대학교와 손잡고 국내 인공지능(AI) 연구 생태계 조성과 미래 인재 양성을 위한 공동 협력에 나선다. 이번 파트너십은 AI 기술 확산에 발맞춘 교육 혁신과 연구 역량 강화를 골자로 한다. 8일 서울 연세대학교에서 열린 협약 체결식에는 구글의 크리스 터너 대외협력정책 지식 및 정보 부문 부사장을 비롯해 황성혜 구글코리아 부사장, 윤동섭 연세대 총장, 최기주 아주대 총장 등 주요 관계자들이 참석했다. 이날 행사는 상호 협력에 대한 방향성과 공동 비전을 공유하고, 협력 기반 조성을 위한 의지를 확인하는 자리로 마련됐다. 구글은 이번 협약을 통해 양 대학에 자사의 첨단 AI 기술과 전문성을 제공할 예정이다. 이를 통해 교수진과 학생들이 보다 심화된 학습은 물론 실질적인 연구를 진행할 수 있도록 다양한 교육 프로그램과 실습 기회를 지원한다. 주요 협력 항목에는 AI 관련 공동 과제 수행, 교육과정 및 커리큘럼 개발, 실습 중심의 워크숍 운영 등이 포함된다. 크리스 터너 부사장은 “한국의 학술기관은 책임 있는 AI 개발과 안전한 글로벌 AI 생태계 조성을 위한 잠재력이 크다”며 “연
신정규 대표, '데이터 거버넌스 관점의 하이브리드 LLM 파인튜닝 운영 프레임워크' 주제로 발표 진행 래블업이 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '하이브리드 LLM 파인튜닝 운영 프레임워크'를 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참석하는 래블업 신정규 대표는 "이번 발표에서는 온프레미스와 클라우드를 병행하는 조직에서 대규모 언어 모델을 안전하고 효율적으로 미세조정하기 위한 통합 전략을 다룰 예정이다. 온프레미스 자원만으로 미세조정이 어려운 상황에서도 클라우드로의 데이터 유출을 최소화하는 방법을 소개한다"고 밝혔다. 래블업은 AI 인프라 운영 관리 플랫폼을 개발하고 있다. GPU 자원을 가상화하고 필요한 곳에 유연하게 할당 및 관리해 고객이 효율적으로 GPU를 사용하도록 지원한다. 래블업
신정규 대표, '데이터 거버넌스 관점의 하이브리드 LLM 파인튜닝 운영 프레임워크' 주제로 발표 진행 래블업이 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '하이브리드 LLM 파인튜닝 운영 프레임워크'를 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참석하는 래블업 신정규 대표는 "이번 발표에서는 온프레미스와 클라우드를 병행하는 조직에서 대규모 언어 모델을 안전하고 효율적으로 미세조정하기 위한 통합 전략을 다룰 예정이다. 온프레미스 자원만으로 미세조정이 어려운 상황에서도 클라우드로의 데이터 유출을 최소화하는 방법을 소개한다"고 밝혔다. 래블업은 AI 인프라 운영 관리 플랫폼을 개발하고 있다. GPU 자원을 가상화하고 필요한 곳에 유연하게 할당 및 관리해 고객이 효율적으로 GPU를 사용하도록 지원한다. 래블업
도심 구간에서의 중량 10톤 이상 대형 화물트럭 자율주행...공식적인 첫 허가 사례 라이드플럭스가 국내 자율주행 화물운송 시장의 새로운 전기를 마련했다. 라이드플럭스는 5월 1일 국토교통부로부터 25톤급 대형화물트럭의 도심 일반도로 자율주행에 대한 임시운행 허가를 획득했다고 8일 밝혔다. 이는 중량 10톤 이상 대형 화물트럭이 신호 교차로, 비신호 교차로 등 복잡한 도심 구간에서 자율주행을 시도하도록 공식적으로 허가받은 첫 사례다. 지금까지 대형 화물트럭의 자율주행은 고속도로와 자동차 전용도로에 한정돼 있었다. 하지만 이번 허가로 인해 자율주행 트럭이 물류센터 또는 공장에서 고속도로 진입 전후의 도심 구간까지 주행할 수 있게 되면서, 물류 운송의 전 구간을 자율화할 수 있는 기반이 마련됐다. 라이드플럭스는 이를 기반으로 올해 하반기부터 유상 자율주행 화물운송 서비스를 본격적으로 개시할 계획이다. 현재 국내 주요 물류기업 및 제조사들과 협업을 논의 중이며, 운송 구간과 품목, 서비스 개시 시기 등 실무 조율이 진행되고 있다. 자율주행 화물운송은 특히 '미들마일(중간 거리)' 영역에서 상용화 가능성이 높은 분야로 꼽힌다. 라이드플럭스는 이번 일반도로 운행 허가를
칩렛 구조 채택한 반도체 SoC 개발에 먼저 집중할 것으로 보여 파네시아가 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 ‘AI 반도체를 활용한 K-클라우드 기술개발사업’의 핵심 과제를 다수 수주하며, 차세대 AI 인프라 기술 개발에 착수했다고 30일 밝혔다. 이번 과제는 급증하는 대규모 AI 서비스 수요에 대응하기 위한 인프라 기술 고도화를 목표로 한다. 파네시아는 자체 보유한 CXL(Compute Express Link) 기반 기술을 중심으로 LLM(대규모언어모델), RAG(검색증강생성) 등 고성능 AI 모델의 효율적 구동을 위한 인프라를 설계할 계획이다. 파네시아는 먼저 칩렛(Chiplet) 구조를 채택한 반도체 SoC(System on Chip) 개발에 나선다. 칩렛 기술은 메모리와 연산 자원을 유연하게 조합해 사용자 요구에 맞는 칩 구성이 가능하다. 기존 일체형 칩 설계 대비 기능 변경이나 확장이 용이하며, 메모리·연산 비율을 최적화해 불필요한 자원 낭비를 줄일 수 있다. 이를 통해 AI 인프라의 자원 활용률을 높이고, 맞춤형 확장성을 확보할 수 있다는 점에서 주목된다. 이어 파네시아는 메모리 내부에서 연산을 수행하는 컴퓨테이셔널 메모리
임정환 대표, '연산은 무겁고 예산은 가볍다 : AI 인프라 현실과 대안 찾기' 주제로 발표 진행 모티프테크놀로지스(모레 자회사)가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 'AI 인프라 현실과 대안 찾기'를 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참석하는 모티프테크놀로지스(모레 자회사) 임정환 대표는 "모레는 초거대 AI 시대에서 GPU 자원을 어떻게 효율적으로 쓸 수 있을까에 대한 답으로 AI 인프라 소프트웨어를 개발했다. 그리고 이를 활용해 AI를 비용효율적으로 빠르게 만들 수 있었다. 모티프테크놀로지스는 모회사인 모레와 함께 AI Full-stack을 오랫동안 연구해 왔으며, 이번 발표를 통해 AI 비즈니스를 위한 현실적인 대안을 제시하고자 한다"고 밝혔다. 모레는 조강원 대표를 포함해 토
임정환 대표, '연산은 무겁고 예산은 가볍다 : AI 인프라 현실과 대안 찾기' 주제로 발표 진행 모티프테크놀로지스(모레 자회사)가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 'AI 인프라 현실과 대안 찾기'를 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참석하는 모티프테크놀로지스(모레 자회사) 임정환 대표는 "모레는 초거대 AI 시대에서 GPU 자원을 어떻게 효율적으로 쓸 수 있을까에 대한 답으로 AI 인프라 소프트웨어를 개발했다. 그리고 이를 활용해 AI를 비용효율적으로 빠르게 만들 수 있었다. 모티프테크놀로지스는 모회사인 모레와 함께 AI Full-stack을 오랫동안 연구해 왔으며, 이번 발표를 통해 AI 비즈니스를 위한 현실적인 대안을 제시하고자 한다"고 밝혔다. 모레는 조강원 대표를 포함해 토
영상 기반 AI 관제 시스템 ‘슈퍼브 영상관제’ 소개 및 탑재 기능·실증 사례 공유 슈퍼브에이아이가 오는 5월 14일부터 16일까지 서울 코엑스에서 열리는 ‘AI EXPO KOREA 2025(국제인공지능대전)’에 참가한다. 이번 참여는 5년 연속 출전으로, 슈퍼브에이아이는 자사의 대표 제품인 ‘슈퍼브 영상관제’ 솔루션을 중심으로 산업 맞춤형 AI 적용 사례를 선보인다. AI EXPO는 국내 최대 규모의 인공지능 전문 전시회로, 올해 8회를 맞아 11개국 300여 개 기업과 기관이 참여하며 450여 개 부스 규모로 진행된다. 전시는 AI 생태계 확장과 산업 간 기술 융합을 목표로 다양한 최신 기술과 상용 솔루션을 소개한다. 슈퍼브에이아이는 이번 행사에서 영상 기반 AI 관제 시스템인 ‘슈퍼브 영상관제’의 고도화한 기능과 실증 사례를 전면에 내세운다. 이 솔루션은 다수의 CCTV 영상을 실시간 분석하는 AI 에이전트로, 직관적인 대시보드를 통해 화재 연기, 차량, 얼굴, 쓰러짐, 이상행동 등을 자동으로 탐지한다. 특히, 데이터가 부족한 환경에서도 합성 데이터 기술을 활용해 2주 내 시스템 도입이 가능한 점이 강점으로 꼽힌다. 또한, VLM(Vision-Langu
김동환 대표 "세계 웹사이트 환경의 디지털 소통 방식 바꾸는 데 일조할 것" 포티투마루가 중소벤처기업부와 창업진흥원이 주관하는 ‘2025 초격차 스타트업 1000+ 프로젝트(DIPS 1000+)’에 최종 선정됐다. 선정 과제는 ‘Global SaaS향 추론형 AI Agent 서비스’로, 기업 고객의 다양한 요구를 맞춤형으로 지원하는 'SiteBunny+(사이트버니+)'를 앞세워 글로벌 SaaS 시장 공략에 본격 나선다. DIPS 1000+는 독보적인 기술력과 글로벌 진출 가능성을 갖춘 딥테크 스타트업을 발굴·육성하기 위한 정부 프로젝트로, AI를 포함한 10대 핵심 기술군을 중심으로 창업 10년 이내 기업을 지원 대상으로 삼는다. 선정 기업에는 창업사업화 자금부터 기술 사업화, 오픈이노베이션 등 단계별 프로그램이 제공되며, 상위 성과 기업은 이후 Beyond DIPS 프로그램을 통해 후속 지원까지 받을 수 있다. 포티투마루의 핵심 과제인 SiteBunny+는 고객, 파트너, 투자자, 기관, 구직자 등 다양한 이해관계자의 질의에 대해 종합적이고 맥락 있는 답변을 제공하는 B2B2C 기반 추론형 AI Agent다. 단순 정보 검색을 넘어 기업 웹사이트 내 핵심
가우디 3의 첫 대규모 상업 배포 사례...인프라 접근성 높일 것으로 보여 인텔이 IBM과 손잡고 자사 AI 가속기인 ‘인텔 가우디 3’를 클라우드 서비스에 최초로 상용 적용한다고 밝혔다. IBM 클라우드는 주요 클라우드 서비스 제공사 중 처음으로 가우디 3를 기반으로 한 AI 서비스 환경을 개시했으며, 이로써 고객들은 고성능 AI 인프라를 보다 합리적인 비용으로 활용할 수 있는 기회를 갖게 됐다. 이번 상용화는 가우디 3의 첫 대규모 상업 배포 사례로, 생성형 AI 서비스 확산을 위한 인프라 접근성을 크게 끌어올리는 계기가 될 전망이다. 인텔과 IBM은 고가의 특화 하드웨어가 필요한 AI 연산 환경에서 비용 효율이라는 기준을 제시하며, 보다 많은 기업이 AI 기술을 실질적으로 도입하도록 협력하고 있다. 가우디 3는 생성형 AI와 대규모 언어모델 추론, 파인튜닝 등 고성능 연산을 요구하는 워크로드를 지원하도록 설계됐다. 특히 멀티모달 LLM, RAG(검색 증강 생성) 등 최신 AI 트렌드에 최적화된 아키텍처를 기반으로 한다. 개방형 개발 프레임워크 지원 또한 가우디 3의 장점 중 하나로, 다양한 개발 환경에 유연하게 대응할 수 있다는 평가다. 인텔에 따르면
퀄컴 크리스티아노 아몬 CEO, 컴퓨텍스 2025에서 'AI PC 시대' 본격 선언 퀄컴 테크날러지스(이하 퀄컴)가 오는 5월 19일 대만 타이베이에서 열리는 글로벌 ICT 전시회 ‘컴퓨텍스 2025(Computex 2025)’에서 PC 산업 전환의 핵심 메시지를 제시한다. 크리스티아노 아몬 퀄컴 사장 겸 CEO는 기조연설을 통해 자사의 차세대 AI PC 전략과 핵심 기술 로드맵을 공유할 예정이다. 이번 기조연설은 퀄컴이 스냅드래곤 X 시리즈(Snapdragon® X Series) 플랫폼을 통해 PC 시장에 본격 진입한 지 1년이 되는 시점에서 열린다. 아몬 CEO는 그간의 성과를 짚으며, AI 기술이 PC 사용자 경험을 어떻게 바꾸고 있는지, 그리고 이러한 변화가 소비자, 기업, 산업 전반에 어떤 영향을 미치고 있는지를 중심으로 강연을 진행할 계획이다. 특히 퀄컴의 스냅드래곤 X 시리즈는 온디바이스 AI 기반의 설계로, 전력 효율성과 성능을 동시에 잡은 차세대 PC 플랫폼으로 주목받았다. 아몬 CEO는 이 플랫폼이 어떻게 생산성과 창의성을 동시에 확장시키는지, 그리고 AI 시대에 맞춰 앞으로 어떻게 진화할지를 구체적으로 소개할 전망이다. 기조연설은 컴퓨텍스
망고부스트 김창수 실장, '차세대 LLM 추론 인프라 전략' 주제로 발표 진행 망고부스트가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '차세대 LLM 추론 인프라 전략'을 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참여하는 망고부스트 김창수 실장은 '차세대 LLM 추론 인프라 전략 : LLMBoost 자동화와 DPU 기반 가속의 시너지를 중심으로'라는 주제로 인사이트를 공유한다. 김창수 실장은 "이번 발표에서는 환경별 최적화가 필수인 현재 LLM 추론 인프라를 소개한다. 이와 함께 자동 튜닝으로 성능을 극대화하고 Multi Vendor를 지원하는 LLMBoost, 유연한 확장성과 관리성을 갖춘 차세대 Disaggregated Prefill·Decode 인프라을 비롯해 DPU 기반 스토리지 및 RAG 가
망고부스트 김창수 실장, '차세대 LLM 추론 인프라 전략' 주제로 발표 진행 망고부스트가 오는 5월 15일 개최되는 ‘AI 융합 비즈니스 개발 컨퍼런스 2025(AI Tech 2025)’에 참가해 '차세대 LLM 추론 인프라 전략'을 주제로 발표한다. AI Tech 2025는 ‘Your Fine-Tuning Roadmap’을 주제로, 파인튜닝 이후 기업 현장에서 AI를 어떻게 실질적으로 활용할 것인지에 초점을 맞춘다. 생성형 AI의 확산 속에서 많은 기업이 겪는 운영상의 고민과 실무자의 현장 요구에 대응하도록 최신 기술 트렌드와 구체적인 적용 사례가 공유된다. 발표자로 참여하는 망고부스트 김창수 실장은 '차세대 LLM 추론 인프라 전략 : LLMBoost 자동화와 DPU기반 가속의 시너지를 중심으로'라는 주제로 인사이트를 공유한다. 김창수 실장은 "이번 발표에서는 환경별 최적화가 필수인 현재 LLM 추론 인프라를 소개한다. 이와 함께 자동 튜닝으로 성능을 극대화하고 Multi Vendor를 지원하는 LLMBoost, 유연한 확장성과 관리성을 갖춘 차세대 Disaggregated Prefill·Decode 인프라을 비롯해 DPU 기반 스토리지 및 RAG 가속