검색결과 총 5건
-
알리바바 클라우드, 엣지 기기용 멀티모달 AI 'Qwen2.5-Omni-7B' 공개
[이코노믹데일리] 알리바바 그룹의 디지털 기술 및 인텔리전스 핵심 부문인 알리바바 클라우드가 최신 멀티모달 인공지능(AI) 모델 'Qwen2.5-Omni-7B'를 31일 새롭게 선보였다. Qwen2.5-Omni-7B 모델은 텍스트, 이미지, 음성, 영상 등 여러 유형의 입력 데이터를 동시에 이해하고 처리할 수 있는 엔드투엔드(end-to-end) 방식으로 개발되었다. 사용자의 다양한 입력에 대해 실시간 텍스트 응답은 물론, 자연스러운 음성 답변까지 생성 가능하다. 특히 70억 개(7B)의 상대적으로 적은 파라미터로 구성된 경량 모델임에도 불구하고 성능 저하 없이 강력한 멀티모달 처리 능력을 구현한 점이 특징이다. 이러한 컴팩트한 설계와 고성능의 조합은 지능형 음성 애플리케이션과 같이 실제 환경에서 민첩하고 비용 효율적으로 작동해야 하는 AI 에이전트 개발에 유리하다. 예를 들어 시각 장애인이 주변 환경을 실시간 음성 설명으로 인지하도록 돕거나 동영상 속 재료를 분석해 요리법을 단계별로 안내하는 등의 서비스 구현이 가능하다. 알리바바 클라우드는 Qwen2.5-Omni-7B 모델을 오픈소스 커뮤니티에 공개했다. 현재 허깅페이스(Hugging Face)와 깃허브(GitHub)를 통해 누구나 접근할 수 있으며 자체 플랫폼인 큐원 챗(Qwen Chat)과 모델스코프(ModelScope)에서도 이용 가능하다. 이번 모델의 우수한 성능은 혁신적인 아키텍처 설계에 기반한다. 텍스트 생성(Thinker)과 음성 합성(Talker) 기능을 분리하여 모달 간 간섭을 최소화한 'Thinker-Talker 아키텍처', 비디오와 오디오 입력을 효과적으로 동기화하여 일관된 콘텐츠 생성을 돕는 'TMRoPE' 위치 임베딩 기술 그리고 끊김 없는 음성 상호작용을 위해 지연 시간을 줄인 '블록와이즈 스트리밍 처리' 기술 등이 적용되었다. Qwen2.5-Omni-7B는 이미지-텍스트, 영상-텍스트, 영상-음성 등 다양한 조합의 방대한 데이터셋으로 사전 학습되어 여러 종류의 작업에서 강력한 성능을 발휘한다. 특히 시각, 청각, 텍스트 정보를 복합적으로 이해하고 추론하는 능력을 평가하는 OmniBench 벤치마크 등 멀티모달 처리 능력이 중요한 평가에서도 최고 수준의 성능을 기록했다. 또한 인컨텍스트 러닝(ICL)과 강화학습(RL)을 통해 문맥에 맞는 음성 이해 및 생성 능력을 향상시키고 음성 응답 시 발음 오류나 부자연스러운 끊김 현상을 크게 줄여 안정성을 높였다. 한편 알리바바 클라우드는 지난해 9월 Qwen2.5 시리즈를 처음 선보인 이후 올해 1월에는 'Qwen2.5-Max'를 출시하여 챗봇 아레나에서 7위를 기록하는 등 우수한 성능을 입증한 바 있다. 시각 이해 모델 'Qwen2.5-VL', 장문 처리 모델 'Qwen2.5-1M' 등도 오픈소스로 공개하며 Qwen 모델 라인업을 지속적으로 확장하고 있다.
2025-03-31 15:54:50
-
-
-
-
스퀴즈비츠, 거대 언어 모델 서빙 최적화 솔루션 '핏츠 온 칩스' 출시
[이코노믹데일리] AI 경량화 및 최적화 전문 스타트업 스퀴즈비츠가 대형 언어 모델(LLM) 서빙을 효율적으로 지원하는 맞춤형 솔루션 ‘핏츠 온 칩스(Fits on Chips)’를 출시했다고 3일 밝혔다. 이번 솔루션은 LLM 서빙 과정에서 시간과 비용을 획기적으로 절감하고 다양한 하드웨어와의 호환성을 확장하는 데 초점을 맞췄다. 핏츠 온 칩스는 모델 선택부터 서빙 설정, 성능 평가, 배포까지 LLM 서빙에 필요한 모든 과정을 단순화하고 최적화한다. 오픈소스 라이브러리인 허깅페이스와 연동해 다양한 LLM 모델을 쉽게 통합할 수 있으며 이를 통해 최적의 서빙 설정을 빠르게 찾아낸다. 스퀴즈비츠는 기존 엔지니어가 30시간 이상 소요하던 작업 시간을 3시간 내로 단축하고, 비용도 절반 수준으로 줄일 수 있다. 김형준 스퀴즈비츠 대표는 “누구나 쉽게 LLM 서빙을 시뮬레이션하고 분석할 수 있도록 설계된 제품”이라며 “LLM 서비스 기업들의 성능 최적화와 비용 절감에 기여하겠다”고 강조했다. 스퀴즈비츠는 이번 솔루션을 통해 엔비디아 GPU와 인텔 가우디를 비롯한 다양한 하드웨어에서 LLM 서빙이 가능하도록 지원 범위를 확대했다. 특히 인텔, 네이버와 협력해 인텔의 가우디에서 LLM을 최적화하는 프로젝트를 진행 중이다. 이를 기반으로 사용자가 하드웨어별 비용과 속도를 비교 분석해 최적의 옵션을 선택할 수 있도록 한다는 방침이다. 또한 TensorRT-LLM 및 vLLM과 같은 다양한 프레임워크를 비교 분석할 수 있는 기능도 포함됐다. 이를 통해 사용자는 최적화된 서빙 환경을 구축해 인프라의 효율성을 극대화할 수 있다. 스퀴즈비츠는 핏츠 온 칩스를 AMD, 아마존, 구글 등의 하드웨어로 지원 범위를 넓히고, AI Agent와의 연동 기능도 추가할 계획이다. 김형준 대표는 “다양한 기술 개발을 통해 AI 서비스 기업들이 혁신적인 성능을 발휘할 수 있도록 돕겠다”고 말했다. 한편 스퀴즈비츠는 2022년 설립 이후 AI 경량화와 최적화 기술을 바탕으로 주요 학회에 70편 이상의 논문을 발표했으며, 카카오벤처스, 네이버 D2SF, 삼성넥스트 등으로부터 투자를 유치했다.
2024-12-03 09:22:08