검색결과 총 281건
-
-
-
-
-
-
-
-
-
-
-
-
애플, AI '애플 인텔리전스' 한국어 상륙…'나의 찾기' 기능도 15년 만에 국내 서비스 개시
[이코노믹데일리] 애플의 인공지능(AI) 시스템 ‘애플 인텔리전스’가 한국어 지원을 시작하며 국내 사용자들에게 본격적으로 다가선다. 더불어 애플 기기 위치 확인 서비스인 ‘나의 찾기(Find My)’ 기능 또한 글로벌 출시 15년 만에 한국에서 정식 서비스를 개시한다. 애플은 1일 iOS 18.4, 아이패드OS 18.4, 맥OS 세쿼이아 15.4 등 최신 운영체제(OS) 업데이트를 배포하며 애플 인텔리전스의 한국어, 프랑스어, 독일어, 이탈리아어, 포르투갈어, 스페인어, 일본어, 중국어(간체) 등 8개 언어 지원을 발표했다. 이번 업데이트를 통해 한국어 사용자들은 △글쓰기 도구 △사진 앱 ‘클린업’ 기능 △메일 스마트 답장 △최우선 알림 △시리 음성 인식 및 맥락 이해 능력 개선 △시리-챗GPT 통합 △아이폰 16 카메라 제어 기반 시각 지능 등 다양한 애플 인텔리전스 기능을 활용할 수 있다. 글쓰기 도구는 메일, 메시지, 메모 앱 등에서 AI 기반 글 재작성, 교정, 요약 기능을 제공하며 문체 또한 전문적, 간결, 친근함 등 사용자가 원하는 스타일로 조정 가능하다. ‘클린업’ 기능은 사진 속 불필요한 피사체를 AI가 자동 삭제하고 배경을 자연스럽게 채워 마치 인물만 존재하는 듯한 사진 편집 효과를 제공한다. 메모 및 전화 앱에서는 오디오 녹음, 텍스트 변환, 요약 기능이 새롭게 지원된다. 특히 전화 앱 통화 녹음 시에는 자동 녹음 고지 기능이 작동하며, 통화 종료 후 AI가 생성한 요약본을 통해 통화 내용을 빠르게 되짚어볼 수 있다. 애플 인텔리전스와 결합된 음성 비서 시리는 더욱 진화된 모습으로 한국어 사용자들을 맞이한다. 사용자 대화 맥락을 정확하게 파악하여 자연스럽고 지능적인 소통이 가능해졌으며 새롭게 디자인된 시리 활성화 인터페이스는 화면 가장자리 전체 발광 효과로 시각적인 변화를 더했다. 텍스트 입력 방식도 지원하여 음성과 텍스트를 자유롭게 넘나드는 시리 활용이 가능하다. 시리는 챗GPT와의 연동을 통해 한층 더 강력한 AI 비서로 거듭난다. 개인 정보 보호를 위해 기본적으로 온디바이스 AI로 작동하는 시리는 사용자 요청에 광범위한 지식이 필요할 경우 챗GPT 활용 동의를 구하고 즉시 연동한다. 챗GPT는 글 작성은 물론 이미지 생성 기능까지 지원하며, 시리와 결합된 챗GPT는 별도 계정 없이 사용 가능하고 기존 챗GPT 계정 연동도 지원한다. 애플은 애플 인텔리전스가 개인 정보 보호를 최우선으로 설계되었음을 강조한다. 온디바이스 AI를 기본으로 하고, 고난도 작업에는 비공개 클라우드 컴퓨팅을 활용하여 보안을 유지하면서도 강력한 AI 기능을 제공한다는 설명이다. 애플 인텔리전스 모델은 ‘애플 실리콘’ 기반 서버에서 구동되며 데이터 저장 및 노출을 원천적으로 차단한다. 더 나아가 업계 최초로 외부 전문가가 애플 실리콘 서버 코드를 검증하여 개인 정보 보호 정책 준수 여부를 투명하게 확인할 수 있도록 했다. 한편 이날부터 국내 정식 서비스되는 ‘나의 찾기’ 기능은 아이폰, 아이패드 등 애플 기기뿐 아니라 공유 그룹에 속한 가족 구성원의 기기 위치까지 손쉽게 파악할 수 있도록 지원한다. ‘나의 찾기’ 앱을 통해 기기별 배터리 잔량 확인, 기기 분실 알림 설정, 분실 모드 활성화(기기 잠금, 애플페이 비활성화), 사운드 재생을 통한 기기 찾기 등 다양한 기능을 제공한다. 데이비드 돈 애플 서비스 제품 시니어 디렉터는 “나의 찾기는 사용자에게 가장 소중한 친구, 가족, 개인 물품의 위치를 안전하게 확인하고 연결 상태를 유지하도록 돕는 핵심적인 기능”이라고 강조하며 개인 정보 보호를 기반으로 사용자 경험을 향상시키는 ‘나의 찾기’ 기능의 가치를 설명했다.
2025-04-01 10:33:24
-
-
알리바바 클라우드, 엣지 기기용 멀티모달 AI 'Qwen2.5-Omni-7B' 공개
[이코노믹데일리] 알리바바 그룹의 디지털 기술 및 인텔리전스 핵심 부문인 알리바바 클라우드가 최신 멀티모달 인공지능(AI) 모델 'Qwen2.5-Omni-7B'를 31일 새롭게 선보였다. Qwen2.5-Omni-7B 모델은 텍스트, 이미지, 음성, 영상 등 여러 유형의 입력 데이터를 동시에 이해하고 처리할 수 있는 엔드투엔드(end-to-end) 방식으로 개발되었다. 사용자의 다양한 입력에 대해 실시간 텍스트 응답은 물론, 자연스러운 음성 답변까지 생성 가능하다. 특히 70억 개(7B)의 상대적으로 적은 파라미터로 구성된 경량 모델임에도 불구하고 성능 저하 없이 강력한 멀티모달 처리 능력을 구현한 점이 특징이다. 이러한 컴팩트한 설계와 고성능의 조합은 지능형 음성 애플리케이션과 같이 실제 환경에서 민첩하고 비용 효율적으로 작동해야 하는 AI 에이전트 개발에 유리하다. 예를 들어 시각 장애인이 주변 환경을 실시간 음성 설명으로 인지하도록 돕거나 동영상 속 재료를 분석해 요리법을 단계별로 안내하는 등의 서비스 구현이 가능하다. 알리바바 클라우드는 Qwen2.5-Omni-7B 모델을 오픈소스 커뮤니티에 공개했다. 현재 허깅페이스(Hugging Face)와 깃허브(GitHub)를 통해 누구나 접근할 수 있으며 자체 플랫폼인 큐원 챗(Qwen Chat)과 모델스코프(ModelScope)에서도 이용 가능하다. 이번 모델의 우수한 성능은 혁신적인 아키텍처 설계에 기반한다. 텍스트 생성(Thinker)과 음성 합성(Talker) 기능을 분리하여 모달 간 간섭을 최소화한 'Thinker-Talker 아키텍처', 비디오와 오디오 입력을 효과적으로 동기화하여 일관된 콘텐츠 생성을 돕는 'TMRoPE' 위치 임베딩 기술 그리고 끊김 없는 음성 상호작용을 위해 지연 시간을 줄인 '블록와이즈 스트리밍 처리' 기술 등이 적용되었다. Qwen2.5-Omni-7B는 이미지-텍스트, 영상-텍스트, 영상-음성 등 다양한 조합의 방대한 데이터셋으로 사전 학습되어 여러 종류의 작업에서 강력한 성능을 발휘한다. 특히 시각, 청각, 텍스트 정보를 복합적으로 이해하고 추론하는 능력을 평가하는 OmniBench 벤치마크 등 멀티모달 처리 능력이 중요한 평가에서도 최고 수준의 성능을 기록했다. 또한 인컨텍스트 러닝(ICL)과 강화학습(RL)을 통해 문맥에 맞는 음성 이해 및 생성 능력을 향상시키고 음성 응답 시 발음 오류나 부자연스러운 끊김 현상을 크게 줄여 안정성을 높였다. 한편 알리바바 클라우드는 지난해 9월 Qwen2.5 시리즈를 처음 선보인 이후 올해 1월에는 'Qwen2.5-Max'를 출시하여 챗봇 아레나에서 7위를 기록하는 등 우수한 성능을 입증한 바 있다. 시각 이해 모델 'Qwen2.5-VL', 장문 처리 모델 'Qwen2.5-1M' 등도 오픈소스로 공개하며 Qwen 모델 라인업을 지속적으로 확장하고 있다.
2025-03-31 15:54:50
-