검색결과 총 3건
-
네이버, 하이퍼클로바X로 이미지·음성 처리 기술 공개
[이코노믹데일리] 네이버가 오는 27일 자사의 대화형 AI 에이전트 클로바X(CLOVA X)에 시각 정보 처리 기능을 새롭게 추가한다고 발표했다. 이번 업데이트로 사용자는 클로바X 대화창에 이미지를 업로드하고, 해당 이미지에서 추출된 정보를 바탕으로 AI와 대화를 나눌 수 있게 된다. 네이버는 하이퍼클로바X(HyperCLOVA X)를 텍스트뿐만 아니라 이미지와 음성까지 동시에 처리할 수 있는 '멀티모달(Multimodal)' AI로 고도화하며, 생성형 AI 기술의 경쟁력을 강화하고 있다. 이번 업데이트를 통해 클로바X는 사진 속 상황을 묘사하거나, 표·그래프 등 복잡한 이미지 정보를 분석하는 능력을 갖추게 된다. 예를 들어, 사용자가 업로드한 수학 도형 문제를 AI가 이해하고, 풀이하는 것도 가능해진다. 이러한 기능 확장은 클로바X의 활용 범위를 넓혀, 개인의 생산성을 크게 향상시킬 것으로 기대된다. 네이버는 하이퍼클로바X의 우수한 문서 처리 및 문자 인식 기술과 다양한 지식을 갖춘 거대 언어 모델(LLM)을 결합해 보다 정확하고 신뢰성 있는 서비스를 제공할 계획이다. 네이버는 이미 대한민국 초·중·고등학교 검정고시 문제 1,480개를 AI에 이미지 형태로 입력해 84%의 정답률을 기록하며, 오픈AI GPT-4의 78%를 능가하는 성과를 보였다. 네이버는 또한 20일, 자사 기술 블로그를 통해 하이퍼클로바X 기반의 음성 멀티모달 기술도 공개했다. 기존 음성 인식과 음성 합성 기술을 뛰어넘어, LLM의 문맥 이해 능력을 활용한 자연스러운 대화가 가능해졌다. 이 기술은 발음 정확도와 감정 표현까지 더해져 사용자와의 대화 경험을 더욱 향상시킨다. 네이버는 이미 클로바노트, 클로바 케어콜, 클로바더빙 등 다양한 음성 AI 서비스로 기술력을 입증했으며, 이번 멀티모달 LLM 기술로 더 편리하고 진보된 서비스를 제공할 계획이다. 실시간 음성 번역, 언어 학습, 상담 등 여러 분야에서 활용 가능성을 제시한 바 있다. 성낙호 네이버클라우드 하이퍼스케일 AI 기술 총괄은 "하이퍼클로바X는 이미지와 음성까지 이해하는 거대 시각 언어 모델로 발전하고 있다"며 "이를 통해 네이버의 다양한 서비스에 새로운 사용자 가치를 창출하고, 기업용 AI 솔루션으로도 제공할 것"이라고 밝혔다. 한편, 네이버는 하이퍼클로바X의 멀티모달 기능을 고도화하는 과정에서도 'AI 안전성'을 최우선으로 고려하고 있다. 네이버는 지난 6월 발표한 '네이버 ASF(AI Safety Framework)'를 바탕으로 AI 시스템의 잠재적 위험을 평가하고, 특히 음성 AI 기술의 경우 다각적인 검토를 통해 안전한 서비스를 제공할 계획이다.
2024-08-22 08:29:54
-
-
네이버, AI 안전성 실천 체계 '네이버 ASF' 발표… "소버린 AI로 안전한 생태계 구축"
[이코노믹데일리] 네이버(대표이사 최수연)는 17일 인공지능(AI) 시스템의 안전성을 실천하는 체계 '네이버 ASF(인공지능 세이프티 프레임워크)'를 발표했다. 이는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 잠재적 위험을 인식하고 평가하며 관리하기 위한 대응 체계다. 네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 '통제력 상실 위험'과 '악용 위험'으로 구분하고, 이에 대응하는 구체적인 방안을 마련했다는 점에서 차별화된다. 네이버는 인간이 AI 시스템을 제어할 수 없게 되는 '통제력 상실 위험'을 대비하기 위해 'AI 위험 평가 스케일'을 마련했다. 이를 통해 AI 시스템의 위험성을 주기적으로 평가하고 관리한다. 특히, 현존 최고 성능의 AI 시스템을 '프런티어 AI'로 정의하고, 이에 해당하는 시스템은 3개월마다 위험 평가를 실시한다. 또한, 시스템 성능이 기존보다 6배 이상 급격히 향상된 경우에는 추가 평가를 진행한다. 네이버 ASF는 '악용 위험'에 대해 'AI 위험 평가 매트릭스'를 적용한다. 이는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 위험 관리 방식을 차별화하는 방식이다. 예를 들어, 생화학 물질 개발과 같은 특수한 목적으로 사용되는 AI 시스템은 특별한 자격을 갖춘 사용자에게만 제공함으로써 위험을 완화한다. 또한, 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템은 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다. 네이버는 한국 외 다른 지역의 정부 및 기업과 협력하여 '소버린 AI'를 공동 개발하고, 특정 문화권에서 발생 가능한 AI 시스템의 위험을 식별하며, 위험 수준을 측정하는 벤치마크를 문화권별로 구축하여 '문화적 다양성'을 반영한 AI 안전 체계를 구축할 계획이다. 네이버는 이미 한국어를 기반으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌 시장으로 확장해나가는 경험을 가지고 있다. 지난해 'ACL 2023'에서 네이버는 종교, 도덕 등 사회적으로 첨예한 문제에 대한 AI의 편향적 발화를 완화하기 위한 새로운 대규모 한국어 데이터셋을 제안한 연구를 발표했다. 최수연 네이버 대표는 "네이버는 '하이퍼클로바X'라는 소버린 AI 개발을 통해 문화적, 지정학적 상황과 지역적 이해가 AI 성능뿐만 아니라 안전성에도 영향을 미친다는 것을 입증했다"며 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해 나갈 것"이라고 말했다. 또한, "이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되고 공존하는 지속 가능한 AI 생태계 구축에 네이버가 적극적으로 기여할 것"이라고 밝혔다. 하정우 네이버 퓨처 AI 센터장은 "네이버는 국내외 유수 연구기관 및 전문가들과 협력하며 AI 안전성 관련 선행 연구와 정책 분야에서 다양한 성과를 거두며 안전하고 지속 가능한 AI 생태계를 만드는 데 앞장서왔다"며 "네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜로, 이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해 나갈 것"이라고 밝혔다. 네이버 ASF는 국내 최초의 AI 안전성 실천 체계라는 점에서 의의가 크다. 또한, '문화적 다양성'을 반영한 AI 안전 체계 구축을 추진한다는 점에서 차별화된다. 이는 네이버가 해외 시장 진출에도 적극적으로 나설 것임을 보여주는 지표이기도 하다. 네이버의 AI 안전성 노력은 국내외에서 긍정적인 평가를 받고 있다. 특히, 네이버가 제안한 'AI 위험 평가 매트릭스'는 AI 시스템의 위험성을 다각적으로 평가하고 관리하는 데 유용한 도구로 평가받고 있다. 또한, 네이버가 추진하는 '소버린 AI' 개발은 특정 국가나 기업에 의존하지 않고 자율적으로 AI 기술을 개발하고 활용하려는 노력으로 주목받고 있다. 네이버는 앞으로도 네이버 ASF를 지속적으로 개선하고 보완해 나갈 계획이다. 또한, 국내외 유수 연구기관 및 기업과 협력하여 AI 안전성 연구를 활성화하고, 국제적인 AI 안전성 기준 마련에도 참여할 계획이다.
2024-06-17 10:11:22