검색결과 총 5건
-
-
네이버, 하이퍼클로바X로 이미지·음성 처리 기술 공개
[이코노믹데일리] 네이버가 오는 27일 자사의 대화형 AI 에이전트 클로바X(CLOVA X)에 시각 정보 처리 기능을 새롭게 추가한다고 발표했다. 이번 업데이트로 사용자는 클로바X 대화창에 이미지를 업로드하고, 해당 이미지에서 추출된 정보를 바탕으로 AI와 대화를 나눌 수 있게 된다. 네이버는 하이퍼클로바X(HyperCLOVA X)를 텍스트뿐만 아니라 이미지와 음성까지 동시에 처리할 수 있는 '멀티모달(Multimodal)' AI로 고도화하며, 생성형 AI 기술의 경쟁력을 강화하고 있다. 이번 업데이트를 통해 클로바X는 사진 속 상황을 묘사하거나, 표·그래프 등 복잡한 이미지 정보를 분석하는 능력을 갖추게 된다. 예를 들어, 사용자가 업로드한 수학 도형 문제를 AI가 이해하고, 풀이하는 것도 가능해진다. 이러한 기능 확장은 클로바X의 활용 범위를 넓혀, 개인의 생산성을 크게 향상시킬 것으로 기대된다. 네이버는 하이퍼클로바X의 우수한 문서 처리 및 문자 인식 기술과 다양한 지식을 갖춘 거대 언어 모델(LLM)을 결합해 보다 정확하고 신뢰성 있는 서비스를 제공할 계획이다. 네이버는 이미 대한민국 초·중·고등학교 검정고시 문제 1,480개를 AI에 이미지 형태로 입력해 84%의 정답률을 기록하며, 오픈AI GPT-4의 78%를 능가하는 성과를 보였다. 네이버는 또한 20일, 자사 기술 블로그를 통해 하이퍼클로바X 기반의 음성 멀티모달 기술도 공개했다. 기존 음성 인식과 음성 합성 기술을 뛰어넘어, LLM의 문맥 이해 능력을 활용한 자연스러운 대화가 가능해졌다. 이 기술은 발음 정확도와 감정 표현까지 더해져 사용자와의 대화 경험을 더욱 향상시킨다. 네이버는 이미 클로바노트, 클로바 케어콜, 클로바더빙 등 다양한 음성 AI 서비스로 기술력을 입증했으며, 이번 멀티모달 LLM 기술로 더 편리하고 진보된 서비스를 제공할 계획이다. 실시간 음성 번역, 언어 학습, 상담 등 여러 분야에서 활용 가능성을 제시한 바 있다. 성낙호 네이버클라우드 하이퍼스케일 AI 기술 총괄은 "하이퍼클로바X는 이미지와 음성까지 이해하는 거대 시각 언어 모델로 발전하고 있다"며 "이를 통해 네이버의 다양한 서비스에 새로운 사용자 가치를 창출하고, 기업용 AI 솔루션으로도 제공할 것"이라고 밝혔다. 한편, 네이버는 하이퍼클로바X의 멀티모달 기능을 고도화하는 과정에서도 'AI 안전성'을 최우선으로 고려하고 있다. 네이버는 지난 6월 발표한 '네이버 ASF(AI Safety Framework)'를 바탕으로 AI 시스템의 잠재적 위험을 평가하고, 특히 음성 AI 기술의 경우 다각적인 검토를 통해 안전한 서비스를 제공할 계획이다.
2024-08-22 08:29:54
-
-
네이버, AI 안전성 실천 체계 '네이버 ASF' 발표… "소버린 AI로 안전한 생태계 구축"
[이코노믹데일리] 네이버(대표이사 최수연)는 17일 인공지능(AI) 시스템의 안전성을 실천하는 체계 '네이버 ASF(인공지능 세이프티 프레임워크)'를 발표했다. 이는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 잠재적 위험을 인식하고 평가하며 관리하기 위한 대응 체계다. 네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 '통제력 상실 위험'과 '악용 위험'으로 구분하고, 이에 대응하는 구체적인 방안을 마련했다는 점에서 차별화된다. 네이버는 인간이 AI 시스템을 제어할 수 없게 되는 '통제력 상실 위험'을 대비하기 위해 'AI 위험 평가 스케일'을 마련했다. 이를 통해 AI 시스템의 위험성을 주기적으로 평가하고 관리한다. 특히, 현존 최고 성능의 AI 시스템을 '프런티어 AI'로 정의하고, 이에 해당하는 시스템은 3개월마다 위험 평가를 실시한다. 또한, 시스템 성능이 기존보다 6배 이상 급격히 향상된 경우에는 추가 평가를 진행한다. 네이버 ASF는 '악용 위험'에 대해 'AI 위험 평가 매트릭스'를 적용한다. 이는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 위험 관리 방식을 차별화하는 방식이다. 예를 들어, 생화학 물질 개발과 같은 특수한 목적으로 사용되는 AI 시스템은 특별한 자격을 갖춘 사용자에게만 제공함으로써 위험을 완화한다. 또한, 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템은 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다. 네이버는 한국 외 다른 지역의 정부 및 기업과 협력하여 '소버린 AI'를 공동 개발하고, 특정 문화권에서 발생 가능한 AI 시스템의 위험을 식별하며, 위험 수준을 측정하는 벤치마크를 문화권별로 구축하여 '문화적 다양성'을 반영한 AI 안전 체계를 구축할 계획이다. 네이버는 이미 한국어를 기반으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌 시장으로 확장해나가는 경험을 가지고 있다. 지난해 'ACL 2023'에서 네이버는 종교, 도덕 등 사회적으로 첨예한 문제에 대한 AI의 편향적 발화를 완화하기 위한 새로운 대규모 한국어 데이터셋을 제안한 연구를 발표했다. 최수연 네이버 대표는 "네이버는 '하이퍼클로바X'라는 소버린 AI 개발을 통해 문화적, 지정학적 상황과 지역적 이해가 AI 성능뿐만 아니라 안전성에도 영향을 미친다는 것을 입증했다"며 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해 나갈 것"이라고 말했다. 또한, "이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되고 공존하는 지속 가능한 AI 생태계 구축에 네이버가 적극적으로 기여할 것"이라고 밝혔다. 하정우 네이버 퓨처 AI 센터장은 "네이버는 국내외 유수 연구기관 및 전문가들과 협력하며 AI 안전성 관련 선행 연구와 정책 분야에서 다양한 성과를 거두며 안전하고 지속 가능한 AI 생태계를 만드는 데 앞장서왔다"며 "네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜로, 이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해 나갈 것"이라고 밝혔다. 네이버 ASF는 국내 최초의 AI 안전성 실천 체계라는 점에서 의의가 크다. 또한, '문화적 다양성'을 반영한 AI 안전 체계 구축을 추진한다는 점에서 차별화된다. 이는 네이버가 해외 시장 진출에도 적극적으로 나설 것임을 보여주는 지표이기도 하다. 네이버의 AI 안전성 노력은 국내외에서 긍정적인 평가를 받고 있다. 특히, 네이버가 제안한 'AI 위험 평가 매트릭스'는 AI 시스템의 위험성을 다각적으로 평가하고 관리하는 데 유용한 도구로 평가받고 있다. 또한, 네이버가 추진하는 '소버린 AI' 개발은 특정 국가나 기업에 의존하지 않고 자율적으로 AI 기술을 개발하고 활용하려는 노력으로 주목받고 있다. 네이버는 앞으로도 네이버 ASF를 지속적으로 개선하고 보완해 나갈 계획이다. 또한, 국내외 유수 연구기관 및 기업과 협력하여 AI 안전성 연구를 활성화하고, 국제적인 AI 안전성 기준 마련에도 참여할 계획이다.
2024-06-17 10:11:22
-
AI 안전성 확립·지속가능 발전 논의...에너지·환경 등 부작용 대응 방안 모색
[이코노믹데일리] 한국과학기술연구원(KIST)에서 22일 오후 열린 'AI 서울 정상회의' 장관 세션에 21개국 장관급 인사와 국내외 주요 기업 19곳 고위 관계자 등이 대거 참석했다. 이종호 과기정통부 장관과 미셸 도넬란 영국 과학혁신기술부 장관이 공동의장을 맡아 'AI 안전성 확립 역량 강화'와 '지속 가능한 AI 발전 촉진'을 주제로 논의를 이끌었다. 이 장관은 개회사에서 "지난해 영국에서 만난 이후 6개월 만에 생성형 AI는 우리 예상을 뛰어넘는 속도로 발전했고, 일상과 경제, 사회 전반에 새로운 혁신을 일으키고 있다"고 말했다. 이어 "동시에 AI 위험과 부작용에 대한 우려도 커지며 국제사회는 관련 규범 정립을 위한 노력을 본격화하고 있다"며 "전날 정상급 합의문 '서울 선언'에서 제시된 비전을 토대로 이번 세션에서 AI 안전과 지속가능 발전을 논의하겠다"고 덧붙였다. 도넬란 장관은 "AI 발달 속도가 매우 빨라 우리도 더 빨리 행동해 안전성을 담보해야 한다"고 강조했다. 그러면서 "사회 전반이 AI 리스크에 대한 회복탄력성을 갖춰야 한다"며 "과학계 리더들이 구체적 활동계획을 내놓기를 기대한다"고 말했다. 1세션에서는 주요국 AI 안전 연구소 설립 현황을 공유하고 글로벌 공조 방안을 논의했다. 또한 '국제 AI 과학보고서'를 바탕으로 현재와 가까운 미래의 AI 위험요인을 진단하고 안전성 강화 방안을 모색했다. 2세션에서는 AI로 인한 에너지·환경·일자리 등 부작용에 대한 회복탄력성 확보 방안이 논의됐다. 특히 AI 운영 시 막대한 전력 소모에 대응할 필요성이 높아지면서 저전력 반도체 등 한국의 AI 반도체 비전을 중심으로 새 글로벌 의제가 제기됐다. 이날 장관 세션에는 공동의장 외에도 세스 센터 미국 국무부 핵심·신흥기술 부특사, 슈테판 슈노르 독일 연방디지털교통부 장관, 니시다 시오지 일본 총무성 차관 등 20개국 고위인사가 참여했다. 유엔에서는 아만딥 싱 길 사무총장 기술특사가 자리했다. 해외 기업에서는 에이든 고메즈 코히어 대표이사, 앤드루 잭슨 코어42 최고책임자, 크리스티나 몽고메리 IBM 최고신뢰임원, 잭 클라크 앤트로픽 공동설립자, 나타샤 크램튼 마이크로소프트 최고AI책임자, 롭 셔먼 메타 부사장 겸 최고개인정보보호책임자 등이 참석했다. 국내에서는 전경훈 삼성전자 사장, 유영상 SK텔레콤 대표, 배경훈 LG AI연구원장 등 주요 기업 관계자들이 자리를 함께했다. 학계와 시민사회에서도 카네기 국제평화기금 아서 넬슨 부이사관, 휴먼인텔리전스 대표 루먼 차우더리, 카이스트 오혜연 교수, 서울대 이경무 교수 등이 참가했다.
2024-05-22 16:08:56