검색결과 총 9건
-
KT, 안전한 AI 위한 KT Responsible AI 리포트 발간
[이코노믹데일리] KT가 안전하고 신뢰할 수 있는 AI 활용을 위한 연구 성과를 담은 ‘KT Responsible AI 리포트’를 발간했다. KT는 AI 윤리와 신뢰성을 담보하는 프레임워크를 제시하며 안전한 AI 환경 구축을 목표로 다각적인 노력을 지속해오고 있다. 이번 리포트는 AI의 책임성과 투명성에 관한 KT의 방향성을 구체화한 결과물이다. KT가 공개한 ‘Responsible AI 리포트’는 회사가 추진하는 AI 윤리와 신뢰성을 위한 프레임워크를 설명하며 핵심 원칙 ‘ASTRI’를 소개했다. ASTRI는 △책임성(Accountability) △지속가능성(Sustainability) △투명성(Transparency) △신뢰성(Reliability) △포용성(Inclusivity)을 뜻하며 이 다섯 가지 원칙은 안전한 AI 서비스 구축을 위한 KT의 방향성을 명확히 제시한다. 이는 AI 기술 발전에 대한 대중 신뢰성을 확보하기 위해 필수적인 요소로 평가된다. KT는 이 프레임워크에 따라 AI 거버넌스, 윤리 원칙, 프로세스 등 다양한 항목을 체계적으로 정립했다. 특히 KT는 AI 생태계가 국민 생활에 미치는 영향을 고려해 윤리적 방향성을 확립했으며 ASTRI 원칙은 AI 기술의 방향성을 제시하는 '북극성' 역할을 수행한다. KT는 AI 신뢰성 강화를 위해 지난 22일 'Responsible AI 자문위원회'를 출범했다. 이 위원회에는 KT 임원뿐 아니라 고려대, KAIST 교수와 AI 스타트업 전문가들이 참여해 다각적 관점에서 AI 윤리와 책임성 검토를 수행한다. 자문위원회는 AI 모델의 객관적 검증, 국내외 규제 반영 등 다양한 업무를 통해 한국적 가치가 담긴 AI 솔루션 개발을 지원할 예정이다. KT 사내 위원회와의 협업을 통해 AI 관련 논문 저술, 학술 발표 등 연구 활동도 지속된다. 이는 KT의 AI 서비스가 객관적이고 신뢰성 높은 기반 위에 운영될 수 있도록 돕는 역할을 한다. KT는 국제적인 협력도 병행하고 있다. 캐나다 벡터 연구소와 파트너십을 체결해 AI 윤리의 글로벌 기준을 강화하는 데 힘쓰는 한편 마이크로소프트와도 AI 신뢰성 제고를 위한 협업을 이어가고 있다. 또한 4월에는 서울 AI 기업 서약에 동참해 안전한 AI 활용을 다짐했으며 중국 차이나모바일, 일본 NTT도코모와 함께 AI 산업 백서를 발간해 글로벌 통신업계의 AI 윤리 기준 수립에도 기여하고 있다. KT는 올해 4월 ‘Responsible AI Center(책임감 있는 AI 센터, RAIC)’를 설립해 AI 윤리 원칙 고도화, 거버넌스 구축, 평가 체계 수립 등을 통해 안전한 AI 연구에 박차를 가하고 있다. RAIC는 KT 내부에서 AI 윤리 지침을 정립하고 임직원들이 AI 윤리를 일상 업무에 적용할 수 있도록 체계적인 교육을 지원한다. 배순민 KT Responsible AI Center 센터장은 “RAIC는 신뢰받는 AI 활용을 목표로 정책 수립과 모니터링에 주력하고 있다”며 “이번 리포트 발간을 계기로 국내외 AI 이해관계자와의 협력이 확대되기를 기대한다”고 밝혔다.
2024-10-27 16:11:41
-
-
-
튜닙, AI 윤리 솔루션 공개…'안전한 AI' 실현 나선다
[이코노믹데일리] AI 스타트업 튜닙(대표 박규병)이 자사의 최신 AI 윤리 가드레일 솔루션 패키지를 공개하며 주목받고 있다. 네이버 D2SF의 투자 스타트업인 튜닙은 이번 패키지를 통해 AI 서비스의 윤리적 문제를 해결하기 위한 체계적인 접근을 제시했다. 튜닙의 AI 윤리 가드레일 솔루션은 총 6개의 주요 엔진으로 구성되어 있으며, 이는 AI 서비스의 '공격-감시-탐지-대응' 전 과정을 아우르는 종합 솔루션이다. 각 엔진은 △비윤리적 공격 시뮬레이션을 위한 '조커', △방어 모델 '루시', △혐오 표현 탐지 모델 '세인트 패트릭', △준법 감시 모델 '가디언', △스팸 탐지 모델 '스패무라이', △프롬프트 주입 탐지 모델 '엔젤'로 이루어져 있다. 이 솔루션은 생성형 AI의 윤리적 문제를 해결하기 위해 설계되었으며, 특히 AI 서비스의 안전성을 높이는 데 중점을 두고 있다. 글로벌 AI 시장에서도 비슷한 솔루션이 있지만, 튜닙의 패키지는 '공격-감시-탐지' 전 주기를 효과적으로 관리하는 종합적인 접근을 제공한다. 튜닙은 생성형 AI 기술의 발전과 함께 AI 윤리 문제에 대한 해결책을 모색하고 있다. 최근 MS와 메타는 각각 악의적인 프롬프트 조작 방어 솔루션과 AI 모델의 윤리성 평가 모델을 발표했으며, 튜닙의 이번 패키지도 이와 같은 글로벌 흐름에 부합하는 기술로 평가받고 있다. 각 엔진의 주요 기능은 다음과 같다. '조커'는 비윤리적 발화를 시뮬레이션해 AI의 취약점을 테스트하며, '루시'는 이를 방어하는 역할을 한다. '세인트 패트릭'과 '가디언'은 발화의 윤리성을 탐지하여 기업들이 법적 리스크를 줄일 수 있도록 돕는다. '스패무라이'는 다양한 스팸 텍스트를 탐지하고, '엔젤'은 악의적인 프롬프트 주입 시도를 차단해 AI의 안전성을 높인다. 박규병 튜닙 대표는 “AI 윤리 문제는 기술적 안정성뿐만 아니라 신뢰성 확보가 필수적”이라며, “튜닙의 솔루션 패키지는 다양한 기업들이 안정적이고 윤리적인 AI 서비스를 개발하는 데 큰 도움이 될 것”이라고 밝혔다. 현재 튜닙은 AI 윤리 가드레일 패키지의 웹 데모 체험 기회를 제공하고 있으며, 이를 통해 더 많은 기업들이 AI 윤리 문제를 효과적으로 해결할 수 있도록 지원할 예정이다.
2024-08-02 08:16:28
-
정부, AI 기본법 제정 시급...연내 AI안전연구소 설립 추진
[이코노믹데일리] 과학기술정보통신부가 인공지능(AI) 기본법 제정의 시급성을 강조하며 연말까지 AI안전연구소 설립을 추진한다고 밝혔다. AI 기술 발전 속도에 맞춰 법제도를 정비하고, 안전한 AI 활용을 위한 기반을 마련하겠다는 취지다. 31일 국회에서 열린 'AI기본법 제정 및 전망 방향 세미나'에서 남철기 과기정통부 AI정책과장은 "AI 기본법이 조속히 제정돼야 한다"고 말했다. 남 과장은 "각 부처별로 AI 관련 법 제정을 추진 중이지만, 먼저 기본법을 만들고 필요시 개별법에 반영해야 한다"고 설명했다. 현재 22대 국회에서 6개의 AI 관련 법안이 발의된 상태다. 남 과장은 "AI법이 22대 국회 들어 6개 제출됐는데 추가적으로 3~4개 더 제출될 것"이라며 "우리나라에 맞는 AI법을 만들 필요가 있다"고 주장했다. 해당 법안들은 AI위원회 설치, 고위험 인공지능 범위 규정 및 사전 승인, 이용자 고지, 생성형 AI 활용 여부 표시 등의 내용을 담고 있다. 정부는 연말까지 ICT 유관기관 내에 AI안전연구소를 설립할 계획이다. 남 과장은 "AI 위험을 정의하고 테스트하며 프레임워크를 만들고 평가하는 역할을 할 것"이라고 밝혔다. 그는 "영국, 미국, 캐나다, 일본 등의 사례를 고려해 AI안전연구소를 둘 필요가 있다"며 "각국의 AI안전연구소 사례를 조사했는데 공통점은 규제 기관이 아니라 안전을 기술적으로 지원하는 곳"이라고 설명했다. 전문가들은 AI 산업 발전과 안전을 균형 있게 고려한 법안 마련이 필요하다고 입을 모았다. 하정우 네이버클라우드 AI센터장은 "고위험 AI 분야에 대한 엄격한 기준을 두되, 생태계 전반이 성장하는 방향으로 나아가야 한다"고 제안했다. 그는 "AI 기술 자체에 대한 규제보다는 고위험 AI 분야에 대한 엄격한 기준을 두는 것이 필요하다"며 "생태계 밸류체인 모두가 성장하는 방향으로 나아가야 한다"고 강조했다. 안소영 LG AI연구원 정책수석은 "아직 한국은 기술개발 측면에서 글로벌 빅테크와 격차가 크기 때문에 산업 진흥에 초점을 맞춘 법안이 필요하다"고 주장했다. 그는 "미래에 닥쳐올 불확실한 AI 분야를 규제하는 것보다는 이미 발생하고 있는 데이터 독과점, 저작권 문제 등을 규제해야 한다"고 덧붙였다. 세미나에 참석한 전문가들은 AI 기술이 국가 경쟁력을 좌우할 핵심 요소라는 데 공감했다. 하 센터장은 "AI를 산업에 어떻게 적용하느냐가 국가 경쟁력을 결정할 것"이라며 "금융, 교육, 통신, 미디어, 콘텐츠, 헬스 등 적용되지 않는 분야가 없다"고 말했다. 그는 "영화 '허(Her)'의 AI비서를 넘어 AI에이전트 시대가 오고 있다"며 "AI비서가 스마트폰뿐 아니라 자동차, 로봇, 가전, 사무실, 집 등의 환경에서 사람의 업무를 돕게 될 것"이라고 전망했다. 임정근 BHSN 최고경영자(CEO)는 "각 부처별로 AI와 관련한 정책을 펴는 것을 살펴보면 많은 고민이 느껴진다"면서도 "전체적 관점에서는 각 부처별 정책이 매칭이 되지 않거나 충돌하는 경우가 있어 실무에 적용 시 문제가 발생할 가능성이 있다"며 통일된 AI 정책의 필요성을 강조했다. 정부는 AI 기본법 제정을 위해 관계부처 간 협의를 진행 중이다. 남 과장은 "기획재정부, 산업자원통상부, 과기정통부, 방송통신위원회 등 각 부처와 위원회가 모여 AI 기본법 태스크포스(TF)를 꾸려 부처 간 협의를 하고 있다"며 "AI 기본법을 만들어 뼈대를 갖추되, 산업 진흥에 초점을 맞추고 사회적 책무도 포함시키는 방향으로 나아갈 것"이라고 밝혔다. 한편 최근 대통령 직속의 국가AI위원회도 출범했다. 남 과장은 "국가AI위원회는 범정부 차원에서 추진되며, 정부위원 10명, 민간위원 30명 등 전체 45명으로 구성해 운영할 계획"이라고 설명했다. AI위원회는 8월 말 또는 9월 초에 1차 회의를 개최할 예정이다.
2024-07-31 17:28:33
-
네이버, '프로젝트 꽃' 확대 방안 모색... 자율규제위원회 6차 정기회의 개최
[이코노믹데일리] 네이버가 자사의 대표적인 상생 프로그램인 '프로젝트 꽃'의 확대 방안을 모색하고 있다. 네이버는 최근 '네이버 이용자보호 및 자율규제위원회' 6차 정기회의를 개최하고, 프로젝트 꽃의 성과와 향후 발전 방향에 대해 논의했다고 밝혔다. 이번 회의에는 권헌영 고려대학교 정보보호대학원 교수를 위원장으로 한 자율규제위원회 위원 전원과 네이버 프로젝트 꽃 사무국 신지만 리더, 손지윤 정책전략 총괄 등이 참석했다. 프로젝트 꽃은 네이버가 2016년부터 중소기업(SME)과 창작자들의 디지털 전환과 사업 성장을 지원하기 위해 시작한 프로그램이다. 온라인 사업 노하우, 공간 지원, 금융서비스 지원 등 다양한 방식으로 SME와 창작자들을 돕고 있다. 특히 2022년부터는 전담조직을 신설하고 '프로젝트 꽃 2.0'으로 확대 운영 중이다. 자율규제위원회는 이번 회의에서 프로젝트 꽃의 발전 방향에 대해 여러 제안을 했다. 먼저, 다양성 확대를 위해 프로그램 참여 대상을 e커머스 외의 다양한 분야 SME 및 창작자로 확대할 필요가 있다고 지적했다. 또한, 소비자와 사용자들이 프로젝트 꽃에 더 적극적으로 참여할 수 있는 방안을 모색해야 한다고 제안했다. 이와 함께 위원회는 프로젝트 꽃이 기업의 사회공헌 및 상생 관점에서 더 잘 알려질 필요가 있다고 강조했다. 이는 네이버의 상생 노력을 대중에게 더 효과적으로 전달하기 위한 제안으로 보인다. 네이버는 이러한 제안에 대해 긍정적인 반응을 보였다. 회사 측은 영상 크리에이터 등으로 대상 범위를 넓히는 방안을 내부적으로 검토 중이라고 밝혔다. 또한, 다양한 서비스 내에서 사용자들의 피드백을 받을 수 있는 채널을 마련하는 등 소비자 참여 확대 방안도 적극 모색하겠다고 덧붙였다. 권헌영 위원장은 "네이버의 상생 및 자율규제 노력들을 더 객관적으로 평가하고 알릴 필요가 있다"며, "다양한 국내·외 사례 데이터를 확보하여, 네이버의 상생 활동들과 차별화된 자율규제 노력들을 적극적으로 알리는데 힘쓸 것"이라고 말했다. 한편, 2023년 9월 출범한 네이버 자율규제위원회는 지금까지 총 6차례 회의를 통해 다양한 권고사항을 제시해왔다. 가품 피해 최소화 방안, 신규 서비스 출시 시 '다크패턴 체크리스트' 확인, 쇼핑 검색서비스 알고리즘 보완 등이 주요 권고 사항이었다. 또한 지난 5차 회의에서는 안전한 AI 생태계를 위한 네이버의 책임과 국내 AI 경쟁력 강화를 위한 지속적인 투자 및 인력 양성의 필요성도 논의됐다. 이번 회의를 통해 네이버는 프로젝트 꽃을 더욱 확대하고 발전시켜 나갈 계획임을 밝혔다. 향후 네이버가 어떤 방식으로 SME와 창작자 지원을 강화하고, 소비자 참여를 확대해 나갈지 주목된다.
2024-07-16 10:42:38
-
-
-