검색결과 총 31건
-
-
-
-
KT, 안전한 AI 위한 KT Responsible AI 리포트 발간
[이코노믹데일리] KT가 안전하고 신뢰할 수 있는 AI 활용을 위한 연구 성과를 담은 ‘KT Responsible AI 리포트’를 발간했다. KT는 AI 윤리와 신뢰성을 담보하는 프레임워크를 제시하며 안전한 AI 환경 구축을 목표로 다각적인 노력을 지속해오고 있다. 이번 리포트는 AI의 책임성과 투명성에 관한 KT의 방향성을 구체화한 결과물이다. KT가 공개한 ‘Responsible AI 리포트’는 회사가 추진하는 AI 윤리와 신뢰성을 위한 프레임워크를 설명하며 핵심 원칙 ‘ASTRI’를 소개했다. ASTRI는 △책임성(Accountability) △지속가능성(Sustainability) △투명성(Transparency) △신뢰성(Reliability) △포용성(Inclusivity)을 뜻하며 이 다섯 가지 원칙은 안전한 AI 서비스 구축을 위한 KT의 방향성을 명확히 제시한다. 이는 AI 기술 발전에 대한 대중 신뢰성을 확보하기 위해 필수적인 요소로 평가된다. KT는 이 프레임워크에 따라 AI 거버넌스, 윤리 원칙, 프로세스 등 다양한 항목을 체계적으로 정립했다. 특히 KT는 AI 생태계가 국민 생활에 미치는 영향을 고려해 윤리적 방향성을 확립했으며 ASTRI 원칙은 AI 기술의 방향성을 제시하는 '북극성' 역할을 수행한다. KT는 AI 신뢰성 강화를 위해 지난 22일 'Responsible AI 자문위원회'를 출범했다. 이 위원회에는 KT 임원뿐 아니라 고려대, KAIST 교수와 AI 스타트업 전문가들이 참여해 다각적 관점에서 AI 윤리와 책임성 검토를 수행한다. 자문위원회는 AI 모델의 객관적 검증, 국내외 규제 반영 등 다양한 업무를 통해 한국적 가치가 담긴 AI 솔루션 개발을 지원할 예정이다. KT 사내 위원회와의 협업을 통해 AI 관련 논문 저술, 학술 발표 등 연구 활동도 지속된다. 이는 KT의 AI 서비스가 객관적이고 신뢰성 높은 기반 위에 운영될 수 있도록 돕는 역할을 한다. KT는 국제적인 협력도 병행하고 있다. 캐나다 벡터 연구소와 파트너십을 체결해 AI 윤리의 글로벌 기준을 강화하는 데 힘쓰는 한편 마이크로소프트와도 AI 신뢰성 제고를 위한 협업을 이어가고 있다. 또한 4월에는 서울 AI 기업 서약에 동참해 안전한 AI 활용을 다짐했으며 중국 차이나모바일, 일본 NTT도코모와 함께 AI 산업 백서를 발간해 글로벌 통신업계의 AI 윤리 기준 수립에도 기여하고 있다. KT는 올해 4월 ‘Responsible AI Center(책임감 있는 AI 센터, RAIC)’를 설립해 AI 윤리 원칙 고도화, 거버넌스 구축, 평가 체계 수립 등을 통해 안전한 AI 연구에 박차를 가하고 있다. RAIC는 KT 내부에서 AI 윤리 지침을 정립하고 임직원들이 AI 윤리를 일상 업무에 적용할 수 있도록 체계적인 교육을 지원한다. 배순민 KT Responsible AI Center 센터장은 “RAIC는 신뢰받는 AI 활용을 목표로 정책 수립과 모니터링에 주력하고 있다”며 “이번 리포트 발간을 계기로 국내외 AI 이해관계자와의 협력이 확대되기를 기대한다”고 밝혔다.
2024-10-27 16:11:41
-
-
-
AI, 2024 노벨 과학상 석권... 과학계 혁명 AI 시대를 열다
[이코노믹데일리] 인공지능(AI)이 2024년 노벨 과학상 수상자 발표가 과학계에 큰 반향을 일으키고 있다. 물리학상과 화학상 모두 인공지능(AI) 연구자들이 수상하면서, AI가 과학 발전의 새로운 주역으로 부상했음을 명확히 보여주고 있다. 스웨덴 왕립과학원 노벨위원회는 2024년 노벨 화학상 수상자로 데이비드 베이커 미국 워싱턴대 교수, 데미스 허사비스 구글 딥마인드 최고경영자(CEO), 존 점퍼 구글 딥마인드 수석연구원을 선정했다. 이들은 AI 기반의 단백질 구조 예측 및 설계 시스템인 '알파폴드(AlphaFold)'와 '로제타폴드(RosettaFold)'의 개발을 통해 생명과학 분야에 혁신적인 변화를 이끌었다. 노벨위원회는 "50년 넘게 풀리지 않았던 단백질 구조 예측 문제를 해결한 이들의 연구는 인류에게 큰 혜택을 줄 것"이라고 평가했다. 이들이 개발한 AI 시스템인 '알파폴드'와 '로제타폴드'는 기존 방식으로는 수백 년이 걸릴 단백질 구조 예측을 대폭 단축해 신약 개발과 같은 생명과학 연구에 새로운 지평을 열었다. 화학상에 앞서 2024년 노벨 물리학상은 AI의 기초를 세운 존 홉필드 프린스턴대 교수와 제프리 힌턴 토론토대 명예교수가 공동 수상했다. 이들은 인공 신경망과 딥러닝 기술을 개발하며 현대 AI의 이론적 토대를 마련한 공로를 인정받았다. 힌턴 교수는 '심층신뢰신경망(Deep Belief Networks)'을 통해 AI가 스스로 학습하고 추론할 수 있는 능력을 발전시켰으며, 홉필드 교수는 '홉필드 네트워크'로 AI 연구에 중요한 기초를 제공했다. 노벨위원회는 "이들의 연구는 AI가 단순한 이론적 도구에서 실제 과학 문제를 해결하는 실용적인 기술로 발전할 수 있는 기반을 마련했다"고 설명했다. ◆ 과학계의 평가, AI가 주도하는 새로운 시대 과학계는 이번 노벨상 수상을 두고 "사실상 AI가 과학을 주도하는 시대가 열렸다"는 평가를 내놓고 있다. 석차옥 서울대 화학부 교수는 "AI의 파급력은 기초과학의 틀을 깨고 새로운 패러다임을 열어갈 것"이라며 향후 수십 년간 AI의 영향력이 지속될 것으로 전망했다. AI는 이미 연구 방식을 근본적으로 바꾸고 있다. 로제타폴드와 알파폴드를 필두로 한 AI 단백질 구조 예측 및 설계 도구는 단백질 연구자들에게 없어서는 안 될 필수 도구가 되었다. 의료 진단 분야에서도 수천만 장의 의료 이미지를 학습한 AI가 의사보다 더 정확한 진단을 내릴 수 있게 되었으며, 기상학에서도 AI는 기후 변화로 인한 이변을 예측하는 데 슈퍼컴퓨터보다 나은 성능을 보이고 있다. 나아가 AI는 과학 연구의 전 과정을 수행하는 'AI 과학자'로도 발전하고 있다. 일본 스타트업 사카나 AI가 개발한 AI는 연구자가 논문의 방향만 제시하면 AI가 아이디어를 구체화하고 실험을 수행하며 논문을 작성하는 단계까지 진행한다. 미국 카네기멜런대 화학공학과 게이브 고메스 교수팀 역시 유사한 'AI 화학자'를 개발하고 있다. ◆ AI의 선구자, 데미스 허사비스 이번 노벨 화학상 수상자 중 가장 주목받는 인물인 데미스 허사비스는 AI 분야의 선구자로 꼽힌다. 1976년 영국 북런던에서 태어난 허사비스는 어릴 때부터 체스와 바둑 등에서 뛰어난 재능을 보였고, 2011년 AI 스타트업 '딥마인드 테크놀로지스'를 창업했다. 2016년에는 AI 바둑 프로그램 '알파고'로 이세돌 9단을 상대로 승리하며 세계적인 주목을 받았다. 허사비스는 AI의 발전 가능성을 높이 평가하면서도 그 위험성에 대해서도 경고하고 있다. 그는 2023년 "AI로 인한 멸종 위험을 줄이는 것은 핵전쟁이나 팬데믹과 같은 사회적 위험처럼 전 세계적으로 최우선적으로 다뤄져야 한다"는 AI 안전 성명서에 서명한 바 있다. 베이커 교수는 2003년 많은 사람들이 불가능하다고 믿었던 '완전히 새로운 기능을 가진 단백질'을 컴퓨터로 설계하는 방법을 개발했다. 이후 그의 연구팀은 의약품, 백신, 나노물질, 초소형 센서 등으로 쓰일 수 있는 단백질을 잇따라 설계했다. 베이커 교수는 알파폴드에 영감을 받아 단백질 구조를 해독하고 설계하는 AI 모델인 로제타폴드를 개발했다. 국제 학술지 네이처는 "AI는 방대한 데이터를 분석하고 패턴을 감지하며 연구 자원을 최적화하고 가설을 생성할 수 있다"며 "이러한 능력은 기후 변화, 식량 안보, 질병 등 전 세계 문제 해결에 기여할 수 있다"고 평가했다. 이번 노벨상 수상은 AI가 단순한 도구를 넘어 과학 발전의 핵심 동력으로 자리매김했음을 보여주는 중요한 사건이다. AI는 이제 인류의 지식 확장과 문제 해결 능력을 획기적으로 향상시키는 기술로 인정받고 있으며, 앞으로 더 큰 혁신이 기대된다.
2024-10-10 10:20:17
-
-
-
-
-
-
-
-
오픈AI, 챗GPT 표절 탐지기 개발했지만 공개 미루고 있어
[이코노믹데일리] 오픈AI가 챗GPT로 작성된 텍스트를 탐지할 수 있는 도구를 개발했지만, 이를 공개하지 않고 있는 것으로 확인됐다. 월스트리트저널(WSJ)은 4일 오픈AI가 약 1년 동안 챗GPT 표절 검사기를 준비해왔으나, 공개 여부에 대한 논쟁이 이어졌다고 보도했다. 이 도구는 챗GPT로 생성된 텍스트에 숨겨진 워터마크를 인식할 수 있으며, 현재 이 워터마크는 인간의 눈에는 보이지 않지만 탐지기에는 감지된다. 탐지기는 문서 전체나 일부가 챗GPT로 작성됐을 가능성을 점수화하여 표시하며, 정확도는 99.9%에 달하는 것으로 알려졌다. 내부 문서에 따르면, 오픈AI의 최고경영자(CEO) 샘 알트먼과 최고기술책임자(CTO) 미라 무라티는 표절 탐지기 출시를 논의했으나, 최종적인 출시 결정에는 소극적인 입장을 보였다. 한 직원은 "챗GPT가 편리함을 제공하는 만큼 윤리적 장치도 필수적"이라고 주장했지만, 도구의 공개는 여전히 미뤄지고 있다. 챗GPT는 몇 초 만에 에세이나 연구 논문을 작성할 수 있어, 학생들이 이를 활용하여 표절을 시도한 사례가 많았다. 뉴욕시의 영어와 저널리즘 교사 알렉사 커터맨은 "교사들 사이에서 챗GPT 표절 문제에 대한 우려가 끊임없이 제기되고 있다"고 WSJ에 전했다. 오픈AI는 도구의 사용자가 워터마크를 의도적으로 제거하거나 다른 언어로 번역 후 재번역하는 등의 방법으로 표절 감지를 피할 수 있다는 점을 우려하고 있다. 또한, 도구 접근 범위와 관련해서도 논의가 진행되고 있으며, 극소수 사용자에게만 제공할 경우 효율성이 떨어질 수 있고, 모든 사용자에게 제공할 경우 악용 가능성이 우려된다. 현재 오픈AI는 이 탐지기를 주로 학교에 제공하여 교사나 교수들이 AI로 작성된 논문과 표절 작업을 식별할 수 있도록 하려는 방향으로 의견을 모은 상태다. 또한, 외부 회사에 제공하여 표절 작업 식별을 지원하는 방안도 검토되고 있다. 오픈AI 관계자는 "텍스트 워터마킹 기술은 뛰어나지만, 중요한 위험성이 동반된다"며 "AI 생태계에 미칠 영향을 고려한 신중한 접근이 필요하다"고 밝혔다.
2024-08-05 13:46:29