검색결과 총 10건
-
-
AI, 2024 노벨 과학상 석권... 과학계 혁명 AI 시대를 열다
[이코노믹데일리] 인공지능(AI)이 2024년 노벨 과학상 수상자 발표가 과학계에 큰 반향을 일으키고 있다. 물리학상과 화학상 모두 인공지능(AI) 연구자들이 수상하면서, AI가 과학 발전의 새로운 주역으로 부상했음을 명확히 보여주고 있다. 스웨덴 왕립과학원 노벨위원회는 2024년 노벨 화학상 수상자로 데이비드 베이커 미국 워싱턴대 교수, 데미스 허사비스 구글 딥마인드 최고경영자(CEO), 존 점퍼 구글 딥마인드 수석연구원을 선정했다. 이들은 AI 기반의 단백질 구조 예측 및 설계 시스템인 '알파폴드(AlphaFold)'와 '로제타폴드(RosettaFold)'의 개발을 통해 생명과학 분야에 혁신적인 변화를 이끌었다. 노벨위원회는 "50년 넘게 풀리지 않았던 단백질 구조 예측 문제를 해결한 이들의 연구는 인류에게 큰 혜택을 줄 것"이라고 평가했다. 이들이 개발한 AI 시스템인 '알파폴드'와 '로제타폴드'는 기존 방식으로는 수백 년이 걸릴 단백질 구조 예측을 대폭 단축해 신약 개발과 같은 생명과학 연구에 새로운 지평을 열었다. 화학상에 앞서 2024년 노벨 물리학상은 AI의 기초를 세운 존 홉필드 프린스턴대 교수와 제프리 힌턴 토론토대 명예교수가 공동 수상했다. 이들은 인공 신경망과 딥러닝 기술을 개발하며 현대 AI의 이론적 토대를 마련한 공로를 인정받았다. 힌턴 교수는 '심층신뢰신경망(Deep Belief Networks)'을 통해 AI가 스스로 학습하고 추론할 수 있는 능력을 발전시켰으며, 홉필드 교수는 '홉필드 네트워크'로 AI 연구에 중요한 기초를 제공했다. 노벨위원회는 "이들의 연구는 AI가 단순한 이론적 도구에서 실제 과학 문제를 해결하는 실용적인 기술로 발전할 수 있는 기반을 마련했다"고 설명했다. ◆ 과학계의 평가, AI가 주도하는 새로운 시대 과학계는 이번 노벨상 수상을 두고 "사실상 AI가 과학을 주도하는 시대가 열렸다"는 평가를 내놓고 있다. 석차옥 서울대 화학부 교수는 "AI의 파급력은 기초과학의 틀을 깨고 새로운 패러다임을 열어갈 것"이라며 향후 수십 년간 AI의 영향력이 지속될 것으로 전망했다. AI는 이미 연구 방식을 근본적으로 바꾸고 있다. 로제타폴드와 알파폴드를 필두로 한 AI 단백질 구조 예측 및 설계 도구는 단백질 연구자들에게 없어서는 안 될 필수 도구가 되었다. 의료 진단 분야에서도 수천만 장의 의료 이미지를 학습한 AI가 의사보다 더 정확한 진단을 내릴 수 있게 되었으며, 기상학에서도 AI는 기후 변화로 인한 이변을 예측하는 데 슈퍼컴퓨터보다 나은 성능을 보이고 있다. 나아가 AI는 과학 연구의 전 과정을 수행하는 'AI 과학자'로도 발전하고 있다. 일본 스타트업 사카나 AI가 개발한 AI는 연구자가 논문의 방향만 제시하면 AI가 아이디어를 구체화하고 실험을 수행하며 논문을 작성하는 단계까지 진행한다. 미국 카네기멜런대 화학공학과 게이브 고메스 교수팀 역시 유사한 'AI 화학자'를 개발하고 있다. ◆ AI의 선구자, 데미스 허사비스 이번 노벨 화학상 수상자 중 가장 주목받는 인물인 데미스 허사비스는 AI 분야의 선구자로 꼽힌다. 1976년 영국 북런던에서 태어난 허사비스는 어릴 때부터 체스와 바둑 등에서 뛰어난 재능을 보였고, 2011년 AI 스타트업 '딥마인드 테크놀로지스'를 창업했다. 2016년에는 AI 바둑 프로그램 '알파고'로 이세돌 9단을 상대로 승리하며 세계적인 주목을 받았다. 허사비스는 AI의 발전 가능성을 높이 평가하면서도 그 위험성에 대해서도 경고하고 있다. 그는 2023년 "AI로 인한 멸종 위험을 줄이는 것은 핵전쟁이나 팬데믹과 같은 사회적 위험처럼 전 세계적으로 최우선적으로 다뤄져야 한다"는 AI 안전 성명서에 서명한 바 있다. 베이커 교수는 2003년 많은 사람들이 불가능하다고 믿었던 '완전히 새로운 기능을 가진 단백질'을 컴퓨터로 설계하는 방법을 개발했다. 이후 그의 연구팀은 의약품, 백신, 나노물질, 초소형 센서 등으로 쓰일 수 있는 단백질을 잇따라 설계했다. 베이커 교수는 알파폴드에 영감을 받아 단백질 구조를 해독하고 설계하는 AI 모델인 로제타폴드를 개발했다. 국제 학술지 네이처는 "AI는 방대한 데이터를 분석하고 패턴을 감지하며 연구 자원을 최적화하고 가설을 생성할 수 있다"며 "이러한 능력은 기후 변화, 식량 안보, 질병 등 전 세계 문제 해결에 기여할 수 있다"고 평가했다. 이번 노벨상 수상은 AI가 단순한 도구를 넘어 과학 발전의 핵심 동력으로 자리매김했음을 보여주는 중요한 사건이다. AI는 이제 인류의 지식 확장과 문제 해결 능력을 획기적으로 향상시키는 기술로 인정받고 있으며, 앞으로 더 큰 혁신이 기대된다.
2024-10-10 10:20:17
-
-
정부, AI 기본법 제정 시급...연내 AI안전연구소 설립 추진
[이코노믹데일리] 과학기술정보통신부가 인공지능(AI) 기본법 제정의 시급성을 강조하며 연말까지 AI안전연구소 설립을 추진한다고 밝혔다. AI 기술 발전 속도에 맞춰 법제도를 정비하고, 안전한 AI 활용을 위한 기반을 마련하겠다는 취지다. 31일 국회에서 열린 'AI기본법 제정 및 전망 방향 세미나'에서 남철기 과기정통부 AI정책과장은 "AI 기본법이 조속히 제정돼야 한다"고 말했다. 남 과장은 "각 부처별로 AI 관련 법 제정을 추진 중이지만, 먼저 기본법을 만들고 필요시 개별법에 반영해야 한다"고 설명했다. 현재 22대 국회에서 6개의 AI 관련 법안이 발의된 상태다. 남 과장은 "AI법이 22대 국회 들어 6개 제출됐는데 추가적으로 3~4개 더 제출될 것"이라며 "우리나라에 맞는 AI법을 만들 필요가 있다"고 주장했다. 해당 법안들은 AI위원회 설치, 고위험 인공지능 범위 규정 및 사전 승인, 이용자 고지, 생성형 AI 활용 여부 표시 등의 내용을 담고 있다. 정부는 연말까지 ICT 유관기관 내에 AI안전연구소를 설립할 계획이다. 남 과장은 "AI 위험을 정의하고 테스트하며 프레임워크를 만들고 평가하는 역할을 할 것"이라고 밝혔다. 그는 "영국, 미국, 캐나다, 일본 등의 사례를 고려해 AI안전연구소를 둘 필요가 있다"며 "각국의 AI안전연구소 사례를 조사했는데 공통점은 규제 기관이 아니라 안전을 기술적으로 지원하는 곳"이라고 설명했다. 전문가들은 AI 산업 발전과 안전을 균형 있게 고려한 법안 마련이 필요하다고 입을 모았다. 하정우 네이버클라우드 AI센터장은 "고위험 AI 분야에 대한 엄격한 기준을 두되, 생태계 전반이 성장하는 방향으로 나아가야 한다"고 제안했다. 그는 "AI 기술 자체에 대한 규제보다는 고위험 AI 분야에 대한 엄격한 기준을 두는 것이 필요하다"며 "생태계 밸류체인 모두가 성장하는 방향으로 나아가야 한다"고 강조했다. 안소영 LG AI연구원 정책수석은 "아직 한국은 기술개발 측면에서 글로벌 빅테크와 격차가 크기 때문에 산업 진흥에 초점을 맞춘 법안이 필요하다"고 주장했다. 그는 "미래에 닥쳐올 불확실한 AI 분야를 규제하는 것보다는 이미 발생하고 있는 데이터 독과점, 저작권 문제 등을 규제해야 한다"고 덧붙였다. 세미나에 참석한 전문가들은 AI 기술이 국가 경쟁력을 좌우할 핵심 요소라는 데 공감했다. 하 센터장은 "AI를 산업에 어떻게 적용하느냐가 국가 경쟁력을 결정할 것"이라며 "금융, 교육, 통신, 미디어, 콘텐츠, 헬스 등 적용되지 않는 분야가 없다"고 말했다. 그는 "영화 '허(Her)'의 AI비서를 넘어 AI에이전트 시대가 오고 있다"며 "AI비서가 스마트폰뿐 아니라 자동차, 로봇, 가전, 사무실, 집 등의 환경에서 사람의 업무를 돕게 될 것"이라고 전망했다. 임정근 BHSN 최고경영자(CEO)는 "각 부처별로 AI와 관련한 정책을 펴는 것을 살펴보면 많은 고민이 느껴진다"면서도 "전체적 관점에서는 각 부처별 정책이 매칭이 되지 않거나 충돌하는 경우가 있어 실무에 적용 시 문제가 발생할 가능성이 있다"며 통일된 AI 정책의 필요성을 강조했다. 정부는 AI 기본법 제정을 위해 관계부처 간 협의를 진행 중이다. 남 과장은 "기획재정부, 산업자원통상부, 과기정통부, 방송통신위원회 등 각 부처와 위원회가 모여 AI 기본법 태스크포스(TF)를 꾸려 부처 간 협의를 하고 있다"며 "AI 기본법을 만들어 뼈대를 갖추되, 산업 진흥에 초점을 맞추고 사회적 책무도 포함시키는 방향으로 나아갈 것"이라고 밝혔다. 한편 최근 대통령 직속의 국가AI위원회도 출범했다. 남 과장은 "국가AI위원회는 범정부 차원에서 추진되며, 정부위원 10명, 민간위원 30명 등 전체 45명으로 구성해 운영할 계획"이라고 설명했다. AI위원회는 8월 말 또는 9월 초에 1차 회의를 개최할 예정이다.
2024-07-31 17:28:33
-
네이버 최수연 대표, 한국의 AI 경쟁력과 글로벌 협력 확대 방안 제시
[이코노믹데일리] 19일 대한상공회의소가 개최한 제주포럼에서 네이버 최수연 대표는 한국의 AI 기술 경쟁력과 아시아 지역에서의 리더십 확보를 위한 기업 간 협력의 중요성을 강조했다. 이번 포럼에는 대한상공회의소 최태원 회장, 카이스트 김재철 AI 대학원 정송 원장이 함께 참석했다. 최수연 대표는 ‘AI 시대, 우리 기업의 도전과 미래 비전’을 주제로 한 대담에서, “한국은 뛰어난 AI 산업 생태계와 독자적인 디지털 플랫폼을 보유하고 있으며, 글로벌 AI 선도 국가로 인정받고 있다”고 밝혔다. 이어 그는 네이버가 국내 민간 기업 최초로 슈퍼컴퓨터를 도입하고, 하이퍼스케일 데이터센터 ‘각 세종’을 구축하며, 세계적으로 인용되는 혁신적인 연구를 진행하고 있다는 점을 강조했다. 최 대표는 “한국은 중국을 제외하면 아시아에서 유일하게 자국 언어를 중심으로 초거대 생성형 AI 모델을 처음부터 끝까지 개발하고 서비스에 적용한 사례를 보유하고 있다”며, 이러한 경험을 바탕으로 비영어권 지역에서 AI 기술 리더십 이니셔티브를 발휘할 수 있음을 밝혔다. 또한, AI 발전의 방향성에 대한 논의가 활발해지고 있으며, 각 지역의 문화와 가치를 반영한 소버린 AI의 확산을 위해 다양한 국가 및 기업들과 파트너십을 구축할 것이라고 덧붙였다. 최 대표는 “네이버는 자국어 중심 모델 개발 경험을 바탕으로, 글로벌 소버린 AI 생태계를 확장하는 데 기여하고자 한다”고 전했다. 한편, 네이버는 AI 분야의 주요 과제 해결을 위해 글로벌 기업들과 협력을 확대하고 있다. 최근에는 엔비디아와 소버린 AI 모델 구축 방안을 논의했으며, 인텔과는 AI 칩 소프트웨어 연구·개발 협력을 시작했다. 또한, AI 안전 벤치마크 구축에 기여하는 개방형 컨소시엄 ‘MLCommons’와 AI 생성 콘텐츠 탐지 관련 기술 연구를 진행하는 글로벌 연합체 ‘C2PA’에도 국내 기업 최초로 가입해 활동을 이어가고 있다.
2024-07-19 11:03:50
-
-
네이버, AI 안전성 실천 체계 '네이버 ASF' 발표… "소버린 AI로 안전한 생태계 구축"
[이코노믹데일리] 네이버(대표이사 최수연)는 17일 인공지능(AI) 시스템의 안전성을 실천하는 체계 '네이버 ASF(인공지능 세이프티 프레임워크)'를 발표했다. 이는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 잠재적 위험을 인식하고 평가하며 관리하기 위한 대응 체계다. 네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 '통제력 상실 위험'과 '악용 위험'으로 구분하고, 이에 대응하는 구체적인 방안을 마련했다는 점에서 차별화된다. 네이버는 인간이 AI 시스템을 제어할 수 없게 되는 '통제력 상실 위험'을 대비하기 위해 'AI 위험 평가 스케일'을 마련했다. 이를 통해 AI 시스템의 위험성을 주기적으로 평가하고 관리한다. 특히, 현존 최고 성능의 AI 시스템을 '프런티어 AI'로 정의하고, 이에 해당하는 시스템은 3개월마다 위험 평가를 실시한다. 또한, 시스템 성능이 기존보다 6배 이상 급격히 향상된 경우에는 추가 평가를 진행한다. 네이버 ASF는 '악용 위험'에 대해 'AI 위험 평가 매트릭스'를 적용한다. 이는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 위험 관리 방식을 차별화하는 방식이다. 예를 들어, 생화학 물질 개발과 같은 특수한 목적으로 사용되는 AI 시스템은 특별한 자격을 갖춘 사용자에게만 제공함으로써 위험을 완화한다. 또한, 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템은 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다. 네이버는 한국 외 다른 지역의 정부 및 기업과 협력하여 '소버린 AI'를 공동 개발하고, 특정 문화권에서 발생 가능한 AI 시스템의 위험을 식별하며, 위험 수준을 측정하는 벤치마크를 문화권별로 구축하여 '문화적 다양성'을 반영한 AI 안전 체계를 구축할 계획이다. 네이버는 이미 한국어를 기반으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌 시장으로 확장해나가는 경험을 가지고 있다. 지난해 'ACL 2023'에서 네이버는 종교, 도덕 등 사회적으로 첨예한 문제에 대한 AI의 편향적 발화를 완화하기 위한 새로운 대규모 한국어 데이터셋을 제안한 연구를 발표했다. 최수연 네이버 대표는 "네이버는 '하이퍼클로바X'라는 소버린 AI 개발을 통해 문화적, 지정학적 상황과 지역적 이해가 AI 성능뿐만 아니라 안전성에도 영향을 미친다는 것을 입증했다"며 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해 나갈 것"이라고 말했다. 또한, "이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되고 공존하는 지속 가능한 AI 생태계 구축에 네이버가 적극적으로 기여할 것"이라고 밝혔다. 하정우 네이버 퓨처 AI 센터장은 "네이버는 국내외 유수 연구기관 및 전문가들과 협력하며 AI 안전성 관련 선행 연구와 정책 분야에서 다양한 성과를 거두며 안전하고 지속 가능한 AI 생태계를 만드는 데 앞장서왔다"며 "네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜로, 이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해 나갈 것"이라고 밝혔다. 네이버 ASF는 국내 최초의 AI 안전성 실천 체계라는 점에서 의의가 크다. 또한, '문화적 다양성'을 반영한 AI 안전 체계 구축을 추진한다는 점에서 차별화된다. 이는 네이버가 해외 시장 진출에도 적극적으로 나설 것임을 보여주는 지표이기도 하다. 네이버의 AI 안전성 노력은 국내외에서 긍정적인 평가를 받고 있다. 특히, 네이버가 제안한 'AI 위험 평가 매트릭스'는 AI 시스템의 위험성을 다각적으로 평가하고 관리하는 데 유용한 도구로 평가받고 있다. 또한, 네이버가 추진하는 '소버린 AI' 개발은 특정 국가나 기업에 의존하지 않고 자율적으로 AI 기술을 개발하고 활용하려는 노력으로 주목받고 있다. 네이버는 앞으로도 네이버 ASF를 지속적으로 개선하고 보완해 나갈 계획이다. 또한, 국내외 유수 연구기관 및 기업과 협력하여 AI 안전성 연구를 활성화하고, 국제적인 AI 안전성 기준 마련에도 참여할 계획이다.
2024-06-17 10:11:22
-
-
AI 안전성 확립·지속가능 발전 논의...에너지·환경 등 부작용 대응 방안 모색
[이코노믹데일리] 한국과학기술연구원(KIST)에서 22일 오후 열린 'AI 서울 정상회의' 장관 세션에 21개국 장관급 인사와 국내외 주요 기업 19곳 고위 관계자 등이 대거 참석했다. 이종호 과기정통부 장관과 미셸 도넬란 영국 과학혁신기술부 장관이 공동의장을 맡아 'AI 안전성 확립 역량 강화'와 '지속 가능한 AI 발전 촉진'을 주제로 논의를 이끌었다. 이 장관은 개회사에서 "지난해 영국에서 만난 이후 6개월 만에 생성형 AI는 우리 예상을 뛰어넘는 속도로 발전했고, 일상과 경제, 사회 전반에 새로운 혁신을 일으키고 있다"고 말했다. 이어 "동시에 AI 위험과 부작용에 대한 우려도 커지며 국제사회는 관련 규범 정립을 위한 노력을 본격화하고 있다"며 "전날 정상급 합의문 '서울 선언'에서 제시된 비전을 토대로 이번 세션에서 AI 안전과 지속가능 발전을 논의하겠다"고 덧붙였다. 도넬란 장관은 "AI 발달 속도가 매우 빨라 우리도 더 빨리 행동해 안전성을 담보해야 한다"고 강조했다. 그러면서 "사회 전반이 AI 리스크에 대한 회복탄력성을 갖춰야 한다"며 "과학계 리더들이 구체적 활동계획을 내놓기를 기대한다"고 말했다. 1세션에서는 주요국 AI 안전 연구소 설립 현황을 공유하고 글로벌 공조 방안을 논의했다. 또한 '국제 AI 과학보고서'를 바탕으로 현재와 가까운 미래의 AI 위험요인을 진단하고 안전성 강화 방안을 모색했다. 2세션에서는 AI로 인한 에너지·환경·일자리 등 부작용에 대한 회복탄력성 확보 방안이 논의됐다. 특히 AI 운영 시 막대한 전력 소모에 대응할 필요성이 높아지면서 저전력 반도체 등 한국의 AI 반도체 비전을 중심으로 새 글로벌 의제가 제기됐다. 이날 장관 세션에는 공동의장 외에도 세스 센터 미국 국무부 핵심·신흥기술 부특사, 슈테판 슈노르 독일 연방디지털교통부 장관, 니시다 시오지 일본 총무성 차관 등 20개국 고위인사가 참여했다. 유엔에서는 아만딥 싱 길 사무총장 기술특사가 자리했다. 해외 기업에서는 에이든 고메즈 코히어 대표이사, 앤드루 잭슨 코어42 최고책임자, 크리스티나 몽고메리 IBM 최고신뢰임원, 잭 클라크 앤트로픽 공동설립자, 나타샤 크램튼 마이크로소프트 최고AI책임자, 롭 셔먼 메타 부사장 겸 최고개인정보보호책임자 등이 참석했다. 국내에서는 전경훈 삼성전자 사장, 유영상 SK텔레콤 대표, 배경훈 LG AI연구원장 등 주요 기업 관계자들이 자리를 함께했다. 학계와 시민사회에서도 카네기 국제평화기금 아서 넬슨 부이사관, 휴먼인텔리전스 대표 루먼 차우더리, 카이스트 오혜연 교수, 서울대 이경무 교수 등이 참가했다.
2024-05-22 16:08:56
-
네이버 이해진 GIO, AI 서울 정상회의서 "다양한 AI 모델 등장 필요" 강조
[이코노믹데일리] 네이버 이해진 글로벌투자책임자(GIO)는 21일 오후 열린 AI 서울 정상회의(AI Seoul Summit) 정상 세션에서 AI 시대에서 보다 안전한 AI를 위해서는 각 지역의 문화와 가치를 존중하는 다양한 AI 모델들이 등장해야 한다고 강조했다. 이해진 GIO는 "사용자들이 하나의 키워드로 다양한 검색 결과에서 정보를 선택하는 검색과 달리 바로 답을 제시하는 AI는 선택의 여지 없이 답을 얻는 방식"이라며 "이러한 AI의 특성은 특히 어린이나 청소년들에게 매우 큰 영향을 미칠 것"이라고 지적했다. 그는 소설 구절을 인용하며 "극소수 AI가 현재를 지배하게 되면 과거 역사, 문화에 대한 인식은 해당 AI의 답으로만 이루어지게 되고 결국 미래까지 해당 AI가 큰 영향을 미칠 것"이라고 우려했다. 이러한 우려를 해결하기 위해서는 다양한 시각을 보여주고 각 지역의 문화적, 환경적 맥락을 이해하는 다양한 AI 모델들이 등장해야 한다고 강조했다. 그는 "역사에는 다양한 시각이 존재하며 다양한 AI 모델로 각국의 문화 등 다양성을 지킬 수 있고 어린이들, 청소년들도 제대로 된 역사관, 시각을 가질 수 있다"고 말했다. 네이버는 이미 다양성을 통해 연결이 더 큰 가치를 창출할 수 있도록 기술과 서비스를 실현해 왔으며, AI 윤리 준칙 발표에 이어 보다 구체화된 'AI 안전 실행 프레임워크'(NAVER AI Safety Framework)를 내달 공개할 예정이다. 이해진 GIO는 "네이버는 각 지역의 문화와 가치를 존중하고 이해하며 책임감 있는 다양한 AI 모델들이 등장하고 많은 글로벌 국가들이 자체 소버린(Sovereign) AI를 확보할 수 있도록 어떤 형태든 기술로 지원해 나갈 것"이라고 밝혔다. 한편, 이번 AI 서울 정상회의는 5월 21일부터 22일까지 진행되며, 전세계 국가 정상, 국제기구, 세계적인 AI 기술 기업의 대표 등이 참여해 AI의 안전성을 강화하면서도 혁신을 촉진하고 포용과 상생을 도모하는 AI 발전방안에 대해 포괄적인 논의를 진행한다.
2024-05-22 10:18:32