이코노믹데일리 - 정확한 뉴스와 깊이 있는 분석
금융
산업
생활경제
IT
건설
피플
국제
이슈
문화
딥인사이트
검색
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
2026.01.22 목요일
맑음
서울 -5˚C
맑음
부산 -1˚C
맑음
대구 -2˚C
맑음
인천 -6˚C
흐림
광주 -1˚C
흐림
대전 -3˚C
맑음
울산 -2˚C
맑음
강릉 -5˚C
흐림
제주 1˚C
검색
검색 버튼
검색
'AI신뢰성'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
3
건
'AI 기본법' 오늘 시행... 통신사들 "속도보다 안전, 책임지는 AI 만든다"
[이코노믹데일리] 세계 최초의 포괄적 인공지능 규제법인 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 22일 본격 시행됐다. 이에 맞춰 SK텔레콤과 KT 등 국내 이동통신사들이 전사적 AI 거버넌스 체계를 재정비하고 '책임 있는 AI(Responsible AI)' 실현을 위한 구체적인 행동에 나섰다. AI 기술 경쟁이 '성능' 위주에서 '안전과 신뢰' 중심으로 패러다임이 전환되고 있음을 보여준다. ◆ SKT '거버넌스 포털' 고도화, KT 'CRAIO' 중심 조직 개편 SK텔레콤은 이날 전사적인 AI 거버넌스 체계를 강화하고 사내 캠페인 '굿 AI(Good AI)'를 시행한다고 밝혔다. 핵심은 지난해 9월 개설한 'AI 거버넌스 포털'의 고도화다. 이 시스템은 SK텔레콤의 자체 AI 원칙인 'T.H.E. AI(Telco, Humanity, Ethics)'를 기반으로 기획 단계부터 서비스의 위험 요인을 분석하고 준수 여부를 판별한다. AI 기본법 시행에 맞춰 법적 요구사항을 시스템에 반영하고 구성원들이 이를 내재화하도록 프로세스를 강화했다. 차호범 SK텔레콤 CPO(정보보호최고책임자)는 "책임감 있고 신뢰할 수 있는 AI 개발을 위해 전사 역량을 결집하겠다"고 강조했다. KT는 조직 신설과 최고책임자 임명으로 대응 수위를 높였다. KT는 이미 2024년 전담 조직인 '책임감 있는 AI 센터(RAIC)'를 구축하고 국내 통신사 최초로 최고책임자인 CRAIO(Chief Responsible AI Officer) 직책을 신설했다. 배순민 상무가 초대 CRAIO를 맡아 AI 윤리 원칙 'ASTRI'를 제정하고 기획부터 운영까지 전 과정에 적용하고 있다. 또한 외부 전문가로 구성된 자문위원회를 운영하며 객관적인 검증 체계를 갖췄다. ◆ 법 시행 배경은 '통제 가능한 AI'... "신뢰가 곧 경쟁력" 이번 AI 기본법 시행과 기업들의 발 빠른 대응은 생성형 AI의 급격한 확산과 맞물려 있다. 딥페이크, 가짜 뉴스, 알고리즘 편향성 등 AI의 부작용이 사회적 문제로 대두되면서 '통제 가능하고 설명 가능한 AI'에 대한 요구가 폭발했기 때문이다. 특히 AI 에이전트가 쇼핑, 금융, 예약 등 실생활의 의사결정을 대신하는 단계로 진입하면서 안전성 확보는 기업의 생존과 직결된 문제가 됐다. 정부는 이번 법 시행을 통해 고영향 AI에 대한 사업자의 책임을 명문화하고 투명성 확보를 의무화했다. 이를 어길 경우 과태료 등 제재가 따르지만 초기 혼란을 줄이기 위해 1년의 계도 기간을 뒀다. 통신사들이 법 시행 첫날부터 선제적인 조치를 발표한 것은 규제 대응을 넘어 '안전한 AI'라는 브랜드 이미지를 선점하기 위한 전략으로 풀이된다. 향후 AI 시장의 경쟁 포인트는 '누가 더 똑똑한가'에서 '누가 더 안전한가'로 이동할 전망이다. 기업용(B2B) AI 시장에서는 보안과 신뢰성이 솔루션 도입의 최우선 기준이 되고 있다. 이에 따라 통신사들은 자체 거버넌스 체계를 글로벌 표준 수준으로 끌어올리고 'AI 가드레일(안전장치)' 기술 개발에 투자를 확대할 것으로 보인다. 업계 관계자는 "AI 기본법 시행은 국내 AI 산업이 '무한 속도전'에서 '지속 가능한 성장'으로 태세를 전환하는 분기점"이라며 "통신사들이 구축한 AI 신뢰성 검증 체계가 향후 금융, 제조 등 타 산업군으로 확산되는 표준 모델이 될 가능성이 높다"고 분석했다.
2026-01-22 11:01:13
"우리도 고위험군인가"... 가이드라인 부재에 산업계 '속앓이'
[이코노믹데일리] 대한민국 인공지능(AI) 산업의 제도적 기틀이 될 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)’ 시행이 보름 앞으로 다가왔다. 오는 22일부터 법 효력이 발생하지만 정작 산업 현장에서는 세부적인 규제 가이드라인이 확정되지 않아 기업들의 혼란이 커지고 있다. 법은 시행되는데 기준은 모호한 ‘반쪽짜리 출발’이라는 우려가 업계 전반에서 제기된다. 7일 과학기술정보통신부와 관련 업계에 따르면 AI 기본법은 지난 2024년 12월 26일 국회 본회의를 통과한 지 1년여 만인 오는 22일 본격 시행된다. 이 법은 AI 산업 진흥과 신뢰성 확보를 동시에 추구하는 이른바 ‘K-AI 헌법’ 성격의 기본법이다. 다만 법 시행이 코앞에 닥쳤음에도 규제의 핵심으로 꼽히는 ‘고영향 AI’의 구체적 범위와 생성형 AI 결과물에 적용될 ‘워터마크’ 기술 표준이 명확히 제시되지 않으면서 기업들은 대응 전략 마련에 골머리를 앓고 있다. 가장 큰 뇌관은 ‘고영향 AI(High-Risk AI)’ 지정 문제다. 법안은 사람의 생명과 신체, 안전에 중대한 영향을 미치는 AI를 고영향 AI로 규정하고 해당 사업자에게 위험 관리 체계 수립과 이용자 고지, 사후 점검 의무 등을 부과하도록 했다. 그러나 어디까지를 고영향 AI로 볼 것인지에 대한 판단 기준이 추상적이어서 해석의 여지가 크다는 점이 문제로 지적된다. 예를 들어 헬스케어 스타트업이 운영하는 ‘우울증 상담 챗봇’의 경우 이를 의료 행위에 준하는 고위험군으로 볼 것인지 단순 심리 상담 서비스로 볼 것인지를 두고 의견이 엇갈린다. 고영향 AI로 지정될 경우 스타트업이 감당하기 어려운 수준의 기술 검증 비용과 전담 인력 투입이 요구돼 자칫 사업 존폐 문제로까지 번질 수 있다. 한 스타트업 대표는 “부처마다 해석이 달라 어느 장단에 맞춰야 할지 모르겠다”며 “규제 자체보다도 불확실성이 기업 활동의 가장 큰 적”이라고 토로했다. 생성형 AI 결과물에 대한 식별 표시, 이른바 ‘워터마크’ 의무화 조항도 기술적 난제에 부딪히고 있다. 이미지나 영상은 비교적 기술 구현이 수월하지만 텍스트나 오디오는 메타 데이터 삭제나 변조가 쉬워 실효성 논란이 끊이지 않는다. 특히 메타의 ‘라마(Llama)’ 등 오픈소스 모델을 기반으로 서비스를 개발한 중소기업들은 원천 모델 차원에서의 기술적 지원 없이는 자체적인 워터마크 구현이 사실상 불가능하다고 호소한다. 규제 취지에는 공감하지만 현실적 대안이 보이지 않는다는 것이다. 전문가들은 법 시행 자체보다 ‘예측 가능성’ 확보가 무엇보다 시급하다고 입을 모은다. 이성엽 고려대 기술경영전문대학원 교수(한국데이터법정책학회장)는 “유럽연합(EU)의 AI법(AI Act)은 고위험 AI 규제 적용까지 24개월의 유예 기간을 두고 기술 표준 마련에 상당한 시간을 투자했다”고 설명했다. 이어 “한국은 법 시행 일정에 쫓기다 보니 기업들이 실제로 준수할 수 있는 기술적 가이드라인 제공에 소홀했다”며 “시행 초기 충분한 계도 기간이 없다면 무더기 범법자가 양산될 수 있다”고 지적했다. 주무 부처인 과기정통부는 법 시행 초기인 점을 고려해 최소 1년 이상의 계도 기간을 두고 처벌보다는 컨설팅과 기술 지원에 집중하겠다는 입장이다. 그러나 기업들은 모호한 규정이 향후 감독 강화 국면에서 ‘규제 리스크’로 되돌아올 수 있다는 불안을 여전히 떨치지 못하고 있다. AI 기본법이 규제를 위한 규제가 아니라 산업 발전을 견인하는 제도적 마중물이 되기 위해서는 보다 정교한 하위 법령 마련과 현장 친화적인 유연한 법 적용이 시급하다는 지적이 나온다.
2026-01-07 18:06:00
카카오 '카나나' 국내 1호 AI 안전성 검증 통과... "메타보다 안전하다"
[이코노믹데일리] 카카오의 인공지능(AI) 모델 '카나나'가 정부가 주관한 국내 첫 AI 안전성 평가에서 글로벌 빅테크 모델을 상회하는 안전성을 입증했다. 29일 과학기술정보통신부는 AI안전연구소 및 한국정보통신기술협회(TTA)와 협력해 진행한 평가 결과 카나나가 메타나 미스트랄AI 등 해외 유력 모델 대비 동등 이상의 안전성을 확보한 것으로 확인됐다고 밝혔다. 이번 평가는 내년 본격 시행을 앞둔 'AI 기본법'에 대비해 국내 모델의 신뢰도를 선제적으로 점검했다는 점에서 의미가 크다. 이번 검증 대상은 카카오의 '카나나 에센스 1.5' 모델이다. 카카오는 국내 산·학·연이 주도하는 'AI 안전 컨소시엄'의 일원으로 참여해 자사 모델의 안전성을 객관적으로 검증받기로 협의했다. 평가에는 TTA와 최호진 KAIST 교수 연구팀이 개발한 벤치마크 데이터셋 '어슈어 AI(AssurAI)'와 AI안전연구소의 고위험 분야 평가 데이터셋이 활용됐다. 이는 AI 모델에 악의적인 질문을 던져 방어 기제가 제대로 작동하는지 확인하는 '레드팀 챌린지' 방식의 고강도 테스트다. 평가단은 폭력 조장이나 차별적 표현 등 일반적인 위험 요소는 물론 무기 제작법 전수나 해킹 코드 생성 및 보안 취약점 악용 등 고위험 시나리오까지 폭넓게 적용해 모델을 점검했다. 평가 결과 카나나는 동급 규모의 글로벌 오픈소스 모델인 미국 메타의 '라마(Llama) 3.1'과 프랑스 미스트랄AI의 '미스트랄 0.3'과 비교해 높은 수준의 안전성을 기록했다. 특정 위험 항목에서는 경쟁 모델보다 더 정교하게 유해 정보를 필터링하는 능력을 보인 것으로 알려졌다. 정부는 이번 평가가 단순히 규제를 위한 절차가 아니라 국내 AI 산업의 경쟁력을 높이는 계기가 될 것으로 보고 있다. 과기정통부는 이번 검증 경험을 바탕으로 내년 1월 진행될 '독자 AI 파운데이션 모델' 프로젝트 1차 평가에도 동일한 안전성 기준을 적용할 방침이다. 아울러 국내외 다양한 AI 기업과 협력해 평가 대상을 지속적으로 확대하고 국제적인 AI 안전 기준 수립에도 주도적으로 참여한다는 계획이다. 이번 결과는 글로벌 시장에서 'K-AI'의 신뢰도를 높이는 데 기여할 전망이다. AI 성능 경쟁이 안전성 경쟁으로 옮겨가는 추세 속에서 국산 모델이 글로벌 표준을 충족한다는 사실을 입증했기 때문이다. 특히 기업용(B2B) 시장이나 공공 분야 진출 시 안전성 검증 여부가 핵심 경쟁력이 될 가능성이 높다. 김경만 과기정통부 인공지능정책실장은 "세계적으로 AI 안전에 대한 논의가 규제보다는 실질적인 검증과 구현이 강조되는 상황"이라며 "이번 평가는 국내 AI 모델의 안전성 경쟁력을 객관적으로 증명한 사례이자 향후 글로벌 AI 안전성 리더십을 확보하는 초석이 될 것"이라고 강조했다.
2025-12-29 12:34:49
처음
이전
1
다음
끝
많이 본 뉴스
1
삼성전자, 테슬라 칩으로 반도체 '초속도전' 선언
2
폐배터리 상업화 원년 온다지만…규제·정제 한계에 산업 경쟁력 '경고등'
3
현대차, "아틀라스 효과" 현대차 주가 40% 폭등...'피지컬 AI' 대장주로 재평가
4
애경 2080 치약 회수 여파…무보존제 내세운 부광약품 '시린메드' 주목
5
TSMC 설비 투자에 82조원 투입…삼성전자 대응 전략은
6
[위기의 한국 AI 반도체 ②] "물러설 곳 없다"… 리벨리온·퓨리오사AI
7
점유율 1.8% NHN벅스 결국 매각…유튜브 뮤직·멜론 양강 체계 '굳건'
8
리니지 클래식, 확률형 아이템 뺀 '2만9700원의 마법'... 떠난 린저씨들 다시 돌아오나
영상
Youtube 바로가기
오피니언
[e경제일보 사설] 농지법 개정, '농업 혁신'인가 '투기 합법화'인지