이코노믹데일리 - 정확한 뉴스와 깊이 있는 분석
금융
산업
생활경제
IT
건설
피플
국제
이슈
문화
딥인사이트
검색
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
2026.01.28 수요일
맑음
서울 -3˚C
맑음
부산 1˚C
맑음
대구 1˚C
맑음
인천 -4˚C
맑음
광주 1˚C
맑음
대전 -1˚C
흐림
울산 3˚C
맑음
강릉 -0˚C
맑음
제주 4˚C
검색
검색 버튼
검색
'오픈소스모델'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
2
건
"우리도 고위험군인가"... 가이드라인 부재에 산업계 '속앓이'
[이코노믹데일리] 대한민국 인공지능(AI) 산업의 제도적 기틀이 될 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)’ 시행이 보름 앞으로 다가왔다. 오는 22일부터 법 효력이 발생하지만 정작 산업 현장에서는 세부적인 규제 가이드라인이 확정되지 않아 기업들의 혼란이 커지고 있다. 법은 시행되는데 기준은 모호한 ‘반쪽짜리 출발’이라는 우려가 업계 전반에서 제기된다. 7일 과학기술정보통신부와 관련 업계에 따르면 AI 기본법은 지난 2024년 12월 26일 국회 본회의를 통과한 지 1년여 만인 오는 22일 본격 시행된다. 이 법은 AI 산업 진흥과 신뢰성 확보를 동시에 추구하는 이른바 ‘K-AI 헌법’ 성격의 기본법이다. 다만 법 시행이 코앞에 닥쳤음에도 규제의 핵심으로 꼽히는 ‘고영향 AI’의 구체적 범위와 생성형 AI 결과물에 적용될 ‘워터마크’ 기술 표준이 명확히 제시되지 않으면서 기업들은 대응 전략 마련에 골머리를 앓고 있다. 가장 큰 뇌관은 ‘고영향 AI(High-Risk AI)’ 지정 문제다. 법안은 사람의 생명과 신체, 안전에 중대한 영향을 미치는 AI를 고영향 AI로 규정하고 해당 사업자에게 위험 관리 체계 수립과 이용자 고지, 사후 점검 의무 등을 부과하도록 했다. 그러나 어디까지를 고영향 AI로 볼 것인지에 대한 판단 기준이 추상적이어서 해석의 여지가 크다는 점이 문제로 지적된다. 예를 들어 헬스케어 스타트업이 운영하는 ‘우울증 상담 챗봇’의 경우 이를 의료 행위에 준하는 고위험군으로 볼 것인지 단순 심리 상담 서비스로 볼 것인지를 두고 의견이 엇갈린다. 고영향 AI로 지정될 경우 스타트업이 감당하기 어려운 수준의 기술 검증 비용과 전담 인력 투입이 요구돼 자칫 사업 존폐 문제로까지 번질 수 있다. 한 스타트업 대표는 “부처마다 해석이 달라 어느 장단에 맞춰야 할지 모르겠다”며 “규제 자체보다도 불확실성이 기업 활동의 가장 큰 적”이라고 토로했다. 생성형 AI 결과물에 대한 식별 표시, 이른바 ‘워터마크’ 의무화 조항도 기술적 난제에 부딪히고 있다. 이미지나 영상은 비교적 기술 구현이 수월하지만 텍스트나 오디오는 메타 데이터 삭제나 변조가 쉬워 실효성 논란이 끊이지 않는다. 특히 메타의 ‘라마(Llama)’ 등 오픈소스 모델을 기반으로 서비스를 개발한 중소기업들은 원천 모델 차원에서의 기술적 지원 없이는 자체적인 워터마크 구현이 사실상 불가능하다고 호소한다. 규제 취지에는 공감하지만 현실적 대안이 보이지 않는다는 것이다. 전문가들은 법 시행 자체보다 ‘예측 가능성’ 확보가 무엇보다 시급하다고 입을 모은다. 이성엽 고려대 기술경영전문대학원 교수(한국데이터법정책학회장)는 “유럽연합(EU)의 AI법(AI Act)은 고위험 AI 규제 적용까지 24개월의 유예 기간을 두고 기술 표준 마련에 상당한 시간을 투자했다”고 설명했다. 이어 “한국은 법 시행 일정에 쫓기다 보니 기업들이 실제로 준수할 수 있는 기술적 가이드라인 제공에 소홀했다”며 “시행 초기 충분한 계도 기간이 없다면 무더기 범법자가 양산될 수 있다”고 지적했다. 주무 부처인 과기정통부는 법 시행 초기인 점을 고려해 최소 1년 이상의 계도 기간을 두고 처벌보다는 컨설팅과 기술 지원에 집중하겠다는 입장이다. 그러나 기업들은 모호한 규정이 향후 감독 강화 국면에서 ‘규제 리스크’로 되돌아올 수 있다는 불안을 여전히 떨치지 못하고 있다. AI 기본법이 규제를 위한 규제가 아니라 산업 발전을 견인하는 제도적 마중물이 되기 위해서는 보다 정교한 하위 법령 마련과 현장 친화적인 유연한 법 적용이 시급하다는 지적이 나온다.
2026-01-07 18:06:00
KT 초거대 AI '믿:음 K 2.0', 국내 최초 TTA 신뢰성 인증 획득
[이코노믹데일리] KT가 자체 개발한 초거대 언어모델 ‘믿:음 K 2.0 베이스’가 국내 최초로 한국정보통신기술협회(TTA)의 ‘인공지능 신뢰성 인증 2.0(CAT 2.0)’을 획득하며 기술적 안전성과 책임성을 입증했다. KT는 지난 22일 TTA로부터 믿:음 K 2.0 베이스 모델에 대한 AI 신뢰성 인증을 받았다고 밝혔다. 이번 인증은 내년 1월 시행을 앞둔 ‘AI 기본법’에 선제적으로 대응하는 차원에서 의미가 크다. CAT 2.0은 AI 기술 확산에 따른 윤리적·기술적 위험을 예방하기 위해 과기정통부와 TTA가 운영하는 민간 자율 인증 제도로 국제 표준(ISO/IEC 23894)을 기반으로 AI 모델의 거버넌스와 투명성 및 책무성 등을 종합적으로 검증한다. ‘믿:음 K 2.0 베이스’는 115억(11.5B) 파라미터 규모의 오픈소스 언어모델로 한국어 데이터 학습을 통해 국내 언어 환경과 문화적 맥락에 최적화된 것이 특징이다. 분류와 요약 및 생성 등 다양한 자연어 처리 과업에서 우수한 성능을 발휘하며 AI 안전성 벤치마크인 ‘코다크벤치(KoDarkBench)’ 평가 1위와 한국어 LLM 성능 평가 ‘호랑이(Horangi)’ 리더보드 1위를 기록해 기술력을 인정받았다. TTA는 이번 심사에서 KT의 위험관리 체계와 운영 프로세스를 집중 점검했다. 학습 데이터 필터링과 모델 레드티밍을 통한 취약점 보완 등 개발부터 운영 전 과정에서 잠재적 위험을 식별하고 관리하는 내부 거버넌스가 체계적으로 작동하고 있음을 확인했다. 배순민 KT AI 퓨처 랩장은 “AI 기본법 시행을 앞두고 책임 있는 AI 개발 역량을 객관적으로 검증받았다”며 “앞으로도 신뢰할 수 있는 AI 기술로 국내 산업 생태계의 건전한 성장에 기여하겠다”고 말했다. 손승현 TTA 회장은 “생성형 AI의 핵심인 LLM에 대한 신뢰성 확보는 기업의 책임 있는 AI 활용과 이용자의 불안 해소를 위한 중요한 기반이며, 이번 인증을 통해 기업은 AI 위험을 체계적으로 관리하고 이용자는 보다 안심하고 생성형 AI 서비스를 이용할 수 있을 것으로 기대한다”고 밝혔다.
2025-12-23 10:03:05
처음
이전
1
다음
끝
많이 본 뉴스
1
넥슨 '메이플키우기', 확률·잠수함 패치 논란…회복되는 넥슨 신뢰 '흔들'
2
넥슨, '메이플키우기' 어빌리티 오류 무공지 대처… 강대현·김정욱 공동 대표 사과
3
대한항공 등 한진그룹 5개 항공사, 26일부터 기내 보조배터리 '사용 금지'
4
삼성·SK, 29일 동시 실적발표... 'HBM4' 주도권 놓고 정면 승부
5
인라이플, AI 광고 플랫폼 '모비온 4.0' 출시... "데이터 가독성 혁신"
6
AI 안경, 스마트폰 이후를 노리다…번역·비서·검색 품은 차세대 웨어러블
7
SK하이닉스, 장중 '80만원' 돌파... MS '마이아 200' 단독 공급 호재
8
2000조원 몸값 스페이스X IPO 임박설…국내 산업도 촉각
영상
Youtube 바로가기
오피니언
[편집인 칼럼] 군을 정리하는 권력, 권력을 준비하는 군