
[이코노믹데일리] 울산과학기술원(UNIST) 연구진이 텍스트 입력만으로 사진·영상의 조명 효과를 조정할 수 있는 인공지능(AI) 기술을 개발했다.
백승렬 UNIST 인공지능대학원 교수팀은 23일 AI 모델 '텍스트투리라이트'(Text2Relight)를 공개했다. 이 모델은 자연어 명령을 기반으로 인물 사진과 영상의 조명 효과를 자유롭게 변경할 수 있다.
이번 연구는 어도비(Adobe)와 과학기술정보통신부의 지원을 받았으며 AI 분야 3대 학회 중 하나인 '전미인공지능학회'(AAAI)에 채택됐다. 연구팀은 오는 25일부터 미국 필라델피아에서 열리는 2025년 정기 학회에서 연구 결과를 발표할 예정이다.
'텍스트투리라이트'는 창의적인 자연어 명령을 통해 색감, 밝기, 감정적 분위기 등 다양한 조명 특성을 표현할 수 있는 것이 특징이다.
특히 복잡한 편집 도구 없이도 △"따끈따끈한 치킨" △"차가운 푸른 빛" 등 감성적인 언어 표현을 활용해 조명을 조절할 수 있다. 또한 원본 이미지를 왜곡하지 않으면서도 인물과 배경의 색감을 동시에 보정할 수 있다.
기존 텍스트 기반 이미지 편집 AI 모델은 조명 데이터에 특화되지 않아 기능이 제한적이거나 원본 이미지를 왜곡하는 문제가 있었다.

이에 UNIST 연구팀은 AI가 창의적인 텍스트와 조명 간의 상관관계를 학습할 수 있도록 대규모 합성 데이터 세트를 구축했다.
챗GPT와 텍스트 기반 확산 모델을 활용해 조명 데이터를 생성하고 △단일 광원 기법인 'OLAT' △'라이트닝 트랜스퍼'(Lighting Transfer) 등을 적용해 다양한 조명 조건을 학습시켰다.
또한 그림자 제거, 조명 위치 조정 등 보조 학습 데이터를 추가로 훈련해 시각적 일관성과 조명의 현실감을 강화했다.
백승렬 교수는 "텍스트투리라이트 기술은 사진 및 영상 편집 작업의 시간을 단축하고 가상·증강현실 콘텐츠의 몰입감을 높이는 등 다양한 콘텐츠 산업에서 큰 잠재력을 지닌다"고 말했다.