
AI 산업의 핵심 인프라로 불리는 ‘AI 데이터센터’가 글로벌 투자 키워드로 떠오르고 있다. 최근 샘 올트먼 오픈AI CEO가 한국을 방문해 ‘스타게이트’ 프로젝트에 대한 관심이 커진 가운데 이달 열릴 APEC(아시아태평양경제협력체) 정상회의에서도 AI 인프라 협력 논의가 재점화될 전망이다.
12일 업계에 따르면 AI 데이터센터는 AI 산업이 발전하기 위해 필수적으로 AI 모델을 개발하고 운영하는 데 필요한 고성능 IT 인프라를 갖춘 시설이다. 겉보기에는 일반 데이터센터와 비슷하지만 내부는 완전히 다르다.
기존 데이터센터가 문서 저장, 웹 트래픽 처리, 클라우드 서비스 운영이 주 목적이라면 AI 데이터센터는 ‘연산 괴물’ 수준의 GPU(그래픽처리장치)와 초고속 네트워크, 대용량 메모리, 효율적인 첨단 냉각 시스템으로 이뤄진다.
예를 들어 챗GPT 같은 대규모 언어모델(LLM)을 학습하려면 수천억 개의 문장을 연산해야 한다. 이를 위해서는 일반 CPU(중앙처리장치) 대신 병렬 연산에 특화된 GPU, TPU(텐서처리장치) 같은 AI 전용 가속기 칩이 필수다.
데이터를 담는 스토리지도 기존 하드디스크 대신 NVMe SSD, HBM(고대역폭 메모리) 등 초고속 장비가 사용된다. 이런 고성능 시스템은 막대한 전력과 냉각 비용을 요구하기 때문에 설계 단계부터 ‘전력 관리’와 ‘열 효율’이 핵심 과제다. 기존 데이터센터가 공기 냉각 위주였다면 AI 데이터센터는 액체 냉각 등 첨단 냉각 기술을 필요로 한다.
AI 데이터센터는 막대한 전력을 소비하는 산업으로 꼽힌다. 골드만삭스는 2030년까지 데이터센터의 전력 수요가 165% 늘어날 것으로 내다봤다. 특히 AI 연산용 GPU가 늘어날수록 전력 소모량이 폭증한다. 이에 기업들은 에너지 효율을 높이기 위해 액체 냉각을 적용하거나 재생에너지 전환을 서두르고 있다. 마이크로소프트와 메타는 ‘탄소중립형 데이터센터’ 프로젝트를 추진 중이다.
국내 기업들도 AI 데이터센터 관련 기술과 솔루션을 선보이고 있다. LG전자는 최근 싱가포르에서 열린 ‘데이터센터 월드 아시아 2025’에 참가해 칩 직접 냉각(DTC) 방식의 냉각수 분배 장치(CDU)와 냉각판(콜드 플레이트), 컴퓨터룸 공기 처리 장치(CRAH), 직류(DC) 기반 냉각 솔루션 등을 공개했다.
삼성전자는 HBM(고대역폭 메모리)과 AI용 SSD를 중심으로 글로벌 AI 서버 시장 공략에 나섰으며 SK하이닉스는 ‘HBM4’ 생산라인 증설을 통해 AI 반도체 수요에 대응 중이다.
특히 오픈AI가 주도하는 ‘스타게이트’ 프로젝트는 전 세계적으로 AI 학습용 인프라를 통합하려는 시도다. 여기에 삼성전자와 SK하이닉스는 고성능 메모리 반도체를 공급하기로 협약했다. 이달에 열리는 APEC 정상회의에서 이러한 글로벌 AI 인프라 협력 논의가 다시 주목받을 전망이다.
최태원 회장은 최근 오픈AI와 진행한 협력에 대해 “글로벌 AI 인프라 구축을 위한 스타게이트 프로젝트에 SK가 핵심 파트너로 참여하게 됐다”면서 “메모리반도체부터 데이터센터까지 아우르는 인프라 역량을 집중해 AI 경쟁력 강화에 적극 나설 것”이라고 말했다.