곽민정 현대차증권 연구원은 "최근 인공지능(AI) 반도체 시장은 AI 연산장치와 메모리간 물리적 거리를 좁히고 대역폭을 넓혀 데이터를 빠르게 주고받을 수 있는 특성이 강조되면서, 서버에서 온디바이스까지 시장이 확대되고 있다"고 말했다.
AI 서버 내 그래픽처리장치(GPU)가 고대역폭메모리(HBM)와 데이터를 주고 받으며 AI 연산을 수행하는 것처럼 온디바이스 역시 HBM에 상응하는 메모리가 필요하다는 게 곽 연구원의 설명이다.
곽 연구원은 또 "기존엔 중앙처리장치(CPU) 내에 GPU가 들어가 구동되다 보니 처리 속도가 늦고 서버로 전송되는 과정에서 문제가 발생된다"며 "이런 문제를 해결하기 위해 칩 안의 CPU와 GPU를 분리하고 HBM을 적용해 상호접속솔루션인 인터커넥트 구현을 위한 입출력(I/O) 다이(Die)를 적용하는 설계 방식을 기반으로 TSMC 시스템온IC(SoIC) 공정이 적용될 예정"이라고 설명했다.
그러면서 "결과적으로 기존 데이터센터용 서버 시장인 B2B에서 모바일용 HBM인 B2C로 시장에 변화가 일어나면서 듀얼본더, 마일드 하이브리드 본더, 하이브리드 본더는 물론 2.5D 빅 다이 본더까지 한미반도체의 장비가 주력 제품이 될 가능성이 높다"고 분석했다.