검색결과 총 9건
-
-
kt cloud, AI Train과 AI SERV NPU 출시 기념 웨비나 27일 개최
[이코노믹데일리] kt cloud는 27일, AI Train과 AI SERV NPU 출시를 기념하여 'kt cloud AI 인프라 소개'와 'AI Train, AI SERV NPU 활용 sLLM(소형언어모델) 데모 시연' 두 가지 주제로 온라인 웨비나를 개최한다고 밝혔다. 이번 웨비나는 AI 활용에 필요한 방대한 양의 데이터를 저장하고 관리하는 데 있어 중요한 역할을 하는 AI 인프라에 대한 관심이 높아지고 있는 가운데 진행된다. 특히, 최근 생성형 AI, 딥러닝 등 AI 기술의 도입 확산으로 인해 AI 인프라에 대한 수요가 급증하고 있으며, 이에 따라 기업들은 경제적이고 효율적인 AI 인프라 구축을 위해 고민하고 있다. kt cloud는 이러한 시장 상황을 반영하여 지난 5월 AI 기술 개발에 필요한 AI 인프라를 경제적으로 활용 가능한 학습 전용 상품 'AI Train'과 추론 전용 상품 'AI SERV NPU'를 출시했다. AI Train은 대규모 GPU 클러스터링을 제공하는 엔비디아 GPU 기반 학습 전용 인프라로, H100, A100, V100 등 고객 니즈에 맞춰 맞춤형 서비스를 제공한다. AI SERV NPU는 리벨리온과 협업한 추론 전용 인프라로, 기존 GPU 기반 추론용 인프라 대비 가성비를 높이고 자동화 유지보수 및 스케일링 기능을 갖췄다. 이번 웨비나는 두 가지 세션으로 진행된다. 첫 번째 세션인 'kt cloud AI 인프라 소개'에서는 kt cloud 부대권 AI기술팀 매니저가 연사로 나서 kt cloud AI 상품 라인업, 신규 출시된 AI Train과 AI SERV NPU의 차별점, 실증 사례 등을 소개한다. 두 번째 세션인 'AI Train, AI SERV NPU 활용 sLLM 데모 시연'에서는 AI Train과 AI SERV NPU를 활용한 sLLM 시연이 진행된다. 이번 웨비나는 kt cloud 포털에서 누구나 무료로 신청할 수 있으며, 신청자들에게는 웨비나 당일 이메일과 휴대폰으로 접속 링크가 전달된다. 또한, 사전 등록 이벤트에 참여하는 신청자들에게는 추첨을 통해 소정의 상품도 제공된다. 남충범 kt cloud 본부장은 "생성형 AI, 딥러닝 등 AI 기술이 다양한 산업에서 도입되면서 AI 인프라에 대한 수요가 증가하고 있다"며 "kt cloud는 엔비디아 및 비(Non) 엔비디아, 학습 및 추론용 AI 인프라 상품 라인업을 모두 갖추고 있는 만큼, 고객 니즈에 따라 AI 인프라를 경제적으로 사용하면서 AI 기술이 발전할 수 있도록 적극 지원하겠다"고 밝혔다.
2024-06-25 09:47:59
-
-
-
카카오클라우드, TOP500 슈퍼컴퓨터 순위 44위·70위 진입…국내 최초·유일 클라우드 업체
[이코노믹데일리] 카카오엔터프라이즈(대표이사 이경진)는 지난 12일 독일에서 개최된 국제 슈퍼컴퓨팅 컨퍼런스(ISC)에서 발표한 전 세계 슈퍼컴퓨터 순위 TOP500에서 44위와 70위를 기록했다고 밝혔다. 이는 국내 클라우드 업체로는 최초이자 유일한 기록이다. 전 세계 슈퍼컴퓨터 순위 집계로 널리 알려진 TOP500.org는 1993년 독일과 미국의 대학교수들이 주축이 되어 시작된 프로젝트로 매년 6월 독일(ISC)과 11월 미국(ACM/IEEE Supercomputing Conference)에서 전 세계에서 가장 강력한 슈퍼컴퓨터 500대 순위를 발표한다. 카카오클라우드는 올해 처음으로 TOP500에 진출하며 100위권 내에 2종의 슈퍼컴퓨터가 랭크되는 기염을 토했다. 44위를 기록한 AMD EPYC, A100 GPU, Infiniband 구성의 카카오클라우드는 21.21PFlops, 70위를 기록한 XEON Platinum, A100 GPU, Infiniband 구성의 카카오클라우드는 15.94PFlops를 기록했다. 44위를 기록한 카카오클라우드는 21.21페타플롭스(PFlops)로 측정되었는데, 이는 1초에 2.1경 번 연산이라는 천문학적 처리량을 나타낸다. 쉽게 표현하자면 일반적인 PC 212만 대가 동시에 연산하는 것과 같다는 설명이다. 카카오클라우드의 놀라운 성능은 처리량이 높다는 것보다 뛰어난 클러스터링(Clustering) 최적화에 있다. 처리량(FLOPS)을 높이기 위해선 CPU/GPU core를 늘리는 것이 일반적이지만 그만큼 비용 또한 비례해 증가하는 것이 단점이다. 카카오클라우드는 클러스터링 및 최적화 기술, 고도화된 아키텍처를 통해 단점을 해결했다. 그 결과 44위를 기록한 카카오클라우드는 160,704 core로 순위권 내 16만 대 core를 가진 슈퍼컴퓨터 중 유일하게 20PFlops를 넘겨 동급 1위를 나타냈다. 또한, 70위를 기록한 카카오클라우드는 115,072 core로 순위권 내 11만 대 core를 가진 슈퍼컴퓨터 중 유일하게 10PFlops를 넘겨 역시 동급 1위를 차지했다. 이러한 카카오클라우드의 여러 기록 중 유독 눈에 띄는 점은 효율성(Efficiency) 지표이다. 44위의 카카오클라우드 효율성은 89.7%, 70위의 카카오클라우드 효율성은 89.5%를 기록했다. 순위권 내 국내 13개 슈퍼컴퓨터가 기록한 80.9%, 70.3% 등의 효율성에 비해 큰 격차를 보이며, 가성비와 완성도 측면에서 최고 수준으로 평가됐다. 카카오엔터프라이즈는 앞으로도 슈퍼컴퓨터 기술 개발에 투자를 지속할 계획이다. 또한, 국내외 기업과의 협력을 통해 슈퍼컴퓨터 기반 솔루션을 개발하고 사업화해 나갈 예정이다.
2024-05-28 15:54:43
-
-
"엔비디아 뛰어넘자"…글로벌 '합종연횡'에 우려 '한가득'
[이코노믹데일리] 최근 빅테크 기업들의 움직임이 심상치 않다. 소위 '연합군'을 형성하면서 어제의 경쟁자가 오늘의 동지가 되고 있다. 연합의 기폭제가 된 건 인공지능(AI) 생태계 '최강자'로 불리는 엔비디아다. 현재 연합 전선을 이끄는 중심엔 인텔, 구글, 퀄컴, 삼성 등 글로벌 대기업이 있다. 이들은 엔비디아의 그래픽처리장치(GPU)와 자사 인공지AI 소프트웨어 '쿠다(CUDA)' 간 관계처럼, 각자 보유한 하드웨어와 상부상조할 수 있는 소프트웨어를 구축하기 위해 힘을 합쳤다. 폐쇄적인 엔비디아의 쿠다와 차별화하기 위해 반도체 칩과 하드웨어에 상관없이 어떤 기계에서나 작동하도록 오픈소스 형태를 취했다. 오픈소스 소프트웨어는 어떠한 하드웨어에서든 작동할 수 있고 누구에게나 공개된다. 지난 3월 로이터 통신은 인텔, 구글, 퀄컴, 삼성전자, ARM 등이 반(反) 엔비디아 연합 전선을 형성했다고 밝혔다. 이들은 AI 애플리케이션(앱) 개발을 위해 오픈소스 소프트웨어 구축에 나선다고 했다. 이날 발표를 위해 지난해 9월 기술 컨소시엄 통합가속재단(UXL)을 세우기도 했다. 해당 소프트웨어가 모든 칩이나 하드웨어에 배포될 수 있도록 칩 제조사는 물론 마이크로소프트나 아마존 등 클라우드 컴퓨팅 회사의 동참도 요청하겠다는 계획도 전했다. 인텔은 UXL재단과 별도로 지난달 오픈소스 소프트웨어 개발도 선언했다. 동행에 나선 건 네이버다. 지난달 인텔은 네이버 자회사인 네이버클라우드와 AI칩 소프트웨어 생태계 구축을 위한 공동연구 업무협약을 체결했다. 이에 따라 네이버는 인텔의 AI칩 '가우디2'로 SW를 개발할 계획이다. 시장에선 인텔의 가우디가 수천만원을 호가하는 엔비디아 제품에 비해 훨씬 저렴한 걸로 예상하고 있다. 저가의 반도체 칩, 오픈소스 형태의 소프트웨어로 엔비디아의 독주를 막겠다는 게 인텔의 전략이다. 오픈소스 형태의 반도체 칩 설계 규칙인 '리스크 파이브(RISC-V)'를 중심으로 한 소프트웨어 연합 생태계도 위협적이다. 세계 반도체 시장에서 공공재처럼 이용되면서 영역을 확장 중인 RISC-V는 자체 소프트웨어 개발을 위해 연합체 '라이즈(RISE)'를 구축했다. RISC-V 인터내셔널, 구글, 인텔, 퀄컴이 속한 이 연합체도 오픈소스 형태의 소프트웨어 개발에 나섰다. 이 같은 연합 움직임을 두고 회의적 시각도 적지 않다. 일단 굳건하게 자리잡은 엔비디아 생태계를 허물기란 쉽지 않다는 게 반도체 업계의 일반적인 의견이다. AMD 'ROCm'의 실패 수순을 밟을 거라는 주장도 제기된다. AMD는 중앙처리장치(CPU) 분야에서 인텔과 견주는 반도체 기업이자, GPU 분야에서 엔비디아의 유일한 경쟁자다. ROCm은 그런 AMD가 만든 AI 소프트웨어로 엔비디아 쿠다와 같은 역할을 한다. 2016년 AMD는 ROCm을 오픈소스로 공개했지만 시장의 외면을 받았다. 당시 GPU 시장에서 AMD 점유율은 10% 내외로 사용자층이 얇았다. 개발자 입장에선 쿠다를 떠나 ROCm을 적극적으로 사용할 뚜렷한 장점을 찾기 어려웠다. 전문가들조차 개발자들이 쿠다에서 이탈할 가능성은 거의 없다고 지적한다. 김양팽 산업연구원 전문연구원은 "이전부터 쿠다를 사용하는 개발자가 워낙 많기 때문에 이탈하기 쉽지 않다"고 말했다. 유회준 카이스트 반도체시스템공학과 교수도 "쿠다 같은 AI 소프트웨어는 언어와 같다. 영어를 쓰는 사람에게 한국어가 더 편리하니 한국어를 쓰라고 말해봤자 소용없는 것과 같은 의미"라며 "같은 GPU를 만든다면 개발자들이 엔비디아에서 이탈하지 않을 거라 보인다"고 말했다. 여기에 경쟁사이자 고객사인 엔비디아와 '대항'한다는 여론이 형성되는 게 부담으로 작용할 수도 있다. 삼성전자와 SK하이닉스의 경우 엔비디아에 고대역폭메모리(HBM)를 공급하고 있다. 엔비디아의 주력 AI칩인 H100, A100 등은 거대한 데이터를 처리하기 위해 빠른 저장장치(메모리)를 써야 하는데 이를 담당하는 게 HBM이다. 시장조사기관 트렌드포스는 지난해 삼성전자와 SK하이닉스의 HBM 시장 점유율 합계를 91%라고 분석했다. 특히 SK하이닉스 입장에선 '큰 손' 고객인 엔비디아에 반해 연합에 참여할 이유가 없다. 시장조사업체 세미애널리시스에 따르면 올해 기준 SK하이닉스의 HBM 시장 점유율은 약 73%다. 엔비디아의 대량 구매가 올해 1분기 매출이 흑자에 도움을 줬다는 평가도 나온다. 이미 엔비디아의 핵심 공급사로 위치를 굳혔는데 반대편에 설 이유가 없다는 해석이 나온다. 삼성전자도 다르지 않다. SK하이닉스와 HBM 분야에서 기술 경쟁을 벌이는 삼성전자로선 엔비디아에 대항하는 연합전선에 참가할 경우 HBM 시장 점유율을 늘리려는 전략과 충돌할 수 있다. 삼성전자 관계자는 "엔비디아도 우리의 고객사이이기 때문에 대항하는 모양새를 취하기 어렵다"라고 말했다.
2024-05-14 06:00:00
-
광주 AI데이터센터, 엔비디아 H100 탑재 국가 AI 데이터센터로 부각
[이코노믹데일리] 최근 그래픽처리장치(GPU) 품귀현상이 전세계적으로 어려움을 겪고 있는 상황에 인공지능 기업과 기관에 광주 국가인공지능(AI)데이터센터가 단비가 되고 있다. 광주광역시는 엔비디아 최신 GPU 'H100'을 탑재한 국가 AI 데이터센터를 적극 지원하며 '인공지능 중심도시'로서의 입지를 강화하고 있으며, NHN클라우드 또한 '엔비디아 H100' 탑재 국가 AI 데이터센터 정식 운영을 시작하며 국내 AI 역량 강화에 기여하고 있다. 광주시에 따르면 지난해 11월부터 서비스를 시작한 국가 AI 데이터센터는 총연산 능력 88.5페타플롭스(PF·1초당 1천조번 연산 처리), 저장 용량 107페타바이트(PB) 규모의 인프라를 갖추고 있다. 또한, '엔비디아 H100', '엔비디아 A100', '그래프코어 BOW' 등 고성능 AI 가속기를 제공해 짧은 시간 내에 방대한 데이터의 데이터 처리를 지원한다. 현재 국내 인공지능 기업, 공공기관, 대학 등 총 742건의 과제를 무상 지원하고 있다. 특히 국가 AI 데이터센터는 전체 가속기의 3분의 2를 엔비디아의 최신 GPU인 'H100'으로 구성했다. 'H100'을 이용해 서비스를 제공하는 것은 아시아 최초이며, 이는 광주시의 인공지능산업 육성에 대한 의지를 보여주는 대표적인 사례다. NHN클라우드는 지난 2021년 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 클라우드 인프라 구축 및 운영 사업자로 선정된 후 2년간의 건축 및 데이터센터 구축을 거쳐 지난 4월 시범 운영에 들어갔고, 지난달 정식 운영을 시작했다. 폭발적인 GPU 수요에 대한 해결책으로 광주시는 오는 7월부터 대형 AI 모델과 생성형 AI 개발 등을 본격적으로 지원하기 위해 'H100'으로만 구성된 20페타플롭스(PF) 규모의 초고성능 컴퓨팅 지원(HPC) 서비스를 갖춰 초거대 AI 맞춤형 대형 과제도 지원할 예정이다. 광주광역시는 엔비디아 최신 GPU 'H100'을 탑재한 국가 AI 데이터센터를 적극 지원하며 '인공지능 중심도시'로서의 입지를 강화하고 있으며, NHN클라우드 또한 '엔비디아 H100' 탑재 국가 AI 데이터센터 정식 운영을 시작하며 국내 AI 역량 강화에 기여하고 있다. 국가 AI 데이터센터는 단순히 인공지능 연구개발을 지원하는 것뿐만 아니라, 인공지능 관련 기업 유치 및 투자 확대에도 기여할 것으로 예상된다. 실제로 광주시는 데이터센터 개설 이후 인공지능 관련 기업들의 입주가 늘어나고 있으며, 투자 규모도 확대되고 있다. 김용승 광주시 인공지능산업실장은 "국가 AI 데이터센터는 광주를 인공지능산업의 중심지로 성장시키는 데 중요한 역할을 할 것"이라며 "앞으로도 데이터센터를 적극 활용하여 인공지능산업 성장을 촉진하고, 지역경제 활성화에도 기여하도록 노력하겠다"고 말했다. 광주시의 적극적인 노력과 투자를 통해 국가 AI 데이터센터는 '인공지능 중심도시' 광주 발전의 핵심 동력이 될 것으로 기대된다.
2024-05-12 12:36:14
-