이코노믹데일리 - 정확한 뉴스와 깊이 있는 분석
금융
산업
생활경제
IT
ESG
건설
국제
전체기사
검색
패밀리 사이트
아주경제
아주일보
회원서비스
로그인
회원가입
지면보기
네이버블로그
검색
검색 버튼
검색
'H200'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
4
건
테슬라, 오스틴 본사에 'AI 개발용' 슈퍼컴퓨터 센터 구축
일론 머스크 테슬라 최고경영자 [로이터 연합뉴스] [이코노믹데일리] 일론 머스크 테슬라 최고경영자(CEO)가 미국 텍사스주 오스틴 테슬라 본사에 구축 중인 인공지능(AI) 기술 개발용 슈퍼컴퓨터 센터의 내부를 공개했다. 이는 테슬라의 AI 기술 개발에 대한 강한 의지를 보여주는 것으로 해석된다. 머스크는 26일(현지시간) 자신의 엑스(X) 계정을 통해 "오스틴의 테슬라 본사에 지어지고 있는 거대한 AI 훈련용 슈퍼클러스터인 코르텍스(Cortex) 내부를 오늘 찍은 영상"이라며 데이터센터 형태의 대규모 컴퓨팅 시설 모습을 담은 영상을 게시했다. 그는 이 시설이 "현실 세계의 AI를 풀어낼 것"이라고 덧붙였다. 공개된 영상에서는 광활한 공간에 서버 랙이 층층이 쌓여 있는 모습이 확인된다. 이는 테슬라가 AI 기술 개발에 얼마나 큰 규모의 투자를 하고 있는지를 단적으로 보여준다. 테슬라의 이러한 움직임은 완전자율주행 소프트웨어 'FSD'와 휴머노이드 로봇 '옵티머스'의 성능 향상을 위한 것으로 보인다. 이를 위해 테슬라는 오스틴 본사의 기가 텍사스 핵심 건물을 확장하고, 대규모 냉각 시스템도 별도로 구축 중인 것으로 알려졌다. 머스크는 26일(현지시간) 자신의 소셜미디어 엑스(X) 계정을 통해 "오스틴의 테슬라 본사에 건설 중인 AI 훈련용 슈퍼클러스터 '코르텍스' 내부 모습"이라는 글과 함께 영상을 공개했다. 영상에는 광대한 데이터센터 내에 층층이 쌓여 있는 서버 랙이 포함되어 있으며, 머스크는 이 시설이 "현실 세계의 AI를 풀어낼 것"이라고 설명했다. 머스크는 지난 6월에도 엑스(X)에서 "테슬라가 올해 엔비디아 제품 구매에 30억∼40억 달러(약 4조∼5조 3천억 원)를 사용할 것으로 예상한다"고 밝혔다. 그는 이 슈퍼클러스터에 엔비디아의 최신 H100과 H200 GPU를 총 10만 개가량 탑재할 계획이라고 언급했다. 이번 슈퍼컴퓨터 센터 구축은 테슬라가 AI 기술 개발에 얼마나 큰 비중을 두고 있는지를 보여주는 동시에, 자율주행 및 로봇 기술 분야에서의 경쟁력 확보를 위한 전략적 움직임으로 해석된다.
2024-08-27 08:33:00
SK텔레콤, 람다와 협력해 국내 최대 규모 AI 데이터센터 구축
[이코노믹데일리] SK텔레콤이 미국의 GPUaaS(GPU-as-a-Service) 기업 람다(Lambda)와 손잡고 서울에 AI 데이터센터를 연다. SK텔레콤은 람다가 보유한 엔비디아의 최신 GPU 자원을 SK브로드밴드의 서울 가산 데이터센터에 배치할 예정이며, 향후 3년 안에 GPU 수천 대를 추가로 도입할 계획이다. SK텔레콤은 21일 람다와 AI 클라우드 공동 사업을 위한 파트너십을 체결했다고 밝혔다. 이번 협력을 통해 양사는 안정적인 GPU 공급 기반을 마련하고, GPUaaS 사업을 확대하는 등 다양한 전략적 협력을 강화할 예정이다. 특히 아시아태평양 지역 최초로 람다의 한국 리전도 개소되어, 국내 기업들이 람다의 GPU 기반 AI 클라우드 서비스를 안전하게 이용할 수 있게 된다. 오는 12월, SK텔레콤과 람다는 서울 금천구 가산동의 SK브로드밴드 데이터센터에 엔비디아 GPU 'H100'을 배치할 예정이다. SK텔레콤은 향후 3년 내에 GPU 수천 대를 추가로 도입하고 'H200' 모델도 조기 도입할 계획이다. 이를 통해 국내 최대 규모의 'GPU Farm'을 구축할 목표다. SK브로드밴드는 데이터센터 운영 노하우를 활용해 고밀도 GPU 서버 운영에 최적화된 코로케이션 환경을 제공할 예정이다. 특히 데이터센터의 랙 당 전력밀도를 국내 최고 수준인 44kW로 설정해 안정적인 GPU 서버 운영을 지원할 계획이다. 이와 함께 SK텔레콤은 오는 12월 GPUaaS 서비스를 출시할 예정이다. 이 서비스를 통해 기업들이 AI 서비스 개발이나 활용에 필요한 GPU를 직접 구매하지 않고, 클라우드에서 가상 환경으로 사용할 수 있게 된다. 이는 GPU 구매가 어려운 중소기업과 스타트업에게 AI 서비스 기회를 제공할 것으로 기대된다. 람다의 창업자 겸 CEO인 스티븐 발라반은 “람다와 SKT는 GPU 컴퓨팅 자원을 전기처럼 편리하게 사용 가능한 환경을 만들겠다는 비전을 공유하고 있다”며, “AI 혁신 속도가 빠른 한국에서 AI 클라우드 영역을 성장시키고자 하는 SKT와 협력하게 되어 기쁘게 생각한다”고 말했다. 김경덕 SKT 엔터프라이즈 사업부장은 ”람다와의 전략적 협력으로 GPU를 안정적으로 확보한 것은 국내 GPU 공급 확대 측면에서 의미가 크다”며, “향후 국내 최대 규모의 GPU Farm을 구축해 국가 AI 경쟁력을 높이고, 글로벌 시장 진출의 교두보로 자리매김하도록 노력할 것”이라고 말했다.
2024-08-21 09:23:47
엔비디아에 손 내미는 삼성·SK…AI 협업 '가시화'
[이코노믹데일리] 삼성전자와 SK하이닉스가 인공지능(AI) 업계의 '우드스톡(1969년 열린 록 페스티벌)'으로 불리는 엔비디아의 AI 콘퍼런스 'GTC 2024'에 참석한다. 세계 최대 고객사인 엔비디아에 기술력을 뽐내며 양사의 기술 경쟁이 더욱 치열해질 전망이다. 18일 반도체 업계에 따르면 엔비디아는 18일(현지시간)부터 21일까지 미국 캘리포니아주 새너제이 SAP 센터 등에서 'GTC 2024'를 연다. GTC는 매년 엔비디아가 주최하는 세계 최대 규모 AI 콘퍼런스로, 올해는 코로나19 팬데믹 이후 5년 만에 개최되는 첫 대면 행사다. 젠슨 황 엔비디아 최고경영자(CEO)는 이날 기조연설에서 차세대 그래픽처리장치(GPU) '블랙웰'을 공개했다. 블랙웰은 엔비디아가 2년 전 출시한 호퍼(Hopper) 아키텍처의 후속 기술이다. 황 CEO는 "생성형 AI는 우리 시대를 정의하는 기술"이며 "블랙웰 GPU는 이 새로운 산업 혁명을 구동하는 엔진"이라고 소개했다. 엔비디아는 현재 AI 반도체 시장의 90%를 장악하고 있지만 지나친 고가 논란으로 곤경에 처한 바 있다. 엔비디아는 새 칩 공개에 그치지 않고 반도체가 제 성능을 발휘하기 위한 다양한 장치와 소프트웨어도 함께 공개했다. 'GB200' 그레이스 블랙웰 슈퍼칩은 두 개의 엔비디아 B200를 엔비디아 그레이스 CPU에 연결한 칩이다. GB200 총 36개를 합쳐 총 72개 GPU를 탑재한 'NVL72 슈퍼팟'도 이날 함께 소개했다. 삼성전자는 지난달 업계 최초로 개발에 성공했다고 발표한 5세대 고대역폭 메모리(HBM)인 HBM3E 12단 제품을 첫 공개했다. HBM3E 12H는 1024개의 입출력 통로에서 초당 최대 10기가비트(Gb) 속도를 지원한다. 초당 1280기가바이트(GB)를 처리할 수 있어 1초에 30GB 용량 UHD 영화 40여편을 업로드 할 수 있는 속도다. 삼성전자는 HBM3E를 올 상반기에 양산할 예정이다. 이 제품은 엔비디아의 차세대 AI 칩인 H200, B100 등에 탑재된다. SK하이닉스도 HBM3와 HBM3E 등을 중점 소개한다. 이날 SK하이닉스는 초고성능 AI용 메모리 신제품인 HBM3E를 세계 최초로 양산해 3월 말부터 제품 공급을 시작한다고 발표했다. SK하이닉스의 HBM3E는 엔비디아의 차세대 GPU에 탑재된다. AI 산업 성장이 당분간 꺾이지 않을 것이라는 전망이 우세해지면서 엔비디아를 고객사로 둔 삼성전자와 SK하이닉스의 물밑 작업이 이어지고 있다는 평가다. 양사는 모두 나란히 최신 HBM을 선보이며 기술력 과시에 나섰다. 이번 전시에서 삼성·SK는 엔비디아에 협업하는 방안을 논의할 것으로 관측된다.
2024-03-19 17:26:13
SK하이닉스, HBM3E 세계 첫 양산…'1위 굳히기' 들어간다
[이코노믹데일리] SK하이닉스가 메모리 업체 중 가장 먼저 고대역폭 메모리(HBM) 5세대인 HBM3E D램을 인공지능(AI) 반도체 시장의 '큰 손' 고객인 엔비디아에 납품한다. SK하이닉스는 AI용 메모리 신제품인 HBM3E를 세계 최초로 양산해 이달 말부터 고객사에 제품 공급을 시작한다고 19일 밝혔다. 이는 SK하이닉스가 지난해 8월 HBM3E 개발을 알린 지 7개월 만이다. HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치·고성능 제품으로, 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발되고 있다. HBM3E는 HBM3의 확장 버전이다. SK하이닉스는 "당사는 HBM3에 이어 현존 D램 최고 성능이 구현된 HBM3E 역시 가장 먼저 고객에게 공급하게 됐다"며 "HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁우위를 이어가겠다"고 밝혔다. 앞서 미국 마이크론은 지난달 26일(현지시간) 올해 2분기 출시 예정인 엔비디아의 H200 그래픽처리장치(GPU)에 탑재될 HBM3E(24GB 8단) 양산을 시작했다고 발표한 바 있다. 다만 실제 납품을 위한 대량 양산은 SK하이닉스가 처음이다. SK하이닉스는 HBM3에 이어 HBM3E도 세계 최초로 대규모 양산에 돌입하며 HBM 시장 주도권을 굳힌다는 계획이다. SK하이닉스의 HBM3E는 초당 최대 1.18테라바이트(TB)의 데이터를 처리하며 이는 풀HD급 영화(5GB) 230편 분량이 넘는 데이터를 1초 만에 처리하는 것으로, AI 메모리에 요구되는 속도와 발열 제어 등의 성능을 갖췄다. SK하이닉스는 신제품에 어드밴스드 MR-MUF 공정을 적용해 열 방출 성능을 이전 세대 대비 10% 향상시켰다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고 굳히는 공정이다. 류성수 SK하이닉스 부사장은 "이번 세계 최초 HBM3E 양산을 통해 AI 메모리 업계를 선도하는 제품 라인업을 한층 강화했다"며 "그동안 축적해온 성공적인 HBM 비즈니스 경험을 토대로 고객관계를 탄탄히 하면서 '토털 AI 메모리 프로바이더'로서의 위상을 굳혀 나가겠다"고 말했다.
2024-03-19 13:44:31
처음
이전
1
다음
끝
많이 본 뉴스
1
[단독] 빗썸, 24시간 디지털 자산 출금 제한 해제...이용자 보호법 시행령 따른 조치
2
[ED포토] 추석 저녁 서울에 떠오른 슈퍼문
3
친환경 선박에서 빠르게 추격해 오는 중국 조선사들…수소 인프라 세계 1위
4
현대차·GM 공동개발·생산 발표…"기회지만 섣부른 판단 말아야"
5
보험도 AI 시대…빠르고 편하게 '맞춤 가입'
6
귀성길 알려주는 티맵, 스타벅스로 안내한다…단순 내비게이션 시대는 '끝'
7
[김아령의 주간 유통가] 제일제당·컬리 식품 공동기획, 롯데 '새로' 4억병 돌파
8
한국이 신경써야 할 수출 무대 '비셰그라드 4국'
영상
Youtube 바로가기
오피니언
[기자수첩] 우리금융 부당 대출 지적하면서, 감독 실패엔 모르쇠 '이복현'