글로벌 AI(인공지능) 칩 시장에서 구글 '텐서처리장치(TPU)'이 부상하고 있다. / 사진=로이터
구글이 자체 AI(인공지능) 가속기인 TPU(텐서처리장치) '아이언우드'로 AI 인프라 시장에 도전장을 내밀면서 고대역폭메모리(HBM) 수요가 더욱 증가할 것이란 기대감이 커진다. 이에 따라 대규모 캐파(생산능력)을 갖춘 삼성전자와 SK하이닉스가 수혜를 볼 것이라는 관측이다.
2일 업계에 따르면 구글이 TPU를 기반으로 개발한 거대언어모델(LLM) 제미나이 3.0의 성능이 호평을 받으면서 엔비디아가 독식하고 있는 AI 칩 시장이 재편될 조짐을 보이고 있다.

TPU는 범용으로 활용할 수 있는 그래픽처리장치(GPU)와 다르게 AI 연산(행렬 곱셈)에 특화된 칩(ASIC)이다. 구글이 AI를 구동하기 위해 미국 반도체 팹리스(설계 업체) 브로드컴과 함께 개발했으며 엔비디아의 GPU 없이도 동일하거나 그 이상의 AI 성능을 끌어낼 수 있다. 동일한 연산을 수행할 때 엔비디아의 주력 GPU 'H100' 대비 최대 80%의 비용이 절감되는 것으로 평가 받는다.

메타가 2027년 구글의 TPU를 수십억달러 규모로 도입해 데이터센터를 구축하는 방안을 검토 중이라는 외신 보도가 나오면서 엔비디아의 GPU와 함께 AI 칩 시장 규모가 전반적으로 커질 것으로 예상된다.


TPU 한 개에 6∼8개의 HBM이 탑재되는 것으로 알려졌다. 이에 따라 GPU와 함께 HBM의 수요처가 크게 확대될 것이란 기대감이 커진다.

AI 칩 시장의 확대는 삼성전자와 SK하이닉스의 성장성을 가속화하는 기회가 될 전망이다. 엔비디아와 이미 대규모 GPU 공급 협력을 약속한 상황에서 TPU를 통해 새로운 성장축을 확보할 수 있기 때문이다.

시장조사 업체 카운터포인트리서치에 따르면 올해 2분기 기준 HBM 시장 점유율은 SK하이닉스가 64%로 압도적인 1위를 차지하고 있으며 미국 마이크론(21%)과 삼성전자(15%)가 뒤를 쫓고 있다.


이런 상황에서 TPU의 등장으로 HBM 시장에서의 대대적인 변화가 예상된다. 마이크론과 달리 삼성전자와 SK하이닉스의 캐파가 월등히 높다. HSBC에 따르면 올해 말 기준 SK하이닉스와 삼성전자의 월 HBM 생산 능력은 각각 16만장과 15만장이다. 반면 마이크론은 5만5000장에 그친다.

캐파가 클 수록 늘어나는 새로운 수요처의 주문에 적기 대응할 수 있기 때문에 HBM 시장에서 마이크론이 뒤로 밀리고 삼성전자와 SK하이닉스가 격차를 벌릴 것이란 관측이다. 한국투자증권은 올해 구글 TPU 내 HBM 공급 비중을 SK하이닉스 56.6%, 삼성전자 43.4%로 추정했다.

그동안 HBM 시장에서 한발 뒤처진 것으로 평가받던 삼성전자가 역전의 발판을 마련할 수 있을 것으로 기대된다. 김동원 KB증권 연구원은 삼성전자를 구글 TPU 수혜의 최선호주로 꼽으며 "삼성전자 메모리 공급 확대, 선단 공정 파운드리 가동률 상승, 제미나이 AI에 따른 갤럭시 판매 증가 등으로 수혜 폭 확대 가능성이 커지고 있다"고 분석했다.