4월 9일, CLOVA X가 문을 닫는다. 2023년 8월 출시 이후 약 2년 반 만이다. 같은 달, 네이버 성남 본사에는 리사 수 AMD CEO가 방문해 차세대 GPU 인프라 협력 MOU에 서명했다. 소비자용 AI 챗봇은 접고, GPU 인프라에는 수천억 규모 베팅. 네이버가 지금 어디에 돈을 쓰고 있는지 보면 전략이 보인다.

CLOVA X 종료가 실패는 아닌 이유

"네이버 ChatGPT 접었다"는 식의 해석이 돌고 있는데, 반만 맞다. CLOVA X는 처음부터 HyperCLOVA X 모델의 실험실이었다. 독립 챗봇으로 OpenAI나 Anthropic과 정면 승부가 안 된다는 판단이 선 거고, 방향을 틀었다. AI 브리핑, AI 탭 — 이미 트래픽이 있는 검색 서비스 안에 AI를 녹여 넣는 쪽. 구글이 Bard를 접고 Gemini를 검색에 통합한 흐름과 같은 궤도다.

리사 수가 성남까지 온 이유

3월 18일 MOU의 핵심은 이거다:

  • AMD Instinct MI455X — 칩당 FP4 40 PFLOPS, HBM4 432GB. AMD가 NVIDIA GB300 NVL72에 맞서 내놓은 플래그십

  • 6세대 EPYC "Venice" — 네이버 클라우드 서버 인프라에 확대 적용

  • HyperCLOVA X를 ROCm 스택 위에서 최적화하는 공동 작업

배경에는 네이버의 세종시 하이퍼스케일 데이터센터 **"각 세종"**이 있다. 최대 270MW 전력 용량. 국내 데이터센터 중 네트워크·전력·데이터 이중화를 모두 갖춘 유일한 시설이라는 게 네이버 측 설명이다. 옥상 태양광, 지열 냉난방, 서버 폐열 재활용까지 — 규모만 큰 게 아니라 운영 효율도 신경 쓴 설계.

AMD 입장에서는 아시아 AI 인프라 시장에 레퍼런스가 필요하다. MI300X가 Microsoft Azure와 Oracle Cloud에 납품되면서 북미에서는 입지를 만들었지만, 아시아 대형 고객사 중 퍼블릭하게 AMD GPU 기반 AI 인프라를 운영한다고 발표한 곳은 거의 없다. 네이버는 자체 LLM을 보유하고, 자체 데이터센터를 운영하고, 검색·커머스·콘텐츠 전반에 AI를 적용 중인 — AMD가 원하는 조건을 전부 갖춘 쇼케이스 파트너다.

네이버 입장에서는 NVIDIA 단일 벤더 의존도를 낮추고 싶다. H100 수급이 타이트하던 2023~2024년 겪은 일을 반복하고 싶지 않을 거다. GPU 확보가 곧 AI 서비스 출시 타임라인을 결정하는 구조에서, 공급선이 하나뿐이면 가격이든 물량이든 협상할 카드가 없다. 이해관계가 딱 맞아떨어진 거래.

CUDA lock-in, 넘을 수 있나

여기서 가장 어려운 부분이다. ROCm 위에서 HyperCLOVA X급 대규모 모델을 프로덕션 수준으로 돌린 사례가 업계에 많지 않다. MOU는 MOU일 뿐이고, 실제 학습과 추론 워크로드에서 CUDA 대비 동등한 성능과 안정성을 증명하는 건 완전히 다른 문제다.

방향은 맞다

그래도 단일 GPU 벤더에 모든 인프라를 걸면 가격 협상력도 없고 공급 리스크도 커진다. AI 인프라 비용이 매출에서 차지하는 비중이 계속 올라가는 상황에서, 멀티벤더 전략은 선택이 아니라 생존의 문제에 가깝다. CLOVA X는 죽었지만 HyperCLOVA X는 더 깊이 들어간다. 소비자 눈에 보이는 곳에서는 빠지고, 인프라와 서비스 백엔드에서는 존재감을 키우는 중.