AI(Artificial Intelligence)가 일상인 시대입니다. 빅테크 기업들은 너 나 할 것 없이 초거대 모델을 기반으로 다양한 서비스 제공에 나서고 있습니다. 그리고 유니콘을 꿈꾸는 스타트업 그리고 디지털 기반 서비스 기업들이 앱에 AI 기능을 하나 둘 추가하고 있습니다. 초개인화 기반의 맞춤형 상품 추천, 다국어 번역, 음성을 텍스트로 전환, 이미지 인식과 분석 같은 서비스가 더 이상 낯설지 않습니다. 그리고 산업 현장에서는 AI 기술을 활용해 프로세스를 자동화하고, 예측 기반 유지보수를 수행하고, 재고 및 공급망을 최적화하고 있습니다. 먼 미래 이야기로 여겨지던 인간과 AI의 협업도 현실로 다가오고 있습니다. 제조 현장에서는 AI 로봇이 인간과 협력을 합니다. 소프트웨어 개발 현장에서는 깃허브 코파일럿(GitHub Copilot)이 개발자의 코드 작성을 지원합니다. 이처럼 안 쓰이는 곳이 없는 AI 프로젝트 추진에 있어 가장 큰 고민은 무엇일까요? 머신 러닝, 딥 러닝 모델 훈련과 추론을 가속하는 핵심 자원인 GPU(Graphics Processing Unit) 서버가 너무 고가의 장비이다 보니 데이터 과학자나 개발자의 자원 요구를 충족하기 쉽지 않다는 것입니다.
클라우드 기반 GPU 서버
GPU 서버를 더 경제적이고 효과적으로 사용하는 방법을 고민하는 스타트업이나 기업을 위해 등장한 서비스가 있습니다. 바로 ‘클라우드 기반 GPU 서버’입니다. GPU 자원은 고가의 자산입니다. 따라서 필요한 시점에 필요한 만큼 자원을 탄력적으로 사용해야 합니다. 보통 GPU의 강력한 컴퓨팅 파워가 많이 요구되는 시점으로 개발 단계를 꼽습니다. 모델 훈련과 최적화 과정을 거듭하기 위해 데이터 과학자나 개발자는 독립적인 GPU 서버 자원을 필요로 합니다. 충분한 성능을 제공할수록 훈련을 거듭하며 모델을 최적화하는 데 드는 시간은 단축됩니다. 최적화된 모델을 프로덕션에 배포한 후에는 구현 단계와 비교해 상대적으로 더 적은 자원이 소요됩니다. 이런 이유로 경제적으로 GPU 자원을 사용하고자 하는 조직은 모델 구현 단계에서 데이터 과학자와 개발자가 주피터(Jupyter) 같은 노트북 환경에서 편리하게 클라우드 GPU 서버를 이용해 충분한 자원을 이용할 수 있도록 합니다.
용도에 맞는 서비스 선택하기
클라우드 기반 GPU 서버는 크게 두 가지로 구분할 수 있습니다. 하나는 클라우드 서비스 사업자가 제공하는 가상 머신(VM) 인스턴스에 GPU 자원을 추가해 사용하는 것입니다. 다른 하나는 MLOps(Machine Learning Operations) 플랫폼을 기반으로 한 완전 관리형 서비스를 이용하는 것입니다. 두 방식은 각각의 장단점이 있습니다. 보통 온전히 자원을 다 사용하고자 하는 경우 VM 인스턴스에 기반한 GPU 서버를 사용하는 것이 유리합니다.
한편, NVIDIA GPU는 매우 빠른 속도로 차세대 아키텍처가 발표됩니다. 거의 매년 GTC 행사를 통해 새로운 아키텍처를 선보이고 있으며, 각 세대 간 성능 개선을 큰 폭으로 이뤄내고 있습니다. 최신 제품이 가장 좋지 않을까? 반은 맞고 반은 틀립니다. 최신 아키텍처로 갈수록 GPU 가격이 높습니다. 합리적으로 GPU 자원을 사용하고자 한다면 현재 추진 중인 프로젝트의 성능 요구 사항을 고려하여 최적의 가성비 서비스를 찾는 것이 현명합니다. 이런 이유로 클라우드 서비스 사업자들은 최신 아키텍처부터 이전 세대 아키텍처까지 다양한 GPU 서버 상품을 제공합니다.
iwinv는 최고의 가성비를 위해 Turing 아키텍처와 Ampere 아키텍처 기반 GPU로 클라우드 서버 라인업을 구성하였습니다. 현재 진행 중인 프로젝트의 요구 조건에 맞는 GPU 성능과 메모리 조합으로 일 단위로 강력한 컴퓨팅 파워를 이용할 수 있습니다. 초기 개발 단계에서 여러 사람이 자원 경합을 해야 하는 상황이라면? 이제 주저하지 마시고 클라우드 GPU 서버를 이용하세요.