이제 기업의 AI 인프라 전략은 단순한 GPU 도입을 넘어, 도입한 GPU를 어떻게 ‘잘’ 쓸 것 인가에 대한 고민으로 진화하고 있다. 초기에는 성능 좋은 GPU를 얼마나 빠르게 확보하느 냐가 관건이었다면, 지금은 도입한 GPU가 얼마나 자주, 효율적으로, 여러 팀에 의해 활용 되고 있는가가 더 중요해진 것이다. GPU가 유휴 상태로 있는 시간과 자원을 최소화하고, AI가 필요한 다양한 부서에서 이를 유연하게 활용할 수 있도록 하는 것이 새로운 과제가 되고 있다.
이런 과제를 해결하기 위해, 기업이 주목해야 할 세 가지 핵심 기술 개념이 있다. 첫째, 여러 사용자가 GPU를 공유하고 제어할 수 있는 GPUaaS(GPU as a Service) 구조. 둘째, 대규모 언어 모델(LLM) 등의 AI 워크로드를 효율적으로 구동하기 위한 추론(Inference) 서버의 역 할. 셋째, AI 환경을 체계적으로 운영하고 지속적으로 개선하는 MLOps(ML옵스) 전략이다.
실제로 레드햇은 이 세 가지 키워드를 중심으로, 기업이 AI 인프라를 ‘구축’하는 단계를 넘 어 ‘운영’과 ‘확장’까지 이어갈 수 있는 실질적인 방향을 제시하고 있다.
주요 내용
- GPU 운영 패러다임을 바꾸는 ‘GPU as a Service(GPUaaS)’
- 레드햇이 제시하는 온프레미스 기반 GPU 공유 전략
- GPU 활용을 극대화하는 ‘추론 서버’의 가치
- 학습에서 MLOps까지, 레드햇 AI 포트폴리오
- ‘AI는 장기전’ 비용 효율성과 확장성을 갖춘 설계가 해답