삼성SDS가 국내 최초로 자사 클라우드 플랫폼 ‘SCP’를 통해 엔비디아 최신 GPU ‘B300(Blackwell Ultra)’ 기반 GPU 구독형 서비스(GPUaaS)를 출시했습니다.
이번 ‘SCP B300 GPUaaS’ 출시는 AI 모델 개발을 넘어 실제 서비스 적용 단계인 AI 추론 수요 급증에 대응하기 위한 전략입니다. B300 GPU는 12단 HBM3E 메모리를 탑재해 GPU당 288GB 메모리와 초당 8TB 대역폭을 제공, 기존 H100 대비 메모리 용량은 3.6배, 대역폭은 2.4배 향상돼 데이터 병목 현상을 크게 개선했습니다.
삼성SDS는 2021년 A100, 2023년 H100 기반 GPUaaS를 선도적으로 제공해 AI 전용 인프라 생태계 구축을 주도해 왔으며, 이번 B300 GPUaaS 도입으로 고객은 대규모 AI 모델 실행 시 지연 시간을 최소화하고 고성능 AI 서비스에 최적화된 환경을 누릴 수 있습니다.
또한 구독형 모델로 초기 투자 부담은 줄이고 비용 효율성을 높이며, 최신 엔비디아 아키텍처를 신속하게 업무에 적용 가능합니다. 삼성SDS의 보안 역량이 결합된 안전한 클라우드 환경에서 민감한 기업 데이터도 안전하게 처리할 수 있습니다.
아울러 삼성SDS는 올 3분기 ‘서버리스(Serverless) 추론 서비스’와 ‘AI 학습 서비스’를 출시해 AI 활용 편의성을 더욱 강화할 예정입니다.
Samsung SDS has launched Korea’s first GPU subscription service (GPUaaS) based on NVIDIA’s latest GPU, the B300 (Blackwell Ultra), through its proprietary cloud platform, SCP.
This launch of ‘SCP B300 GPUaaS’ is a strategic response to the rapidly increasing demand for high-performance computing in the AI inference stage, moving beyond just AI model development to real service deployment. The B300 GPU is equipped with 12-stack HBM3E memory, offering 288GB of memory per GPU and 8TB/s bandwidth, significantly improving memory capacity by 3.6 times and bandwidth by 2.4 times compared to the previous H100 model. This enhancement drastically alleviates data bottlenecks caused by slower memory transfer speeds during rapid GPU computations in large-scale AI language model executions.
Samsung SDS has been leading the GPUaaS ecosystem with prior offerings based on A100 in 2021 and H100 in 2023, supporting cloud-based infrastructure, operations, and customer service tailored for AI-specialized workloads. With the introduction of B300 GPUaaS, customers can minimize latency in running massive AI models and optimize their environment for high-performance AI services.
Furthermore, the subscription model reduces initial investment risks and enhances cost efficiency. Customers can rapidly adopt NVIDIA’s latest architecture for their operations via SCP while securely processing sensitive corporate data within Samsung SDS’s fortified cloud environment.
Additionally, Samsung SDS plans to release a ‘serverless inference service’—charging only for tokens used without separate infrastructure fees—and an ‘AI training service’—which enables developers to automatically distribute AI model training by simply inputting code and data—scheduled for launch in the third quarter of this year, further facilitating AI utilization.

댓글 없음:
댓글 쓰기