컨테이너 기반 GPU 스케일링
컨테이너별로 CUDA SMP 및 GPU RAM 배정.
단일 GPU 공유 : 교육 및 추론 워크로드에 적합
다중 GPU 할당 : 모델 훈련 등 대규모 워크로드에 적합
자체 개발한 CUDA 가상화 계층으로 구현
* 자체 구현 / 한미일 등록 특허 기술
자체 개발한 CUDA 가상화 계층
- CUDA 8 버전부터 12 버전까지 모든 GPU 모델 호환 (데스크톱 / 워크스테이션 / 데이터센터)
- 사용자 프로그램의 코드 변경 필요 없음
- 딥러닝 프레임워크 수정 및 리빌드 필요 없음
- TensorFlow/PyTorch뿐만 아니라 임의의 GPU 가속 워크로드 실행 가능
- 여러 GPU로부터 할당한 fraction들을 하나의 컨테이너에 연결하는 multi-GPU 워크로드 지원
- multi-GPU 환경에서 fraction 크기들을 동등하게 맞춰주는 기술 적용
- 연구 & 개발을 위한 연구, 실험, 개발에 필요한 환경을 쉽게 만들고, 쉽게 재현이 가능한 R&D환경을 목표로 개발
- 물리서버(Bare-metal), 가상 서버 VM, Container를 여러 노드에 두고 필요에 따라 확장/축소하는 방식의 자원 관리
- On-prem부터 클라우드, 하이브리드등 모든 IT 플랫폼으로 자유롭게 Scale down/up/out 을 지원
- 딥러닝, 고성능 컴퓨팅 연산 자원 관리에 최적화