플랫폼
GPU 가상화

GPU 가상화​

컨테이너 기반 GPU 스케일링​

컨테이너별로 CUDA SMP 및 GPU RAM 배정.​
단일 GPU 공유 : 교육 및 추론 워크로드에 적합​
다중 GPU 할당 : 모델 훈련 등 대규모 워크로드에 적합​
자체 개발한 CUDA 가상화 계층으로 구현
* 자체 구현 / 한미일 등록 특허 기술

자체 개발한 CUDA 가상화 계층​

  • CUDA 8 버전부터 12 버전까지 모든 GPU 모델 호환 (데스크톱 / 워크스테이션 / 데이터센터)
  • 사용자 프로그램의 코드 변경 필요 없음
  • 딥러닝 프레임워크 수정 및 리빌드 필요 없음
  • TensorFlow/PyTorch뿐만 아니라 임의의 GPU 가속 워크로드 실행 가능
  • 여러 GPU로부터 할당한 fraction들을 하나의 컨테이너에 연결하는 multi-GPU 워크로드 지원
  • multi-GPU 환경에서 fraction 크기들을 동등하게 맞춰주는 기술 적용
  • 연구 & 개발을 위한 연구, 실험, 개발에 필요한 환경을 쉽게 만들고, 쉽게 재현이 가능한 R&D환경을 목표로 개발
  • 물리서버(Bare-metal), 가상 서버 VM, Container를 ​여러 노드에 두고 필요에 따라 확장/축소하는 방식의 자원 관리
  • On-prem부터 클라우드, 하이브리드등 모든 IT 플랫폼으로 ​자유롭게 Scale down/up/out 을 지원
  • 딥러닝, 고성능 컴퓨팅 연산 자원 관리에 최적화​

도움이 필요하신가요?

내용을 작성해 주시면 곧 연락 드리겠습니다.

문의하기

본사 및 HPC 연구소

서울특별시 강남구 선릉로 577 CR타워 8층

© Lablup Inc. All rights reserved.