On-premise
상용 기능의 가격은 년 단위 구독 방식을 채택하고 있습니다.
- 오픈소스 (Ground)Backend.AI Ground는 영원히 무료로 제공되는 오픈소스 소프트웨어입니다. Backend.AI를 통해 번거로운 관리에서 벗어나 본질에만 집중하고, 여러분의 컴퓨팅 리소스를 효율적으로 사용하세요.
- 기업용
사내 GPU 클러스터 팜을 구축하고 계신가요? 여러 조직과 사용자에게 리소스를 할당하는 데 어려움을 겪고 계신가요?
GPU 리소스가 효율적으로 사용되지 않고 있나요?
Backend.AI 온프레미스 엔터프라이즈 솔루션으로 GPU 클러스터를 절약하세요.
클라우드 서비스
사용한 만큼 지불하세요.
- 베이직
머신 러닝을 처음 사용하거나 간단한 테스트를 수행하려는 경우에 이상적입니다. 언제든지 유료 계정으로 전환할 수 있습니다.
- 에센셜
모델링, 머신러닝 학습 및 훈련에 적합합니다. 또한 클라우드 콘솔(베타)을 통해 컴퓨터에서도 Backend.AI를 사용할 수 있으므로 비용을 지불하지 않고도 리소스를 사용할 수 있을 뿐만 아니라 어디서나 사용할 수 있습니다.
- 프로
더 많은 리소스로 더 큰 모델을 훈련하고 싶으신가요?
또한 클라우드 콘솔(베타)을 통해 컴퓨터에서도 Backend.AI를 사용할 수 있으므로 비용을 지불하지 않고도 리소스를 사용할 수 있을 뿐만 아니라 어디서나 사용할 수 있습니다. - 기업용
교육기관에서 리소스를 많이 사용하시나요? 사용할 리소스를 미리 예약하여 저렴한 비용으로 사용할 수 있습니다.
Enterprise Cloud는 사용자 관리, 그룹 관리, 리소스 할당과 같은 그룹 및 조직 관리 기능도 제공합니다.
버전 비교
아래의 버전 비교 자료는 Backend.AI(24.03) / Backend.AI Enterprise(R2)를 기반으로 합니다.
- 컨테이너 수준의 멀티 GPU
- 엔비디아 CUDA GPU
- AMD ROCm GPU
- Google 클라우드 TPU
- GraphCore IPU
- Container-level Fractional GPU sharing
- NVLink-optimized GPU plugin architecture
- 베어메탈/가상머신 모두에 온프레미스 설치
- 하이브리드 클라우드 (온프레미스+클라우드)
- Polycloud (multi-cloud federation)
- Attaching multiple network planes to containers for data transfers and GPU Direct Connect / GPU Direct Storage in distributed workloads
- Vendor-specific storage acceleration plugins (RedHat CephFS, PureStorage FlashBlade, NetApp ONTAP, Dell EMC PowerStore and Weka.io)
- Automatic scaling integrated with cloud APIs
- GUI 및 CLI 관리자를 통한 통합 스케줄링 및 모니터링
- 사용자 또는 사용자 그룹별 리소스 할당
- Multi-container batch execution and monitoring
- Availability-slot based scheduling with heuristic FIFO
- Customizable batch job scheduler
- Detection and auto-blocking cryptocurrency mining workloads
- Automatic policy-based reclamation of idle resources
- 멀티 테넌시
- 하이퍼바이저/컨테이너를 통한 샌드박싱
- Programmable Sandboxing
- Syscall-level logging
- Administrator monitoring
- 액티브-액티브 관리 노드를 사용한 고가용성(HA) 구성
- On-the-fly addition and removal of compute nodes
- Desktop application (Windows 10~, macOS 10.12~, Linux)
- In-browser/in-app access to container applications
- Control panel and dashboard for enterprise administrators
- Data up-/download and sharing via shared folder
- Large file transfers via scalable, standalone storage proxy
- EFS, NFS, SMB and distributed file system (cephFS, GlusterFS, HDFS)
- Local acceleration cache (SSD, memory)
- Universal programming language (17+ including Python, C/C++, R, Java, MATLAB, etc.)
- IDE plugins : VS Code, IntelliJ, PyCharm
- Interactive shell & terminal support
- GUI-based custom container image builder
- GUI tools in user application (Jupyter, TensorBoard, etc.)
- GUI tools in web console (Jupyter, TensorBoard, etc)
- NGC (NVIDIA GPU Cloud) platform integration
- Fully compatible with major machine learning libraries (TensorFlow, PyTorch, CNTK, Mxnet, etc.)
- Concurrent execution of multiple versions of libraries
- Automatic update of ML libraries
- DL model as a function
- Model versioning
- GUI-based per-node customizable MLOps/AIOps tool
- Offline installer packages for on-premise setups
- Backend.AI Reservoir: a private package repository to serve PyPI, CRAN and Ubuntu
- System administrator dedicated dashboard
- Administrator dedicated control panel
- Compute node setting control
- Compute node system setting control
- System statistics
- On-site installation (Bare metal / VM)
- Configuration support (on-premise + cloud)
- On-site admin/user training
- Managed version upgrade
- Priority development and escalation
- Custom kernel images and managed repository
- High Availability (H/A) installation
- 온프렘오픈소스 (Ground)
- 온프렘기업용
- 클라우드베이직
- 클라우드에센셜
- 클라우드프로
- 클라우드기업용
- 컨테이너 수준의 멀티 GPU
- 엔비디아 CUDA GPU
- AMD ROCm GPU
- Google 클라우드 TPU
- GraphCore IPU
- Container-level Fractional GPU sharing
- NVLink-optimized GPU plugin architecture
- 베어메탈/가상머신 모두에 온프레미스 설치
- 하이브리드 클라우드 (온프레미스+클라우드)
- Polycloud (multi-cloud federation)
- Attaching multiple network planes to containers for data transfers and GPU Direct Connect / GPU Direct Storage in distributed workloads
- Vendor-specific storage acceleration plugins (RedHat CephFS, PureStorage FlashBlade, NetApp ONTAP, Dell EMC PowerStore and Weka.io)
- Automatic scaling integrated with cloud APIs
- GUI 및 CLI 관리자를 통한 통합 스케줄링 및 모니터링
- 사용자 또는 사용자 그룹별 리소스 할당
- Multi-container batch execution and monitoring
- Availability-slot based scheduling with heuristic FIFO
- Customizable batch job scheduler
- Detection and auto-blocking cryptocurrency mining workloads
- Automatic policy-based reclamation of idle resources
- 멀티 테넌시
- 하이퍼바이저/컨테이너를 통한 샌드박싱
- Programmable Sandboxing
- Syscall-level logging
- Administrator monitoring
- 액티브-액티브 관리 노드를 사용한 고가용성(HA) 구성
- On-the-fly addition and removal of compute nodes
- Desktop application (Windows 10~, macOS 10.12~, Linux)
- In-browser/in-app access to container applications
- Control panel and dashboard for enterprise administrators
- Data up-/download and sharing via shared folder
- Large file transfers via scalable, standalone storage proxy
- EFS, NFS, SMB and distributed file system (cephFS, GlusterFS, HDFS)
- Local acceleration cache (SSD, memory)
- Universal programming language (17+ including Python, C/C++, R, Java, MATLAB, etc.)
- IDE plugins : VS Code, IntelliJ, PyCharm
- Interactive shell & terminal support
- GUI-based custom container image builder
- GUI tools in user application (Jupyter, TensorBoard, etc.)
- GUI tools in web console (Jupyter, TensorBoard, etc)
- NGC (NVIDIA GPU Cloud) platform integration
- Fully compatible with major machine learning libraries (TensorFlow, PyTorch, CNTK, Mxnet, etc.)
- Concurrent execution of multiple versions of libraries
- Automatic update of ML libraries
- DL model as a function
- Model versioning
- GUI-based per-node customizable MLOps/AIOps tool
- Offline installer packages for on-premise setups
- Backend.AI Reservoir: a private package repository to serve PyPI, CRAN and Ubuntu
- System administrator dedicated dashboard
- Administrator dedicated control panel
- Compute node setting control
- Compute node system setting control
- System statistics
- On-site installation (Bare metal / VM)
- Configuration support (on-premise + cloud)
- On-site admin/user training
- Managed version upgrade
- Priority development and escalation
- Custom kernel images and managed repository
- High Availability (H/A) installation