가격

가격

On-premise

상용 기능의 가격은 년 단위 구독 방식을 채택하고 있습니다.

  • 오픈소스 (Ground)
    Backend.AI Ground는 영원히 무료로 제공되는 오픈소스 소프트웨어입니다. Backend.AI를 통해 번거로운 관리에서 벗어나 본질에만 집중하고, 여러분의 컴퓨팅 리소스를 효율적으로 사용하세요.
  • 기업용

    사내 GPU 클러스터 팜을 구축하고 계신가요? 여러 조직과 사용자에게 리소스를 할당하는 데 어려움을 겪고 계신가요?
    GPU 리소스가 효율적으로 사용되지 않고 있나요?
    Backend.AI 온프레미스 엔터프라이즈 솔루션으로 GPU 클러스터를 절약하세요.

클라우드 서비스

사용한 만큼 지불하세요.

  • 베이직

    머신 러닝을 처음 사용하거나 간단한 테스트를 수행하려는 경우에 이상적입니다. 언제든지 유료 계정으로 전환할 수 있습니다.

  • 에센셜

    모델링, 머신러닝 학습 및 훈련에 적합합니다. 또한 클라우드 콘솔(베타)을 통해 컴퓨터에서도 Backend.AI를 사용할 수 있으므로 비용을 지불하지 않고도 리소스를 사용할 수 있을 뿐만 아니라 어디서나 사용할 수 있습니다.

  • 프로

    더 많은 리소스로 더 큰 모델을 훈련하고 싶으신가요?
    또한 클라우드 콘솔(베타)을 통해 컴퓨터에서도 Backend.AI를 사용할 수 있으므로 비용을 지불하지 않고도 리소스를 사용할 수 있을 뿐만 아니라 어디서나 사용할 수 있습니다.

  • 기업용

    교육기관에서 리소스를 많이 사용하시나요? 사용할 리소스를 미리 예약하여 저렴한 비용으로 사용할 수 있습니다. 
    Enterprise Cloud는 사용자 관리, 그룹 관리, 리소스 할당과 같은 그룹 및 조직 관리 기능도 제공합니다.

버전 비교

아래의 버전 비교 자료는 Backend.AI(24.03) / Backend.AI Enterprise(R2)를 기반으로 합니다.

  • 컨테이너 수준의 멀티 GPU
  • 엔비디아 CUDA GPU
  • AMD ROCm GPU
  • Google 클라우드 TPU
  • GraphCore IPU
  • Container-level Fractional GPU sharing
  • NVLink-optimized GPU plugin architecture
  • 베어메탈/가상머신 모두에 온프레미스 설치
  • 하이브리드 클라우드 (온프레미스+클라우드)
  • Polycloud (multi-cloud federation)
  • Attaching multiple network planes to containers for data transfers and GPU Direct Connect / GPU Direct Storage in distributed workloads
  • Vendor-specific storage acceleration plugins (RedHat CephFS, PureStorage FlashBlade, NetApp ONTAP, Dell EMC PowerStore and Weka.io)
  • Automatic scaling integrated with cloud APIs
  • GUI 및 CLI 관리자를 통한 통합 스케줄링 및 모니터링
  • 사용자 또는 사용자 그룹별 리소스 할당
  • Multi-container batch execution and monitoring
  • Availability-slot based scheduling with heuristic FIFO
  • Customizable batch job scheduler
  • Detection and auto-blocking cryptocurrency mining workloads
  • Automatic policy-based reclamation of idle resources
  • 멀티 테넌시
  • 하이퍼바이저/컨테이너를 통한 샌드박싱
  • Programmable Sandboxing
  • Syscall-level logging
  • Administrator monitoring
  • 액티브-액티브 관리 노드를 사용한 고가용성(HA) 구성
  • On-the-fly addition and removal of compute nodes
  • Desktop application (Windows 10~, macOS 10.12~, Linux)
  • In-browser/in-app access to container applications
  • Control panel and dashboard for enterprise administrators
  • Data up-/download and sharing via shared folder
  • Large file transfers via scalable, standalone storage proxy
  • EFS, NFS, SMB and distributed file system (cephFS, GlusterFS, HDFS)
  • Local acceleration cache (SSD, memory)
  • Universal programming language (17+ including Python, C/C++, R, Java, MATLAB, etc.)
  • IDE plugins : VS Code, IntelliJ, PyCharm
  • Interactive shell & terminal support
  • GUI-based custom container image builder
  • GUI tools in user application (Jupyter, TensorBoard, etc.)
  • GUI tools in web console (Jupyter, TensorBoard, etc)
  • NGC (NVIDIA GPU Cloud) platform integration
  • Fully compatible with major machine learning libraries (TensorFlow, PyTorch, CNTK, Mxnet, etc.)
  • Concurrent execution of multiple versions of libraries
  • Automatic update of ML libraries
  • DL model as a function
  • Model versioning
  • GUI-based per-node customizable MLOps/AIOps tool
  • Offline installer packages for on-premise setups
  • Backend.AI Reservoir: a private package repository to serve PyPI, CRAN and Ubuntu
  • System administrator dedicated dashboard
  • Administrator dedicated control panel
  • Compute node setting control
  • Compute node system setting control
  • System statistics
  • On-site installation (Bare metal / VM)
  • Configuration support (on-premise + cloud)
  • On-site admin/user training
  • Managed version upgrade
  • Priority development and escalation
  • Custom kernel images and managed repository
  • High Availability (H/A) installation
  • 온프렘
    오픈소스 (Ground)
  • 온프렘
    기업용
  • 클라우드
    베이직
  • 클라우드
    에센셜
  • 클라우드
    프로
  • 클라우드
    기업용
  • 컨테이너 수준의 멀티 GPU
  • 엔비디아 CUDA GPU
  • AMD ROCm GPU
  • Google 클라우드 TPU
  • GraphCore IPU
  • Container-level Fractional GPU sharing
  • NVLink-optimized GPU plugin architecture
  • 베어메탈/가상머신 모두에 온프레미스 설치
  • 하이브리드 클라우드 (온프레미스+클라우드)
  • Polycloud (multi-cloud federation)
  • Attaching multiple network planes to containers for data transfers and GPU Direct Connect / GPU Direct Storage in distributed workloads
  • Vendor-specific storage acceleration plugins (RedHat CephFS, PureStorage FlashBlade, NetApp ONTAP, Dell EMC PowerStore and Weka.io)
  • Automatic scaling integrated with cloud APIs
  • GUI 및 CLI 관리자를 통한 통합 스케줄링 및 모니터링
  • 사용자 또는 사용자 그룹별 리소스 할당
  • Multi-container batch execution and monitoring
  • Availability-slot based scheduling with heuristic FIFO
  • Customizable batch job scheduler
  • Detection and auto-blocking cryptocurrency mining workloads
  • Automatic policy-based reclamation of idle resources
  • 멀티 테넌시
  • 하이퍼바이저/컨테이너를 통한 샌드박싱
  • Programmable Sandboxing
  • Syscall-level logging
  • Administrator monitoring
  • 액티브-액티브 관리 노드를 사용한 고가용성(HA) 구성
  • On-the-fly addition and removal of compute nodes
  • Desktop application (Windows 10~, macOS 10.12~, Linux)
  • In-browser/in-app access to container applications
  • Control panel and dashboard for enterprise administrators
  • Data up-/download and sharing via shared folder
  • Large file transfers via scalable, standalone storage proxy
  • EFS, NFS, SMB and distributed file system (cephFS, GlusterFS, HDFS)
  • Local acceleration cache (SSD, memory)
  • Universal programming language (17+ including Python, C/C++, R, Java, MATLAB, etc.)
  • IDE plugins : VS Code, IntelliJ, PyCharm
  • Interactive shell & terminal support
  • GUI-based custom container image builder
  • GUI tools in user application (Jupyter, TensorBoard, etc.)
  • GUI tools in web console (Jupyter, TensorBoard, etc)
  • NGC (NVIDIA GPU Cloud) platform integration
  • Fully compatible with major machine learning libraries (TensorFlow, PyTorch, CNTK, Mxnet, etc.)
  • Concurrent execution of multiple versions of libraries
  • Automatic update of ML libraries
  • DL model as a function
  • Model versioning
  • GUI-based per-node customizable MLOps/AIOps tool
  • Offline installer packages for on-premise setups
  • Backend.AI Reservoir: a private package repository to serve PyPI, CRAN and Ubuntu
  • System administrator dedicated dashboard
  • Administrator dedicated control panel
  • Compute node setting control
  • Compute node system setting control
  • System statistics
  • On-site installation (Bare metal / VM)
  • Configuration support (on-premise + cloud)
  • On-site admin/user training
  • Managed version upgrade
  • Priority development and escalation
  • Custom kernel images and managed repository
  • High Availability (H/A) installation

도움이 필요하신가요?

내용을 작성해 주시면 곧 연락 드리겠습니다.

문의하기

본사 및 HPC 연구소

KR Office: 서울특별시 강남구 선릉로 577 CR타워 8층 US Office: 3003 N First st, Suite 221, San Jose, CA 95134

© Lablup Inc. All rights reserved.