Backend.AI 는 AI와 고성능 컴퓨팅에 특화된 독자적인 GPU 중심 오케스트레이션 및 스케줄러를 통해 딥러닝 친화적인 리소스 배치, 분산 처리용 다중 노드 워크로드, 데이터 I/O 병렬화를 지원하는 스토리지 프록시를 통해 연산자원을 자동으로 최적 관리하여 최대한의 잠재력을 발휘합니다.
다중·단일 노드를 활용한 다중 컨테이너 분산처리 지원
- 내장 스케줄러 차원의 다중 컨테이너 자원 배치 및 재배치
- RDMA 등 고속 네트워킹 기술 지원
GPU 최적화 기술 보유
- NVIDIA 파트너십을 바탕으로 CUDA 최적 솔루션 구현
- 업계 유일 컨테이너 기반 다중/부분 GPU 공유(fractional GPU™ scaling) 지원
HPC 연산 라이브러리(예: BLAS)의 컨테이너 자원 제약 강제
- 프로그래밍 및 재작성 가능한 syscall 필터
- libc 오버라이딩을 통한 강력한 시스템 자원 제어 (CPU 코어 수 보정 등)
동적 샌드박싱: 프로그래밍 및 재작성 가능한 syscall 필터
- apparmor/seccomp 등 대비 풍부한 프로그래밍 가능한 정책 지원