We use cookies on this website. To find out more about cookies and how they are used on this website, see our Privacy Policy.
By clicking ‘Continue’, you hereby agree with our use of cookies.

AI인프라의 핵심

소개

AI 도입은 거스릴 수 없는 트렌드지만 진정한 시험은 데이터로부터 지속적으로 가치를 창출하는 능력에 있습니다.

GS 5000U는 AI 인프라를 위해 설계된 스토리지 시스템으로 기업이 탁월한 성능을 보다 비용 효율적인 초기 투자로 달성할 수 있도록 지원합니다. GPU 컴퓨팅 성능을 최대한 활용하여 AI 학습과 추론 속도를 가속화하도록 설계되었습니다. 유연하고 장기적인 확장성을 제공하며, AI 전환을 위한 신뢰할 수 있는 스토리지 기반 역할을 수행합니다.


솔루션 하이라이트

속도, 확장성, 미래

AI 컴퓨팅 파워 극대화

GS 5000U 시리즈는 최대 125GB/s 읽기 쓰루풋과 2.4 IOPS를 제공합니다. 200GbE를 지원하며 GPU의 병목 현상을 제거하고 다중 노드 학습 및 추론 속도를 가속화합니다. 이를 통해 고성능 AI 모델 배포 주기가 단축됩니다.

Unleash AI Computing Power
GPU 활용 극대화, 워크 플로우 가속

NVMe-oF 및 GPUDirect Storage (GDS)를 활용하여 초저지연 0.3m를 달성합니다. 초고속 접근으로 체크포인트 쓰기 지연을 제거하고 GPU 활용도를 극대화합니다. GS 5000U는 학습, 추론, 메타데이터 집중 워크로드에서 획기적인 성능을 제공합니다.

Fully Utilize GPUs, Accelerate Workflows
지속적인 가용성

안전한 중복 하드웨어 설계(컨트롤러, 팬, 전원 공급)를 통해 다운타임 위험을 최소화합니다. HA(고가용성)아키텍처와 통합되어 사이트 수준 선제적 장애 전환 보호를 제공하여, 데이터 손실 없이 초단위 복구가 가능합니다.

Continuous Availability
탁월한 미래 확장성

GS U.2 시리즈는 데이터 폭증에도 장기적 가치를 보장합니다. 고밀도 JBOD 및 고성능 NVMe JBOF 등 다양한 확장 옵션을 제공하며, AI 배포 단계별로 핫티어 학습 데이터와 콜드 티어 아카이빙을 유연하게 지원합니다.

Unmatched Future Scalability

NVMe-oF AI 스토리지

고속, 지능적, 안전한 AI 데이터 스토리지 기반을 구축하여 기업이 AI 워크로드를 더 빠르고 효율적으로 완료하도록 지원합니다.

  • 고속 네트워크 스토리지 시스템: GS 5000U는 NVMe-oF 및 200GbE를 활용하여 최대 125GB/S 대역폭과 0.3ms 초저지연을 제공합니다. GPU 병목 현상을 제거하고 핵심 핫 데이터에 충분한 처리량을 보장하여 GPU 효율을 극대화합니다.
  • 다이렉트 GPU 가속: GPUDirect Storage (GDS)는 데이터를 CPU를 거치지 않고 GPU 메모리로 직접 전송합니다. CPU 병목 제거, 지연 감소, I/O 처리량 극대화에 필수적입니다.
  • 확장 인클로저: AI 데이터 라이프 사이클에 맞춤 확장 옵션을 제공합니다. 자주 사용하는 데이터 확장을 위한 NVMe SSD JBOD, 자주 사용하지 않는 데이터 아카이빙용 고밀도 JBOD 등 성능과 효율의 균형을 달성합니다.
NVMe-oF AI Storage

AI 스토리지용 소프트웨어

HPC 파일 시스템 호환성

GS 파일 시스템은 POSIX 호환으로 Lustre와 같은 고성능 병렬 파일 시스템과 원활히 통합됩니다. 이를 통해 컴퓨트 서버가 데이터 접근 병목 없이 효율적으로 작업할 수 있으며, 데이터 품질과 무결성을 보장합니다.

HPC File System Compatibility
다중 레이어 결함 허용 설계

레이드 결합 허용, 로컬 스냅샷, SSD 동기화 실패 방지 알고리즘 내장, 사전 경고 기능과 함께 최고 수준의 데이터 보안과 일관성을 제공합니다.

Multi-Layer Fault Tolerance Design
교차 사이트 복구 전략

동기/비동기 교차 사이트 복제(RSS) 및 클라우드 통합(EonCloud Gateway) 지원, 재해 발생 시 초단위 복구(RTO)와 완전한 데이터 가용성을 보장합니다.

Cross-Site Recovery Strategy
AI 데이터 스마트 라이프사이클 관리

최대 4개의 미디어 계층에서 오토티어링 지원, 지능형 알고리즘이 데이터 마이그레이션을 자동으로 처리합니다. 자주 사용하는 핫 학습 데이터부터 덜 사용하는 콜드 아카이빙까지 효율을 극대화하며 비용을 절감합니다.

AI Data Smart Lifecycle Management

관련 제품

최고 성능의 하이브리드 플래시 U.2 NVMe SSD 유니파이드 스토리지

EonStor GS 5000U Series

EonStor GS 5000U는 인텔 제온 6코어 프로세서 및 PCIe 5.0 NVMe SSD를 지원하며 125GB/s 쓰루풋과 2.4M IOPS, 0.3ms 초저지연을 제공합니다.


사용 사례

AI 데이터 및 성능의 핵심

다양한 종류이 AI 워크로드는 스토리지 시스템에 매우 다른 I/O 패턴과 성능 요구를 부과합니다:

  • 기본 모델 학습: 다중 노드, 다중 GPU 환경을 지원하기 위해 최고 수준의 지속적인 처리량을 필요로 합니다. 학습 과정 중 빈번한 체크포인트 쓰기로 발생하는 대규모 I/O 폭주도 견뎌야 합니다.
  • 추론/RAG 서비스: 극도로 지연에 민감하며 랜덤 I/O에 대해 초저지연과 매우 높은 IOPS를 필요로 합니다. 이를 통해 다수 동시 사용자 요청 상황에서도 모델을 즉시 로드하고 실시간 응답이 가능합니다.
  • 파인튜닝: 학습 과정 전반에 걸쳐 기본 모델과 체크 포인트에 대한 빈번한 접근을 처리할 수 있는 안정적이고 효율적인 랜덤 읽기/쓰기 성능을 필요로 합니다. 이를 통해 모델의 반복 주기 가속화를 가능하게 합니다.
Base Model Training
기본 모델 학습
(LLM Pre-training)
  • 도메인 특화 기본 모델 학습(예: 금융, 헬스케어, 제약)
Inference
추론
  • 기업 내부 챗봇
  • 문서 요약
  • 실시간 이미지 분류
Retrieval-Augmented Generation
RAG (Retrieval-Augmented Generation: 검색 증강 생성)
  • 기업 지식 기반 Q&A 시스템
  • AI 지원 고객센터
Fine-tuning
파인튜닝
  • 브랜드 AI 어시스턴트
  • 생산 라인 결함 감지
  • 경량 엣지 배포 모델

추론

한 대형 제조업체가 4개의 고속 생산라인에서 AI 지원 시각 결함 감지 시스템을 구현하여 미세한 결함을 식별하고 품질 편차를 최소화하였습니다. 시스템은 프레임 손실 없이 30FPS 처리가 가능해야 했으며 이미지 캡처와 로봇 분류간 밀리초 수준의 지연을 유지해야 할 필요가 있었습니다. 또한 모든 이미지(결함, 샘플 포함)를 장기 보관 및 향후 모델 재학습용으로 아카이빙을 지원할 필요가 있었습니다.

Inference
인포트렌드 이점
  • 고대역폭 데이터 처리: GS 5000U는 125GB/s의 지속 읽기 성능을 제공하며 GPU 클러스터로 연속적이고 손실 없는 이미지 데이터 전송을 보장합니다.
  • 서브밀리초 실시간 응답: 0.3ms 초저지연, 시스템 전체 지연을 밀리초 수준으로 유지해야 하며 즉시 AI 추론 결과 및 실시간 로봇 의사를 결정 가능해야 합니다.
  • 고성능 아카이빙: 40GB/s 지속 쓰기 처리량을 제공하며 결함 이미지와 감사 데이터(audit data)를 빠르게 아카이빙하면서 프론트엔드 추론 성능에 손상이 없습니다.
  • 페타바이트 규모 데이터 라이프사이클 관리: 고밀도 JBOD 확장과 오토 티어드 스토리지를 통해 시스템은 멀티 페타바이트 규모의 이미지 데이터 증가를 효율적으로 처리하며 장기적이고 비용 효율적인 데이터 아카이빙 솔루션을 제공합니다.

검색 증강 생성 (RAG)

한 주요 통신사는 400명 이상의 활동 상담원을 보유한 고객 서비스 센터를 운영하고 있습니다. 이 기업은 15TB 지식 기반 전반의 검색 효율을 향상시키고 상담원의 업무 부담을 줄이며 응답 정확도를 개선하기 위해 AI 지원 상담 시스템 도입을 목표로 하고 있습니다.

핵심 과제는 400명의 상담원이 동시에 쿼리를 수행하는 환경에서 초단위 AI 응답을 지원하면서 고부하 상황에서도 실시간 성능과 신뢰성을 모두 유지하는 것입니다.

Retrieval-Augmented Generation (RAG)
인포트렌드의 장점
  • 서브밀리초 응답: 단 0.3ms의 초저지연으로 RAG 검색 병목을 효과적으로 제거하고 초단위 AI 응답 시간을 보장합니다.
  • 초고도시성 지원: 240만 IOPS를 제공하여, 수백 명의 고객센터 상담원이 지식 기반을 동시에 조회할 때 발생하는 I/O 부하를 무리 없이 처리합니다.
  • 최적화된 데이터 경로: NVMe-Of와 GDS가 GPU까지 직접적이고 저지연 데이터 경로를 구성하여 모델 로딩을 가속하고 고동시성 환경에서도 안정적인 서브초 RAG 성능을 보장합니다.

파인튜닝 (도메인 적응)

한 금융 기관은 지능형 투자 자문 서비스의 정확도를 향상시키기 위해 AI 모델 도입을 계획하고 있습니다. 학습 과정에서 해당 기업은 16-GPU H100 클러스터를 활용하여 80억개 피라미터를 가진 범용 언어 모델을 도메인 특화 애플리케이션용으로 파인튜닝할 예정입니다.

지속적인 GPU효율을 보장하기 위해 스토리지 시스템은 신속한 데이터 로딩을 위한 120GB/s 처리량을 제공해야 합니다. 또한 체크포인트 파일은 15분마다 기록되며 GPU 유휴 시간을 최소화하고 연산 활용도를 극대화하기 위해 이 과정은 신속하게 완료되어야 합니다.

Fine-tuning (Domain Adaptation)
인포트렌드의 장점
  • 고성능 및 저지연: 200GbE NVMe-Of 기술을 활용하여 GS 5000U는 최대 125GB/s 성능과 마이크로초 수준의 지연 시간을 제공하여 I/O 병목을 효과적으로 제거합니다.
  • 다이렉트 GPU 데이터 경로: GPUDirect Storage는 CPU를 우회하는 데이터 경로를 제공하여 모델 로딩 및 체크포인트 접근을 가속화하고 최대의 학습 효율을 보장합니다.
  • 고속 쓰기 처리량 및 랜덤 I/O: 시스템은 40GB/s 지속 쓰기 처리량과 240만 IOPS의 랜덤 연산 성능을 제공하여 수 기가바이트 규모의 데이터 쓰기를 수 초 내 완료하고 GPU 유휴 시간을 최소화합니다.
  • 탁월한 확장성: 최대 3개의 NVMe JBOF 확장 유닛을 지원하여 페타바이트급 용량을 제공하며 처리량과 용량을 병렬로 확장할 수 있는 원활한 확장성을 제공합니다.
미래 대비 솔루션으로 데이터를 강화!

저희 영업팀과 연락하여 새로운 제품과 기능에 대한 최신 정보를 받아보세요!