gcube

간편하게 공유하고 경제적으로 빌려쓰는

전 세계 GPU NETWORK

고정 비용이 아닌, 자원 사용량에 따라 비용을 부과하여 경제적으로
GPU를 사용할 수 있습니다.

사용한 만큼만 지불하는 합리적 비용

최대 70% 경제적인
GPU Cloud 플랫폼

고정 비용이 아닌, 자원 사용량에 따라 비용을 부과하여
경제적으로 GPU를 사용할 수 있습니다.
CESIA26
CES Innovation Awards®2026 Honoree in Artificial Intelligence
The CES Innovation Awards are based upon descriptive materials submitted to the judges.CTA did not verify the accuracy of any submission or of any claims made and did not test the item to which the award was given.
CES Innovation Awards®2026 Honoree inArtificial Intelligence

최소 비용으로 효율적인 GPU 사용

성능은 좋지만 높은 비용, 비용은 낮지만 부족한 성능.
GPU 공유 서비스의 한계를 극복했습니다.

  • Global GPU Grid
    gcube는 Global GPU네트워킹을 통해 클라우드 컴퓨팅 성능을 강력하게 유지하면서, 경제적인 가격에 공급하는 GPU 공유경제 서비스입니다.
  • 어떤 환경에도 적용가능한
    맞춤형 공급
    클라우드 네이티브 기술을 이용하여 CSP의 GPU와 PC의 GPU를 결합하여 동시접속이 많은 서비스, 수요가 일정하지 않은 경우 등 다양한 맞춤형 서비스를 제공합니다.
  • 다수의 국내 GPU 자원
    확보로 높은 안정성
    국내 기반 서비스를 시작하며 다수의 공급자를 확보하여 다양한 GPU 자원, 빠른 네트워크를 통한 안정적인 서비스를 제공합니다.
  • 누구나 저렴하게
    이용 할 수 있는 GPU
    공급자와의 직접 계약, 누구나 손쉽게 공급할 수 있는 기술로 공급 비용을 절감하여 보다 경제적으로 이용할 수 있습니다.

최대 70% 경제적으로 사용하는 GPU.
비용 걱정 없이 사용한 만큼만 이용하세요.

시간당 GPU 사용 비용

  • 39,746원

    4,830원

    타사 대비 비용 절감율
    H100 X 1
  • 137,646원

    34,720원

    타사 대비 비용 절감율
    H100 X 8
  • 57,344원

    20,790원

    타사 대비 비용 절감율
    A100
  • 34,272원

    1,610원

    타사 대비 비용 절감율
    V100 X 2
gcube
자사
타사
타사
    1개월 기준
    ??만원 부터 이용할 수 있습니다.

    gcube는 GPU 이용 시 사용하지 않은 시간은 비용을 부과하지 않습니다. 실시간 모니터링을 통해 실제 리소스 사용 비율에 따라 비용이 부과됩니다.

    경제적이고 다양한 GPU

    gcube에서 원하는 목적과 스펙의
    다양한 GPU를 선택할 수 있습니다.

    gcube에서 원하는
    목적과 스펙의 다양한 GPU를
    선택할 수 있습니다.

    TIER 1
    정부 지원 사업용 대규모 데이터 처리
    • 대용량
    • 고사양
    • 24시간 안정적

    Cloud 사업자가 제공하는 GPU

      TIER 2
      대학, 연구소에서 연구 목적으로 사용
      • 안정적 네트워크
      • 고사양
      • 맞춤형

      직접 계약을 통해 제공하는 전용 서버 GPU

        TIER 2
        스타트업에서 AI 모델 개발 진행
        • 안정적 네트워크
        • 고사양
        • 맞춤형

        직접 계약을 통해 제공하는 전용 서버 GPU

          TIER 3
          개인 개발자 mining을 위한 자원
          • 저렴한
          • 다양한
          • 탄력적

          경제적인 가격으로 사용하는 개인 / PC방 GPU

          GPU 모델
          0종 +
          시간당 가격
          0원~
          월 사용 비용
          0원~
          • RTX 5000 Series
          • RTX 4000 Series
          • RTX 3000 Series
          • RTX 2000 Series
          • RTX A Series
          • RTX ADA Series
          • etc

            실시간 GPU 사용 분석 데이터에 기반하여
            합리적인 비용 체계를 구축하고
            분석 데이터를 투명하게 공개합니다.

            2025/06/08 15:30:27 routes.go : 1259 : INFO server config env=”map[CUDA_VISIBLE_DEVICES:

            GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION:HTTPS_PROXYL

            HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false

            OLLAMA_GPU_OVERHEAD:0 OlLAMA_HOST:http://0.0.0.0:11434 OLLAMA_INTEL_GPU:false

            OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY:

            OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512

            OLLAMA_MODELS:/root/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false

            OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost

            http://localhost http://localhost:* https://localhost:* http:127.0.0.1 https://127.0.0.1

            http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:*

            http://0.0.0.0* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false

            ROCR_VISIBLE_DEVICES: http_proxy:https_proxy: no_proxy:]”


            time=2025-06-18T15:30:27.553Z level=INFO source=images.go:757 msg=”total blobs: 5”

            time=2025-06-18T15:30:27.553Z level=INFO source=images.go:757 msg=”total unused blobs removed: 0”

            [GIN-debug] [WARNING] Creating an Engine instance with the Logger and Recovery middleware alreay attached.


            [GIN-debug] [WARNING] Running in “debug” mode. Switch to “release” mode in production.

            - using env: export GIN_MODE=release


            2025/06/08 15:30:27 routes.go : 1259 : INFO server config env=”map[CUDA_VISIBLE_DEVICES:

            GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION:HTTPS_PROXYL

            HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false

            OLLAMA_GPU_OVERHEAD:0 OlLAMA_HOST:http://0.0.0.0:11434 OLLAMA_INTEL_GPU:false

            OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY:

            OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512

            OLLAMA_MODELS:/root/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false

            OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost

            http://localhost http://localhost:* https://localhost:* http:127.0.0.1 https://127.0.0.1

            http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:*

            http://0.0.0.0* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false

            ROCR_VISIBLE_DEVICES: http_proxy:https_proxy: no_proxy:]”


            time=2025-06-18T15:30:27.553Z level=INFO source=images.go:757 msg=”total blobs: 5”

            time=2025-06-18T15:30:27.553Z level=INFO source=images.go:757 msg=”total unused blobs removed: 0”

            [GIN-debug] [WARNING] Creating an Engine instance with the Logger and Recovery middleware alreay attached.


            [GIN-debug] [WARNING] Running in “debug” mode. Switch to “release” mode in production.

            - using env: export GIN_MODE=release

            컨테이너 로그

            워크로드 배포 후 실시간 워크로드 운영 로그 조회가 가능합니다.

            이벤트컨테이너pc이벤트컨테이너mo
            WARNING
            Startup probe failed: Get "http://10.249.7.253:15021/healthz/ready": dial tcp 10.249.7.253:15021: connection refused
            배포 이벤트 현황

            워크로드 운영 시 상태 변경 내역을 실시간으로 공유합니다.콘솔 알림을 통해서도 제공하여 연결해제나 상태 변경을 즉각 확인하고 필요한 조취를 할 수 있습니다.

                모니터링

                워크로드 실행 시 연결된 GPU의 시간별 리소스 사용량을 공개합니다.
                GPU 비용 산정의 데이터를 사용자와 공유하여 신뢰할 수 있는 서비스를 제공 합니다.

                gcube Blog

                  FAQ

                    gcube Partners

                    NAVER Cloud
                    KAIST
                    NHN CLOUD
                    용인대학교
                    soundmind
                    KT cloud
                    TOONSQAURE
                    한국전자통신연구원
                    고려대학교
                    NAVER Cloud
                    KAIST
                    NHN CLOUD
                    용인대학교
                    soundmind
                    KT cloud
                    TOONSQAURE
                    한국전자통신연구원
                    고려대학교
                    전문가에게 무엇이든 물어보세요.