| GaonIT Cloud — 호스팅 & 클라우드
가온IT

GPU 워크스페이스/노트북

개발자가 사랑하는 호스팅 & 클라우드. 지금 바로 시작하세요.

GPU 워크스페이스 / 노트북

브라우저에서 바로 GPU 개발 환경을 실행하세요. JupyterLab / VS Code 기반 워크스페이스에 PyTorch / CUDA 사전 구성, 스냅샷팀 협업까지. 네트워크는 디도스 보호(프록시) 옵션을 연동할 수 있습니다. 요금은 별도문의로 안내합니다.

⚡ 즉시 실행
사전 빌드된 이미지로 수분 내 워크스페이스 생성. 스냅샷으로 버전 고정.
🧠 AI 프레임워크
CUDA/cuDNN, PyTorch, transformers, bitsandbytes 등 최적화 옵션.
🔐 격리/보안
프로젝트/VPC 격리, 보안그룹, "디도스 보호(프록시)" 옵션 연동.
📈 확장/스케줄
GPU/CPU/메모리 조정, 예약/자동 중지로 비용 최적화.
환경 / 개발 툴
영역 구성 설명
IDE JupyterLab, VS Code Server 브라우저 접근, 확장(SSH-remote, Python, Copilot류) 지원
런타임 Python/Conda, Mamba, Node, CUDA 프로젝트별 가상환경, 캐시/패키지 고정
컨테이너 Docker(옵션) 이미지로 이식성 확보, CI/CD와 연동
접속 SSO/SSH, 토큰 권한/역할(IAM)과 연동
협업 Git, 노트북 공유 읽기/편집 권한 및 실행 토큰 분리
Entry RTX 계열
  • 예: RTX 6000 Ada(48GB)
  • 소/중규모 추론, 시각화, 경량 튜닝
  • 최대 동시 세션 수 제한 존재
Balanced L40S 계열
  • 예: L40S(48GB)
  • 멀티모달 추론/RAG, 중간 규모 튜닝
  • FP8/TF32 최적화 경로
Premium A100 계열
  • 예: A100 80GB
  • 대형 LLM 파인튜닝/고성능 추론
  • NVLink/멀티 GPU(옵션)
사양 표(예시)
GPU VRAM vCPU / RAM 저장소 용도
RTX 6000 Ada 48GB 8~16 vCPU / 32~64GB NVMe 200~500GB 경량 튜닝 / 시각화
L40S 48GB 16~32 vCPU / 64~128GB NVMe 400GB~1TB 중간 규모 학습/추론
A100 80GB 32~64 vCPU / 128~256GB NVMe 1~2TB 대규모 LLM 튜닝
* 재고/옵션은 리전/기간에 따라 상이. 실제 구성은 상담 후 확정.
원클릭 템플릿
예시: Llama 추론
pip install transformers accelerate bitsandbytes
python - <<'PY'
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
m = 'meta-llama/Llama-3.1-8B-Instruct'
tok = AutoTokenizer.from_pretrained(m)
model = AutoModelForCausalLM.from_pretrained(m, torch_dtype=torch.float16, device_map='auto')
print(model.generate(**tok('Hello, world!', return_tensors='pt').to(model.device), max_new_tokens=32))
PY
예시: 간단 RAG
pip install llama-index sentence-transformers faiss-cpu
python - <<'PY'
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.core.node_parser import SimpleNodeParser
from llama_index.core import Settings
from sentence_transformers import SentenceTransformer
Settings.embed_model = SentenceTransformer('sentence-transformers/all-MiniLM-L6-v2')
docs = SimpleDirectoryReader('docs').load_data()
index = VectorStoreIndex.from_documents(docs)
print(index.as_query_engine().query('요약해줘'))
PY
예시: SFT 파인튜닝
pip install trl peft accelerate transformers datasets bitsandbytes
python - <<'PY'
from trl import SFTTrainer
from transformers import AutoTokenizer, AutoModelForCausalLM
model='meta-llama/Llama-3.1-8B'
tok=AutoTokenizer.from_pretrained(model)
mdl=AutoModelForCausalLM.from_pretrained(model, load_in_8bit=True, device_map='auto')
trainer=SFTTrainer(model=mdl, tokenizer=tok, train_dataset=[{'text':'hello'}], max_seq_length=512)
trainer.train()
PY
예시: 이미지 생성
pip install diffusers accelerate transformers safetensors
python - <<'PY'
from diffusers import StableDiffusionPipeline
import torch
p = StableDiffusionPipeline.from_pretrained('runwayml/stable-diffusion-v1-5', torch_dtype=torch.float16).to('cuda')
img = p('a cozy workspace with a GPU').images[0]
img.save('out.png')
PY
네트워크 / 보안
항목 구성 비고
VPC/서브넷 프로젝트 격리, 프라이빗 라우팅 보안그룹/네트워크 ACL 연동
퍼블릭 엑세스 도메인+TLS, 포트 제한 IP 허용목록, 세션 시간 제한
디도스 보호(프록시) L4/L7 프록시, 레이트 제한 WAF/봇 차단(옵션)
감사/로그 접속/실행 이벤트 기록 SIEM/웹훅 연동
스토리지 / 스냅샷
영역 옵션 설명
워크스페이스 NVMe SSD 프로젝트/캐시용 고속 로컬 디스크
데이터셋 파일 스토리지(NFS/SMB) 공유 마운트, 액세스 제어
오브젝트 S3 호환 모델/체크포인트 버저닝
스냅샷 이미지/스냅샷 한 클릭 복원/복제
가격 안내
요금: 별도문의

GPU 종류/수량, vCPU·RAM, 스토리지 용량/종류, 네트워크(egress), 디도스 보호(프록시) 옵션, 이용 시간(온디맨드/예약)에 따라 산정됩니다.

GPU 워크스페이스로 바로 실험하고 배포하세요
요건을 알려주시면 최적의 GPU/스토리지 구성을 제안드립니다.