RunPod para Iniciantes: Guia Passo a Passo
RunPod para Iniciantes: Guia Passo a Passo
Introducao
RunPod e uma das plataformas de GPU cloud mais populares de 2026, conhecida pela facilidade de uso e bom custo-beneficio. Se voce nunca usou GPU cloud antes, este guia vai te levar do zero ao seu primeiro treinamento de IA.
Por Que RunPod?
Passo 1: Criar Conta e Adicionar Credito
1. Acesse [runpod.io](https://runpod.io/?ref=t24bnbpm)
2. Clique em "Sign Up" e crie sua conta
3. Va em "Billing" no menu lateral
4. Adicione credito: minimo $10 (cartao de credito ou cripto)
5. Ative alertas de gastos em "Settings" > "Spending Alerts"
Passo 2: Entender os Tipos de Instancia
Pods (GPU dedicada)
Serverless (Pay-per-request)
Secure Cloud vs Community Cloud
Passo 3: Criar Seu Primeiro Pod
Exemplo: Pod para Fine-Tuning
1. Va em "Pods" no menu lateral
2. Clique em "Deploy"
3. Selecione a GPU:
- **RTX 4090** ($0.44/hr) -- para modelos ate 13B
- **A100 80GB** ($1.89/hr) -- para modelos ate 70B
4. Escolha o template:
- **RunPod PyTorch** -- para treinamento geral
- **RunPod Transformers** -- para Hugging Face
5. Configure o armazenamento:
- **Container Disk:** 20GB (temporario)
- **Volume:** 50GB+ (persistente, $0.10/GB/mes)
6. Clique em "Deploy"
Acessar o Pod
Apos deploy (1-2 minutos), voce tem 3 opcoes:
Passo 4: Configurar Ambiente
Via JupyterLab (mais facil)
Abra um terminal no JupyterLab e instale suas dependencias:
```bash
Verificar GPU
nvidia-smi
Instalar bibliotecas
pip install transformers peft bitsandbytes accelerate datasets
Verificar PyTorch + CUDA
python -c "import torch; print(torch.cuda.is_available())"
```
Passo 5: Rodar um Treinamento
Exemplo Pratico: Fine-Tuning LLaMA 3 8B com QLoRA
```python
from transformers import (
AutoModelForCausalLM, AutoTokenizer,
TrainingArguments, Trainer, BitsAndBytesConfig
)
from peft import LoraConfig, get_peft_model
from datasets import load_dataset
Configurar quantizacao 4-bit
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype="bfloat16",
bnb_4bit_quant_type="nf4",
)
Carregar modelo e tokenizer
model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Llama-3-8B",
quantization_config=bnb_config,
)
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-3-8B")
Configurar LoRA
lora_config = LoraConfig(r=16, lora_alpha=32, target_modules=["q_proj", "v_proj"])
model = get_peft_model(model, lora_config)
Carregar dataset
dataset = load_dataset("seu_dataset")
Treinar
training_args = TrainingArguments(
output_dir="/workspace/volume/checkpoints", # Salvar no volume persistente!
num_train_epochs=3,
per_device_train_batch_size=4,
save_strategy="steps",
save_steps=500,
bf16=True,
)
trainer = Trainer(model=model, args=training_args, train_dataset=dataset["train"])
trainer.train()
```
Passo 6: Usar Network Volumes
Network Volumes sao armazenamento persistente que sobrevive quando voce desliga o pod.
Criar Volume
1. Va em "Storage" > "Network Volumes"
2. Clique em "Create Volume"
3. Escolha regiao (mesma do pod!) e tamanho
4. Custo: $0.10/GB/mes
Montar no Pod
Ao criar o pod, selecione seu volume. Ele aparece em `/workspace/volume/`.
**DICA IMPORTANTE:** Sempre salve checkpoints e resultados no volume, nao no container disk. O container disk e apagado quando o pod e destruido.
Passo 7: Parar e Gerenciar Custos
Parar vs Destruir
Dicas de Economia
Pare pods quando nao estiver usando: -- nao pague GPU ociosa
Use Community Cloud: -- 20-40% mais barato que Secure Cloud
Spots:: Selecione "Spot" ao criar pod para precos menores
Serverless para inferencia: -- escala a zero quando sem requests
Monitore gastos: -- ative alertas em Settings
Passo 8: RunPod Serverless (Bonus)
Para APIs de inferencia, Serverless e ideal:
1. Va em "Serverless" > "Endpoints"
2. Selecione template (ex: vLLM, Stable Diffusion)
3. Configure GPU e scaling (min 0, max N workers)
4. Obtenha URL da API
5. Faca requests:
```bash
curl -X POST https://api.runpod.ai/v2/YOUR_ENDPOINT/run \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{"input": {"prompt": "Hello, how are you?"}}'
```
Problemas Comuns
Pod nao inicia
Dados perdidos apos reiniciar
GPU nao detectada
Conclusao
RunPod e a plataforma ideal para quem esta comecando com GPU cloud. A interface e simples, os templates economizam tempo, e os precos sao justos. Comece com um pod RTX 4090, siga este tutorial, e voce estara treinando modelos de IA em minutos.
Lucas Ferreira
Senior AI Engineer
Ex-NVIDIA, spent 3 years benchmarking data center GPUs. Now helps teams pick the right hardware for their ML workloads. Ran inference benchmarks on every GPU generation since Volta.
Bereit zum Sparen?
Vergleichen Sie GPU-Cloud-Preise und finden Sie den besten Anbieter für Ihren Anwendungsfall.
Vergleich StartenVerwandte Artikel
Como Usar o RunPod: Tutorial Completo para Iniciantes
Passo a passo completo: criação de conta, escolha de GPU, templates, conexão via SSH e Jupyter, upload de dados, treinamento e download de resultados.
Fine-tuning do LLaMA 3 na Nuvem: Passo a Passo
O que é fine-tuning, LoRA vs QLoRA vs full fine-tuning, requisitos de GPU, passo a passo com HuggingFace + PEFT no RunPod e como avaliar e deployar o modelo.
Como Usar Vast.ai: Tutorial Completo
Tutorial passo a passo para comecar a usar Vast.ai. Aprenda a criar conta, escolher GPU, configurar instancia e otimizar custos.