RunPod para Iniciantes: Guia Passo a Passo
RunPod para Iniciantes: Guia Passo a Passo
Introducao
RunPod e uma das plataformas de GPU cloud mais populares de 2026, conhecida pela facilidade de uso e bom custo-beneficio. Se voce nunca usou GPU cloud antes, este guia vai te levar do zero ao seu primeiro treinamento de IA.
Por Que RunPod?
Passo 1: Criar Conta e Adicionar Credito
1. Acesse [runpod.io](https://runpod.io/?ref=t24bnbpm)
2. Clique em "Sign Up" e crie sua conta
3. Va em "Billing" no menu lateral
4. Adicione credito: minimo $10 (cartao de credito ou cripto)
5. Ative alertas de gastos em "Settings" > "Spending Alerts"
Passo 2: Entender os Tipos de Instancia
Pods (GPU dedicada)
Serverless (Pay-per-request)
Secure Cloud vs Community Cloud
Passo 3: Criar Seu Primeiro Pod
Exemplo: Pod para Fine-Tuning
1. Va em "Pods" no menu lateral
2. Clique em "Deploy"
3. Selecione a GPU:
- **RTX 4090** ($0.44/hr) -- para modelos ate 13B
- **A100 80GB** ($1.89/hr) -- para modelos ate 70B
4. Escolha o template:
- **RunPod PyTorch** -- para treinamento geral
- **RunPod Transformers** -- para Hugging Face
5. Configure o armazenamento:
- **Container Disk:** 20GB (temporario)
- **Volume:** 50GB+ (persistente, $0.10/GB/mes)
6. Clique em "Deploy"
Acessar o Pod
Apos deploy (1-2 minutos), voce tem 3 opcoes:
Passo 4: Configurar Ambiente
Via JupyterLab (mais facil)
Abra um terminal no JupyterLab e instale suas dependencias:
```bash
Verificar GPU
nvidia-smi
Instalar bibliotecas
pip install transformers peft bitsandbytes accelerate datasets
Verificar PyTorch + CUDA
python -c "import torch; print(torch.cuda.is_available())"
```
Passo 5: Rodar um Treinamento
Exemplo Pratico: Fine-Tuning LLaMA 3 8B com QLoRA
```python
from transformers import (
AutoModelForCausalLM, AutoTokenizer,
TrainingArguments, Trainer, BitsAndBytesConfig
)
from peft import LoraConfig, get_peft_model
from datasets import load_dataset
Configurar quantizacao 4-bit
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype="bfloat16",
bnb_4bit_quant_type="nf4",
)
Carregar modelo e tokenizer
model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Llama-3-8B",
quantization_config=bnb_config,
)
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-3-8B")
Configurar LoRA
lora_config = LoraConfig(r=16, lora_alpha=32, target_modules=["q_proj", "v_proj"])
model = get_peft_model(model, lora_config)
Carregar dataset
dataset = load_dataset("seu_dataset")
Treinar
training_args = TrainingArguments(
output_dir="/workspace/volume/checkpoints", # Salvar no volume persistente!
num_train_epochs=3,
per_device_train_batch_size=4,
save_strategy="steps",
save_steps=500,
bf16=True,
)
trainer = Trainer(model=model, args=training_args, train_dataset=dataset["train"])
trainer.train()
```
Passo 6: Usar Network Volumes
Network Volumes sao armazenamento persistente que sobrevive quando voce desliga o pod.
Criar Volume
1. Va em "Storage" > "Network Volumes"
2. Clique em "Create Volume"
3. Escolha regiao (mesma do pod!) e tamanho
4. Custo: $0.10/GB/mes
Montar no Pod
Ao criar o pod, selecione seu volume. Ele aparece em `/workspace/volume/`.
**DICA IMPORTANTE:** Sempre salve checkpoints e resultados no volume, nao no container disk. O container disk e apagado quando o pod e destruido.
Passo 7: Parar e Gerenciar Custos
Parar vs Destruir
Dicas de Economia
Pare pods quando nao estiver usando: -- nao pague GPU ociosa
Use Community Cloud: -- 20-40% mais barato que Secure Cloud
Spots:: Selecione "Spot" ao criar pod para precos menores
Serverless para inferencia: -- escala a zero quando sem requests
Monitore gastos: -- ative alertas em Settings
Passo 8: RunPod Serverless (Bonus)
Para APIs de inferencia, Serverless e ideal:
1. Va em "Serverless" > "Endpoints"
2. Selecione template (ex: vLLM, Stable Diffusion)
3. Configure GPU e scaling (min 0, max N workers)
4. Obtenha URL da API
5. Faca requests:
```bash
curl -X POST https://api.runpod.ai/v2/YOUR_ENDPOINT/run \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{"input": {"prompt": "Hello, how are you?"}}'
```
Problemas Comuns
Pod nao inicia
Dados perdidos apos reiniciar
GPU nao detectada
Conclusao
RunPod e a plataforma ideal para quem esta comecando com GPU cloud. A interface e simples, os templates economizam tempo, e os precos sao justos. Comece com um pod RTX 4090, siga este tutorial, e voce estara treinando modelos de IA em minutos.
Lucas Ferreira
Senior AI Engineer
Ex-NVIDIA, spent 3 years benchmarking data center GPUs. Now helps teams pick the right hardware for their ML workloads. Ran inference benchmarks on every GPU generation since Volta.
Prêt à économiser ?
Comparez les prix du GPU cloud et trouvez le meilleur fournisseur pour votre cas d'utilisation.
Commencer à ComparerArticles Connexes
Como Usar o RunPod: Tutorial Completo para Iniciantes
Passo a passo completo: criação de conta, escolha de GPU, templates, conexão via SSH e Jupyter, upload de dados, treinamento e download de resultados.
Fine-tuning do LLaMA 3 na Nuvem: Passo a Passo
O que é fine-tuning, LoRA vs QLoRA vs full fine-tuning, requisitos de GPU, passo a passo com HuggingFace + PEFT no RunPod e como avaliar e deployar o modelo.
Como Usar Vast.ai: Tutorial Completo
Tutorial passo a passo para comecar a usar Vast.ai. Aprenda a criar conta, escolher GPU, configurar instancia e otimizar custos.