Aller au contenu principal
Retour au blog
Tutorial

RunPod para Iniciantes: Guia Passo a Passo

10/03/2026
14 min de lecture

RunPod para Iniciantes: Guia Passo a Passo

Introducao

RunPod e uma das plataformas de GPU cloud mais populares de 2026, conhecida pela facilidade de uso e bom custo-beneficio. Se voce nunca usou GPU cloud antes, este guia vai te levar do zero ao seu primeiro treinamento de IA.

Por Que RunPod?

  • Interface intuitiva: -- dashboard limpo e facil de navegar
  • Templates prontos: -- comece em 1 clique com PyTorch, SD, ComfyUI
  • Precos competitivos: -- RTX 4090 a $0.44/hr, A100 80GB a $1.89/hr
  • Serverless: -- pague por request para inferencia
  • Comunidade ativa: -- Discord com suporte rapido
  • Passo 1: Criar Conta e Adicionar Credito

    1. Acesse [runpod.io](https://runpod.io/?ref=t24bnbpm)

    2. Clique em "Sign Up" e crie sua conta

    3. Va em "Billing" no menu lateral

    4. Adicione credito: minimo $10 (cartao de credito ou cripto)

    5. Ative alertas de gastos em "Settings" > "Spending Alerts"

    Passo 2: Entender os Tipos de Instancia

    Pods (GPU dedicada)

  • Voce aluga uma GPU dedicada por hora
  • Acesso total via SSH, Jupyter, VS Code
  • Ideal para treinamento e desenvolvimento
  • Serverless (Pay-per-request)

  • Pague apenas quando a GPU esta processando
  • Auto-escala de 0 a N GPUs
  • Ideal para APIs de inferencia em producao
  • Secure Cloud vs Community Cloud

  • Secure Cloud:: Data centers certificados, melhor uptime, preco mais alto
  • Community Cloud:: Hosts individuais, precos menores, pode ter interrupcoes
  • Passo 3: Criar Seu Primeiro Pod

    Exemplo: Pod para Fine-Tuning

    1. Va em "Pods" no menu lateral

    2. Clique em "Deploy"

    3. Selecione a GPU:

    - **RTX 4090** ($0.44/hr) -- para modelos ate 13B

    - **A100 80GB** ($1.89/hr) -- para modelos ate 70B

    4. Escolha o template:

    - **RunPod PyTorch** -- para treinamento geral

    - **RunPod Transformers** -- para Hugging Face

    5. Configure o armazenamento:

    - **Container Disk:** 20GB (temporario)

    - **Volume:** 50GB+ (persistente, $0.10/GB/mes)

    6. Clique em "Deploy"

    Acessar o Pod

    Apos deploy (1-2 minutos), voce tem 3 opcoes:

  • JupyterLab:: Clique em "Connect" > "Jupyter" -- interface no navegador
  • Terminal Web:: Clique em "Connect" > "Terminal"
  • SSH:: Use o comando SSH mostrado no dashboard
  • Passo 4: Configurar Ambiente

    Via JupyterLab (mais facil)

    Abra um terminal no JupyterLab e instale suas dependencias:

    ```bash

    Verificar GPU

    nvidia-smi

    Instalar bibliotecas

    pip install transformers peft bitsandbytes accelerate datasets

    Verificar PyTorch + CUDA

    python -c "import torch; print(torch.cuda.is_available())"

    ```

    Passo 5: Rodar um Treinamento

    Exemplo Pratico: Fine-Tuning LLaMA 3 8B com QLoRA

    ```python

    from transformers import (

    AutoModelForCausalLM, AutoTokenizer,

    TrainingArguments, Trainer, BitsAndBytesConfig

    )

    from peft import LoraConfig, get_peft_model

    from datasets import load_dataset

    Configurar quantizacao 4-bit

    bnb_config = BitsAndBytesConfig(

    load_in_4bit=True,

    bnb_4bit_compute_dtype="bfloat16",

    bnb_4bit_quant_type="nf4",

    )

    Carregar modelo e tokenizer

    model = AutoModelForCausalLM.from_pretrained(

    "meta-llama/Llama-3-8B",

    quantization_config=bnb_config,

    )

    tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-3-8B")

    Configurar LoRA

    lora_config = LoraConfig(r=16, lora_alpha=32, target_modules=["q_proj", "v_proj"])

    model = get_peft_model(model, lora_config)

    Carregar dataset

    dataset = load_dataset("seu_dataset")

    Treinar

    training_args = TrainingArguments(

    output_dir="/workspace/volume/checkpoints", # Salvar no volume persistente!

    num_train_epochs=3,

    per_device_train_batch_size=4,

    save_strategy="steps",

    save_steps=500,

    bf16=True,

    )

    trainer = Trainer(model=model, args=training_args, train_dataset=dataset["train"])

    trainer.train()

    ```

    Passo 6: Usar Network Volumes

    Network Volumes sao armazenamento persistente que sobrevive quando voce desliga o pod.

    Criar Volume

    1. Va em "Storage" > "Network Volumes"

    2. Clique em "Create Volume"

    3. Escolha regiao (mesma do pod!) e tamanho

    4. Custo: $0.10/GB/mes

    Montar no Pod

    Ao criar o pod, selecione seu volume. Ele aparece em `/workspace/volume/`.

    **DICA IMPORTANTE:** Sempre salve checkpoints e resultados no volume, nao no container disk. O container disk e apagado quando o pod e destruido.

    Passo 7: Parar e Gerenciar Custos

    Parar vs Destruir

  • Stop:: Para o pod, mantem volume e container. Cobra so armazenamento.
  • Destroy:: Remove tudo. Dados no container disk sao perdidos. Volume persiste.
  • Dicas de Economia

    Pare pods quando nao estiver usando: -- nao pague GPU ociosa

    Use Community Cloud: -- 20-40% mais barato que Secure Cloud

    Spots:: Selecione "Spot" ao criar pod para precos menores

    Serverless para inferencia: -- escala a zero quando sem requests

    Monitore gastos: -- ative alertas em Settings

    Passo 8: RunPod Serverless (Bonus)

    Para APIs de inferencia, Serverless e ideal:

    1. Va em "Serverless" > "Endpoints"

    2. Selecione template (ex: vLLM, Stable Diffusion)

    3. Configure GPU e scaling (min 0, max N workers)

    4. Obtenha URL da API

    5. Faca requests:

    ```bash

    curl -X POST https://api.runpod.ai/v2/YOUR_ENDPOINT/run \

    -H "Authorization: Bearer YOUR_API_KEY" \

    -H "Content-Type: application/json" \

    -d '{"input": {"prompt": "Hello, how are you?"}}'

    ```

    Problemas Comuns

    Pod nao inicia

  • Verifique se tem credito suficiente
  • Tente outra GPU ou regiao
  • Community Cloud pode ter fila
  • Dados perdidos apos reiniciar

  • Voce salvou no container disk (temporario)
  • Sempre use Network Volume para dados importantes
  • GPU nao detectada

  • Reinstale: `pip install torch --extra-index-url https://download.pytorch.org/whl/cu121`
  • Conclusao

    RunPod e a plataforma ideal para quem esta comecando com GPU cloud. A interface e simples, os templates economizam tempo, e os precos sao justos. Comece com um pod RTX 4090, siga este tutorial, e voce estara treinando modelos de IA em minutos.

    Comparar RunPod com outros provedores -->

    LF

    Lucas Ferreira

    Senior AI Engineer

    Ex-NVIDIA, spent 3 years benchmarking data center GPUs. Now helps teams pick the right hardware for their ML workloads. Ran inference benchmarks on every GPU generation since Volta.

    GPU BenchmarksInference OptimizationCUDAHardware

    Prêt à économiser ?

    Comparez les prix du GPU cloud et trouvez le meilleur fournisseur pour votre cas d'utilisation.

    Commencer à Comparer

    Articles Connexes

    Tutorial

    Como Usar o RunPod: Tutorial Completo para Iniciantes

    Passo a passo completo: criação de conta, escolha de GPU, templates, conexão via SSH e Jupyter, upload de dados, treinamento e download de resultados.

    15/03/202610 min
    Read More
    Tutorial

    Fine-tuning do LLaMA 3 na Nuvem: Passo a Passo

    O que é fine-tuning, LoRA vs QLoRA vs full fine-tuning, requisitos de GPU, passo a passo com HuggingFace + PEFT no RunPod e como avaliar e deployar o modelo.

    13/03/202611 min
    Read More
    Tutorial

    Como Usar Vast.ai: Tutorial Completo

    Tutorial passo a passo para comecar a usar Vast.ai. Aprenda a criar conta, escolher GPU, configurar instancia e otimizar custos.

    11/03/202612 min
    Read More