Перейти к основному содержимому
Назад к блогу
Tutorial

RunPod para Iniciantes: Guia Passo a Passo

10.03.2026
14 min чтения

RunPod para Iniciantes: Guia Passo a Passo

Introducao

RunPod e uma das plataformas de GPU cloud mais populares de 2026, conhecida pela facilidade de uso e bom custo-beneficio. Se voce nunca usou GPU cloud antes, este guia vai te levar do zero ao seu primeiro treinamento de IA.

Por Que RunPod?

  • Interface intuitiva: -- dashboard limpo e facil de navegar
  • Templates prontos: -- comece em 1 clique com PyTorch, SD, ComfyUI
  • Precos competitivos: -- RTX 4090 a $0.44/hr, A100 80GB a $1.89/hr
  • Serverless: -- pague por request para inferencia
  • Comunidade ativa: -- Discord com suporte rapido
  • Passo 1: Criar Conta e Adicionar Credito

    1. Acesse [runpod.io](https://runpod.io/?ref=t24bnbpm)

    2. Clique em "Sign Up" e crie sua conta

    3. Va em "Billing" no menu lateral

    4. Adicione credito: minimo $10 (cartao de credito ou cripto)

    5. Ative alertas de gastos em "Settings" > "Spending Alerts"

    Passo 2: Entender os Tipos de Instancia

    Pods (GPU dedicada)

  • Voce aluga uma GPU dedicada por hora
  • Acesso total via SSH, Jupyter, VS Code
  • Ideal para treinamento e desenvolvimento
  • Serverless (Pay-per-request)

  • Pague apenas quando a GPU esta processando
  • Auto-escala de 0 a N GPUs
  • Ideal para APIs de inferencia em producao
  • Secure Cloud vs Community Cloud

  • Secure Cloud:: Data centers certificados, melhor uptime, preco mais alto
  • Community Cloud:: Hosts individuais, precos menores, pode ter interrupcoes
  • Passo 3: Criar Seu Primeiro Pod

    Exemplo: Pod para Fine-Tuning

    1. Va em "Pods" no menu lateral

    2. Clique em "Deploy"

    3. Selecione a GPU:

    - **RTX 4090** ($0.44/hr) -- para modelos ate 13B

    - **A100 80GB** ($1.89/hr) -- para modelos ate 70B

    4. Escolha o template:

    - **RunPod PyTorch** -- para treinamento geral

    - **RunPod Transformers** -- para Hugging Face

    5. Configure o armazenamento:

    - **Container Disk:** 20GB (temporario)

    - **Volume:** 50GB+ (persistente, $0.10/GB/mes)

    6. Clique em "Deploy"

    Acessar o Pod

    Apos deploy (1-2 minutos), voce tem 3 opcoes:

  • JupyterLab:: Clique em "Connect" > "Jupyter" -- interface no navegador
  • Terminal Web:: Clique em "Connect" > "Terminal"
  • SSH:: Use o comando SSH mostrado no dashboard
  • Passo 4: Configurar Ambiente

    Via JupyterLab (mais facil)

    Abra um terminal no JupyterLab e instale suas dependencias:

    ```bash

    Verificar GPU

    nvidia-smi

    Instalar bibliotecas

    pip install transformers peft bitsandbytes accelerate datasets

    Verificar PyTorch + CUDA

    python -c "import torch; print(torch.cuda.is_available())"

    ```

    Passo 5: Rodar um Treinamento

    Exemplo Pratico: Fine-Tuning LLaMA 3 8B com QLoRA

    ```python

    from transformers import (

    AutoModelForCausalLM, AutoTokenizer,

    TrainingArguments, Trainer, BitsAndBytesConfig

    )

    from peft import LoraConfig, get_peft_model

    from datasets import load_dataset

    Configurar quantizacao 4-bit

    bnb_config = BitsAndBytesConfig(

    load_in_4bit=True,

    bnb_4bit_compute_dtype="bfloat16",

    bnb_4bit_quant_type="nf4",

    )

    Carregar modelo e tokenizer

    model = AutoModelForCausalLM.from_pretrained(

    "meta-llama/Llama-3-8B",

    quantization_config=bnb_config,

    )

    tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-3-8B")

    Configurar LoRA

    lora_config = LoraConfig(r=16, lora_alpha=32, target_modules=["q_proj", "v_proj"])

    model = get_peft_model(model, lora_config)

    Carregar dataset

    dataset = load_dataset("seu_dataset")

    Treinar

    training_args = TrainingArguments(

    output_dir="/workspace/volume/checkpoints", # Salvar no volume persistente!

    num_train_epochs=3,

    per_device_train_batch_size=4,

    save_strategy="steps",

    save_steps=500,

    bf16=True,

    )

    trainer = Trainer(model=model, args=training_args, train_dataset=dataset["train"])

    trainer.train()

    ```

    Passo 6: Usar Network Volumes

    Network Volumes sao armazenamento persistente que sobrevive quando voce desliga o pod.

    Criar Volume

    1. Va em "Storage" > "Network Volumes"

    2. Clique em "Create Volume"

    3. Escolha regiao (mesma do pod!) e tamanho

    4. Custo: $0.10/GB/mes

    Montar no Pod

    Ao criar o pod, selecione seu volume. Ele aparece em `/workspace/volume/`.

    **DICA IMPORTANTE:** Sempre salve checkpoints e resultados no volume, nao no container disk. O container disk e apagado quando o pod e destruido.

    Passo 7: Parar e Gerenciar Custos

    Parar vs Destruir

  • Stop:: Para o pod, mantem volume e container. Cobra so armazenamento.
  • Destroy:: Remove tudo. Dados no container disk sao perdidos. Volume persiste.
  • Dicas de Economia

    Pare pods quando nao estiver usando: -- nao pague GPU ociosa

    Use Community Cloud: -- 20-40% mais barato que Secure Cloud

    Spots:: Selecione "Spot" ao criar pod para precos menores

    Serverless para inferencia: -- escala a zero quando sem requests

    Monitore gastos: -- ative alertas em Settings

    Passo 8: RunPod Serverless (Bonus)

    Para APIs de inferencia, Serverless e ideal:

    1. Va em "Serverless" > "Endpoints"

    2. Selecione template (ex: vLLM, Stable Diffusion)

    3. Configure GPU e scaling (min 0, max N workers)

    4. Obtenha URL da API

    5. Faca requests:

    ```bash

    curl -X POST https://api.runpod.ai/v2/YOUR_ENDPOINT/run \

    -H "Authorization: Bearer YOUR_API_KEY" \

    -H "Content-Type: application/json" \

    -d '{"input": {"prompt": "Hello, how are you?"}}'

    ```

    Problemas Comuns

    Pod nao inicia

  • Verifique se tem credito suficiente
  • Tente outra GPU ou regiao
  • Community Cloud pode ter fila
  • Dados perdidos apos reiniciar

  • Voce salvou no container disk (temporario)
  • Sempre use Network Volume para dados importantes
  • GPU nao detectada

  • Reinstale: `pip install torch --extra-index-url https://download.pytorch.org/whl/cu121`
  • Conclusao

    RunPod e a plataforma ideal para quem esta comecando com GPU cloud. A interface e simples, os templates economizam tempo, e os precos sao justos. Comece com um pod RTX 4090, siga este tutorial, e voce estara treinando modelos de IA em minutos.

    Comparar RunPod com outros provedores -->

    LF

    Lucas Ferreira

    Senior AI Engineer

    Ex-NVIDIA, spent 3 years benchmarking data center GPUs. Now helps teams pick the right hardware for their ML workloads. Ran inference benchmarks on every GPU generation since Volta.

    GPU BenchmarksInference OptimizationCUDAHardware

    Готовы экономить?

    Сравните цены на GPU облака и найдите лучшего провайдера для вашего случая.

    Начать Сравнение

    Похожие Статьи

    Tutorial

    Como Usar o RunPod: Tutorial Completo para Iniciantes

    Passo a passo completo: criação de conta, escolha de GPU, templates, conexão via SSH e Jupyter, upload de dados, treinamento e download de resultados.

    15.03.202610 min
    Read More
    Tutorial

    Fine-tuning do LLaMA 3 na Nuvem: Passo a Passo

    O que é fine-tuning, LoRA vs QLoRA vs full fine-tuning, requisitos de GPU, passo a passo com HuggingFace + PEFT no RunPod e como avaliar e deployar o modelo.

    13.03.202611 min
    Read More
    Tutorial

    Como Usar Vast.ai: Tutorial Completo

    Tutorial passo a passo para comecar a usar Vast.ai. Aprenda a criar conta, escolher GPU, configurar instancia e otimizar custos.

    11.03.202612 min
    Read More