Pular para conteúdo

Aula 10 - Treinamento de uma Rede Neural 🔥

Como uma rede neural aprende? Ela não nasce sabendo; ela ajusta seus próprios erros em um processo chamado Treinamento.

🎯 O Conceito de Erro (Loss)

O treinamento começa com palpites aleatórios. O computador compara o palpite da rede com a resposta real e calcula a "distância": esse é o Erro (Loss).


📉 Gradiente Descendente

Imagine que você está no topo de uma montanha (Erro Alto) e quer chegar ao vale (Erro Mínimo) no meio da neblina. Você sente a inclinação do chão com os pés e dá um passo para baixo.

Processo

O Gradiente Descendente calcula para qual direção os pesos devem mudar para diminuir o erro no próximo passo.


🔄 Backpropagation (Propagação de Erro)

É o "fofoqueiro" da rede. Ele começa na saída, vê o erro e volta avisando cada neurônio: "Ei, você errou por x, ajuste seu peso!".

graph LR
    A["Entrada"] --> B["Processamento"]
    B --> C["Saída (Palpite)"]
    C --> D["Cálculo do Erro"]
    D -- "Backpropagation" --> B
    style D fill:#f66,stroke:#333

💻 Visualizando no Terminal

$ rede-neural --treinar --epocas 5
> Época 1: Erro = 0.85 (Ajustando pesos...)
> Época 2: Erro = 0.42 (Melhorando...)
> Época 3: Erro = 0.15 (Quase lá...)
> Época 4: Erro = 0.05 (Excelente!)
> Época 5: Erro = 0.01 (Aprendizado Concluído!)

🧠 Dica do Especialista

O que é uma Época?

Uma Época é uma rodada completa de estudo onde a rede vê todos os dados de treinamento uma vez. Geralmente precisamos de dezenas ou centenas de épocas.


🚀 Mini-Projeto

Desafio: Explique para alguém que não entende de IA como o "Backpropagation" é parecido com o feedback de um professor corrigindo uma prova.


Próxima Aula: Introdução ao Deep Learning