Aula 10 - Treinamento de uma Rede Neural 🔥
Como uma rede neural aprende? Ela não nasce sabendo; ela ajusta seus próprios erros em um processo chamado Treinamento.
🎯 O Conceito de Erro (Loss)
O treinamento começa com palpites aleatórios. O computador compara o palpite da rede com a resposta real e calcula a "distância": esse é o Erro (Loss).
📉 Gradiente Descendente
Imagine que você está no topo de uma montanha (Erro Alto) e quer chegar ao vale (Erro Mínimo) no meio da neblina. Você sente a inclinação do chão com os pés e dá um passo para baixo.
Processo
O Gradiente Descendente calcula para qual direção os pesos devem mudar para diminuir o erro no próximo passo.
🔄 Backpropagation (Propagação de Erro)
É o "fofoqueiro" da rede. Ele começa na saída, vê o erro e volta avisando cada neurônio: "Ei, você errou por x, ajuste seu peso!".
graph LR
A["Entrada"] --> B["Processamento"]
B --> C["Saída (Palpite)"]
C --> D["Cálculo do Erro"]
D -- "Backpropagation" --> B
style D fill:#f66,stroke:#333
💻 Visualizando no Terminal
🧠 Dica do Especialista
O que é uma Época?
Uma Época é uma rodada completa de estudo onde a rede vê todos os dados de treinamento uma vez. Geralmente precisamos de dezenas ou centenas de épocas.
🚀 Mini-Projeto
Desafio: Explique para alguém que não entende de IA como o "Backpropagation" é parecido com o feedback de um professor corrigindo uma prova.