Pular para conteúdo

Aula 07 - Overfitting e Underfitting 🎯

Criar um modelo é fácil; criar um modelo que funciona no mundo real é o desafio. Hoje vamos falar sobre o equilíbrio perfeito.

🧠 O que é Generalização?

Generalização é a capacidade de um modelo performar bem em dados que ele nunca viu antes.


⚖️ Os Dois Extremos

1. Underfitting (Subajuste)

O modelo é simples demais e não aprende nem os dados de treino direito. - Exemplo: Tentar prever o mercado financeiro usando apenas um dado (ex: dia da semana). - Sintoma: Erro alto tanto no treino quanto no teste.

2. Overfitting (Sobreajuste)

O modelo é complexo demais e "decora" os dados de treino, incluindo os ruídos e erros. - Exemplo: Um aluno que decora as respostas do simulado mas não entende a matéria. - Sintoma: Erro baixíssimo no treino, mas erro altíssimo no teste.


📊 Visualizando o Equilíbrio

graph LR
    A["Underfitting (Simples)"] --- B["Just Right (Equilíbrio)"]
    B --- C["Overfitting (Complexo)"]
    style B fill:#f9f,stroke:#333,stroke-width:4px

🛠️ Como Evitar Problemas?

$ boas-praticas --ia
> 1. Divisão Treino/Teste (Obrigatório!)
> 2. Validação Cruzada (Cross-Validation).
> 3. Simplificação do modelo.
> 4. Aumento da quantidade de dados.

🎓 Conceito Importante

Validação Cruzada

Em vez de dividir os dados apenas uma vez, dividimos várias vezes e tiramos a média. É como fazer vários simulados diferentes para garantir que você realmente aprendeu a matéria.


🚀 Mini-Projeto

Desafio: Se o seu modelo tem 99% de acerto no treino e 60% no teste, o que está acontecendo? Que ação você tomaria para corrigir?


Próxima Aula: Introdução às Redes Neurais