Projeto 09 - Comparativo: Sigmoid vs ReLU ⚡
Neste projeto, você vai comparar o comportamento visual e numérico das duas funções de ativação mais famosas.
🎯 Objetivo
Entender como a escolha da função de ativação altera o sinal que viaja pela rede neural.
🛠️ Ferramentas
- Google Colab.
- Bibliotecas: NumPy e Matplotlib.
📝 Passo a Passo
-
Criação das Funções: Crie duas funções em Python:
-
Geração de Dados: Crie um array de números de -10 a 10.
-
Visualização:
- Plote o gráfico da Sigmoid.
- Plote o gráfico da ReLU.
- O que acontece com os valores negativos em cada uma?
-
Teste de Sensibilidade: Se a entrada for um valor muito alto (ex: 100), qual a saída de cada função? Alguma delas "trava" (satura) o valor?
✅ Critérios de Entrega
- Print dos dois gráficos no mesmo notebook.
- Uma conclusão de 3 linhas sobre qual função parece ser mais "reativa" a valores altos.
Dica
Observe como a ReLU é muito mais simples matematicamente. Essa simplicidade é o que permite treinar redes gigantes rapidamente!