Pular para conteúdo

Projeto 09 - Comparativo: Sigmoid vs ReLU ⚡

Neste projeto, você vai comparar o comportamento visual e numérico das duas funções de ativação mais famosas.

🎯 Objetivo

Entender como a escolha da função de ativação altera o sinal que viaja pela rede neural.

🛠️ Ferramentas

  • Google Colab.
  • Bibliotecas: NumPy e Matplotlib.

📝 Passo a Passo

  1. Criação das Funções: Crie duas funções em Python:

    def sigmoid(x):
        return 1 / (1 + np.exp(-x))
    
    def relu(x):
        return np.maximum(0, x)
    

  2. Geração de Dados: Crie um array de números de -10 a 10.

  3. Visualização:

    • Plote o gráfico da Sigmoid.
    • Plote o gráfico da ReLU.
    • O que acontece com os valores negativos em cada uma?
  4. Teste de Sensibilidade: Se a entrada for um valor muito alto (ex: 100), qual a saída de cada função? Alguma delas "trava" (satura) o valor?

✅ Critérios de Entrega

  • Print dos dois gráficos no mesmo notebook.
  • Uma conclusão de 3 linhas sobre qual função parece ser mais "reativa" a valores altos.

Dica

Observe como a ReLU é muito mais simples matematicamente. Essa simplicidade é o que permite treinar redes gigantes rapidamente!