Pular para conteúdo

Aula 09 - Funções de Ativação ⚡

Por que as redes neurais conseguem aprender padrões tão complexos? O segredo está nas Funções de Ativação.

🔌 Para que servem?

As funções de ativação decidem se um neurônio deve "disparar" (enviar o sinal) ou não. Sem elas, uma rede neural seria apenas um monte de somas matemáticas simples.

O Poder da Não-Linearidade

O mundo real não é uma linha reta. As funções de ativação adicionam "curvas" à matemática da rede, permitindo que ela aprenda padrões complexos como rostos ou vozes.


🔝 Principais Funções

Função Como funciona Onde é usada
Sigmoid Transforma qualquer valor entre 0 e 1. Problemas de Sim/Não na saída.
ReLU Se for negativo, vira 0. Se for positivo, mantém o valor. Camadas internas (é a mais popular hoje!).
Softmax Transforma valores em probabilidades que somam 100%. Classificação de várias categorias (Gato, Cão, Pássaro).

📈 Visualizando a ReLU

A ReLU é como um interruptor inteligente:

graph LR
    input["Entrada (Soma)"] --> decision{É maior que 0?}
    decision -- Sim --> output["Mantém o Valor"]
    decision -- Não --> zero["Saída = 0 (Neurônio Desligado)"]

🧠 Blocos de Destaque

Curiosidade

A ReLU (Rectified Linear Unit) é tão simples quanto eficiente. Ela ajuda a rede a aprender muito mais rápido do que as funções antigas.

Atenção

Escolher a função errada na camada de saída pode arruinar seu modelo. Use Sigmoid para binário e Softmax para multiclasse!


🚀 Mini-Projeto

Desafio: Se você estivesse criando um filtro de spam, qual função de ativação usaria na última camada da sua rede? Por quê?


Próxima Aula: Treinamento de uma Rede Neural