Aula 09 - Funções de Ativação ⚡
Por que as redes neurais conseguem aprender padrões tão complexos? O segredo está nas Funções de Ativação.
🔌 Para que servem?
As funções de ativação decidem se um neurônio deve "disparar" (enviar o sinal) ou não. Sem elas, uma rede neural seria apenas um monte de somas matemáticas simples.
O Poder da Não-Linearidade
O mundo real não é uma linha reta. As funções de ativação adicionam "curvas" à matemática da rede, permitindo que ela aprenda padrões complexos como rostos ou vozes.
🔝 Principais Funções
| Função | Como funciona | Onde é usada |
|---|---|---|
| Sigmoid | Transforma qualquer valor entre 0 e 1. | Problemas de Sim/Não na saída. |
| ReLU | Se for negativo, vira 0. Se for positivo, mantém o valor. | Camadas internas (é a mais popular hoje!). |
| Softmax | Transforma valores em probabilidades que somam 100%. | Classificação de várias categorias (Gato, Cão, Pássaro). |
📈 Visualizando a ReLU
A ReLU é como um interruptor inteligente:
graph LR
input["Entrada (Soma)"] --> decision{É maior que 0?}
decision -- Sim --> output["Mantém o Valor"]
decision -- Não --> zero["Saída = 0 (Neurônio Desligado)"]
🧠 Blocos de Destaque
Curiosidade
A ReLU (Rectified Linear Unit) é tão simples quanto eficiente. Ela ajuda a rede a aprender muito mais rápido do que as funções antigas.
Atenção
Escolher a função errada na camada de saída pode arruinar seu modelo. Use Sigmoid para binário e Softmax para multiclasse!
🚀 Mini-Projeto
Desafio: Se você estivesse criando um filtro de spam, qual função de ativação usaria na última camada da sua rede? Por quê?