Exercícios: Aula 09 - Funções de Ativação ⚡
Entenda a importância de ligar e desligar os sinais na rede neural.
Básico
- Conceito: Por que precisamos de uma função de ativação em cada neurônio? O que acontece se removermos todas elas?
- Sigmoid: Qual o intervalo de valores de saída da função Sigmoid? Para qual tipo de problema ela é mais indicada?
Intermediário
- ReLU (Rectified Linear Unit): Escreva a lógica da ReLU em uma frase simples (Se o valor for X...). Por que ela se tornou a "queridinha" dos desenvolvedores de IA?
- Softmax: Diferente da Sigmoid, a Softmax é usada quando temos múltiplas classes. Explique como ela transforma os sinais de saída em probabilidades que somam 100% (1.0).
Desafio
- Não-Linearidade: Por que a não-linearidade é fundamental para que uma rede neural aprenda padrões complexos (como distinguir um gato de um cachorro) em vez de apenas traçar linhas retas simples?