Pular para conteúdo

Exercícios: Aula 09 - Funções de Ativação ⚡

Entenda a importância de ligar e desligar os sinais na rede neural.

Básico

  1. Conceito: Por que precisamos de uma função de ativação em cada neurônio? O que acontece se removermos todas elas?
  2. Sigmoid: Qual o intervalo de valores de saída da função Sigmoid? Para qual tipo de problema ela é mais indicada?

Intermediário

  1. ReLU (Rectified Linear Unit): Escreva a lógica da ReLU em uma frase simples (Se o valor for X...). Por que ela se tornou a "queridinha" dos desenvolvedores de IA?
  2. Softmax: Diferente da Sigmoid, a Softmax é usada quando temos múltiplas classes. Explique como ela transforma os sinais de saída em probabilidades que somam 100% (1.0).

Desafio

  1. Não-Linearidade: Por que a não-linearidade é fundamental para que uma rede neural aprenda padrões complexos (como distinguir um gato de um cachorro) em vez de apenas traçar linhas retas simples?