Quiz 09 - Introdução
1. Qual a principal função da ativação em um neurônio?
Aumentar a bateria do celular
Introduzir não-linearidade no modelo
Formatar os dados para visualização
Mudar o nome das variáveis
2. A função ReLU retorna qual valor para entradas negativas?
O valor original
-1
0
1
O quadrado da entrada
3. Para uma classificação binária (Gato vs Cachorro), qual função é comum na camada de saída?
ReLU
Sigmoid
Tangente
Logaritmo
4. Qual a principal vantagem da ReLU em relação à Sigmoid nas camadas ocultas?
Ela tem cores mais bonitas
Evita o problema do desaparecimento do gradiente e é computacionalmente mais rápida
Ela funciona com texto
Ela não precisa de Python
5. A função Softmax é usada para:
Limpar a memória
Classificação multiclasse (mais de 2 categorias)
Prever o preço de casas
Calcular a raiz quadrada
0. 6. O que acontece se uma rede neural não tiver funções de ativação?
Ela fica infinitamente inteligente
Ela se torna equivalente a uma regressão linear simples, perdendo o poder de aprender padrões complexos
Ela consome mais internet
Ela só funciona em computadores da Apple
7. Qual o intervalo de saída da função Tanh (Tangente Hiperbólica)?
0 a 1
-1 a 1
-infinito a +infinito
Somente 0 ou 1
8. Se a entrada de uma ReLU é 5.0, qual a saída?
0
1.0
5.0
-5.0
9. Quando dizemos que uma função "satura", significa que:
Ela parou de funcionar
Grandes mudanças na entrada geram quase nenhuma mudança na saída (gradiente próximo de zero)
Ela está usando muita memória
O código está muito longo
10. "Muitas das IAs modernas usam ReLU em quase todas as camadas". Esta afirmação é:
Falsa
Verdadeira
Depende do clima
Antiga