Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Redes Neurais Artificiais Clássicas - Juliana Guamá

PyData BH
March 23, 2019

Redes Neurais Artificiais Clássicas - Juliana Guamá

Quando os modelos clássicos de RNA são apresentados, pouco se fala sobre o processo de escolha dos parâmetros, sendo atribuídos ao "feeling" do cientista. Nesta apresentação, busco falar sobre as redes neurais, com enfoque na vantagem de cada uma sobre a outra de forma a auxiliar o processo decisivo e finalizo tratando de como selecionar os melhores parâmetros da rede.

PyData BH

March 23, 2019
Tweet

More Decks by PyData BH

Other Decks in Science

Transcript

  1. Quem sou eu Mestranda na área de Inteligência Computacional na

    Engenharia Elétrica - UFMG. Git: https://github.com/JulianaGuama Linkedin: https://br.linkedin.com/in/juliana-guama
  2. Ao iniciar um projeto de data science você... Seleciona os

    parâmetros por feeling Planeja o experimento Ciência de dados é CIÊNCIA!!!
  3. Algumas RNAs tipo FeedFoward Uma camada: • Perceptron • Adaline

    Multiplas Camadas: • Multi Layer Perceptron (MLP) • Extreme Learning Machine (ELM) • Redes de Base Radial (RBF) • Classificador Bayesiano • Rede Neural Probabilística (PNN) Entrada Camada Intermediária Camada Saída
  4. FeedFoward -Teorema da Aproximação Universal [Geoge Cybenko 1989] Tendo quantidade

    suficiente de neurônios, uma rede tipo ”feedfoward” com apenas 1 camada escondida tem capacidade de aproximar qualquer função contínua.
  5. Estimação Erro Diferença Linear ŷ - y MSE (ŷ -

    y)² RMSE √(ŷ - y)² ŷ -> saída estimada y -> saída real
  6. Escolhendo a equação certa de erro estimado real linear mse

    rmse ŷ y ŷ - y (ŷ - y)² √(ŷ - y)² -1 1 -2 4 2 0 1 -1 1 1 1 0 1 1 1
  7. Algoritmo de otimização / aprendizado Solvers e seus parâmetros de

    configuração: lbfgs -> -- sgd -> batch_size, learning_rate, learning_rate_init, power_t, max_iter, shuffle, momentum, nesterovs_momentum, early_stopping, n_iter_no_change adam -> batch_size, learning_rate_init, max_iter, shuffle, momentum, early_stopping, beta_1, beta_2, epsilon, n_iter_no_change (100,) ,
  8. Exemplos CONCLUSÕES: • Ambos melhores com tanh e sgd ➔

    De fato, ambos não são tão complexos • MLP para dataset wine não está adequado!