Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Apps intelligenter machen: Machine Learning für Entwickler

Apps intelligenter machen: Machine Learning für Entwickler

Jörg Neumann

November 04, 2020
Tweet

More Decks by Jörg Neumann

Other Decks in Programming

Transcript

  1. JÖRG NEUMANN THEMEN ▪ Frontend Technologies ▪ Mobile Development ▪

    Machine Learning ▪ Consulting, Coaching, Training KONTAKT ▪ Mail: [email protected] ▪ Twitter: @joergneumann ▪ GitHub: https://github.com/joergneumann ▪ Blog: http://www.headwriteline.blogspot.com
  2. Quelle: IDG Machine Learning Studie 2019 Datenqualität verbessern Machine Learning

    verstehen Worin sehen Sie in Ihrem Unternehmen die größten Hürden für die Anwendung von Machine Learning?
  3. if(speed<4){ status=WALKING; } else if(speed<12){ status=RUNNING; } else { status=BIKING;

    } if(speed<4){ status=WALKING; } else { status=RUNNING; } if(speed<4){ status=WALKING; } ? ML VS. CODING
  4. X Y -1 -2 0 1 1 4 2 7

    3 10 4 13 Beispiel Y = 3X+1 Wie kann Y ermittelt werden?
  5. NEURON INPUT X 1 X 2 X 3 X 4

    OUTPUT ƒ | > | > W 0 ∑ ACTIVATION FUNCTION W 1 W 2 W 3 W 4 BIAS W 0 + W 1 * X 1 + W 2 * X 2 + W 3 * X 3 + W 4 * X 4 Ŷ
  6. AKTIVIERUNGSFUNKTIONEN Lineare Aktivierungsfunktion Der Zusammenhang zwischen Netzinput und Aktivitätslevel ist

    linear. Lineare Aktivierungsfunktion mit Schwelle Bevor der Zusammenhang zwischen den beiden Größen linear wird, muss eine Schwelle überschritten werden. Binäre Schwellenfunktion Hier gibt es nur zwei Zustände des Aktivitätslevels: 0 oder 1 (bzw. manchmal auch -1) Sigmoide Schwellenfunktion Diese Art wird oft in Modellen verwendet, die kognitive Prozesse simulieren.
  7. Input Layer Hidden Layer Output Layer 4 Features (Dimensionen) 3

    mögliche Kategorien 10, 6, 2 5, 4, 4 9, 8, 7 1, 6, 2 0,8 0,1 0,3 NEURONALES NETZ Fully connected Feed Forward Network Backpropagation HYPER PARAMETERS: • Input Layer Size: 4 • Hidden Layer Size: 3 • Output Layer Size: 3 Wahrscheinlich- keiten
  8. e 2 COST FUNCTIONS | | | | | |

    | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | { Error Iteration 1 | | | | | | - - - - 25 50 75 100 - 0 Iteration 2 Iteration 3 | | | | | | | | | | | | Vorhersage Realer Wert e 1 e 3 cost = e 1 + e 2 + e 3
  9. | | | | | | - - - -

    - Modellkomplexität (Epochs) | | | | | | | | | | | OVERFITTING & UNDERFITTING –---–- Vorhersagefehler Over- fitting Under- fitting Test- daten Trainings- daten - - - - - - - - - - Beispiel: - Score Training: 0,97 - Score Test: 0,75 Gut oder schlecht?
  10. FAZIT − Bietet Lösungen für Anwendungsfälle die zu komplex für

    klassische Programmierung sind − Software kann echte Intelligenz enthalten − Datenbasis, Fragestellung und Algorithmen spielen eine entscheidende Rolle − Leichter Einstieg über Jupiter Notebooks − Rudimentäre Python-Kenntnisse erforderlich
  11. LIVE DEMOS DEEP LEARNING 101 ▪ https://colab.research.google.com/github/JoergNeumann/MachineLearning/blob/master /DeepLearning101.ipynb IMAGE CLASSIFICATION

    ▪ https://colab.research.google.com/github/JoergNeumann/MachineLearning/blob/master /Image_Classification_mit_TensorFlow.ipynb