Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Apps intelligenter machen: Machine Learning für Entwickler

Apps intelligenter machen: Machine Learning für Entwickler

32ae0ae04b5c4f1b29ee9e8826823fbc?s=128

Jörg Neumann

November 04, 2020
Tweet

Transcript

  1. APPS INTELLIGENTER MACHEN: MACHINE LEARNING FÜR ENTWICKLER JÖRG NEUMANN |

    ACLUE GMBH
  2. JÖRG NEUMANN THEMEN ▪ Frontend Technologies ▪ Mobile Development ▪

    Machine Learning ▪ Consulting, Coaching, Training KONTAKT ▪ Mail: joerg.neumann@aclue.de ▪ Twitter: @joergneumann ▪ GitHub: https://github.com/joergneumann ▪ Blog: http://www.headwriteline.blogspot.com
  3. WANN BRAUCHT MAN MACHINE LEARNING? Menge Komplexität Personalisierung Selbstlernend

  4. Recommendation Engines Fraud Detection Predictive Maintenance EINSATZFÄLLE

  5. Gesundheitswesen Bots Selbstfahrende Autos EINSATZFÄLLE

  6. Algorithmen Rechenleistung Daten VORAUSSETZUNGEN

  7. Quelle: IDG Machine Learning Studie 2019 Datenqualität verbessern Machine Learning

    verstehen Worin sehen Sie in Ihrem Unternehmen die größten Hürden für die Anwendung von Machine Learning?
  8. if(speed<4){ status=WALKING; } else if(speed<12){ status=RUNNING; } else { status=BIKING;

    } if(speed<4){ status=WALKING; } else { status=RUNNING; } if(speed<4){ status=WALKING; } ? ML VS. CODING
  9. Regeln Daten Antworten Traditionelle Programmierung Antworten Daten Regeln Machine Learning

    ML VS. CODING
  10. X Y -1 -2 0 1 1 4 2 7

    3 10 4 13 Beispiel Y = 3X+1 Wie kann Y ermittelt werden?
  11. Beispiel Feature Daten Algorithmus Model App Label

  12. DEMO Deep Learning 101

  13. NEURONALES NETZ NEURON

  14. NEURON INPUT X 1 X 2 X 3 X 4

    OUTPUT ƒ | > | > W 0 ∑ ACTIVATION FUNCTION W 1 W 2 W 3 W 4 BIAS W 0 + W 1 * X 1 + W 2 * X 2 + W 3 * X 3 + W 4 * X 4 Ŷ
  15. AKTIVIERUNGSFUNKTIONEN Lineare Aktivierungsfunktion Der Zusammenhang zwischen Netzinput und Aktivitätslevel ist

    linear. Lineare Aktivierungsfunktion mit Schwelle Bevor der Zusammenhang zwischen den beiden Größen linear wird, muss eine Schwelle überschritten werden. Binäre Schwellenfunktion Hier gibt es nur zwei Zustände des Aktivitätslevels: 0 oder 1 (bzw. manchmal auch -1) Sigmoide Schwellenfunktion Diese Art wird oft in Modellen verwendet, die kognitive Prozesse simulieren.
  16. Input Layer Hidden Layer Output Layer 4 Features (Dimensionen) 3

    mögliche Kategorien 10, 6, 2 5, 4, 4 9, 8, 7 1, 6, 2 0,8 0,1 0,3 NEURONALES NETZ Fully connected Feed Forward Network Backpropagation HYPER PARAMETERS: • Input Layer Size: 4 • Hidden Layer Size: 3 • Output Layer Size: 3 Wahrscheinlich- keiten
  17. e 2 COST FUNCTIONS | | | | | |

    | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | { Error Iteration 1 | | | | | | - - - - 25 50 75 100 - 0 Iteration 2 Iteration 3 | | | | | | | | | | | | Vorhersage Realer Wert e 1 e 3 cost = e 1 + e 2 + e 3
  18. Trainings- und Testdaten Training Algorithmus Model Ergebnis Test Vergleich Daten

  19. DEMO Image Classification

  20. | | | | | | - - - -

    - Modellkomplexität (Epochs) | | | | | | | | | | | OVERFITTING & UNDERFITTING –---–- Vorhersagefehler Over- fitting Under- fitting Test- daten Trainings- daten - - - - - - - - - - Beispiel: - Score Training: 0,97 - Score Test: 0,75 Gut oder schlecht?
  21. FAZIT − Bietet Lösungen für Anwendungsfälle die zu komplex für

    klassische Programmierung sind − Software kann echte Intelligenz enthalten − Datenbasis, Fragestellung und Algorithmen spielen eine entscheidende Rolle − Leichter Einstieg über Jupiter Notebooks − Rudimentäre Python-Kenntnisse erforderlich
  22. LIVE DEMOS DEEP LEARNING 101 ▪ https://colab.research.google.com/github/JoergNeumann/MachineLearning/blob/master /DeepLearning101.ipynb IMAGE CLASSIFICATION

    ▪ https://colab.research.google.com/github/JoergNeumann/MachineLearning/blob/master /Image_Classification_mit_TensorFlow.ipynb