$30 off During Our Annual Pro Sale. View Details »

Apps intelligenter machen: Machine Learning für Entwickler

Apps intelligenter machen: Machine Learning für Entwickler

Jörg Neumann

November 04, 2020
Tweet

More Decks by Jörg Neumann

Other Decks in Programming

Transcript

  1. APPS INTELLIGENTER MACHEN:
    MACHINE LEARNING FÜR ENTWICKLER
    JÖRG NEUMANN | ACLUE GMBH

    View Slide

  2. JÖRG NEUMANN
    THEMEN
    ▪ Frontend Technologies
    ▪ Mobile Development
    ▪ Machine Learning
    ▪ Consulting, Coaching, Training
    KONTAKT
    ▪ Mail: [email protected]
    ▪ Twitter: @joergneumann
    ▪ GitHub: https://github.com/joergneumann
    ▪ Blog: http://www.headwriteline.blogspot.com

    View Slide

  3. WANN BRAUCHT MAN MACHINE LEARNING?
    Menge Komplexität Personalisierung Selbstlernend

    View Slide

  4. Recommendation Engines Fraud Detection Predictive Maintenance
    EINSATZFÄLLE

    View Slide

  5. Gesundheitswesen Bots Selbstfahrende Autos
    EINSATZFÄLLE

    View Slide

  6. Algorithmen
    Rechenleistung
    Daten
    VORAUSSETZUNGEN

    View Slide

  7. Quelle: IDG Machine Learning Studie 2019
    Datenqualität verbessern
    Machine Learning verstehen
    Worin sehen Sie in Ihrem Unternehmen die größten
    Hürden für die Anwendung von Machine Learning?

    View Slide

  8. if(speed<4){
    status=WALKING;
    }
    else if(speed<12){
    status=RUNNING;
    }
    else {
    status=BIKING;
    }
    if(speed<4){
    status=WALKING;
    }
    else {
    status=RUNNING;
    }
    if(speed<4){
    status=WALKING;
    }
    ?
    ML VS. CODING

    View Slide

  9. Regeln
    Daten
    Antworten
    Traditionelle
    Programmierung
    Antworten
    Daten
    Regeln
    Machine
    Learning
    ML VS. CODING

    View Slide

  10. X Y
    -1 -2
    0 1
    1 4
    2 7
    3 10
    4 13
    Beispiel
    Y = 3X+1
    Wie kann Y
    ermittelt werden?

    View Slide

  11. Beispiel
    Feature
    Daten Algorithmus Model App
    Label

    View Slide

  12. DEMO
    Deep Learning 101

    View Slide

  13. NEURONALES NETZ
    NEURON

    View Slide

  14. NEURON
    INPUT
    X
    1
    X
    2
    X
    3
    X
    4
    OUTPUT
    ƒ
    |
    >
    |
    >
    W
    0

    ACTIVATION
    FUNCTION
    W
    1
    W
    2
    W
    3
    W
    4
    BIAS
    W
    0
    + W
    1
    * X
    1
    + W
    2
    * X
    2
    + W
    3
    * X
    3
    + W
    4
    * X
    4
    Ŷ

    View Slide

  15. AKTIVIERUNGSFUNKTIONEN
    Lineare Aktivierungsfunktion
    Der Zusammenhang zwischen
    Netzinput und Aktivitätslevel ist linear.
    Lineare Aktivierungsfunktion
    mit Schwelle
    Bevor der Zusammenhang zwischen
    den beiden Größen linear wird, muss
    eine Schwelle überschritten werden.
    Binäre Schwellenfunktion
    Hier gibt es nur zwei Zustände
    des Aktivitätslevels: 0 oder 1
    (bzw. manchmal auch -1)
    Sigmoide Schwellenfunktion
    Diese Art wird oft in Modellen
    verwendet, die kognitive Prozesse
    simulieren.

    View Slide

  16. Input
    Layer
    Hidden
    Layer
    Output
    Layer
    4 Features
    (Dimensionen)
    3 mögliche
    Kategorien
    10, 6, 2
    5, 4, 4
    9, 8, 7
    1, 6, 2
    0,8
    0,1
    0,3
    NEURONALES NETZ
    Fully connected
    Feed Forward Network
    Backpropagation
    HYPER PARAMETERS:
    • Input Layer Size: 4
    • Hidden Layer Size: 3
    • Output Layer Size: 3
    Wahrscheinlich-
    keiten

    View Slide

  17. e
    2
    COST FUNCTIONS
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    {
    Error
    Iteration 1
    |
    |
    |
    |
    |
    |
    -
    -
    -
    -
    25
    50
    75
    100
    -
    0
    Iteration 2 Iteration 3
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    Vorhersage
    Realer Wert
    e
    1
    e
    3
    cost = e
    1
    + e
    2
    + e
    3

    View Slide

  18. Trainings- und Testdaten
    Training Algorithmus Model Ergebnis
    Test
    Vergleich
    Daten

    View Slide

  19. DEMO
    Image Classification

    View Slide

  20. |
    |
    |
    |
    |
    |
    -
    -
    -
    -
    -
    Modellkomplexität (Epochs)
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    |
    OVERFITTING & UNDERFITTING
    –---–-
    Vorhersagefehler
    Over-
    fitting
    Under-
    fitting
    Test-
    daten
    Trainings-
    daten
    -
    -
    -
    -
    -
    -
    -
    -
    -
    -
    Beispiel:
    - Score Training: 0,97
    - Score Test: 0,75
    Gut oder schlecht?

    View Slide

  21. FAZIT
    − Bietet Lösungen für Anwendungsfälle die zu
    komplex für klassische Programmierung sind
    − Software kann echte Intelligenz enthalten
    − Datenbasis, Fragestellung und Algorithmen
    spielen eine entscheidende Rolle
    − Leichter Einstieg über Jupiter Notebooks
    − Rudimentäre Python-Kenntnisse erforderlich

    View Slide

  22. LIVE DEMOS
    DEEP LEARNING 101
    ▪ https://colab.research.google.com/github/JoergNeumann/MachineLearning/blob/master
    /DeepLearning101.ipynb
    IMAGE CLASSIFICATION
    ▪ https://colab.research.google.com/github/JoergNeumann/MachineLearning/blob/master
    /Image_Classification_mit_TensorFlow.ipynb

    View Slide