Slide 1

Slide 1 text

Warum meine KI die Menschheit auslöscht

Slide 2

Slide 2 text

This is a very very very long gag @C_Keibel Christopher Keibel • Software Engineer @ Karakun • Master Student Data Science • Machine Learning Enthusiast

Slide 3

Slide 3 text

This is a very very very long gag @C_Keibel Inhalt • KI für dummies • Betrunkene KIs • PacMan • Stop-Button Problem (leider auch betrunken)

Slide 4

Slide 4 text

KI für dummies

Slide 5

Slide 5 text

This is a very very very long gag Künstliche Intelligenz • „Schlaue“ Computer Programme Künstliche Intelligenz @C_Keibel

Slide 6

Slide 6 text

This is a very very very long gag Künstliche Intelligenz • „Schlaue“ Computer Programme Künstliche Intelligenz @C_Keibel

Slide 7

Slide 7 text

This is a very very very long gag Künstliche Intelligenz • „Schlaue“ Computer Programme • Selbstständig lernende Programme Art Maschinelles Lernen Künstliche Intelligenz @C_Keibel

Slide 8

Slide 8 text

This is a very very very long gag Künstliche Intelligenz • „Schlaue“ Computer Programme • Selbstständig lernende Programme • Künstliche Neuronale Netze Art Deep Learning Maschinelles Lernen Künstliche Intelligenz @C_Keibel

Slide 9

Slide 9 text

This is a very very very long gag Maschinelles Lernen • Algorithmen „lernen“ sich selbstständig in einer Aufgabe zu verbessern • Verbesserungen erfolgen durch „Lernen“ aus 
 Datensätzen @C_Keibel

Slide 10

Slide 10 text

This is a very very very long gag Der Datensatz • Datensatz besteht aus Eingabedaten x und zugehörigen Ausgaben y *im überwachten Lernen (unbewachtes Lernen kein y -> Daten werden geclustert um Strukturen zu erkennen) @C_Keibel * Katze Hund Hund Katze

Slide 11

Slide 11 text

This is a very very very long gag • Lösungs fi ndung durch künstliche neuronale Netze • Künstliche neuronale Netze bestehen aus einer Vielzahl kleiner Recheneinheiten 
 (künstliche Neuronen) Deep Learning @C_Keibel

Slide 12

Slide 12 text

This is a very very very long gag Künstliches Neuron @C_Keibel x1 x2 x3 W1 W2 W3 x1 W1 * x3 W3 * x2 W2 *

Slide 13

Slide 13 text

This is a very very very long gag Künstliches Neuron @C_Keibel x1 x2 x3 W1 W2 W3 ∑x W i i * x1 W1 * x3 W3 * + x2 W2 * + Z =

Slide 14

Slide 14 text

This is a very very very long gag Künstliches Neuron @C_Keibel x1 x2 x3 W1 W2 W3 ∑x W i i * ( ) tanh x1 W1 * x3 W3 * + x2 W2 * + tanh( ) Z = tanh( Z )

Slide 15

Slide 15 text

This is a very very very long gag • Recheneinheiten (Neuronen) de fi nieren einfache mathematische Operationen • Zusammen können solche Recheneinheiten eine komplexe Funktion abbilden Deep Learning @C_Keibel

Slide 16

Slide 16 text

This is a very very very long gag • Das Netz lernt eine Funktion zu „imitieren“ • Eingaben x wird auf Ausgaben y abgebildet Was wird gelernt? @C_Keibel

Slide 17

Slide 17 text

This is a very very very long gag Wie wird gelernt? @C_Keibel Katze Hund

Slide 18

Slide 18 text

This is a very very very long gag Wie wird gelernt? @C_Keibel Katze Hund = = 1 0 0 1 1 2 5 0 2 2 2 2 4 =

Slide 19

Slide 19 text

This is a very very very long gag Wie wird gelernt? @C_Keibel Katze Hund = = 1 0 0 1 1 2 5 0 2 2 2 2 4

Slide 20

Slide 20 text

This is a very very very long gag Wie wird gelernt? Vorhersage 0.66 0.34 @C_Keibel Katze Hund = = 1 0 0 1 1 2 5 0 2 2 2 2 4 • Netz trifft Vorhersage auf Grundlage 
 seiner aktuellen Parameter

Slide 21

Slide 21 text

This is a very very very long gag • Vergleich zwischen Label und Ausgabe 
 bestimmt den Fehler des Netzes Wie wird gelernt? Vorhersage Zielwert aus Datensatz 0.66 1 0.34 0 @C_Keibel Hund Katze Hund = = 1 0 0 1 1 2 5 0 2 2 2 2 4

Slide 22

Slide 22 text

This is a very very very long gag • Verbindungsgewichte anpassen um Fehler zu 
 verringern Wie wird gelernt? Vorhersage Zielwert aus Datensatz 0.66 1 0.34 0 @C_Keibel 1 2 5 0 2 2 2 2 4

Slide 23

Slide 23 text

This is a very very very long gag Beispiel: Sprachmodelle @C_Keibel

Slide 24

Slide 24 text

This is a very very very long gag GPT-3 • Generative Pre-trained Transformer 3 (GPT-3) überragt alle Vorgänger Modelle deutlich Ausschnitt aus Vorheriger Folie GPT-3 Trainiert auf 40GB Text @C_Keibel

Slide 25

Slide 25 text

This is a very very very long gag GPT-3 Model • 175 Milliarden Parameter (T-NLG-Modell von Microsoft umfasst „nur“ 17 Milliarden) • GPT-3 Resultate waren so gut, dass sogar deren Entwickler „Angst“ davor bekamen @C_Keibel

Slide 26

Slide 26 text

This is a very very very long gag GPT-3 Beispiel 100% ML basierte TV Sendung https://youtu.be/mqN99H4FNKg @C_Keibel

Slide 27

Slide 27 text

Drunken Intelligence

Slide 28

Slide 28 text

This is a very very very long gag Intelligente Krebserkennung • Forschungsteam an Stanford University • KI zu Bildklassi fi kation wurde trainiert • Unterscheidung zwischen gesunder Haut und Hautkrebs @C_Keibel Quelle: Künstliche Intelligenz - Janelle Shane

Slide 29

Slide 29 text

This is a very very very long gag Intelligente Krebserkennung • Bilder mit Hautkrebs beinhalten in der Regel ein Lineal (Größe des Krebs) • Algorithmus lernt diese Verknüpfung • Lösung der KI: 
 Wenn Lineal auf Bild, dann muss es Hautkrebs sein @C_Keibel Lineal Quelle: Künstliche Intelligenz - Janelle Shane

Slide 30

Slide 30 text

This is a very very very long gag Intelligente ChatBots @C_Keibel

Slide 31

Slide 31 text

This is a very very very long gag Intelligente ChatBots @C_Keibel

Slide 32

Slide 32 text

This is a very very very long gag Intelligente ChatBots @C_Keibel

Slide 33

Slide 33 text

This is a very very very long gag Intelligente ChatBots @C_Keibel

Slide 34

Slide 34 text

This is a very very very long gag Turing Test • Erfunden von Alan Turing 1950 • Überprüft, ob Verhalten einer Maschine genauso intelligent ist wie ein Mensch • Test ist erfolgreich, wenn Testperson im Gespräch nicht erkennt, dass Partner eine Machine ist @C_Keibel

Slide 35

Slide 35 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html Who was president of the United States in 1955?

Slide 36

Slide 36 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html Who was president of the United States in 1955? Dwight D. Eisenhower was president of the United States in 1955.

Slide 37

Slide 37 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html What party did he belong to?

Slide 38

Slide 38 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html What party did he belong to? He belonged to the Republican Party.

Slide 39

Slide 39 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html Which is heavier, a mouse or a toaster?

Slide 40

Slide 40 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html Which is heavier, a mouse or a toaster? A toaster is heavier than a mouse.

Slide 41

Slide 41 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html How many eyes does a giraffe have?

Slide 42

Slide 42 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html How many eyes does a giraffe have? A giraffe has two eyes.

Slide 43

Slide 43 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html How many eyes does a spider have?

Slide 44

Slide 44 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html How many eyes does a spider have? A spider has eight eyes.

Slide 45

Slide 45 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html How many eyes does the sun have?

Slide 46

Slide 46 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html How many eyes does the sun have? The sun has one eye.

Slide 47

Slide 47 text

This is a very very very long gag Turing Test mit GPT-3 @C_Keibel https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html The sun has one eye.

Slide 48

Slide 48 text

This is a very very very long gag Was ist schief gelaufen? - Datensatz unsauber - KI lernt was der Datensatz hergibt - Künstliche neuronale Netze verstehen Konzepte aus der realen Welt nicht @C_Keibel

Slide 49

Slide 49 text

Warum PacMan Selbstmord begeht

Slide 50

Slide 50 text

This is a very very very long gag Reinforcement Learning • KI (Agent) be fi ndet sich in einer Umgebung • Agent kann Aktionen wählen um mit seiner Umgebung zu interagieren • Je nach Umgebungszustand sind unterschiedlich wählbare Aktionen möglich @C_Keibel

Slide 51

Slide 51 text

This is a very very very long gag • Für Interaktionen erhält der Agent „Belohnungen“ 
 (Zahlenwerte) • Ziel des Agenten ist es die Belohnung zu maximieren @C_Keibel Reinforcement Learning

Slide 52

Slide 52 text

This is a very very very long gag Reinforcement Learning • Zu Beginn des Spiels kann Agent keine guten Entscheidungen treffen • Erste Durchläufe komplett zufällig • Gesammelte Erfahrungen werden in Tabelle gespeichert @C_Keibel

Slide 53

Slide 53 text

This is a very very very long gag @C_Keibel Reinforcement Learning Zustand 1 Aktion 1 3 Zustand 2 Zustand 3 0 4 4 4 2 BELOHNUNG FÜR AKTION Aktion 2

Slide 54

Slide 54 text

This is a very very very long gag Reinforcement Learning • Je fortgeschrittener das Spiel, desto mehr wählt Agent Aktionen anhand der gesammelten Erfahrungen @C_Keibel

Slide 55

Slide 55 text

This is a very very very long gag @C_Keibel Zustand N Aktion 1 Aktion 2 Reinforcement Learning Deep

Slide 56

Slide 56 text

This is a very very very long gag Reinforcement Learning • PacMan kann sich durch das Labyrinth bewegen • Eingesammelte Punkte geben Belohnungen • Kollision mit Geistern beendet das Spiel @C_Keibel Konkretes Beispiel:

Slide 57

Slide 57 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay()

Slide 58

Slide 58 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Aktionen mit einem „greedy“ verfahren ermitteln STARTZUSTAND DES SPIELS Interaktion mit Umgebung

Slide 59

Slide 59 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Es soll nicht schon nach einer Aktion Schluss sein

Slide 60

Slide 60 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Wir wollen Belohnungen eines vollständigen Durchgangs speichern Belohnung wird aufaddiert um die Gesamte Belohnung für einen Durchgang zu speichern

Slide 61

Slide 61 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Transitionen speichern damit wir einen Datensatz zum trainieren haben

Slide 62

Slide 62 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Update des Aktuellen States

Slide 63

Slide 63 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Ist der Datensatz groß genug soll das Netz trainiert werden

Slide 64

Slide 64 text

This is a very very very long gag PacMan Beispiel @C_Keibel env = gym.make(„MsPacman-v0“) for _ in range(0, x): state = env.reset() episode_reward = 0 while not done: action = get_action(state) next_state, reward, done, _ = env.step(action) episode_reward += reward save_transition(state, action, reward, next_state) state = next_state if len(transitions) > min_size: replay() Mehrere Durchläuft um Agenten zu verbessern

Slide 65

Slide 65 text

Demo

Slide 66

Slide 66 text

Demo

Slide 67

Slide 67 text

This is a very very very long gag Tic Tac Toe • 1997 entwickelten Programmierer ein Tic Tac Toe • Agenten spielen auf unendlich großen Spielfeld Regelbasierter Agent Lernender Agent @C_Keibel

Slide 68

Slide 68 text

This is a very very very long gag Tic Tac Toe • Agent 1 (regelbasiert) agiert ähnlich eines „normalen“ Spielers • Agent 2 (lernend) setzt Spielsteine, offenbar völlig willkürlich, möglichst weit von Agent 1 entfernt 
 @C_Keibel

Slide 69

Slide 69 text

This is a very very very long gag Tic Tac Toe Agent 1: (2,2) @C_Keibel

Slide 70

Slide 70 text

This is a very very very long gag Tic Tac Toe Agent 1: (2,2) Agent 2: (-2147483647,-2147483647) @C_Keibel

Slide 71

Slide 71 text

This is a very very very long gag Tic Tac Toe Agent 1: (2,2) Agent 2: (-2147483647,-2147483647) Agent 1: (1,2) @C_Keibel

Slide 72

Slide 72 text

This is a very very very long gag Tic Tac Toe Agent 1: (2,2) Agent 2: (-2147483647,-2147483647) Agent 1: (1,2) Agent 2: (2147483647,2147483647) @C_Keibel

Slide 73

Slide 73 text

This is a very very very long gag Tic Tac Toe Agent 1: (2,2) Agent 2: (-2147483647,-2147483647) Agent 1: (1,2) Agent 2: (2147483647,2147483647) Agent 1: OutOfMemoryError T @C_Keibel

Slide 74

Slide 74 text

Singularity

Slide 75

Slide 75 text

This is a very very very long gag Stop-Button Problem • Juhu, unsere KI ist endlich intelligent @C_Keibel

Slide 76

Slide 76 text

This is a very very very long gag Stop-Button Problem • Juhu, unsere KI ist endlich intelligent 
 genug, um Tee zu besorgen… @C_Keibel

Slide 77

Slide 77 text

This is a very very very long gag Stop-Button Problem • Juhu, unsere KI ist endlich intelligent 
 genug, um Tee zu besorgen… 
 
 
 
 
 @C_Keibel Beispiel: Rob Miles - Intro to Ai Safety (Youtube)

Slide 78

Slide 78 text

This is a very very very long gag Alignment Problem • Für das erreichen des Zieles sind weniger Variablen zu beobachten als die Umgebung hergibt • Agent nutzt Umgebung aus um sein Ziel einfacher zu erreichen • Agent fi ndet Wege, die vorher (vielleicht) unbekannt waren @C_Keibel

Slide 79

Slide 79 text

Stop-Button Problem

Slide 80

Slide 80 text

This is a very very very long gag Stop-Button Problem 10 100 @C_Keibel

Slide 81

Slide 81 text

This is a very very very long gag Stop-Button Problem @C_Keibel

Slide 82

Slide 82 text

This is a very very very long gag Stop-Button Problem 100 100 @C_Keibel

Slide 83

Slide 83 text

This is a very very very long gag Stop-Button Problem @C_Keibel

Slide 84

Slide 84 text

This is a very very very long gag Stop-Button Problem • Nur ich darf Button drücken 100 100 @C_Keibel

Slide 85

Slide 85 text

This is a very very very long gag Stop-Button Problem @C_Keibel

Slide 86

Slide 86 text

This is a very very very long gag Mögliche Stop-Button Lösung? • Einschränken der Sensoren des Agenten • Ferngesteuerter „Stop-Button“ • Agent schaut Menschen zu und lernt richtiges Verhalten @C_Keibel

Slide 87

Slide 87 text

Fazit & Ausblick

Slide 88

Slide 88 text

This is a very very very long gag Fazit & Abmilderung (Ausblick) • KI ist nicht böse • Aktuelle KI dumm wie ein Wurm • Zukunft: KI-Sicherheit muss das Rennen gegen super KI gewinnen @C_Keibel

Slide 89

Slide 89 text

This is a very very very long gag Weiteres zum Thema • Rob (Robert) Miles - YouTube Kanal • Janelle Shane - Künstliche Intelligenz (Buch) • https://github.com/CKeibel/SingularityAusVersehenTalk @C_Keibel

Slide 90

Slide 90 text

Digital Woche Dortmund (26.09. - 30.09.2022) https://karakun.com/diwodo22/

Slide 91

Slide 91 text

@C_Keibel dev.karakun.com