Upgrade to Pro — share decks privately, control downloads, hide ads and more …

L'intelligence Artificielle

L'intelligence Artificielle

Une introduction à l'IA pour la fête de la science à l'IUT de Cherbourg

Olivier Lézoray

October 11, 2018
Tweet

More Decks by Olivier Lézoray

Other Decks in Science

Transcript

  1. Qu’est-ce que l’intelligence artificielle ? • L’IA dans les films

    : des robots capables de parler, penser, et prendre des décisions comme des humains – Star Wars (C3PO - 1977), Terminator (T800 - 1984), I-robot (Sonny - 2004), Ex Machina (Ava - 2015) • L’intelligence artificielle : – « Développement de machines capables de prendre en charge des fonctions exigeant de l’intelligence quand elles sont réalisées par des humains », Ray Kurzweil, 1990 2
  2. Exemples d’usages d’IA • Véhicules autonomes • Robots • Chatbots

    • Jeux • Médecine • Shopping • … 3 « Artificial Intelligence is the New Electricity  »  Andrew Ng
  3. L’IA • L’IA est une discipline de l’informatique qui s’appuie

    principalement sur – Mathématiques, Informatique théorique, Informatique appliquée • L’IA est une discipline qui produit des machines imitant les humains – Simule les processus intelligents de l’humain – Reproduit les méthodes ou les résultats du raisonnement ou de l’intuition humaine Des machines qui pensent comme des humains Des systèmes qui pensent rationnellement Modélisation cognitive ☛ IA forte Modélisation logique Des systèmes qui agissent comme des humains Des systèmes qui agissent rationnellement Modélisation des connaissances ☛ Test de Turing Modélisation pragmatique d’un but à atteindre ☛ IA faible 4
  4. IA forte versus IA faible • IA faible : la

    machine est un simple outil construit selon une modélisation pragmatique. – Ces machines sont construites pour répondre à des situations particulières – Elles simulent l’intelligence mais ne peuvent penser par elles-mêmes – Exemple : un robot mécanique dans une usine • IA forte : la machine n’est pas un simple outil – Une fois conçue, la machine est capable de – Produire un comportement intelligent – A conscience d’elle-même – Comprend ses propres raisonnements – Peut apprendre à partir de ses expériences – Exemple : Jarvis (Just A Rather Very Intelligent System) dans Iron Man 5
  5. Test de Turing • Alan Turing : – Mathématicien et

    cryptologue britannique – Ses travaux en font le père fondateur de l’informatique – En 1950, il publie un article dans lequel il décrit une méthode pour tester un système d’intelligence artificielle – Le test mesure la capacité d’une machine à imiter un humain 6 Test de Voight-Kampff dans Blade Runner pour détecter les répliquants
  6. Test de Turing • Un interlocuteur humain a une conversation

    textuelle avec deux autres participants dont il sait que l’un est humain et l’autre une machine • Si au bout de 5 minutes de conversation, il n’a pas pu discerner l’humain de la machine, la machine a passé le test avec succès • Le test ne mesure pas la capacité d’une machine à répondre correctement aux questions posées par l’interlocuteur, mais à quel point ses réponses ressemblent à celles d’un humain • C’est le principe d’un « chatbot » : un agent conversationnel programmé pour simuler une conversation en langage naturel • En 2014, le chatbot Eugene Gootsman a convaincu 33% des interlocuteurs : simulait un enfant Ukrainien de 13 ans s’exprimant en Anglais • En 2018 : L’assistant téléphonique Duplex de Google est parvenu à tromper ses interlocuteurs lors d’échanges de courte durée pour des réservations téléphoniques 7
  7. • 1943-1956 : gestation de l’IA – 1943 - introduction

    de la notion de neurone formel (perceptron) par McCulloch et Pitts – 1947 - introduction du terme « cybernétique » par Norbert Wiener : théorie sur les processus pour la commande, la communication et la régulation pour l’être vivant et les machines – 1950 : Article fondateur « Computing machinery and intelligence » d’Alan Turing – 1956 : Introduction du terme « intelligence artificielle » lors d’une école d’été 9 Bref Historique de l’IA
  8. • Les programmes développés sont considérés par la plupart des

    gens comme extraordinaires, des investissements massifs du DARPA • 1964 : IBM Shoebox pour la reconnaissance de la parole • 1966 : Psychologue artificiel Eliza de Joseph Weizenbaum • 1969 : Robot Shakey de Stanford • Les chercheurs pensent réussir à créer une machine « intelligente » d’ici 20 ans 10 Premiers espoirs 50-60
  9. • L’IA subit de nombreuses critiques – Les chercheurs n’ont

    pas bien appréhendé les difficultés des problèmes auxquels ils étaient confrontés – Cet optimisme a généré une forte attente des financeurs – Les résultats attendus ne se matérialisent pas – Les performances calculatoires sont limitées et ne permettent pas de passer à l’échelle – Fin des investissements • 1969 – Minsky & Papert émettent de sérieuses critiques sur le potentiel d’apprentissage des neurones formels mis en réseau • ☛ arrêt complet des recherches sur les réseaux de neurones artificiels ! 11 Premier AI Winter (années 1970)
  10. • Développement de programmes d’IA appelés « Systèmes experts »

    – Reposent sur un ensemble de règles suivies par un humain pour prendre des décisions – De nombreuses entreprises adoptent ces SE et l’expression de la connaissance devient centrale en IA • Redémarrage des recherches en réseaux de neurones artificiels – 1985 : Y. Lecun introduit une manière d’apprendre à un réseaux de neurones nommée la rétro-propagation – Premiers succès commerciaux des réseaux de neurones • En 10 ans l’IA devient une industrie et passe de quelques millions de dollars à plusieurs billions de dollars • 2nd AI Winter : – Les systèmes experts s’avèrent trop complexes et coûteux à maintenir et ils pouvaient faire des erreurs grotesques – Les nouveaux objectifs fixés étaient à nouveau trop optimistes – Les programmes de développement de l’IA voient leurs financements coupés (USA et Japon) 12 Renaissance (80-90) et 2nd AI Winter (début 90)
  11. • 1997 : le supercalculateur Deep Blue d’IBM bat Garry

    Kasparov • 2m de haut, 700 kg, supercalculateur IBM avec 256 processeurs en parallèle • Techniques utilisées : – Exploite la puissance de l’ordinateur : 200 millions de coups par seconde – Application minutieuse de techniques d’ingénierie informatique pour l’exploration de l’espace de coups possibles 13 Nouvelles prouesses : fin 90
  12. • Jouer automatiquement aux échecs suppose d’être capable d’explorer l’espace

    des coups possibles • En moyenne le nombre de coups possibles est de 35 • Pour être un maître aux échecs, il faut être capable de visualiser 8 coups d’avance • Ceci revient à explorer 358 différentes possibilités de coups, soit environ 2251 milliards de configurations ! • Le nombre de combinaisons augmente exponentiellement à chaque étape, ce qui en fait un problème qui nécessite de fortes ressources de calcul. • « Saying Deep Blue doesn’t really think about chess is like saying an airplane doesn’t really fly because it doesn’t flap its wings », Drew McDermott 14 Exploration des coups possibles
  13. • 2011 : Le supercalculateur IBM Watson bat les deux

    plus grands champions du jeu Jeopardy (Brad Rutteret Ken Jenningsont) • Watson est un superordinateur IBM (IBM Power Systems) : 90 serveurs Power 750 réunis dans 10 racks (2880 cœurs), • Techniques utilisées : traitement du langage naturel, représentation des connaissances, recherche d’information (peut parcourir 200 millions de pages Wikipédia en 3 s), raisonnement logique 15 Nouvelles prouesses : Watson
  14. • Jeu de Go : un défi pour l’IA depuis

    1997 ! • Octobre 2015 : AlphaGo (de Google DeepMind) gagne par 5 à 0 un match contre Fan Hui, champion d’Europe : 1ère victoire d’une IA contre un joueur professionnel, sans handicap et sur un goban 19x19 • 2016 AlphaGo Zero vs Lee Sedol (meilleur joueur du monde) est remporté par l’IA de Google par 4:1 • Principe d’AlphaGo Zero : combinaison de techniques d’apprentissage automatique profond, de parcours efficace d’espace de recherche, associées à de nombreux entrainements avec des humains, d’autres ordinateurs, et surtout sur des copies de lui-même • Exploite 1,202 CPUs et 176 GPUs ! 16 Nouvelles prouesses : AlphaGo
  15. 18

  16. • Machine Learning : la capacité pour une intelligence artificielle

    à apprendre par elle-même en étudiant des exemples • Après avoir identifié une tâche précise, l’intelligence artificielle apprend par l’entraînement et la répétition • Exemples de fonctions de machine learning: – Les recommandations de NetFlix, – Le floutage des plaques d’immatriculation sous Google Maps, – La catégorisation des emails en SPAM – La reconnaissance de visages, – La traduction automatique, – … • Deep Learning : une manière particulière de faire du Machine Learning avec des réseaux de neurones • Comment fonctionne le Machine Learning ? 20 Machine Learning ?
  17. • Le neurone artificiel est une version qui imite le

    neurone biologique • La sortie du neurone artificiel est la somme pondérée d’un ensemble de poids pour chacune des entrées • Il existe des algorithmes dédiés pour régler les poids automatiquement 24 Un algorithme pour faire du ML ?
  18. • Montant • Localisation • Site de paiement • …

    25 Exemple : détection de fraude sur Internet Entrées Sortie • Fraude ? Transactions frauduleuses sur Internet : devrait atteindre les 4000 milliards en 2020 Apprentissage automatique
  19. • Quelle machine peut résoudre tous ces problèmes simultanément et

    facilement ! 26 Autres exemples d’applications du Machine Learning
  20. • Mettre des neurones artificiels ensemble correspond à créer un

    réseau de neurones artificiel • Plus on utilise de neurones, plus on peut résoudre des problèmes de classification complexes • La technique de rétroprogation de l’erreur permet d’entrainer de tels réseaux • http://playground.tensorflow.org/ 27 Mettons des neurones ensemble !
  21. 28

  22. 29

  23. • But : identifier l’objet principal présent dans l’image 30

    Classification d’images • Une simple image de 400x400 pixels représente 160 000 entrées ! • Le réseau va être trop complexe à entrainer : cela ne fonctionne pas
  24. • Désavantage : la qualité de la reconnaissance dépend fortement

    des caractéristiques extraites ! • Il faut souvent disposer d’un expert du domaine : c’est parfois très difficile ! 31 Solution : extraction de caractéristiques
  25. 33 Principe du Deep Learning • Problème : entrainer des

    réseaux aussi profonds est très difficile ! • Certains chercheurs ont alors essayé de construire des architectures plus spécifiques et qui soient plus facilement entrainables • Pour cela, ils se sont inspirés (un peu) du cerveau
  26. 37 Reconnaissance de chiffres Apparu dès les années 2000, mais

    ne fonctionnait que pour des petites images: peu de succès… Exemple
  27. • Jusqu’aux années 2000 les CNNs obtenaient de bons résultats

    mais ne faisaient pas mieux que le machine learning classique (extraction de caractéristiques puis apprentissage) • Ils étaient populaires pour le traitement de petites images (reconnaissance de visages, de caractères, de panneaux) avec 95% de bonne classification 38 Succès mitigé des CNNs ? Les raisons : Les bases d’exemples étaient de faible taille Les réseaux étaient TRÈS longs à entrainer car les ordinateurs manquaient de puissance de calcul
  28. • Apparition d’un ENORME dataset nommé ImageNet – 15 Million

    d’images haute résolution labélisées en 22000 catégories – Une compétition Large Scale Visual Recognition Challenge est lancée sur une partie de ImageNet composée de 200 catégories • Des cartes graphiques (GPU NVIDIA) font leur apparition – Capables de 1 trillion d’opérations par seconde 39 Et en 2010 : 2 événements majeurs !
  29. • De nombreuses startups investissent ce domaine • Les états

    adoptent des plans stratégiques pour se développer • Les GAFA sont à la pointe – Ils ont l’infrastructure (hardware et software) – Ils ont énormément de données (si c’est gratuit c’est vous le produit !) – Ils ont de nombreuses applications potentielles – Ils proposent le Deep Learning comme un service (Google Microsoft, Nvidia, Amazon) – Ils montent d’énormes équipes de recherche en débauchant dans l’académique 43 Deep Learning dans l’industrie
  30. • Le robot Google Duplex doit-il se présenter comme tel

    à un interlocuteur humain ? • Même si c’est bluffant, ces IA sont peu intelligentes car dédiées à une seule tâche (IA Faible) • Comment vont évoluer les humains ? – A quoi sert de développer son sens de l’orientation et toutes les compétences qui vont avec quand vous avez un smartphone qui fait ça pour vous ? • Atteindra-t-on un point de singularité avec la création d’une machine supra- intelligente ? • IApocalypse : Des entrepreneurs (Bill Gates, Ellon Musk), scientifiques (Stephen Hawking), et expert en IA (Perter Norvig) signent une lettre ouverte sur l’IA appelant à la recherche sur les impacts sociétaux de l’IA. La société́ peut tirer d’importants bénéfices potentiels de l’IA mais les chercheurs ne doivent pas créer une chose qui ne peut pas être contrôlée (« intelligence super humaine ») 50 IA et l’avenir?
  31. • Remplacement de postes de travail par des robots (35%

    des postes menacés d’ici à 20 ans) 51 IA et l’avenir? https://willrobotstakemyjob.com/
  32. • Voitures Google acceptés dans 4 états des USA •

    Développées par plusieurs compagnies phares: – Google, Tesla, Uber, Valeo, Here, Didi 52 IA : voitures autonomes Encore très cher : Un laser LIDAR Des radars Un ordinateur Une caméra
  33. • Boston Dynamics – Fondé en 1992, subventionné par l’armée

    américaine – Racheté par Google en 2013 – Objectif : créer des robots avancés en terme de mobilité – Robots autonomes et adaptatifs pour aider les soldats sur le champ de bataille – Est-ce acceptable ? – L’armée américaine a déjà plus de 2000 robots à son service (Drones, détecteurs de mines, …) – Robot Chien Spot Mini bientôt commercialisé 53 IA : les robots
  34. • 3 lois de la robotique d’Asimov : • Première

    Loi • Un robot ne peut blesser un être humain ni, par son inaction, permettre qu'un humain soit blessé. • Deuxième Loi • Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. • Troisième Loi • Un robot doit protéger sa propre existence aussi longtemps qu'une telle protection n'est pas en contradiction avec la Première et/ou la Deuxième Loi. • Est-ce suffisant pour l’avenir ? • 54 3 lois de la robotique d’Asimov
  35. • Les robots Taxi vont se multiplier ! • Qui

    est responsable si une voiture autonome tue quelqu’un ? • Mars 2018 : un véhicule autonome Uber renverse et tue une femme en Arizona – La voiture avait bien détecté le piéton mais n’a pas jugé bon de l’éviter 55 IA et éthique
  36. 57