Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Faire du traitement du langage naturel avec tensorflow

Faire du traitement du langage naturel avec tensorflow

Aujourd’hui, les avancées en terme de machine learning sur la compréhension de la parole, du texte et de ce qui est contenu dans les images et vidéos, sont telles qu’elles permettent de rendre beaucoup plus accessible les contenus numériques. Mais savons nous comment cela fonctionne et quelles en sont les limites ? Dans cette présentation, parsemée d'humour et de fun, Yannick Serge, vous montrera, au travers de démos et d’exemples concrets, comment le traitement du langage a bénéficié des avancées du machine learning.

Yannick Serge Obam

October 17, 2020
Tweet

More Decks by Yannick Serge Obam

Other Decks in Technology

Transcript

  1. Faire du traitement de langage naturel avec Tensorflow Yannick Serge

    Obam AI/ML Engineer, isoMora ML GDE @OBAMSerge 1
  2. Agenda • Introduction au NLP • Gestion des sequences d’un

    corpus • Apprentissage par transfert sur les NLP • QA 3
  3. C’est quoi le NLP? NLP est une technologie permettant aux

    machines de comprendre le langage humain grâce à l’intelligence artificielle tfhub.dev Linguistique Informatique Intelligence Artificielle NLP 5
  4. Les différentes approches • L’approche basée sur des règles •

    Les approches statistiques Utilisation du corpus parallele source BigSnarf blog 7
  5. Prétraitement des textes • Tokenization • Désaccentuation • Stemmer •

    Suppression des stopwords • Désaccentuation • Lemmatiser • Passer en minuscule 9
  6. • Sac à mot pour des phrases • TF-IDF •

    Named Entity Recognition Représentation du corpus • Extraction de relation • Extraction des événement • POS tagging 10
  7. Seq2Seq • Encodeur trouve une représentation de la phrase. •

    Décodeur utilise cette représentation pour construire une réponse. . Encoder Decoder Entree Sortie Contexte 21
  8. Transfer learning in NLP 1- GPT – Generative Pre-Training 2-

    BERT 3- OpenAI GPT-2 4- Multi-Task Learning Fine tune a BERT Model Tutoriel: Ruder, 2019 26
  9. Credits Training tokenizers Creating word embeddings coding the word2vec algorithm

    in python using deep learning State of transfer learning in NLP 29
  10. 30