Slide 8
Slide 8 text
Littérature Scientifique
Trois études majeures déjà sorties
"Evaluating Large Language Models Trained on Code" par T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P.
Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell, et A. Agarwal. Cette étude a été publiée sur le site web de
Facebook AI Research en janvier 2022.
👉 Les chercheurs ont utilisé un modèle de langage pré-entraîné pour générer du code Python, puis ont demandé à
des développeurs humains de noter la qualité du code généré. Les résultats ont montré que les modèles de
langage pré-entraînés pouvaient générer du code fonctionnel, mais que leur qualité était inférieure à celle du
code écrit par des développeurs humains.
Conclusion : bien que les modèles de langage pré-entraînés soient capables de générer du code informatique, leur
qualité est encore loin de rivaliser avec celle des développeurs humains. Les modèles de langage pré-entraînés
peuvent être utiles pour générer du code simple ou pour aider les développeurs à écrire du code plus
rapidement, mais ils ne peuvent pas remplacer les compétences humaines dans les tâches plus complexes.