Slide 9
Slide 9 text
2017 - Presente: La Era de los
Transformers y los Modelos de Lenguaje
a Gran Escala (LLM)
Transformers:
• La arquitectura Transformer,
introducida en el artículo
"Attention Is All You Need",
superó a las RNN en muchas
tareas de PLN. Los
Transformers, con su
mecanismo de autoatención,
pueden capturar dependencias
a largo plazo de manera más
eficiente.
BERT y Modelos Pre-entrenados:
• BERT (Bidirectional Encoder
Representations from
Transformers) y otros modelos
pre-entrenados transformaron el
PLN al permitir el aprendizaje
por transferencia. Estos
modelos, entrenados en
grandes cantidades de texto,
pueden ser ajustados para
tareas específicas con menos
datos.
Modelos de Lenguaje a Gran Escala
(LLM):
• Los LLM, como GPT-3 y sus
sucesores, han demostrado
capacidades impresionantes en
la generación de texto, la
traducción y la respuesta a
preguntas. Estos modelos,
entrenados en conjuntos de
datos masivos, pueden generar
texto coherente y fluido que se
asemeja a la escritura humana.
• La aparicion de los LLM, han
provocado una revolucion en la
forma en que se interactua con
las maquinas, abriendo nuevas
posibilidades en diferentes
ambitos.
Avances Recientes (2023-2024):
• Continua el desarrollo de LLM,
con enfoque en la eficiencia, la
reducción de sesgos y la mejora
de la comprensión contextual.
• Se esta dando mayor enfoque en
los modelos de lenguaje
multimodal.
• La generación aumentada por
recuperacion (RAG) se esta
convirtiendo en una tecnica muy
usada para mejorar la precision
de los LLM.