Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Fundamentos IA Generativa

Fundamentos IA Generativa

Avatar for Abraham Zamudio

Abraham Zamudio

January 07, 2026
Tweet

More Decks by Abraham Zamudio

Other Decks in Education

Transcript

  1. 1.​ Datos generales del curso Asignatura​ : Fundamentos IA Generativa

    Horas​ : 18 2.​ Presentación En el panorama actual de la evolución tecnológica, nos encontramos en un punto de inflexión que los historiadores del futuro probablemente clasificarán como el inicio de la era de la automatización cognitiva. La aparición y consolidación de los Grandes Modelos de Lenguaje, conocidos universalmente por sus siglas en inglés como LLMs, no representa simplemente una mejora incremental en las capacidades de procesamiento de datos, sino un cambio de paradigma fundamental en la forma en que los seres humanos interactúan con la información y, más importante aún, con el conocimiento mismo. Este curso nace de la necesidad imperante de desmitificar estas herramientas y proporcionar una base sólida, tanto técnica como filosófica, para profesionales que buscan liderar el cambio en sus respectivas disciplinas en lugar de simplemente ser testigos pasivos de su avance. Para comprender hacia dónde nos dirigimos, es imperativo realizar un viaje retrospectivo que nos permita entender los fundamentos, la arquitectura y los casos de uso que han dado forma a lo que hoy llamamos IA generativa. No podemos definir qué es un LLM sin antes observar la evolución histórica que nos trajo hasta aquí, desde los primeros modelos estadísticos de lenguaje hasta las complejas arquitecturas de transformadores que hoy permiten a las máquinas comprender el contexto, el tono y la intención con una precisión que antes se consideraba exclusiva del intelecto humano. Los LLMs son relevantes hoy porque responden a una demanda crítica de nuestra civilización: la necesidad de procesar una sobreabundancia de información de manera coherente y útil. Ya sea a través de la automatización de tareas cognitivas repetitivas, la asistencia profesional en la redacción de informes complejos o la generación creativa de contenido, estas herramientas se han convertido en el copiloto indispensable de la fuerza laboral moderna. A través de una demostración interactiva inicial, este programa busca que el participante sienta de primera mano la maleabilidad de esta tecnología, comprendiendo que el lenguaje es ahora una forma de programación accesible para todos. Sin embargo, el uso efectivo de estas herramientas requiere ir más allá de la superficie técnica. Es necesario adoptar lo que denominamos una mirada intuicionista de los fundamentos de los LLMs. Esto implica comprender conceptos que a menudo parecen abstractos, como los embeddings, que no son otra cosa que la representación matemática del significado en un espacio multidimensional, o el mecanismo de atención, que permite al modelo priorizar qué partes de un texto son fundamentales para dar una respuesta coherente. Es en este espacio donde el profesional aprende a distinguir entre el preentrenamiento masivo, que otorga al modelo su "cultura general", frente al ajuste fino o fine-tuning, que especializa al modelo en un dominio específico, y finalmente el arte del Prompt Engineering, que se posiciona como el lenguaje de interfaz entre el deseo humano y la ejecución de la máquina. Entender estos pilares permite al usuario dejar de ver a la inteligencia artificial como una "caja negra" mágica y empezar a verla como un motor de inferencia con reglas y comportamientos lógicos. La verdadera potencia de esta tecnología se manifiesta cuando se aplica a disciplinas específicas, transformando los flujos de trabajo tradicionales en procesos de alta eficiencia. En el ámbito del derecho, la capacidad de analizar jurisprudencia y redactar contratos se ve acelerada exponencialmente. En la medicina, los LLMs actúan como Abraham Zamudio
  2. puentes entre la vasta literatura científica y la práctica clínica,

    ayudando en la síntesis de diagnósticos complejos. Para la economía y la contabilidad, la detección de anomalías y la proyección de escenarios financieros adquieren una nueva dimensión de agilidad. En la administración de empresas, la optimización de procesos y la gestión de recursos humanos se benefician de una comunicación más clara y una toma de decisiones informada por datos. Incluso en la ingeniería, donde la precisión es ley, la IA generativa facilita la generación de código y la documentación técnica. Este curso se detiene en cada una de estas áreas para demostrar que la inteligencia artificial no es una herramienta genérica, sino un aliado versátil que se adapta a la semántica y a las necesidades particulares de cada campo del saber humano. No obstante, un liderazgo responsable en la implementación de IA exige un reconocimiento honesto de sus limitaciones y riesgos inmediatos. La euforia tecnológica a menudo oculta problemas críticos como las alucinaciones, donde el modelo genera información que parece verídica pero es fácticamente incorrecta, poniendo en riesgo la confiabilidad de los resultados. Debemos abordar con rigor los sesgos inherentes en los datos de entrenamiento y cómo estos pueden verse reflejados en las salidas, perpetuando estereotipos o injusticias sistémicas. La privacidad y la confidencialidad de los datos corporativos y personales son fronteras que no deben cruzarse a la ligera, especialmente en un mundo donde la información es el activo más valioso. La sobreestimación de capacidades es, quizás, el riesgo más humano: la tendencia a confiar ciegamente en una respuesta coherente sin ejercer el pensamiento crítico necesario para validarla. Por ello, este programa dedica un espacio sustancial a la ética y a la seguridad, enseñando a los participantes a construir salvaguardas que protejan tanto a la organización como a sus integrantes. Para que una tecnología sea adoptada con éxito, debe ser medible. La pregunta de cómo evaluar si un LLM está funcionando bien en un contexto específico es fundamental para cualquier estrategia de implementación. Esto requiere un equilibrio entre métricas cualitativas, que evalúan la utilidad, el tono y la relevancia de la respuesta, y métricas cuantitativas que analizan la precisión, el costo y la latencia. La auditoría de salidas y la detección proactiva de sesgos no son tareas que se realizan una sola vez, sino procesos continuos de supervisión humana que aseguran que la inteligencia artificial se mantenga alineada con los valores y objetivos de la institución. En este módulo, el participante aprenderá a diseñar protocolos de evaluación que le permitan escalar sus soluciones de IA con la confianza de que el sistema no solo es inteligente, sino también seguro y consistente. Finalmente, el curso culmina con una integración profunda entre la IA generativa y la gestión del conocimiento. En la era de la información, el mayor desafío de las organizaciones no es la falta de datos, sino la pérdida de conocimiento crítico, la existencia de silos donde la información queda atrapada y la parálisis por análisis debida a la sobreabundancia de datos. La gestión del conocimiento es la disciplina que busca capturar, distribuir y utilizar el saber humano dentro de una organización para generar valor. Aquí es donde la IA generativa cambia las reglas del juego de manera radical. Al automatizar la captura y síntesis de reuniones, documentos y correos electrónicos, la IA asegura que el conocimiento no se evapore. Al permitir un acceso conversacional al conocimiento institucional, cualquier miembro del equipo puede "preguntarle" a la memoria colectiva de la empresa y obtener respuestas precisas en segundos. Más aún, los modelos de lenguaje tienen la capacidad única de generar nuevos conocimientos a partir de patrones ocultos en grandes volúmenes de texto que el ojo humano simplemente no podría procesar. Este curso representa una invitación a no ser meros espectadores del cambio. A través de dieciocho horas de formación intensiva, los participantes transitarán desde la comprensión Abraham Zamudio
  3. técnica básica hasta la visión estratégica de alto nivel. El

    objetivo final es empoderar a los profesionales para que se conviertan en arquitectos de su propio futuro digital, capaces de implementar soluciones de inteligencia artificial que no solo aumenten la productividad, sino que también preserven y potencien el capital intelectual de sus organizaciones. Estamos ante una oportunidad histórica de redefinir el trabajo y la colaboración humana, y este programa es el primer paso firme hacia esa nueva realidad donde la inteligencia, sea humana o sintética, se pone al servicio del progreso y la excelencia profesional. Al concluir este recorrido, el participante no solo habrá adquirido habilidades técnicas, sino que habrá desarrollado un criterio sólido para discernir cuándo, cómo y por qué utilizar la inteligencia artificial. La integración de los LLMs en el tejido de la gestión del conocimiento no es solo un proyecto tecnológico, es una transformación cultural que requiere líderes informados, críticos y visionarios. Le invitamos a ser parte de esta vanguardia, a explorar las fronteras de lo posible y a construir, con nosotros, el siguiente capítulo en la historia de la inteligencia aplicada. El futuro ya no es algo que sucede, es algo que se programa, se entrena y se gestiona con intención y sabiduría. 3.​ Objetivo general del curso El objetivo general de este curso es proporcionar a los profesionales una comprensión integral, crítica y práctica de los Grandes Modelos de Lenguaje (LLMs), permitiéndoles dominar desde sus fundamentos arquitectónicos y operativos hasta su implementación estratégica en diversas disciplinas. A través del análisis de sus capacidades, limitaciones y riesgos, los participantes desarrollarán las competencias necesarias para evaluar, auditar e integrar soluciones de inteligencia artificial generativa en los sistemas de gestión del conocimiento de sus organizaciones, transformando la sobreabundancia de información en un activo estratégico que impulse la eficiencia y la innovación institucional. 4.​ Objetivos específicos del curso •​ Explicar la arquitectura y evolución histórica de los LLMs para comprender su impacto en la automatización cognitiva actual. •​ Diferenciar conceptos técnicos clave como embeddings, mecanismos de atención, preentrenamiento y fine-tuning. •​ Identificar casos de uso específicos en disciplinas como Derecho, Medicina, Ingeniería y Administración para optimizar procesos sectoriales. •​ Analizar los riesgos éticos y operativos, incluyendo alucinaciones, sesgos de datos y desafíos de privacidad y confidencialidad. •​ Establecer metodologías de evaluación mediante métricas cualitativas y cuantitativas para auditar el desempeño de los modelos en contextos reales. •​ Integrar herramientas de IA generativa en estrategias de gestión del conocimiento para mitigar la pérdida de información y facilitar el acceso conversacional a datos institucionales. 5.​ Resultados de aprendizaje Al finalizar el curso el alumno: Abraham Zamudio
  4. •​ Identificar los hitos clave en la evolución de los

    modelos de lenguaje y explicar el funcionamiento básico de la arquitectura de transformadores para fundamentar decisiones tecnológicas. •​ Diseñar y ejecutar estrategias de prompt engineering avanzadas que permitan obtener resultados precisos y alineados con los objetivos de un proyecto específico. •​ Analizar críticamente la viabilidad de implementar LLMs en procesos de su área profesional (Derecho, Medicina, Ingeniería, etc.), reconociendo las tareas con mayor potencial de automatización. •​ Mitigar riesgos operativos mediante la identificación temprana de alucinaciones y sesgos, aplicando protocolos de seguridad y confidencialidad de datos. •​ Implementar un sistema de evaluación para modelos de IA, utilizando métricas tanto cualitativas como cuantitativas que permitan certificar la calidad de las respuestas en un entorno corporativo. •​ Proponer soluciones de gestión del conocimiento basadas en IA generativa que rompan silos de información y permitan una recuperación eficiente del saber institucional. •​ Diferenciar técnica y económicamente cuándo es necesario un proceso de fine-tuning frente a un uso estándar del modelo base, optimizando así los recursos de la organización. 6.​ Metodología El desarrollo de las sesiones se efectuará mediante exposiciones del profesor, las mismas que se manejan en forma dinámica e interactiva con los alumnos, relacionando cada uno de los conceptos teóricos con casos prácticos. Asimismo, se aplicarán casos de estudio durante el desarrollo del curso con la finalidad de que los participantes resuelvan y presenten soluciones de acuerdo al esquema metodológico asignado por el profesor del curso. 7.​ Contenido por Sesiones: # DE HORAS CONTENIDO 3hrs ​ Fundamentos, Arquitectura y Casos de Uso de los LLMs •​ ¿Qué es un LLM? •​ Evolución histórica •​ Por qué los LLMs son relevantes hoy: automatización cognitiva, asistencia profesional, generación de contenido •​ Breve demo interactiva 3hrs ​ Una mirada intuicionista de los fundamentos de los LLMs •​ Embeddings •​ Atención •​ Preentrenamiento vs. Ajuste fino (finetuning) vs. Prompt Engineering Abraham Zamudio
  5. 3hrs ​ Casos de uso para algunas disciplinas •​ Derecho

    •​ Medicina •​ Economía/Contabilidad •​ Administración •​ Ingeniería 3hrs ​ Limitaciones y riesgos inmediatos de los LLM •​ Alucinaciones y confiabilidad •​ Sesgos en datos y salidas •​ Privacidad y confidencialidad •​ Sobrestimación de capacidades ​ 3hrs ​ ¿Cómo evaluar si un LLM está funcionando bien en tu contexto? •​ Métricas cualitativas vs cuantitativas •​ Auditoría de salidas y sesgos 3hrs Introducción a la gestión del conocimiento y el rol de la IA generativa •​ ¿Qué es la gestión del conocimiento? •​ Los grandes desafíos actuales: pérdida de conocimiento, silos, sobreabundancia de información •​ ¿Cómo cambia el juego la IA generativa? ◦​ Automatiza la captura y síntesis ◦​ Permite acceso conversacional al conocimiento institucional ◦​ Genera nuevos conocimientos a partir de patrones ocultos ​ •​ Prerrequisitos:​ Curso Básico de Python (PIT) Curso Machine Learning con Python (PIT) Curso Deep Learning con Python (PIT) 8.​ Bibliografía •​ Zhao, W. X., Zhou, K., Li, J., Tang, T., Wang, X., Hou, Y., ... & Wen, J. R. (2023). A survey of large language models. arXiv preprint arXiv:2303.18223, 1(2). •​ Zhao, H., Chen, H., Yang, F., Liu, N., Deng, H., Cai, H., ... & Du, M. (2024). Explainability for large language models: A survey. ACM Transactions on Intelligent Systems and Technology, 15(2), 1-38. •​ Chang, Y., Wang, X., Wang, J., Wu, Y., Yang, L., Zhu, K., ... & Xie, X. (2024). A survey on evaluation of large language models. ACM transactions on intelligent systems and technology, 15(3), 1-45. Abraham Zamudio
  6. •​ Xu, F. F., Alon, U., Neubig, G., & Hellendoorn,

    V. J. (2022, June). A systematic evaluation of large language models of code. In Proceedings of the 6th ACM SIGPLAN international symposium on machine programming (pp. 1-10). •​ Arcas, B. A. (2022). Do large language models understand us?. Daedalus, 151(2), 183-197. •​ Kasneci, E., Seßler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., ... & Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and individual differences, 103, 102274. •​ Makridakis, S., Petropoulos, F., & Kang, Y. (2023). Large language models: Their success and impact. Forecasting, 5(3), 536-549. •​ Franceschelli, G., & Musolesi, M. (2025). On the creativity of large language models. AI & society, 40(5), 3785-3795. •​ Kaddour, J., Harris, J., Mozes, M., Bradley, H., Raileanu, R., & McHardy, R. (2023). Challenges and applications of large language models. arXiv preprint arXiv:2307.10169. •​ Guo, Z., Jin, R., Liu, C., Huang, Y., Shi, D., Yu, L., ... & Xiong, D. (2023). Evaluating large language models: A comprehensive survey. arXiv preprint arXiv:2310.19736. •​ Wu, S., Irsoy, O., Lu, S., Dabravolski, V., Dredze, M., Gehrmann, S., ... & Mann, G. (2023). Bloomberggpt: A large language model for finance. arXiv preprint arXiv:2303.17564. •​ Wu, J., Gan, W., Chen, Z., Wan, S., & Yu, P. S. (2023, December). Multimodal large language models: A survey. In 2023 IEEE International Conference on Big Data (BigData) (pp. 2247-2256). IEEE. Abraham Zamudio