Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Fundamentos de deep learning: construcción de r...

Fundamentos de deep learning: construcción de redes neuronales

Avatar for Abraham Zamudio

Abraham Zamudio

January 07, 2026
Tweet

More Decks by Abraham Zamudio

Other Decks in Education

Transcript

  1. Silabo del curso PIT - Fundamentos de deep learning: construcción

    de redes neuronales 2026 ​ ​ Profesor Abraham Zamudio
  2. 1.​ Datos generales del curso Asignatura​ : Fundamentos de deep

    learning: construcción de redes neuronales Horas​ : 18 2.​ Presentación La era de la información ha mutado hacia una era de la complejidad estructural, donde el volumen masivo de datos crudos ha superado con creces nuestra capacidad analítica tradicional. En este escenario, el procesamiento de datos no es simplemente una etapa preliminar, sino el cimiento crítico sobre el cual se erige cualquier arquitectura de inteligencia artificial. El profesional contemporáneo debe comprender que antes de invocar algoritmos de aprendizaje profundo, existe un imperativo técnico de dominar herramientas de manipulación estructural como la librería Pandas. El manejo de Series y DataFrames no representa solo una conveniencia sintáctica, sino la capacidad de modelar la realidad en estructuras vectorizadas que permiten una computación eficiente. El preprocesamiento de datos —la limpieza de valores nulos, el escalamiento de variables y la codificación de categorías— constituye el ochenta por ciento del éxito en un proyecto real, pues una red neuronal, por sofisticada que sea, es intrínsecamente sensible a la calidad de los tensores que recibe. La visualización técnica, por su parte, no es un mero ejercicio estético, sino la herramienta de diagnóstico fundamental para identificar sesgos, distribuciones anómalas y correlaciones ocultas que guiarán la selección del modelo. Una vez que los datos han sido refinados, nos adentramos en el dominio de las redes neuronales, cuya arquitectura es una proeza de la ingeniería inspirada en la neurobiología pero cimentada en el cálculo multivariable y el álgebra lineal. Comprender la arquitectura de una red no es solo apilar capas, sino entender cómo el flujo de información se transforma a través de transformaciones lineales seguidas de activaciones no lineales que permiten al sistema aproximar cualquier función continua. Aquí es donde el curso cobra una relevancia estratégica al introducir el módulo Keras, una interfaz de alto nivel que permite la experimentación rápida sin sacrificar la profundidad conceptual. Los primeros pasos en Keras no son simplemente aprender comandos, sino internalizar el paradigma de la computación tensorial y la construcción de grafos computacionales. Esta abstracción es necesaria para que el ingeniero de datos se concentre en la topología del modelo mientras la biblioteca gestiona la complejidad subyacente de la diferenciación automática y el retropropago del error. La distinción entre problemas de regresión y clasificación a través del Perceptrón Multicapa marca la transición de la teoría a la utilidad industrial tangible. En el ámbito de la regresión, el desafío reside en predecir valores continuos, lo cual exige una comprensión profunda de las funciones de pérdida como el error cuadrático medio y la importancia de la normalización de las etiquetas para evitar la saturación de los gradientes. Por el contrario, cuando abordamos problemas de clasificación, nos sumergimos en el mundo de la probabilidad logística y las entropías cruzadas, donde el modelo debe aprender a trazar fronteras de decisión hiperdimensionales que separen categorías con una precisión milimétrica. Un profesional capaz de transitar entre estos dos pilares posee las llaves para resolver desde la predicción de precios en mercados financieros hasta el diagnóstico automatizado en imágenes médicas, integrando el rigor estadístico con la potencia del cálculo masivo. Sin embargo, la construcción de un modelo funcional es solo la mitad del camino; la excelencia se alcanza mediante el análisis exhaustivo de los parámetros y la optimización de hiperparámetros. Este es el proceso de sintonía fina donde la red neuronal deja de ser Abraham Zamudio
  3. una "caja negra" para convertirse en un sistema controlado y

    predecible. El procedimiento de optimización no es un proceso de azar, sino una búsqueda sistemática en un espacio de alta dimensionalidad donde variables como la tasa de aprendizaje, el tamaño del lote (batch size) y las funciones de regularización determinan la capacidad de generalización del modelo frente a datos nunca antes vistos. Dominar estas técnicas permite mitigar problemas críticos como el sobreajuste (overfitting) o el desvanecimiento del gradiente, garantizando que la inversión en tiempo de cómputo se traduzca en una solución robusta y escalable. Llevar este curso representa, por tanto, una decisión de carrera fundamental en un mercado que ya no premia el conocimiento superficial. Se trata de una inmersión que conecta la capacidad de procesar grandes volúmenes de información con la habilidad técnica de construir arquitecturas neuronales que emulen la capacidad cognitiva humana para identificar patrones. Al finalizar este programa, el estudiante no solo habrá escrito líneas de código en Keras, sino que habrá desarrollado una intuición técnica sobre cómo los pesos y sesgos de una red convergen hacia una solución óptima. Esta formación otorga la autonomía necesaria para liderar la transformación digital, convirtiendo la abundancia de datos en inteligencia accionable y posicionando al experto en el epicentro de la innovación tecnológica global, donde la capacidad de predecir el futuro a través de modelos matemáticos avanzados es la mayor ventaja competitiva posible en el siglo veintiuno. 3.​ Objetivo general del curso El objetivo general este curso PIT de especialización técnica es dotar al participante de una estructura metodológica y una base técnica rigurosa para la arquitectura de soluciones basadas en inteligencia artificial, permitiéndole transitar desde la ingesta y el tratamiento avanzado de datos hasta el despliegue de modelos de aprendizaje profundo capaces de resolver problemas complejos de alta dimensionalidad. A través de un enfoque que equilibra la teoría de sistemas inteligentes con la implementación práctica, el curso busca que el profesional no solo domine el uso de la librería Pandas para la ingeniería de variables y la limpieza de datos —etapa crítica para la viabilidad de cualquier proyecto—, sino que también comprenda profundamente la arquitectura de las redes neuronales. Al integrar el uso del módulo Keras, el programa persigue la capacitación en el diseño de Perceptrones Multicapa, permitiendo al estudiante diferenciar y aplicar estrategias específicas tanto para problemas de regresión (predicción de valores continuos) como de clasificación (categorización de patrones). Finalmente, el curso se propone elevar el nivel analítico del participante mediante el análisis de parámetros y la optimización de hiperparámetros, asegurando que el estudiante adquiera la capacidad de ajustar modelos con precisión quirúrgica para maximizar la generalización y el rendimiento en entornos productivos. En esencia, el objetivo es transformar a un analista de datos en un arquitecto de Deep Learning con la autonomía técnica necesaria para liderar la innovación tecnológica en su organización. 4.​ Objetivos específicos del curso Abraham Zamudio
  4. Sesión 1: Procesamiento de Datos con Pandas Lograrás una autonomía

    técnica en la manipulación de estructuras de datos bidimensionales y unidimensionales, aplicando métodos avanzados de limpieza, imputación de valores faltantes y transformación de variables (feature engineering). Además, desarrollarás la capacidad de generar diagnósticos visuales precisos que permitan identificar la distribución y calidad de los datos antes de su ingreso al modelo. Sesión 2: Introducción a las Redes Neuronales Comprenderás la fundamentación matemática y lógica detrás de la arquitectura de una red neuronal, identificando el papel de las neuronas artificiales, las funciones de activación y la propagación de señales. Serás capaz de conceptualizar cómo una estructura de capas puede aprender representaciones jerárquicas a partir de datos crudos. Sesión 3: El Módulo Keras (I) – Primeros Pasos Dominarás el ecosistema de Keras como interfaz de alto nivel para la computación tensorial, aprendiendo a configurar el entorno de desarrollo y a construir tus primeros grafos computacionales. Establecerás las bases para una experimentación rápida y eficiente, facilitando la transición de conceptos teóricos a scripts ejecutables. Sesión 4: El Módulo Keras (II) – Perceptrón Multicapa para Regresión Aprenderás a diseñar y entrenar arquitecturas de Perceptrón Multicapa (MLP) orientadas a la predicción de variables numéricas continuas. Lograrás configurar funciones de pérdida específicas (como el MSE) y métricas de evaluación que permitan medir la desviación del modelo en escenarios de estimación de valores. Sesión 5: El Módulo Keras (III) – Perceptrón Multicapa para Clasificación Desarrollarás la capacidad de implementar modelos de clasificación para la categorización de datos en grupos discretos. Aprenderás a utilizar funciones de activación de salida como Softmax o Sigmoid, y a gestionar funciones de pérdida de entropía cruzada para maximizar la precisión en la toma de decisiones del algoritmo. Sesión 6: Análisis de Parámetros y Optimización Alcanzarás un nivel experto en la sintonía fina (fine-tuning) de modelos mediante la optimización de hiperparámetros. Lograrás implementar procedimientos sistemáticos para ajustar la tasa de aprendizaje, el tamaño del lote y las técnicas de regularización, garantizando que el modelo sea robusto, evite el sobreajuste y presente un rendimiento óptimo en entornos de producción reales. 5.​ Resultados de aprendizaje Al finalizar el curso el alumno: •​ Aplica de manera útil las características que tiene el lenguaje de programación python a problemas reales. •​ Habilidad para configurar capas, neuronas y funciones de activación en una red neuronal. •​ Implementación fluida de modelos de Deep Learning utilizando la API secuencial de Keras •​ Evaluación técnica de métricas de desempeño y curvas de aprendizaje. Abraham Zamudio
  5. •​ Ajuste fino de la tasa de aprendizaje y regularización

    para evitar el sobreajuste. •​ Aplicación de técnicas de escalamiento y normalización para mejorar la convergencia. •​ Conoce y es capaz de implementar algoritmos para resolver problemas prácticos. •​ Identifica, selecciona y combina los algoritmos enseñados en el curso, y los aplica en casos de interés para su carrera. 6.​ Metodología El desarrollo de las sesiones se efectuará mediante exposiciones del profesor, las mismas que se manejan en forma dinámica e interactiva con los alumnos, relacionando cada uno de los conceptos teóricos con casos prácticos. Asimismo, se aplicarán casos de estudio durante el desarrollo del curso con la finalidad de que los participantes resuelvan y presenten soluciones de acuerdo al esquema metodológico asignado por el profesor del curso. 7.​ Contenido por Sesiones: # DE HORAS CONTENIDO 3hrs PROCESAMIENTO DE DATOS CON PANDAS •​ Pandas : Series y DataFrames •​ Preprocesamiento de datos •​ Tecnicas de visualizacion 3hrs INTRODUCCIÓN A LAS REDES NEURONALES •​ Arquitectura de una red neuronal 3hrs ​ EL MÓDULO KERAS (I) •​ Primeros pasos usando Keras 3hrs ​ EL MÓDULO KERAS (II) •​ Perceptron multicapa para problemas de regresión 3hrs ​ EL MÓDULO KERAS (III) •​ Perceptron multicapa para problemas de Clasificación Abraham Zamudio
  6. 3hrs ​ ANÁLISIS DE LOS PARÁMETROS DE UNA RED NEURONAL

    ​ •​ Procedimiento de optimización de Hiperparametros de una red neuronal ​ •​ Prerrequisitos:​ Curso Básico de Python (PIT) Estadística Descriptiva 8.​ Bibliografía •​ LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436-444. •​ Goodfellow, I., Bengio, Y., Courville, A., & Bengio, Y. (2016). Deep learning (Vol. 1, No. 2). Cambridge: MIT press. •​ Shinde, P. P., & Shah, S. (2018, August). A review of machine learning and deep learning applications. In 2018 Fourth international conference on computing communication control and automation (ICCUBEA) (pp. 1-6). IEEE. •​ Kelleher, J. D. (2019). Deep learning. MIT press. •​ Du, X., Cai, Y., Wang, S., & Zhang, L. (2016, November). Overview of deep learning. In 2016 31st Youth Academic Annual Conference of Chinese Association of Automation (YAC) (pp. 159-164). IEEE. •​ Prince, S. J. (2023). Understanding deep learning. MIT press. •​ Wu, Y. C., & Feng, J. W. (2018). Development and application of artificial neural network. Wireless Personal Communications, 102(2), 1645-1656. •​ Abdi, H., Valentin, D., & Edelman, B. (1999). Neural networks (No. 124). Sage. •​ Picton, P. (1994). What is a neural network?. In Introduction to neural networks (pp. 1-12). London: Macmillan Education UK. •​ Kukreja, H., Bharath, N., Siddesh, C. S., & Kuldeep, S. (2016). An introduction to artificial neural network. Int J Adv Res Innov Ideas Educ, 1(5), 27-30. •​ Gurney, K. (2018). An introduction to neural networks. CRC press. Abraham Zamudio