Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Silabo del curso : Redes Neuronales con Python

Silabo del curso : Redes Neuronales con Python

Avatar for Abraham Zamudio

Abraham Zamudio

September 25, 2025
Tweet

More Decks by Abraham Zamudio

Other Decks in Education

Transcript

  1. 1.​ Datos generales del curso Asignatura​ : Redes Neuronales con

    Python Horas​ : 60 horas 2.​ Presentación Este programa no es un mero catálogo de técnicas o una serie de tutoriales para copiar y pegar código. Es mucho más que eso. Es una formación integral, rigurosa y profundamente aplicada, diseñada para llevarlos desde las bases teóricas más fundamentales hasta la implementación práctica de modelos de inteligencia artificial en escenarios reales, utilizando el lenguaje de programación Python y su ecosistema más poderoso: TensorFlow y Keras. Estamos viviendo un momento histórico sin precedentes. Las redes neuronales, que durante décadas fueron vistas como curiosidades matemáticas o experimentos académicos, han irrumpido con fuerza total en todos los ámbitos de la vida moderna. Ya no son parte del futuro. Son el presente. Y si no entendemos cómo funcionan, corremos el riesgo de quedar al margen de esta revolución tecnológica que está rediseñando industrias enteras, transformando economías, redefiniendo profesiones y planteando nuevas preguntas éticas, sociales y filosóficas sobre el papel de la humanidad en un mundo cada vez más automatizado. Este curso, estructurado en 20 sesiones de tres horas cada una —un total de 60 horas de formación intensiva—, ha sido concebido con una visión clara: democratizar el acceso al conocimiento avanzado en inteligencia artificial, sin sacrificar rigor científico ni profundidad técnica. No se trata de ofrecer recetas rápidas ni atajos. Se trata de construir una comprensión sólida, crítica y operativa de cómo las máquinas aprenden, cómo generalizan patrones, cómo toman decisiones, y cómo podemos guiar ese proceso con responsabilidad.Porque sí, la inteligencia artificial puede diagnosticar enfermedades con mayor precisión que muchos médicos, puede predecir fenómenos climáticos, traducir idiomas en tiempo real, generar arte, música y texto creativo, y optimizar sistemas complejos como tráfico urbano o cadenas de suministro. Pero también puede perpetuar sesgos, invadir la privacidad, desplazar empleos y concentrar poder en pocas manos. Por eso, este curso no solo enseña cómo hacerlo, sino también por qué hacerlo, para quién y con qué consecuencias. Estamos ante una herramienta tan poderosa como ambigua. Y aquellos que la dominan tendrán una ventaja competitiva, intelectual y estratégica insuperable. Este curso es una invitación a convertirse en protagonistas activos de esta nueva era, no en espectadores pasivos. El diseño de este curso sigue una progresión pedagógica cuidadosamente pensada: comenzamos con los cimientos teóricos, avanzamos hacia arquitecturas específicas y culminamos con aplicaciones prácticas y estrategias de optimización. Todo ello con un hilo conductor claro: la integración constante entre teoría, matemática, programación y contexto social. No se asuste si nunca ha entrenado una red neuronal. Aquí aprenderá desde cero. Pero tampoco se aburrirá si ya tiene experiencia. Aquí profundizará, sistematizará y elevará su nivel a uno profesional, listo para enfrentar desafíos del mundo real. El curso se articula en torno a cuatro grandes bloques temáticos, que representan las etapas naturales del dominio en deep learning: 1.​ Los Fundamentos del Aprendizaje Automático con Redes Neuronales
  2. 2.​ Las Arquitecturas Clásicas: El Perceptrón Multicapa (MLP) 3.​ La

    Visión Artificial: Redes Neuronales Convolucionales (CNN) 4.​ El Modelado de Secuencias: Redes Neuronales Recurrentes (RNN), LSTM, GRU y NLP 5.​ Cada bloque no es una isla aislada, sino una pieza de un rompecabezas más grande. Juntos, forman un mapa completo del territorio del deep learning tal como se aplica hoy en día en ciencia, industria y gobierno. Bloque 1: Los Fundamentos – Comprender el "Por Qué" antes que el "Cómo" Todo gran edificio comienza con cimientos sólidos. Y en el caso de las redes neuronales, esos cimientos no son solo líneas de código, sino ideas profundas sobre cómo el conocimiento puede emerger de datos. Comenzaremos con una introducción histórica y conceptual al mundo del aprendizaje profundo. Exploraremos las raíces biológicas de las redes neuronales artificiales, su evolución desde los años 40 hasta la explosión actual impulsada por la disponibilidad de datos masivos y el poder computacional de las GPUs. Veremos por qué, tras décadas de invierno en la IA, el deep learning resurgió como la tecnología dominante. Pero no nos quedaremos en lo anecdótico. Inmediatamente entraremos en el núcleo matemático del asunto: el algoritmo de retropropagación del error (backpropagation). Este es el motor invisible que hace posible que las redes neuronales aprendan. Muchos cursos lo omiten o lo tratan como una caja negra. Este no. Aquí entenderemos, paso a paso, cómo se calculan los gradientes, cómo fluye el error hacia atrás a través de las capas, y cómo se ajustan los pesos para minimizar la pérdida. Usaremos herramientas visuales, ejemplos numéricos y cálculos manuales en redes pequeñas para hacer tangible lo abstracto. Porque si usted quiere ser más que un usuario de Keras, debe saber qué ocurre bajo el capó. Solo así podrá diagnosticar problemas, optimizar modelos y tomar decisiones informadas. Este fundamento matemático no es un lujo. Es una necesidad. Porque cuando su modelo no converge, cuando el loss no baja, cuando tiene overfitting, no podrá depender de soluciones mágicas. Necesitará comprender el mecanismo interno. Y ese conocimiento solo viene de entender el backpropagation. Bloque 2: El Perceptrón Multicapa (MLP) – La Arquitectura Universal del Aprendizaje Una vez sentadas las bases, daremos el salto a la primera arquitectura completa: el Perceptrón Multicapa (MLP). Este modelo, aparentemente simple, es increíblemente versátil. Puede resolver problemas de clasificación (¿es este correo spam o no?), regresión (¿cuál será el precio de esta casa?) y aproximación funcional (¿cómo modelar esta relación no lineal?). En este bloque, diseñaremos, entrenaremos y evaluaremos MLPs tanto para tareas de clasificación como de regresión. Usaremos datasets clásicos como MNIST (dígitos escritos a mano), Iris (clasificación de flores) o Boston Housing (predicción de precios), pero con un enfoque crítico: discutiremos las limitaciones éticas de algunos conjuntos de datos y promoveremos el uso responsable. Aprenderemos a preprocesar datos, a estructurar capas densas, a elegir funciones de activación (ReLU, softmax, sigmoide), a compilar modelos con diferentes optimizadores (Adam, SGD, RMSprop) y a interpretar métricas como accuracy, precision, recall, F1-score, MAE, RMSE y R². Pero ir más allá de la implementación básica. Entraremos en uno de los aspectos más cruciales del machine learning: la optimización de hiperparámetros. Porque no basta con construir un modelo. Hay que construir el mejor modelo posible dentro de nuestras restricciones. Exploraremos dos enfoques complementarios: •​ El Grid Search, una búsqueda exhaustiva que prueba todas las combinaciones posibles. •​ La Optimización Bayesiana, un método más sofisticado que aprende de iteraciones previas para encontrar óptimos de forma eficiente. Usaremos herramientas para automatizar este proceso, ahorrando tiempo y mejorando resultados. Y entenderemos cuándo usar cada técnica, sus ventajas y sus costos computacionales. Finalmente, cerraremos este bloque con una mirada crítica: ¿dónde
  3. triunfa el MLP? ¿Y dónde fracasa? Porque toda herramienta tiene

    sus límites. El MLP no maneja bien imágenes, secuencias ni relaciones espaciales. Y reconocer estas limitaciones es el primer paso para buscar arquitecturas más adecuadas. Bloque 3: Redes Neuronales Convolucionales (CNN) – La Revolución de la Visión Artificial Si el MLP es el trabajo pesado del aprendizaje automático, las Redes Neuronales Convolucionales (CNN) son las estrellas de la visión artificial. Han permitido que las máquinas vean, reconozcan y comprendan imágenes con una precisión que supera a la humana en muchas tareas. En este bloque, exploraremos por qué los modelos tradicionales fallan con datos visuales: una imagen de 28x28 píxeles ya tiene 784 dimensiones, y una de 224x224 supera las 150.000. Un MLP convencional colapsaría bajo tal dimensionalidad, además de ignorar la estructura local de los píxeles. Las CNN resuelven esto con operaciones especializadas: •​ Convolución: filtros que escanean la imagen detectando bordes, texturas, formas. •​ Pooling: reducción de resolución que preserva características importantes. •​ Compartición de pesos: cada filtro se aplica a toda la imagen, reduciendo drásticamente el número de parámetros. Veremos cómo estas operaciones permiten a las CNN aprender jerárquicamente: capas tempranas detectan patrones simples; capas profundas ensamblan objetos complejos. Implementaremos arquitecturas desde cero, visualizaremos mapas de características y analizaremos cómo el modelo toma decisiones. Luego, escalaremos hacia aplicaciones reales: clasificación de imágenes (¿es este un perro o un gato?), detección de anomalías médicas, análisis de satélite, reconocimiento facial. Usaremos datasets como CIFAR-10, Fashion-MNIST y otros disponibles públicamente. Pero el verdadero salto cualitativo llega con el Transfer Learning. En lugar de entrenar desde cero, aprovecharemos modelos preentrenados en millones de imágenes (como VGG16, ResNet50 o MobileNet) y los adaptaremos a nuevas tareas con pocos datos. Esto democratiza el acceso a modelos de alto rendimiento, incluso para quienes no tienen acceso a grandes clusters de cómputo. Discutiremos también las limitaciones y riesgos: ataques adversariales (pequeños cambios imperceptibles que engañan al modelo), sesgos culturales en datasets, falta de interpretabilidad y el impacto ambiental del entrenamiento de modelos grandes. Este bloque no solo los capacita técnicamente. Los prepara para ser ciudadanos éticos de la era visual de la IA. Bloque 4: Redes Neuronales Recurrentes (RNN) – El Lenguaje, el Tiempo y las Secuencias. Hasta ahora hemos tratado con datos estáticos: una imagen, una fila de una tabla. Pero gran parte del mundo es dinámico, secuencial, temporal. El habla, el texto, los precios de bolsa, los latidos del corazón, las series climáticas: todos son flujos de información donde el orden importa. Aquí es donde entran en juego las Redes Neuronales Recurrentes (RNN). Estas arquitecturas poseen memoria: el estado oculto de un paso se transmite al siguiente, permitiendo capturar dependencias temporales. En este bloque, exploraremos el poder de las RNN para modelar secuencias. Comenzaremos con su arquitectura básica, veremos sus limitaciones (el problema del gradiente que desaparece) y luego introduciremos las soluciones que hicieron posible el boom del NLP: las LSTM (Long Short-Term Memory) y las GRU (Gated Recurrent Units). Aplicaremos estos modelos a dos dominios clave: 1.​ Series de tiempo: predicción de precios, demanda energética, tráfico web, etc. Trabajaremos tanto con series univariadas (una sola variable) como multivariadas (múltiples variables exógenas). 2.​ Procesamiento del Lenguaje Natural (NLP): tokenización, embeddings, clasificación de sentimientos, generación de texto. Veremos cómo una LSTM puede aprender el estilo de Shakespeare y generar poesía original, cómo un modelo puede clasificar reseñas como positivas o negativas, y cómo las arquitecturas encoder-decoder sentaron las bases de los traductores automáticos modernos.
  4. Finalmente, cerraremos el curso con una sesión dedicada a la

    optimización de modelos RNN. Aprenderán a validar modelos en contextos temporales (sin hacer trampa con datos futuros), a sintonizar hiperparámetros, a guardar y cargar modelos. Pero también reflexionaremos sobre el impacto social: ¿qué significa que una máquina genere texto convincente? ¿Cómo afecta esto a la desinformación, al periodismo, a la educación? ¿Quién es responsable cuando un modelo sesgado toma decisiones automatizadas? 3.​ Objetivo general del curso Dotar a los participantes de una formación integral, rigurosa y aplicada en redes neuronales artificiales, mediante el dominio progresivo de sus fundamentos matemáticos, arquitecturas clave (Perceptrón Multicapa, Redes Neuronales Convolucionales y Recurrentes) y técnicas de implementación práctica utilizando Python y el entorno Keras/TensorFlow. El curso busca capacitar al estudiante para diseñar, entrenar, optimizar y evaluar modelos de deep learning en diversos contextos reales —como clasificación, regresión, visión artificial, procesamiento de lenguaje natural y predicción de series de tiempo—, promoviendo no solo la competencia técnica, sino también el pensamiento crítico, la ética en la inteligencia artificial y la capacidad de discernir las aplicaciones y limitaciones de cada arquitectura en escenarios del mundo real. 4.​ Objetivos específicos del curso 1.​ Comprender los fundamentos teóricos y matemáticos del aprendizaje en redes neuronales, incluyendo la arquitectura básica de las redes feedforward, el funcionamiento del algoritmo de retropropagación del error y la aplicación de cálculo diferencial y álgebra lineal en el proceso de entrenamiento, para sentar las bases del entendimiento profundo del deep learning. 2.​ Diseñar, implementar y evaluar modelos basados en Perceptrones Multicapa (MLP) tanto para tareas de clasificación como de regresión, utilizando Python y Keras, y aplicar estrategias avanzadas de optimización de hiperparámetros —como Grid Search y Optimización Bayesiana— para mejorar el rendimiento y la generalización de los modelos en problemas estructurados. 3.​ Dominar las arquitecturas de Redes Neuronales Convolucionales (CNN) para la resolución de problemas en visión artificial, desde la comprensión de operaciones clave (convolución, pooling) hasta la implementación de modelos desde cero y el uso de Transfer Learning con arquitecturas preentrenadas, evaluando sus capacidades y limitaciones éticas, técnicas y computacionales. 4.​ Modelar datos secuenciales mediante Redes Neuronales Recurrentes (RNN), LSTM y GRU, aplicándolos a predicción de series de tiempo (univariadas y multivariadas) y tareas de Procesamiento del Lenguaje Natural (NLP), como clasificación de texto y generación de secuencias, utilizando arquitecturas encoder-decoder cuando sea necesario. 5.​ Optimizar, validar modelos de redes neuronales de forma robusta, integrando buenas prácticas de validación cruzada temporal, selección de métricas adecuadas, ajuste eficiente de hiperparámetros con el fin de preparar modelos para entornos de inferencia realistas y fomentar un enfoque crítico y ético frente al impacto social de la inteligencia artificial. 5.​ Resultados de aprendizaje
  5. Al finalizar el curso el alumno: •​ Comprende la naturaleza

    del tiempo en aplicaciones que requieren un análisis profundo de los elementos/procesos que generan los datos. •​ Utiliza pragmáticamente las técnicas enseñadas en clase para modelos de interés 6.​ Metodología Metodología: Aprender Haciendo, con Soporte Académico y Profesional La metodología del curso es profundamente práctica. Cada sesión combina: •​ Exposición teórica con apoyo visual y ejemplos intuitivos. •​ Implementación en vivo con Python y Notebooks. •​ Discusión crítica sobre casos de uso, errores comunes y mejores prácticas. Se utilizará Google Colab como entorno principal, garantizando accesibilidad para todos, independientemente del hardware que posean. También se proporcionarán lecturas recomendadas y recursos adicionales. 7.​ Contenido por Clases : # DE HORAS CONTENIDO [MÓDULO I] 3hrs. Introducción a las redes neuronales y al aprendizaje profundo 3hrs Fundamentos matemáticos del algoritmo de Retropropagación 3hrs. Diseño y entrenamiento del perceptrón multicapa (MLP) para problemas de clasificación 3hrs Diseño y entrenamiento del perceptrón multicapa (MLP) para problemas de Regresión 3hrs. Estrategias de barrido de Hiperparametros •​ GridSearch 3hrs Estrategias de barrido de Hiperparametros •​ Optimizacion Bayesiana 3hrs. Aplicaciones y limitaciones del perceptrón multicapa 3hrs El problema de la visión artificial 3hrs Redes Neuronales Convolucionales : Fundamentos teóricos y de implementación 3hrs
  6. Aplicaciones de las Redes Neuronales Convolucionales 3hrs Barrido de hiperparametros

    para Redes Neuronales Convolucionales 3hrs Transfer Learning con Redes Neuronales Convolucionales 3hrs Aplicaciones y limitaciones de las Redes Neuronales Convolucionales 3hrs. Introducción a las Secuencias (series de tiempo, texto, voz, secuencias biológicas) y Arquitectura de Red Neuronal Recurrente (RNN) Básica 3hrs Problemas del Gradiente en una arquitectura RNN y Soluciones: LSTM y GRU 3hrs. Modelo de pronóstico para Series de Tiempo univariadas con RNNs 3hrs. Modelo de pronóstico para Series de Tiempo multivariada con RNNs 3hrs. Procesamiento del Lenguaje Natural (NLP) con RNNs 3hrs. Generación de Texto y Modelos Seq2Seq 3hrs. Optimización de Modelos RNN ​ Prerrequisitos :​ 1.​ Conocimientos básicos-intermedios sobre programación en Python, estadística descriptiva y estadística inferencial y aprendizaje automático. 8.​ Bibliografía 1)​ Bishop, C. M., & Nasrabadi, N. M. (2006). Pattern recognition and machine learning (Vol. 4, No. 4, p. 738). New York: springer. 2)​ Erazo-Luzuriaga, A. F., Ramos-Secaira, F. M., Galarza-Sánchez, P. C., & Boné-Andrade, M. F. (2023). La inteligencia artificial aplicada a la optimización de programas informáticos. Journal of Economic and Social Science Research, 3(1), 48-63. 3)​ Qureshi, R., Irfan, M., Gondal, T. M., Khan, S., Wu, J., Hadi, M. U., ... & Alam, T. (2023). AI in drug discovery and its clinical relevance. Heliyon, 9(7). 4)​ Murphy, K. P. (2022). Probabilistic machine learning: an introduction. MIT press. 5)​ Hennig, P., Osborne, M. A., & Kersting, H. P. (2022). Probabilistic Numerics: Computation as Machine Learning. Cambridge University Press. 6)​ Bakthavatchalam, T. A., Murugan, S., Vadivel, M., Jaganathan, M., Balu, G., & Sankarasubbu, M. (2023, June). Active Learning for Probabilistic Machine Learning-Based Modeling of Dynamical Systems. In International Conference on Nonlinear Dynamics and Applications (pp. 399-408). Cham: Springer Nature Switzerland. 7)​ Kalita, J. (2022). Machine learning: Theory and practice. Chapman and Hall/CRC. 8)​ Mirtaheri, S. L., & Shahbazian, R. (2022). Machine learning: theory to applications. CRC Press.
  7. 9)​ Zhang, T. (2023). Mathematical analysis of machine learning algorithms.

    Cambridge University Press. 10)​Prince, S. J. (2023). Understanding deep learning. MIT press. 11)​ Bach, F. (2024). Learning theory from first principles. MIT press. 12)​Szepesvári, C. (2022). Algorithms for reinforcement learning. Springer nature. 13)​Buduma, N., Buduma, N., & Papa, J. (2022). Fundamentals of deep learning: Designing next-generation machine intelligence algorithms. " O'Reilly Media, Inc.". 14)​Roberts, D. A., Yaida, S., & Hanin, B. (2022). The principles of deep learning theory (Vol. 46). Cambridge, MA, USA: Cambridge University Press. 15)​Yousaf, K., & Nawaz, T. (2022). A deep learning-based approach for inappropriate content detection and classification of youtube videos. IEEE Access, 10, 16283-16298.