Durante las sesiones de marzo y abril, el curso MDSC3S132-1 Deep Learning del Magíster en Data Science combinó clases lectivas con laboratorios prácticos, donde cada tema, como MLP, CNN y RNN, fue abordado tanto desde su intuición conceptual como desde su implementación.
En este contexto, la sesión de hoy estuvo dedicada a la presentación de proyectos, donde los estudiantes aplicaron estos conceptos a problemas reales. Más que evaluar únicamente la implementación técnica, el foco estuvo en analizar las decisiones detrás de cada propuesta.
Un elemento transversal en todas las presentaciones fue la reflexión en torno a tres preguntas clave:
- ¿Cuándo usar modelos como MLP, CNN, RNN o modelos generativos?
- ¿Cómo evaluar correctamente su desempeño?
- ¿Cuándo NO usarlos?

El primer grupo presentó un clasificador de imágenes en tres categorías: perro, ave y persona. El trabajo permitió discutir el uso de redes convolucionales (CNN) y cómo la disponibilidad y calidad de los datos condiciona directamente el desempeño del modelo.
El segundo grupo abordó un problema de riesgo crediticio, explorando el uso de deep learning en datos estructurados. La discusión se centró en si modelos complejos aportan valor real frente a alternativas más simples e interpretables en este tipo de contexto.
El tercer grupo trabajó con un caso de series de tiempo asociado a oficinas móviles, utilizando modelos secuenciales. Esto permitió evidenciar tanto el potencial de estos enfoques como las dificultades prácticas al trabajar con datos reales.
El cuarto grupo desarrolló un pronóstico en retail, comparando modelos simples basados en medias móviles de 3 y 8 días. Uno de los puntos más interesantes fue observar que en ciertos escenarios, modelos simples pueden ser suficientes y no necesariamente es necesario recurrir a arquitecturas más complejas.
Finalmente, el quinto grupo analizó el problema de No-Show en el CESFAM El Monte, evaluando qué tan predecible es la inasistencia de pacientes a citas médicas. Este caso permitió discutir no solo el modelamiento, sino también las implicancias prácticas de este tipo de predicciones.
La sesión cerró con un breve debate, donde se les planteó a los estudiantes una pregunta final: si hubieran contado con recursos ilimitados (tiempo y presupuesto), ¿qué mejoras habrían implementado en sus proyectos?. Las respuestas apuntaron a aspectos como la recolección de más y mejores datos, la exploración de arquitecturas más complejas, el uso de técnicas de optimización más avanzadas y una evaluación más robusta en entornos cercanos a producción.
Más allá de las respuestas específicas, este ejercicio permitió cerrar el proceso de aprendizaje, reforzando la idea de que el desarrollo de modelos no ocurre en un vacío técnico, sino bajo restricciones reales. Entender estas limitaciones, y cómo priorizar decisiones en función de ellas, es parte fundamental del trabajo en ciencia de datos.
En conjunto, la sesión dejó en evidencia que el aprendizaje más relevante del curso no es únicamente saber implementar modelos como MLP, CNN o RNN, sino desarrollar el criterio para decidir cuándo utilizarlos, cómo evaluar sus resultados y reconocer cuándo una solución más simple es más adecuada.