Plan de Estudios - Diplomatura en IA Generativa

Plan de estudios


Fundamentos de la IA y sus aplicaciones en diversos sectores. Aprendizaje automático (Machine Learning) y sus algoritmos básicos. Visión general de técnicas avanzadas como el procesamiento del lenguaje natural (NLP) y visión por computadora. Aspectos éticos y responsabilidad en el desarrollo y uso de sistemas de IA.

Lente estratégica: selección de paradigma — cuándo conviene ML clásico, cuándo deep learning, cuándo LLMs según el problema, los datos disponibles y el costo computacional aceptable.
Accede al programa

Conceptos básicos de la nube y sus servicios para IA (almacenamiento, cómputo, bases de datos). Infraestructura como código (IaC) y canalizaciones CI/CD, para despliegue de modelos de IA en entornos cloud multinube. Arquitectura y orquestadores de contenedores como plataformas escalables y especializadas en IA en la nube. Despliegue e implementación de soluciones de inteligencia artificial.

Lente estratégica: trade-offs cloud para IA — managed vs self-hosted, GPU vs CPU, training vs inference cost, cuándo serverless y cuándo K8s para servir modelos.
Accede al programa

Introducción al aprendizaje profundo. Arquitecturas básicas de redes neuronales. Funciones de activación y regularización. Redes neuronales convolucionales (CNN), recurrentes (RNN) y LSTM. Transferencia de aprendizaje y fine-tuning. Optimización de hiperparámetros. Técnicas de interpretación de modelos. Aplicaciones en visión por computadora y PLN. Modelos avanzados.

Lente estratégica: elección de arquitectura — CNN / RNN / Transformer / VAE según la naturaleza del dato (imagen, secuencia, texto, audio) y el objetivo (clasificación, generación, predicción).
Accede al programa

Introducción al modelado generativo aplicado a la generación de texto e imágenes. Modelos básicos de generación de contenidos. Redes neuronales para generación de secuencias. Mecanismos de atención. Modelos de lenguaje condicionados y no condicionados. Diferentes modelos y frameworks de generación de modelos y contenidos. Evaluación automática de la calidad y coherencia. Transferencia de estilo en la generación de contenido.

Lente estratégica: RAG vs fine-tuning vs prompt engineering — cuándo cada estrategia, costos comparativos y criterios para combinar las tres en sistemas de producción.
Accede al programa
¿Y la estrategia?

Está distribuida en los 4 módulos, no aislada en una capa para directivos. La selección de paradigma vive en los fundamentos, los trade-offs cloud para IA en infraestructura, la elección de arquitectura en deep learning, y la decisión RAG vs fine-tuning vs prompt engineering en IA generativa. Lo que en otros programas son slides, acá son decisiones que el alumno toma mientras construye.

Cronograma clase por clase

Cohorte agosto 2026 — Martes y jueves de 19:00 a 21:00 hs (ARG). 32 clases en vivo distribuidas en 4 cursos consecutivos. Cada clase tiene tema y entregable concreto.

Cronograma de referencia — sujeto a ajustes menores antes del inicio de cohorte.

Curso 1 — Introducción a la Inteligencia Artificial

Agosto 2026 · Docente Responsable: Mg. Juan Manuel Fernández

Lente estratégica del curso: selección de paradigma — del primer clasificador kNN al diseño end-to-end de un proyecto IA, decidiendo cuándo ML clásico, cuándo deep learning y cuándo LLM según problema, datos y costo.
Clase Fecha Tema Entregable
1 Mar 04/08 Tipos de aprendizaje (supervisado, no supervisado, RL) y métricas (accuracy, precision/recall, F1, ROC-AUC) Notebook con clasificador kNN sobre Iris + reporte de métricas con matriz de confusión
2 Jue 06/08 Preprocessing y feature engineering (encoding, scaling, missing values, data leakage) Pipeline sklearn aplicado a dataset Titanic con cross-validation y reporte de score
3 Mar 11/08 Algoritmos clásicos: regresión lineal/logística, árboles, random forest, gradient boosting (XGBoost) Comparativa de 4 modelos sobre dataset tabular Kaggle (House Prices) con benchmark documentado
4 Jue 13/08 Validación, overfitting, regularización (L1/L2, dropout, early stopping) y bias-variance tradeoff Modelo regularizado con learning curves + análisis bias-variance entregado en notebook
5 Mar 18/08 NLP clásico: tokenización, TF-IDF, word embeddings (Word2Vec, GloVe) Clasificador de sentimiento sobre tweets en español usando TF-IDF + LogReg con métricas
6 Jue 20/08 Computer vision clásico: filtros, HOG, descriptores SIFT y matching de features Detección de bordes y matching de features con OpenCV sobre dataset propio
7 Mar 25/08 Ética, sesgos algorítmicos y casos famosos (COMPAS, Amazon hiring, face recognition) Ensayo de 2 páginas: análisis de sesgo en el modelo propio entregado en clase 3
8 Jue 27/08 Cierre: diseño de un proyecto IA end-to-end y elección del paradigma adecuado Defensa oral de 5 min: problema elegido + paradigma justificado para el Proyecto Integrador Final

Curso 2 — Infraestructura Tecnológica para Inteligencia Artificial

Septiembre 2026 · Docente Responsable: Dr. David Petrocelli

Lente estratégica del curso: trade-offs cloud para IA — managed vs self-hosted, GPU vs CPU, training vs inference cost, serverless vs Kubernetes; FinOps ML aplicado bajo AWS Well-Architected ML Lens.
Clase Fecha Tema Entregable
1 Mar 01/09 Cloud para IA: AWS SageMaker, Bedrock, EC2 GPU; comparativa con GCP Vertex AI y Azure ML Provisión de instancia EC2 g4dn.xlarge con CUDA + benchmark con PyTorch documentado
2 Jue 03/09 Contenedores para IA: Docker con CUDA, NGC (NVIDIA images), multi-stage builds y optimización de tamaño Imagen Docker con PyTorch + CUDA, push a ECR y ejecución de inference verificada
3 Mar 08/09 IaC para IA: Terraform para SageMaker training jobs, S3, IAM y VPC con least privilege Módulo Terraform reutilizable para entrenar un modelo en SageMaker con tfvars dev/prod
4 Jue 10/09 CI/CD para modelos: GitHub Actions con OIDC, MLflow tracking y model registry Pipeline GitHub Actions que entrena modelo en cada push y registra artefactos en MLflow
5 Mar 15/09 Kubernetes para inference: EKS + Karpenter + GPU node pools, Helm charts para servir modelos Deployment de modelo Hugging Face en EKS con autoscaling, Service y exposición por Ingress
6 Jue 17/09 Serverless para inference: Lambda + container image, SageMaker Serverless y análisis de costos Función Lambda que sirve un modelo distilBERT con cold-start medido y reportado
7 Mar 22/09 Observabilidad ML: latencia, drift de datos, métricas de modelo (CloudWatch + Prometheus + Grafana) Dashboard Grafana con 5 métricas clave de modelo en producción y 2 alertas configuradas
8 Jue 24/09 Cierre: AWS Well-Architected ML Lens — Reliability, Cost Optimization y Security para IA Análisis WA-ML-Lens sobre la arquitectura propia del curso con plan de remediación priorizado

Curso 3 — Aprendizaje Profundo y Redes Neuronales

Octubre 2026 · Docente Responsable: Dra. Rosana Matuk

Lente estratégica del curso: elección de arquitectura — CNN / RNN / Transformer / VAE según la naturaleza del dato; entrenamiento real en GPU cloud, hyperparameter tuning con Optuna e interpretabilidad con SHAP y Grad-CAM.
Clase Fecha Tema Entregable
1 Mar 29/09 Redes neuronales feedforward: forward/backprop, optimizadores (SGD, Adam, AdamW) y schedulers MLP en PyTorch entrenado sobre MNIST con curvas de loss y accuracy documentadas
2 Jue 01/10 CNNs: convolución, pooling, ResNet, transfer learning y data augmentation Clasificador de imágenes con ResNet-18 fine-tuned sobre dataset propio (5 clases) con métricas
3 Mar 06/10 RNN, LSTM y GRU: secuencias y series temporales; teacher forcing y vanishing gradient Modelo LSTM para predicción de demanda eléctrica con dataset público y backtesting
4 Jue 08/10 Transformers: atención, encoder/decoder, BERT vs GPT y arquitectura general Fine-tune de BERT para clasificación de texto en español, evaluado sobre test set independiente
5 Mar 13/10 Hyperparameter tuning: Optuna, Ray Tune, AutoML y búsqueda bayesiana Optimización con Optuna del modelo de la clase anterior, reportar mejor configuración hallada
6 Jue 15/10 Interpretabilidad: SHAP, LIME, Grad-CAM y attention visualization Análisis SHAP sobre modelo de Clase 3 + Grad-CAM sobre la CNN de Clase 2 con comentarios
7 Mar 20/10 Modelos multimodales: CLIP, BLIP, Vision-Language Models y embeddings cross-modal Demo con CLIP buscando imágenes por descripción en lenguaje natural sobre corpus propio
8 Jue 22/10 Cierre: arquitectura propia para el Proyecto Integrador Final + entrenamiento en GPU cloud Defensa de arquitectura elegida con justificación + entrenamiento exitoso en GPU reportado

Curso 4 — Inteligencia Artificial Generativa

Noviembre 2026 · Docente Responsable: Mg. Diego Gasch

Lente estratégica del curso: RAG vs fine-tuning vs prompt engineering — cuándo cada estrategia, costos comparativos y construcción de un sistema IA Generativa real combinando las tres con LangChain, Hugging Face y agentes con tool use.
Clase Fecha Tema Entregable
1 Mar 27/10 LLMs y arquitecturas modernas: GPT-4, Claude, Llama 3, Gemini y modelos open-source Comparativa práctica de 3 LLMs sobre 5 prompts del mismo dominio con análisis de calidad/latencia
2 Jue 29/10 Prompt engineering avanzado: zero/few-shot, chain-of-thought, ReAct y self-consistency Solución a problema complejo demostrando 4 técnicas con reporte de latencia y calidad de respuesta
3 Mar 03/11 Embeddings y vector databases: OpenAI/Cohere/Voyage embeddings, Pinecone, Chroma, pgvector Indexación de 1000 documentos propios y búsqueda semántica con top-k evaluada manualmente
4 Jue 05/11 RAG (Retrieval-Augmented Generation) con LangChain o LlamaIndex; chunking y reranking RAG completo sobre corpus de PDFs propios con LangChain + evaluación de relevancia (RAGAS)
5 Mar 10/11 Fine-tuning de modelos open-source: LoRA, QLoRA, PEFT con Hugging Face Trainer Fine-tune con LoRA sobre Llama 3 8B para tarea específica + evaluación antes/después
6 Jue 12/11 Agentes IA: tool use, function calling, ReAct loop, planificación y memoria Agente que combina 3 herramientas (búsqueda web, calculadora, API externa) para resolver tarea compleja
7 Mar 17/11 Modelos generativos visuales: Stable Diffusion, DALL-E, ControlNet y técnicas de inpainting Generación de 5 imágenes con Stable Diffusion + ControlNet aplicando prompt engineering avanzado
8 Jue 19/11 Defensa del Proyecto Integrador Final de la Diplomatura Presentación oral de 20 min + repo + sistema IA desplegado + documentación completa ante jurado
¿Y la estrategia? — Versión cronograma

Cada clase entrega un artefacto reproducible: notebook, repo público, modelo registrado en MLflow, dashboard Grafana, informe técnico. Las 32 clases construyen el Proyecto Integrador Final desde la primera semana — la última clase no es "el cierre del programa", es la defensa de algo que se vino construyendo en cada entregable. El alumno egresa con repos públicos, modelos propios entrenados y un sistema IA desplegado con documentación completa.

Volver