Fundamentos de la IA y sus aplicaciones en diversos sectores. Aprendizaje automático (Machine Learning) y sus algoritmos básicos. Visión general de técnicas avanzadas como el procesamiento del lenguaje natural (NLP) y visión por computadora. Aspectos éticos y responsabilidad en el desarrollo y uso de sistemas de IA.
Conceptos básicos de la nube y sus servicios para IA (almacenamiento, cómputo, bases de datos). Infraestructura como código (IaC) y canalizaciones CI/CD, para despliegue de modelos de IA en entornos cloud multinube. Arquitectura y orquestadores de contenedores como plataformas escalables y especializadas en IA en la nube. Despliegue e implementación de soluciones de inteligencia artificial.
Introducción al aprendizaje profundo. Arquitecturas básicas de redes neuronales. Funciones de activación y regularización. Redes neuronales convolucionales (CNN), recurrentes (RNN) y LSTM. Transferencia de aprendizaje y fine-tuning. Optimización de hiperparámetros. Técnicas de interpretación de modelos. Aplicaciones en visión por computadora y PLN. Modelos avanzados.
Introducción al modelado generativo aplicado a la generación de texto e imágenes. Modelos básicos de generación de contenidos. Redes neuronales para generación de secuencias. Mecanismos de atención. Modelos de lenguaje condicionados y no condicionados. Diferentes modelos y frameworks de generación de modelos y contenidos. Evaluación automática de la calidad y coherencia. Transferencia de estilo en la generación de contenido.
Está distribuida en los 4 módulos, no aislada en una capa para directivos. La selección de paradigma vive en los fundamentos, los trade-offs cloud para IA en infraestructura, la elección de arquitectura en deep learning, y la decisión RAG vs fine-tuning vs prompt engineering en IA generativa. Lo que en otros programas son slides, acá son decisiones que el alumno toma mientras construye.
Cohorte agosto 2026 — Martes y jueves de 19:00 a 21:00 hs (ARG). 32 clases en vivo distribuidas en 4 cursos consecutivos. Cada clase tiene tema y entregable concreto.
Cronograma de referencia — sujeto a ajustes menores antes del inicio de cohorte.
| Clase | Fecha | Tema | Entregable |
|---|---|---|---|
| 1 | Mar 04/08 | Tipos de aprendizaje (supervisado, no supervisado, RL) y métricas (accuracy, precision/recall, F1, ROC-AUC) | Notebook con clasificador kNN sobre Iris + reporte de métricas con matriz de confusión |
| 2 | Jue 06/08 | Preprocessing y feature engineering (encoding, scaling, missing values, data leakage) | Pipeline sklearn aplicado a dataset Titanic con cross-validation y reporte de score |
| 3 | Mar 11/08 | Algoritmos clásicos: regresión lineal/logística, árboles, random forest, gradient boosting (XGBoost) | Comparativa de 4 modelos sobre dataset tabular Kaggle (House Prices) con benchmark documentado |
| 4 | Jue 13/08 | Validación, overfitting, regularización (L1/L2, dropout, early stopping) y bias-variance tradeoff | Modelo regularizado con learning curves + análisis bias-variance entregado en notebook |
| 5 | Mar 18/08 | NLP clásico: tokenización, TF-IDF, word embeddings (Word2Vec, GloVe) | Clasificador de sentimiento sobre tweets en español usando TF-IDF + LogReg con métricas |
| 6 | Jue 20/08 | Computer vision clásico: filtros, HOG, descriptores SIFT y matching de features | Detección de bordes y matching de features con OpenCV sobre dataset propio |
| 7 | Mar 25/08 | Ética, sesgos algorítmicos y casos famosos (COMPAS, Amazon hiring, face recognition) | Ensayo de 2 páginas: análisis de sesgo en el modelo propio entregado en clase 3 |
| 8 | Jue 27/08 | Cierre: diseño de un proyecto IA end-to-end y elección del paradigma adecuado | Defensa oral de 5 min: problema elegido + paradigma justificado para el Proyecto Integrador Final |
| Clase | Fecha | Tema | Entregable |
|---|---|---|---|
| 1 | Mar 01/09 | Cloud para IA: AWS SageMaker, Bedrock, EC2 GPU; comparativa con GCP Vertex AI y Azure ML | Provisión de instancia EC2 g4dn.xlarge con CUDA + benchmark con PyTorch documentado |
| 2 | Jue 03/09 | Contenedores para IA: Docker con CUDA, NGC (NVIDIA images), multi-stage builds y optimización de tamaño | Imagen Docker con PyTorch + CUDA, push a ECR y ejecución de inference verificada |
| 3 | Mar 08/09 | IaC para IA: Terraform para SageMaker training jobs, S3, IAM y VPC con least privilege | Módulo Terraform reutilizable para entrenar un modelo en SageMaker con tfvars dev/prod |
| 4 | Jue 10/09 | CI/CD para modelos: GitHub Actions con OIDC, MLflow tracking y model registry | Pipeline GitHub Actions que entrena modelo en cada push y registra artefactos en MLflow |
| 5 | Mar 15/09 | Kubernetes para inference: EKS + Karpenter + GPU node pools, Helm charts para servir modelos | Deployment de modelo Hugging Face en EKS con autoscaling, Service y exposición por Ingress |
| 6 | Jue 17/09 | Serverless para inference: Lambda + container image, SageMaker Serverless y análisis de costos | Función Lambda que sirve un modelo distilBERT con cold-start medido y reportado |
| 7 | Mar 22/09 | Observabilidad ML: latencia, drift de datos, métricas de modelo (CloudWatch + Prometheus + Grafana) | Dashboard Grafana con 5 métricas clave de modelo en producción y 2 alertas configuradas |
| 8 | Jue 24/09 | Cierre: AWS Well-Architected ML Lens — Reliability, Cost Optimization y Security para IA | Análisis WA-ML-Lens sobre la arquitectura propia del curso con plan de remediación priorizado |
| Clase | Fecha | Tema | Entregable |
|---|---|---|---|
| 1 | Mar 29/09 | Redes neuronales feedforward: forward/backprop, optimizadores (SGD, Adam, AdamW) y schedulers | MLP en PyTorch entrenado sobre MNIST con curvas de loss y accuracy documentadas |
| 2 | Jue 01/10 | CNNs: convolución, pooling, ResNet, transfer learning y data augmentation | Clasificador de imágenes con ResNet-18 fine-tuned sobre dataset propio (5 clases) con métricas |
| 3 | Mar 06/10 | RNN, LSTM y GRU: secuencias y series temporales; teacher forcing y vanishing gradient | Modelo LSTM para predicción de demanda eléctrica con dataset público y backtesting |
| 4 | Jue 08/10 | Transformers: atención, encoder/decoder, BERT vs GPT y arquitectura general | Fine-tune de BERT para clasificación de texto en español, evaluado sobre test set independiente |
| 5 | Mar 13/10 | Hyperparameter tuning: Optuna, Ray Tune, AutoML y búsqueda bayesiana | Optimización con Optuna del modelo de la clase anterior, reportar mejor configuración hallada |
| 6 | Jue 15/10 | Interpretabilidad: SHAP, LIME, Grad-CAM y attention visualization | Análisis SHAP sobre modelo de Clase 3 + Grad-CAM sobre la CNN de Clase 2 con comentarios |
| 7 | Mar 20/10 | Modelos multimodales: CLIP, BLIP, Vision-Language Models y embeddings cross-modal | Demo con CLIP buscando imágenes por descripción en lenguaje natural sobre corpus propio |
| 8 | Jue 22/10 | Cierre: arquitectura propia para el Proyecto Integrador Final + entrenamiento en GPU cloud | Defensa de arquitectura elegida con justificación + entrenamiento exitoso en GPU reportado |
| Clase | Fecha | Tema | Entregable |
|---|---|---|---|
| 1 | Mar 27/10 | LLMs y arquitecturas modernas: GPT-4, Claude, Llama 3, Gemini y modelos open-source | Comparativa práctica de 3 LLMs sobre 5 prompts del mismo dominio con análisis de calidad/latencia |
| 2 | Jue 29/10 | Prompt engineering avanzado: zero/few-shot, chain-of-thought, ReAct y self-consistency | Solución a problema complejo demostrando 4 técnicas con reporte de latencia y calidad de respuesta |
| 3 | Mar 03/11 | Embeddings y vector databases: OpenAI/Cohere/Voyage embeddings, Pinecone, Chroma, pgvector | Indexación de 1000 documentos propios y búsqueda semántica con top-k evaluada manualmente |
| 4 | Jue 05/11 | RAG (Retrieval-Augmented Generation) con LangChain o LlamaIndex; chunking y reranking | RAG completo sobre corpus de PDFs propios con LangChain + evaluación de relevancia (RAGAS) |
| 5 | Mar 10/11 | Fine-tuning de modelos open-source: LoRA, QLoRA, PEFT con Hugging Face Trainer | Fine-tune con LoRA sobre Llama 3 8B para tarea específica + evaluación antes/después |
| 6 | Jue 12/11 | Agentes IA: tool use, function calling, ReAct loop, planificación y memoria | Agente que combina 3 herramientas (búsqueda web, calculadora, API externa) para resolver tarea compleja |
| 7 | Mar 17/11 | Modelos generativos visuales: Stable Diffusion, DALL-E, ControlNet y técnicas de inpainting | Generación de 5 imágenes con Stable Diffusion + ControlNet aplicando prompt engineering avanzado |
| 8 | Jue 19/11 | Defensa del Proyecto Integrador Final de la Diplomatura | Presentación oral de 20 min + repo + sistema IA desplegado + documentación completa ante jurado |
Cada clase entrega un artefacto reproducible: notebook, repo público, modelo registrado en MLflow, dashboard Grafana, informe técnico. Las 32 clases construyen el Proyecto Integrador Final desde la primera semana — la última clase no es "el cierre del programa", es la defensa de algo que se vino construyendo en cada entregable. El alumno egresa con repos públicos, modelos propios entrenados y un sistema IA desplegado con documentación completa.