📌 Cursos
“Aprende Inteligencia Artificial y Ciencia de Datos desde cero hasta avanzado”
Subtítulo corto:
Programas prácticos diseñados para profesionales, estudiantes y emprendedores que quieren dominar Python, Machine Learning y aplicaciones reales.
🎓 Curso 1: Introducción Práctica a Python y Ciencia de Datos
Duración: 12 horas (3 sesiones de 4 h)
Modalidad: Presencial / Híbrido
Incluye:
- Fundamentos de Python
- Manejo de datos con Pandas
- Gráficas con Matplotlib
- Ejercicio final con dataset biomédico simple
Beneficio: aprende a procesar datos y obtener visualizaciones útiles desde la primera semana.
💲 $1,200 MXN por persona
🎓 Curso 2: Fundamentos de Machine Learning en Biomedicina
Duración: 16 horas (4 sesiones de 4 h)
Modalidad: Presencial / Híbrido
Incluye:
- Fundamentos del ML en Python
- Scikit-learn en acción
- Regresión y clasificación
- Validación y métricas
Beneficio: podrás crear tus primeros modelos de predicción para datos biomédicos o empresariales.
💲 $1,800 MXN por persona
🎓 Curso 3: Técnicas Avanzadas de Machine Learning
Duración: 20 horas (5 sesiones de 4 h)
Modalidad: Presencial / Híbrido
Incluye:
- Reducción de dimensionalidad (PCA, t-SNE)
- Clustering (K-Means, DBSCAN)
- Selección y extracción de características
- Modelos de ensamblaje (Random Forest, XGBoost)
- Introducción a Redes Neuronales y CNN
Beneficio: dominarás las técnicas avanzadas para datasets complejos y podrás aplicarlas en proyectos profesionales.
💲 $2,200 MXN por persona
🎓 Curso 4: Vision Transformers en Biomedicina
🔹 Datos generales
- Duración: 20 horas (5 sesiones de 4 h cada una)
- Modalidad: presencial / híbrido
- Nivel: intermedio a avanzado (requiere conocimientos previos de Python, redes neuronales y ML básico)
- Precio sugerido: $2,500 MXN por persona
🧠 Objetivos del curso
- Entender la arquitectura de los modelos transformer adaptados a visión (ViT, Swin, etc.).
- Ver cómo estos modelos se aplican al análisis de imágenes biomédicas (clasificación, segmentación, detección).
- Aprender a fine-tunar modelos preentrenados sobre datasets biomédicos.
- Evaluar métricas, confiabilidad y explicabilidad en aplicaciones médicas.
- Implementar un mini proyecto final aplicado a un dataset biomédico (por ejemplo, clasificación de células, identificación de tejido, detección de anomalías).
📚 Temario sugerido
| Módulo | Contenidos | Actividad práctica |
|---|---|---|
| 1. Introducción a Vision Transformers | Historia de los transformadores, comparación con CNNs, conceptos de self-attention, patching, embeddings de posición. | Implementar un ViT sencillo sobre dataset de imágenes estándar (MNIST o CIFAR) |
| 2. Arquitecturas modernas: Swin, híbridos y variantes | Swin Transformer con ventanas deslizantes arXiv, híbridos ViT + CNN, variantes especializadas para imagen médica. | Cargar modelo Swin-Tiny / Swin-Base y observar estructura |
| 3. Adaptación a biomedicina | Estudios recientes en aplicación de ViT a imagen biomédica: clasificación en conjuntos como MedMNIST v2 Nature+2BioMed Central+2, segmentación con transformadores (MCTrans) arXiv, modelos en superficies biomédicas (SiT) arXiv | Fine-tuning de un ViT sobre un subconjunto de MedMNIST (BloodMNIST, RetinaMNIST, etc.) |
| 4. Evaluación, métricas y explicabilidad | Precisión, recall, F1, AUC; interpretación de mapas de atención; técnicas de XAI para modelos transformer en biomedicina BioMed Central+1 | Mostrar atención del modelo, graficar mapas de atención, comparar con heatmaps “clásicos” |
| 5. Proyecto final aplicado | Elección de un problema biomédico real: clasificación celular, detección de tejido anómalo, segmentación en imágenes médicas. Desde preprocesamiento hasta reporte. | Presentación del proyecto: datos, modelo, resultado, limitaciones y recomendaciones |
✅ Entregables y beneficios
- Repositorio con notebooks y modelos entrenados
- Informe técnico del proyecto final
- Presentación/screencast de resultados
- Certificado de participación
- Conocimiento actualizado que puedes incluir en tu portafolio
🎓 Curso 5: IA Generativa y Modelos Multimodales (LLMs Multimodales)
🔹 Datos generales
- Duración: 24 horas (6 sesiones de 4 h cada una)
- Modalidad: presencial / híbrido
- Nivel: intermedio a avanzado (requiere conocimientos previos de Python, redes neuronales y conceptos básicos de transformers)
- Precio sugerido: $3,200 MXN por persona
🧠 Objetivos del curso
Al terminar, el participante podrá:
- Comprender la arquitectura y fundamentos de los LLMs generativos y cómo se extienden a modelos multimodales (texto + imagen, audio, etc.).
- Realizar fine-tuning de modelos preentrenados multimodales para tareas médicas (por ejemplo, interpretar imágenes médicas + texto).
- Desplegar modelos multimodales ligeros para aplicaciones reales (clasificación de imágenes con contexto textual, generación de subtítulos, análisis multimodal).
- Evaluar modelos multimodales: métricas de precisión, error, atención, interpretabilidad y confiabilidad.
- Diseñar un proyecto final integrado con datos biomédicos multimodales (por ejemplo, imagen + texto de reporte médico) y presentar resultados con visualizaciones y explicación técnica.
📚 Temario sugerido
| Módulo | Contenidos | Actividad práctica |
|---|---|---|
| 1. Fundamentos de IA generativa y LLMs | Historia de modelos generativos, arquitectura Transformer, autoregresivos, encoder-decoder, atención, pruebas de generación | Implementar un pequeño modelo GPT tipo autoregresivo sobre texto simple |
| 2. Del LLM unidimensional al modelo multimodal | ¿Qué es un modelo multimodal? Encoders de modalidades (visión, audio, texto), fusión y alineamiento de representaciones, espacio compartido de embeddings. Ejemplos: CLIP, Flamingo, BLIP-2, LLaVA ionio.ai+2ProjectPro+2 | Experimentar con CLIP: cargar imagen + texto y calcular similitud, visualizar embeddings |
| 3. Técnicas de entrenamiento y ajuste fino multimodal | Fine-tuning, entrenamiento con pares imagen-texto, aprendizaje contrastivo, cross-attention, co-training, regularización, técnicas de ahorro de memoria | Fine-tune un modelo multimodal pequeño con dataset médico (ej. par imagen + reporte) |
| 4. Aplicaciones médicas multimodales | Diagnóstico basado en imagen + texto, generación de captions para imágenes médicas, segmentación guiada por texto, Q&A multimodal para radiografías | Implementar un sistema de preguntas/respuestas sobre radiografías usando modelo multimodal |
| 5. Evaluación, interpretabilidad y confiabilidad | Métricas de desempeño (precisión, AUC, F1, IoU en segmentación), mapas de atención, explicabilidad, robustez y sesgos en modelos multimodales arXiv+1 | Mostrar mapas de atención sobre imagen + texto, analizar ejemplos erróneos, proponer mejoras |
| 6. Proyecto integrador final & despliegue | Montaje del pipeline completo, optimización ligera, empaquetado para web/API, presentación de resultados y limitaciones | Presentación del proyecto con notebook, demos, gráficas comparativas y recomendaciones técnicas |
✅ Entregables y beneficios
- Repositorio con notebooks, modelos entrenados y scripts
- Informe técnico del proyecto final
- Demo funcional (local o web/API)
- Presentación con visualizaciones y explicaciones
- Certificado de participación
- Experiencia concreta con tecnologías de punta (CLIP, Flamingo, BLIP, etc.)
- Proyecto listo para incluir como caso en portafolio
🔍 Consideraciones y recursos (para tu planning)
- Los modelos multimodales suelen tener requisitos de cómputo (GPU) y memoria elevados, así que podrías usar versiones ligeras o sesiones en la nube.
- Puedes apoyarte en librerías y modelos preentrenados disponibles públicamente, como CLIP, BLIP-2, LLaVA, Flamingo, etc. arXiv+1
- Asegúrate de incluir una sección sobre ética, sesgo y privacidad al tratar datos biomédicos multimodales.
- En tu curso puedes citar investigaciones recientes de modelos generativos multimodales. Por ejemplo, una encuesta reciente investiga cómo los LLMs se combinan con distintos tipos de datos y aplicaciones en generación y edición multimedia. arXiv
✨ Cierre de sección
CTA:
👉 Inscríbete hoy y asegura tu lugar en la próxima edición.
[Registrarme] (botón a Google Form o WhatsApp)
