Cursos

📌 Cursos

“Aprende Inteligencia Artificial y Ciencia de Datos desde cero hasta avanzado”

Subtítulo corto:
Programas prácticos diseñados para profesionales, estudiantes y emprendedores que quieren dominar Python, Machine Learning y aplicaciones reales.


🎓 Curso 1: Introducción Práctica a Python y Ciencia de Datos

Duración: 12 horas (3 sesiones de 4 h)
Modalidad: Presencial / Híbrido
Incluye:

  • Fundamentos de Python
  • Manejo de datos con Pandas
  • Gráficas con Matplotlib
  • Ejercicio final con dataset biomédico simple

Beneficio: aprende a procesar datos y obtener visualizaciones útiles desde la primera semana.

💲 $1,200 MXN por persona


🎓 Curso 2: Fundamentos de Machine Learning en Biomedicina

Duración: 16 horas (4 sesiones de 4 h)
Modalidad: Presencial / Híbrido
Incluye:

  • Fundamentos del ML en Python
  • Scikit-learn en acción
  • Regresión y clasificación
  • Validación y métricas

Beneficio: podrás crear tus primeros modelos de predicción para datos biomédicos o empresariales.

💲 $1,800 MXN por persona


🎓 Curso 3: Técnicas Avanzadas de Machine Learning

Duración: 20 horas (5 sesiones de 4 h)
Modalidad: Presencial / Híbrido
Incluye:

  • Reducción de dimensionalidad (PCA, t-SNE)
  • Clustering (K-Means, DBSCAN)
  • Selección y extracción de características
  • Modelos de ensamblaje (Random Forest, XGBoost)
  • Introducción a Redes Neuronales y CNN

Beneficio: dominarás las técnicas avanzadas para datasets complejos y podrás aplicarlas en proyectos profesionales.

💲 $2,200 MXN por persona


🎓 Curso 4: Vision Transformers en Biomedicina


🔹 Datos generales

  • Duración: 20 horas (5 sesiones de 4 h cada una)
  • Modalidad: presencial / híbrido
  • Nivel: intermedio a avanzado (requiere conocimientos previos de Python, redes neuronales y ML básico)
  • Precio sugerido: $2,500 MXN por persona

🧠 Objetivos del curso

  • Entender la arquitectura de los modelos transformer adaptados a visión (ViT, Swin, etc.).
  • Ver cómo estos modelos se aplican al análisis de imágenes biomédicas (clasificación, segmentación, detección).
  • Aprender a fine-tunar modelos preentrenados sobre datasets biomédicos.
  • Evaluar métricas, confiabilidad y explicabilidad en aplicaciones médicas.
  • Implementar un mini proyecto final aplicado a un dataset biomédico (por ejemplo, clasificación de células, identificación de tejido, detección de anomalías).

📚 Temario sugerido

MóduloContenidosActividad práctica
1. Introducción a Vision TransformersHistoria de los transformadores, comparación con CNNs, conceptos de self-attention, patching, embeddings de posición.Implementar un ViT sencillo sobre dataset de imágenes estándar (MNIST o CIFAR)
2. Arquitecturas modernas: Swin, híbridos y variantesSwin Transformer con ventanas deslizantes arXiv, híbridos ViT + CNN, variantes especializadas para imagen médica.Cargar modelo Swin-Tiny / Swin-Base y observar estructura
3. Adaptación a biomedicinaEstudios recientes en aplicación de ViT a imagen biomédica: clasificación en conjuntos como MedMNIST v2 Nature+2BioMed Central+2, segmentación con transformadores (MCTrans) arXiv, modelos en superficies biomédicas (SiT) arXivFine-tuning de un ViT sobre un subconjunto de MedMNIST (BloodMNIST, RetinaMNIST, etc.)
4. Evaluación, métricas y explicabilidadPrecisión, recall, F1, AUC; interpretación de mapas de atención; técnicas de XAI para modelos transformer en biomedicina BioMed Central+1Mostrar atención del modelo, graficar mapas de atención, comparar con heatmaps “clásicos”
5. Proyecto final aplicadoElección de un problema biomédico real: clasificación celular, detección de tejido anómalo, segmentación en imágenes médicas. Desde preprocesamiento hasta reporte.Presentación del proyecto: datos, modelo, resultado, limitaciones y recomendaciones

✅ Entregables y beneficios

  • Repositorio con notebooks y modelos entrenados
  • Informe técnico del proyecto final
  • Presentación/screencast de resultados
  • Certificado de participación
  • Conocimiento actualizado que puedes incluir en tu portafolio

🎓 Curso 5: IA Generativa y Modelos Multimodales (LLMs Multimodales)


🔹 Datos generales

  • Duración: 24 horas (6 sesiones de 4 h cada una)
  • Modalidad: presencial / híbrido
  • Nivel: intermedio a avanzado (requiere conocimientos previos de Python, redes neuronales y conceptos básicos de transformers)
  • Precio sugerido: $3,200 MXN por persona

🧠 Objetivos del curso

Al terminar, el participante podrá:

  1. Comprender la arquitectura y fundamentos de los LLMs generativos y cómo se extienden a modelos multimodales (texto + imagen, audio, etc.).
  2. Realizar fine-tuning de modelos preentrenados multimodales para tareas médicas (por ejemplo, interpretar imágenes médicas + texto).
  3. Desplegar modelos multimodales ligeros para aplicaciones reales (clasificación de imágenes con contexto textual, generación de subtítulos, análisis multimodal).
  4. Evaluar modelos multimodales: métricas de precisión, error, atención, interpretabilidad y confiabilidad.
  5. Diseñar un proyecto final integrado con datos biomédicos multimodales (por ejemplo, imagen + texto de reporte médico) y presentar resultados con visualizaciones y explicación técnica.

📚 Temario sugerido

MóduloContenidosActividad práctica
1. Fundamentos de IA generativa y LLMsHistoria de modelos generativos, arquitectura Transformer, autoregresivos, encoder-decoder, atención, pruebas de generaciónImplementar un pequeño modelo GPT tipo autoregresivo sobre texto simple
2. Del LLM unidimensional al modelo multimodal¿Qué es un modelo multimodal? Encoders de modalidades (visión, audio, texto), fusión y alineamiento de representaciones, espacio compartido de embeddings. Ejemplos: CLIP, Flamingo, BLIP-2, LLaVA ionio.ai+2ProjectPro+2Experimentar con CLIP: cargar imagen + texto y calcular similitud, visualizar embeddings
3. Técnicas de entrenamiento y ajuste fino multimodalFine-tuning, entrenamiento con pares imagen-texto, aprendizaje contrastivo, cross-attention, co-training, regularización, técnicas de ahorro de memoriaFine-tune un modelo multimodal pequeño con dataset médico (ej. par imagen + reporte)
4. Aplicaciones médicas multimodalesDiagnóstico basado en imagen + texto, generación de captions para imágenes médicas, segmentación guiada por texto, Q&A multimodal para radiografíasImplementar un sistema de preguntas/respuestas sobre radiografías usando modelo multimodal
5. Evaluación, interpretabilidad y confiabilidadMétricas de desempeño (precisión, AUC, F1, IoU en segmentación), mapas de atención, explicabilidad, robustez y sesgos en modelos multimodales arXiv+1Mostrar mapas de atención sobre imagen + texto, analizar ejemplos erróneos, proponer mejoras
6. Proyecto integrador final & despliegueMontaje del pipeline completo, optimización ligera, empaquetado para web/API, presentación de resultados y limitacionesPresentación del proyecto con notebook, demos, gráficas comparativas y recomendaciones técnicas

✅ Entregables y beneficios

  • Repositorio con notebooks, modelos entrenados y scripts
  • Informe técnico del proyecto final
  • Demo funcional (local o web/API)
  • Presentación con visualizaciones y explicaciones
  • Certificado de participación
  • Experiencia concreta con tecnologías de punta (CLIP, Flamingo, BLIP, etc.)
  • Proyecto listo para incluir como caso en portafolio

🔍 Consideraciones y recursos (para tu planning)

  • Los modelos multimodales suelen tener requisitos de cómputo (GPU) y memoria elevados, así que podrías usar versiones ligeras o sesiones en la nube.
  • Puedes apoyarte en librerías y modelos preentrenados disponibles públicamente, como CLIP, BLIP-2, LLaVA, Flamingo, etc. arXiv+1
  • Asegúrate de incluir una sección sobre ética, sesgo y privacidad al tratar datos biomédicos multimodales.
  • En tu curso puedes citar investigaciones recientes de modelos generativos multimodales. Por ejemplo, una encuesta reciente investiga cómo los LLMs se combinan con distintos tipos de datos y aplicaciones en generación y edición multimedia. arXiv

✨ Cierre de sección

CTA:
👉 Inscríbete hoy y asegura tu lugar en la próxima edición.
[Registrarme] (botón a Google Form o WhatsApp)

Páginas: 1 2 3 4 5