Curso de Certificación:
Google Cloud Certified Professional Machine Learning Engineer

crd-image

Certificación

Este curso incluye:

  • Idioma - EspañolIdioma - Español
  • PC, tablet o móvilPC, tablet o móvil
  • Modo: Presencial/OnlineModo: Presencial/Online

 

  • Descripción curso

    Un Professional Machine Learning Engineer crea, evalúa, produce y optimiza soluciones de IA usando las capacidades de Google Cloud y el conocimiento de los enfoques convencionales de AA.

    El ML Engineer controla conjuntos de datos grandes y complejos, y crea código repetible y reutilizable.

    El ML Engineer diseña y operacionaliza soluciones de IA generativa basadas en modelos de base.

    El ML Engineer tiene en cuenta las prácticas de IA responsable y colabora estrechamente con otros puestos para garantizar el éxito a largo plazo de las aplicaciones basadas en la IA.

    El ML Engineer tiene habilidades sólidas en programación y experiencia con plataformas de datos y herramientas de procesamiento de datos distribuidas.

    El ML Engineer se especializa en las áreas de arquitectura de modelos, creación de canalizaciones de datos y AA, IA generativa e interpretación de métricas. Además, está familiarizado con los conceptos fundamentales de las MLOps, el desarrollo de aplicaciones, la administración de infraestructuras y la ingeniería y administración de datos.

    El ML Engineer permite que los equipos de toda la organización usen soluciones de IA. Mediante el entrenamiento, el reentrenamiento, la implementación, la programación, la supervisión y la mejora de modelos.

    El ML Engineer diseña y crea soluciones escalables y eficaces.

  • Temario curso

     

    Sección 1: Arquitectura de soluciones de IA low-code

    1.1. Desarrollo de modelos de AA con BigQuery ML
    • Crear el modelo de BigQuery ML adecuado (p. ej., clasificación lineal y binaria, regresión, series temporales, factorización de matrices, árboles potenciados, codificadores automáticos) en función del problema empresarial.
    • Ingeniería o selección de funciones mediante BigQuery ML.
    • Genera predicciones con BigQuery ML.

     

    1.2. Creación de soluciones de IA mediante el uso de API de ML o modelos fundamentales
    • Creación de aplicaciones mediante las API de ML de Model Garden.
    • Creación de aplicaciones mediante el uso de API específicas del sector (por ejemplo, Document AI API, Retail API).
    • Implementación de aplicaciones de generación aumentada de recuperación (RAG) mediante Vertex AI Agent Builder.

     

    1.3. Entrenamiento de modelos mediante AutoML
    • Preparación de datos para AutoML (por ejemplo, selección de características, etiquetado de datos, flujos de trabajo tabulares en AutoML).
    • Usar los datos disponibles (por ejemplo, tabular, texto, voz, imágenes, vídeos) para entrenar modelos personalizados.
    • Uso de AutoML para datos tabulares.
    • Creación de modelos de previsión mediante AutoML.
    • Configuración y depuración de modelos entrenados.

     

    Sección 2: Colaboración dentro de los equipos y entre ellos para gestionar datos y modelos

    2.1. Exploración y preprocesamiento de datos de toda la organización (p. ej., Cloud Storage, BigQuery, Spanner, Cloud SQL, Apache Spark, Apache Hadoop)
    • Organizar diferentes tipos de datos (por ejemplo, tabulares, texto, voz, imágenes, videos) para un entrenamiento eficiente.
    • Administración de conjuntos de datos en Vertex AI.
    • Preprocesamiento de datos (p. ej., Dataflow, TensorFlow Extended [TFX], BigQuery).
    • Creación y consolidación de funciones en Vertex AI Feature Store.
    • Implicaciones de privacidad del uso y/o recopilación de datos (por ejemplo, manejo de datos confidenciales como información de identificación personal [PII] e información de salud protegida [PHI]).

     

    2.2. Creación de prototipos de modelos con Jupyter Notebook
    • Elegir el backend de Jupyter adecuado en Google Cloud (p. ej., Vertex AI Workbench, Colab Enterprise, notebooks en Dataproc).
    • Aplicación de las mejores prácticas de seguridad en Vertex AI Workbench.
    • Uso de kernels de Spark.
    • Integración de repositorios de código fuente.
    • Desarrollo de modelos en Vertex AI Workbench mediante el uso de marcos comunes (por ejemplo, TensorFlow, PyTorch, sklearn, Spark, JAX).
    • Aprovechando una variedad de modelos fundamentales y de código abierto en Model Garden.

     

    2.3. Seguimiento y ejecución de experimentos de ML
    • Elegir el entorno de Google Cloud adecuado para el desarrollo y la experimentación (p. ej., Vertex AI Experiments, Kubeflow Pipelines, Vertex AI TensorBoard with TensorFlow y PyTorch) dado el marco.
    • Evaluación de soluciones de IA generativa.

     

    Sección 3: Escalado de prototipos en modelos de ML

    3.1. Modelos de construcción
    • Elección del marco de ML y la arquitectura del modelo.
    • Técnicas de modelado dadas las necesidades de interpretabilidad.

     

    3.2. Modelos de entrenamiento
    • Organizar datos de entrenamiento (p. ej., tabular, texto, voz, imágenes, videos) en Google Cloud (p. ej., Cloud Storage, BigQuery).
    • Ingesta de varios tipos de archivos (por ejemplo, CSV, JSON, imágenes, Hadoop, bases de datos) en el entrenamiento.
    • Entrenamiento con diferentes SDK (p. ej., entrenamiento personalizado de Vertex AI, Kubeflow en Google Kubernetes Engine, AutoML, flujos de trabajo tabulares).
    • Uso de la formación distribuida para organizar canalizaciones fiables.
    • Ajuste de hiperparámetros.
    • Solución de problemas de errores de entrenamiento del modelo de ML.
    • Ajuste fino de modelos fundacionales (por ejemplo, Vertex AI, Model Garden).

     

    3.3. Elección del hardware adecuado para el entrenamiento
    • Evaluación de las opciones de cómputo y acelerador (por ejemplo, CPU, GPU, TPU, dispositivos periféricos).
    • Entrenamiento distribuido con TPU y GPU (por ejemplo, Reduction Server en Vertex AI, Horovod).

     

    Sección 4: Modelos de servicio y escalado

    4.1. Modelos de servicio
    • Inferencia por lotes y en línea (p. ej., Vertex AI, Dataflow, BigQuery ML, Dataproc).
    • Usar diferentes marcos (por ejemplo, PyTorch, XGBoost) para servir modelos.
    • Organización de un registro de modelos.
    • Pruebas A/B de diferentes versiones de un modelo.

     

    4.2. Escalado de la entrega de modelos en línea
    • Tienda de características de Vertex AI.
    • Puntos de conexión públicos y privados de Vertex AI.
    • Elegir el hardware adecuado (p. ej., CPU, GPU, TPU, edge).
    • Escalar el backend de servicio en función del rendimiento (por ejemplo, predicción de IA de vértices, servicio en contenedores).
    • Ajuste de modelos de ML para el entrenamiento y el servicio en producción (por ejemplo, técnicas de simplificación, optimización de la solución de ML para aumentar el rendimiento, la latencia, la memoria y el rendimiento).

     

    Sección 5: Automatización y orquestación de canalizaciones de ML

    5.1. Desarrollo de canalizaciones de ML de extremo a extremo
    • Validación de datos y modelos.
    • Garantizar un preprocesamiento de datos coherente entre el entrenamiento y el servicio.
    • Alojar canalizaciones de terceros en Google Cloud (p. ej., MLFlow).
    • Identificar componentes, parámetros, activadores y necesidades de procesamiento (p. ej., Cloud Build, Cloud Run).
    • Marco de orquestación (p. ej., Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer).
    • Estrategias híbridas o multicloud.
    • Diseño de sistemas con componentes TFX o Kubeflow DSL (por ejemplo, Dataflow).

     

    5.2. Automatización del reentrenamiento de modelos
    • Determinar una política de reentrenamiento adecuada.
    • Implementación de modelos de integración y entrega continua (CI/CD) (p. ej., Cloud Build, Jenkins).

     

    5.3. Seguimiento y auditoría de metadatos
    • Seguimiento y comparación de artefactos y versiones de modelos (p. ej., experimentos de IA de vértices, metadatos de ML de vértices).
    • Enganche al control de versiones de modelos y conjuntos de datos.
    • Modelo y linaje de datos.

     

    Sección 6: Supervisión de soluciones de IA

    6.1. Identificación de riesgos para las soluciones de IA
    • Construir sistemas de IA seguros protegiéndolos contra la explotación no intencionada de datos o modelos (por ejemplo, piratería).
    • Alinearse con las prácticas de IA responsable de Google (p. ej., supervisión de sesgos).
    • Evaluar la preparación de la solución de IA (por ejemplo, equidad, sesgo).
    • Explicabilidad del modelo en Vertex AI (por ejemplo, Vertex AI Prediction).

     

    6.2. Supervisión, pruebas y solución de problemas de soluciones de IA
    • Establecer métricas de evaluación continua (p. ej., Vertex AI Model Monitoring, Explainable AI).
    • Supervisión del sesgo de servicio de entrenamiento.
    • Supervisión de la deriva de la atribución de características.
    • Supervisión del rendimiento del modelo con respecto a líneas de base, modelos más sencillos y a lo largo de la dimensión temporal.
    • Supervisión de errores comunes de entrenamiento y servicio.