Certificación
Este curso incluye:
-
Idioma - Español
-
PC, tablet o móvil
-
Modo: Presencial/Online
-
Descripción curso
Un Professional Machine Learning Engineer crea, evalúa, produce y optimiza soluciones de IA usando las capacidades de Google Cloud y el conocimiento de los enfoques convencionales de AA.
El ML Engineer controla conjuntos de datos grandes y complejos, y crea código repetible y reutilizable.
El ML Engineer diseña y operacionaliza soluciones de IA generativa basadas en modelos de base.
El ML Engineer tiene en cuenta las prácticas de IA responsable y colabora estrechamente con otros puestos para garantizar el éxito a largo plazo de las aplicaciones basadas en la IA.
El ML Engineer tiene habilidades sólidas en programación y experiencia con plataformas de datos y herramientas de procesamiento de datos distribuidas.
El ML Engineer se especializa en las áreas de arquitectura de modelos, creación de canalizaciones de datos y AA, IA generativa e interpretación de métricas. Además, está familiarizado con los conceptos fundamentales de las MLOps, el desarrollo de aplicaciones, la administración de infraestructuras y la ingeniería y administración de datos.
El ML Engineer permite que los equipos de toda la organización usen soluciones de IA. Mediante el entrenamiento, el reentrenamiento, la implementación, la programación, la supervisión y la mejora de modelos.
El ML Engineer diseña y crea soluciones escalables y eficaces.
-
Temario curso
Sección 1: Arquitectura de soluciones de IA low-code
1.1. Desarrollo de modelos de AA con BigQuery ML- Crear el modelo de BigQuery ML adecuado (p. ej., clasificación lineal y binaria, regresión, series temporales, factorización de matrices, árboles potenciados, codificadores automáticos) en función del problema empresarial.
- Ingeniería o selección de funciones mediante BigQuery ML.
- Genera predicciones con BigQuery ML.
1.2. Creación de soluciones de IA mediante el uso de API de ML o modelos fundamentales- Creación de aplicaciones mediante las API de ML de Model Garden.
- Creación de aplicaciones mediante el uso de API específicas del sector (por ejemplo, Document AI API, Retail API).
- Implementación de aplicaciones de generación aumentada de recuperación (RAG) mediante Vertex AI Agent Builder.
1.3. Entrenamiento de modelos mediante AutoML- Preparación de datos para AutoML (por ejemplo, selección de características, etiquetado de datos, flujos de trabajo tabulares en AutoML).
- Usar los datos disponibles (por ejemplo, tabular, texto, voz, imágenes, vídeos) para entrenar modelos personalizados.
- Uso de AutoML para datos tabulares.
- Creación de modelos de previsión mediante AutoML.
- Configuración y depuración de modelos entrenados.
Sección 2: Colaboración dentro de los equipos y entre ellos para gestionar datos y modelos
2.1. Exploración y preprocesamiento de datos de toda la organización (p. ej., Cloud Storage, BigQuery, Spanner, Cloud SQL, Apache Spark, Apache Hadoop)- Organizar diferentes tipos de datos (por ejemplo, tabulares, texto, voz, imágenes, videos) para un entrenamiento eficiente.
- Administración de conjuntos de datos en Vertex AI.
- Preprocesamiento de datos (p. ej., Dataflow, TensorFlow Extended [TFX], BigQuery).
- Creación y consolidación de funciones en Vertex AI Feature Store.
- Implicaciones de privacidad del uso y/o recopilación de datos (por ejemplo, manejo de datos confidenciales como información de identificación personal [PII] e información de salud protegida [PHI]).
2.2. Creación de prototipos de modelos con Jupyter Notebook- Elegir el backend de Jupyter adecuado en Google Cloud (p. ej., Vertex AI Workbench, Colab Enterprise, notebooks en Dataproc).
- Aplicación de las mejores prácticas de seguridad en Vertex AI Workbench.
- Uso de kernels de Spark.
- Integración de repositorios de código fuente.
- Desarrollo de modelos en Vertex AI Workbench mediante el uso de marcos comunes (por ejemplo, TensorFlow, PyTorch, sklearn, Spark, JAX).
- Aprovechando una variedad de modelos fundamentales y de código abierto en Model Garden.
2.3. Seguimiento y ejecución de experimentos de ML- Elegir el entorno de Google Cloud adecuado para el desarrollo y la experimentación (p. ej., Vertex AI Experiments, Kubeflow Pipelines, Vertex AI TensorBoard with TensorFlow y PyTorch) dado el marco.
- Evaluación de soluciones de IA generativa.
Sección 3: Escalado de prototipos en modelos de ML
3.1. Modelos de construcción- Elección del marco de ML y la arquitectura del modelo.
- Técnicas de modelado dadas las necesidades de interpretabilidad.
3.2. Modelos de entrenamiento- Organizar datos de entrenamiento (p. ej., tabular, texto, voz, imágenes, videos) en Google Cloud (p. ej., Cloud Storage, BigQuery).
- Ingesta de varios tipos de archivos (por ejemplo, CSV, JSON, imágenes, Hadoop, bases de datos) en el entrenamiento.
- Entrenamiento con diferentes SDK (p. ej., entrenamiento personalizado de Vertex AI, Kubeflow en Google Kubernetes Engine, AutoML, flujos de trabajo tabulares).
- Uso de la formación distribuida para organizar canalizaciones fiables.
- Ajuste de hiperparámetros.
- Solución de problemas de errores de entrenamiento del modelo de ML.
- Ajuste fino de modelos fundacionales (por ejemplo, Vertex AI, Model Garden).
3.3. Elección del hardware adecuado para el entrenamiento- Evaluación de las opciones de cómputo y acelerador (por ejemplo, CPU, GPU, TPU, dispositivos periféricos).
- Entrenamiento distribuido con TPU y GPU (por ejemplo, Reduction Server en Vertex AI, Horovod).
Sección 4: Modelos de servicio y escalado
4.1. Modelos de servicio- Inferencia por lotes y en línea (p. ej., Vertex AI, Dataflow, BigQuery ML, Dataproc).
- Usar diferentes marcos (por ejemplo, PyTorch, XGBoost) para servir modelos.
- Organización de un registro de modelos.
- Pruebas A/B de diferentes versiones de un modelo.
4.2. Escalado de la entrega de modelos en línea- Tienda de características de Vertex AI.
- Puntos de conexión públicos y privados de Vertex AI.
- Elegir el hardware adecuado (p. ej., CPU, GPU, TPU, edge).
- Escalar el backend de servicio en función del rendimiento (por ejemplo, predicción de IA de vértices, servicio en contenedores).
- Ajuste de modelos de ML para el entrenamiento y el servicio en producción (por ejemplo, técnicas de simplificación, optimización de la solución de ML para aumentar el rendimiento, la latencia, la memoria y el rendimiento).
Sección 5: Automatización y orquestación de canalizaciones de ML
5.1. Desarrollo de canalizaciones de ML de extremo a extremo- Validación de datos y modelos.
- Garantizar un preprocesamiento de datos coherente entre el entrenamiento y el servicio.
- Alojar canalizaciones de terceros en Google Cloud (p. ej., MLFlow).
- Identificar componentes, parámetros, activadores y necesidades de procesamiento (p. ej., Cloud Build, Cloud Run).
- Marco de orquestación (p. ej., Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer).
- Estrategias híbridas o multicloud.
- Diseño de sistemas con componentes TFX o Kubeflow DSL (por ejemplo, Dataflow).
5.2. Automatización del reentrenamiento de modelos- Determinar una política de reentrenamiento adecuada.
- Implementación de modelos de integración y entrega continua (CI/CD) (p. ej., Cloud Build, Jenkins).
5.3. Seguimiento y auditoría de metadatos- Seguimiento y comparación de artefactos y versiones de modelos (p. ej., experimentos de IA de vértices, metadatos de ML de vértices).
- Enganche al control de versiones de modelos y conjuntos de datos.
- Modelo y linaje de datos.
Sección 6: Supervisión de soluciones de IA
6.1. Identificación de riesgos para las soluciones de IA- Construir sistemas de IA seguros protegiéndolos contra la explotación no intencionada de datos o modelos (por ejemplo, piratería).
- Alinearse con las prácticas de IA responsable de Google (p. ej., supervisión de sesgos).
- Evaluar la preparación de la solución de IA (por ejemplo, equidad, sesgo).
- Explicabilidad del modelo en Vertex AI (por ejemplo, Vertex AI Prediction).
6.2. Supervisión, pruebas y solución de problemas de soluciones de IA- Establecer métricas de evaluación continua (p. ej., Vertex AI Model Monitoring, Explainable AI).
- Supervisión del sesgo de servicio de entrenamiento.
- Supervisión de la deriva de la atribución de características.
- Supervisión del rendimiento del modelo con respecto a líneas de base, modelos más sencillos y a lo largo de la dimensión temporal.
- Supervisión de errores comunes de entrenamiento y servicio.