Certificación
Este curso incluye:
-
Idioma - Español
-
PC, tablet o móvil
-
Modo: Presencial/Online
-
Descripción curso
El examen AWS Certified Machine Learning Engineer - Associate (MLA-C01) valida la capacidad de un candidato para crear, poner en funcionamiento, implementar y mantener soluciones y canalizaciones de aprendizaje automático (ML) mediante la nube de AWS.
-
Temario curso
Sección 1: Preparación de datos para Machine Learning (ML)
1.1. Ingesta y almacenamiento de datos- Extracción de datos del almacenamiento (por ejemplo, Amazon S3, Amazon Elastic Block Store [Amazon EBS], Amazon EFS, Amazon RDS, Amazon DynamoDB) mediante las opciones de servicio de AWS pertinentes (por ejemplo, Amazon S3 Transfer Acceleration, Amazon EBS Provisioned IOPS).
- Elegir los formatos de datos adecuados (por ejemplo, Parquet, JSON, CSV, ORC) en función de los patrones de acceso a los datos.
- Ingesta de datos en Amazon SageMaker Data Wrangler y SageMaker Feature Store.
- Combinación de datos de varios orígenes (por ejemplo, mediante técnicas de programación, AWS Glue, Apache Spark).
- Solución de problemas y depuración de problemas de ingesta y almacenamiento de datos que implican capacidad y escalabilidad.
- Tomar decisiones iniciales de almacenamiento en función del costo, el rendimiento y la estructura de datos.
1.2. Transformación de datos y ingeniería de características- Transformación de datos mediante el uso de herramientas de AWS (por ejemplo, AWS Glue, AWS Glue DataBrew, Spark que se ejecuta en Amazon EMR, SageMaker Data Wrangler).
- Creación y administración de características mediante herramientas de AWS (por ejemplo, SageMaker Feature Store).
- Validación y etiquetado de datos mediante el uso de servicios de AWS (por ejemplo, SageMaker Ground Truth, Amazon Mechanical Turk).
1.3. Garantizar la integridad de los datos y prepararlos para el modelado- Validación de la calidad de los datos (por ejemplo, mediante AWS Glue DataBrew y AWS Glue Data Quality).
- Identificación y mitigación de fuentes de sesgo en los datos (por ejemplo, sesgo de selección, sesgo de medición) mediante el uso de herramientas de AWS (por ejemplo, SageMaker Clarify).
- Preparar los datos para reducir el sesgo de predicción (por ejemplo, mediante la división, la reproducción aleatoria y el aumento de conjuntos de datos).
- Configuración de datos para cargarlos en el recurso de entrenamiento del modelo (por ejemplo, Amazon EFS, Amazon FSx).
Sección 2: Desarrollo de modelos de ML
2.1. Elegir un enfoque de modelado- Evaluar los datos disponibles y la complejidad del problema para determinar la viabilidad de una solución de ML.
- Comparar y seleccionar modelos o algoritmos de ML apropiados para resolver problemas específicos.
- Elegir algoritmos integrados, modelos básicos y plantillas de soluciones (por ejemplo, en SageMaker JumpStart y Amazon Bedrock).
- Selección de modelos o algoritmos en función de los costes.
- Selección de servicios de IA para resolver necesidades empresariales comunes.
2.2. Entrenar y refinar modelos- Uso de algoritmos integrados de SageMaker y bibliotecas de ML comunes para desarrollar modelos de ML.
- Uso del modo de script de SageMaker con marcos compatibles con SageMaker para entrenar modelos (por ejemplo, TensorFlow, PyTorch).
- Uso de conjuntos de datos personalizados para ajustar modelos previamente entrenados (por ejemplo, Amazon Bedrock, SageMaker JumpStart).
- Realizar el ajuste de hiperparámetros (por ejemplo, mediante el ajuste automático de modelos [AMT] de SageMaker).
- Integración de capacidades automatizadas de optimización de hiperparámetros.
- Evitar el sobreajuste, el subajuste y el olvido catastrófico del modelo (por ejemplo, mediante el uso de técnicas de regularización, selección de características).
- Combinación de varios modelos de entrenamiento para mejorar el rendimiento (por ejemplo, ensamblar, apilar, aumentar).
- Reducir el tamaño del modelo (por ejemplo, modificando los tipos de datos, podando, actualizando la selección de características, compresión).
- Administración de versiones de modelos para la repetibilidad y las auditorías (por ejemplo, mediante el registro de modelos de SageMaker).
2.3. Analizar el rendimiento del modelo- Selección e interpretación de métricas de evaluación y detección de sesgos en modelos.
- Evaluar las compensaciones entre el rendimiento del modelo, el tiempo de entrenamiento y el costo.
- Realización de experimentos reproducibles mediante el uso de los servicios de AWS.
- Comparación del rendimiento de una variante sombra con el rendimiento de una variante de producción.
- Uso de SageMaker Clarify para interpretar los resultados del modelo.
- Uso de SageMaker Model Debugger para depurar la convergencia de modelos.
Sección 3: Implementación y orquestación de flujos de trabajo de ML
3.1. Seleccionar la infraestructura de implementación en función de la arquitectura y los requisitos existentes- Evaluación de las compensaciones de rendimiento, costo y latencia.
- Elegir el entorno informático adecuado para el entrenamiento y la inferencia en función de los requisitos (por ejemplo, especificaciones de GPU o CPU, familia de procesadores, ancho de banda de red).
- Seleccionar el orquestador de implementación correcto (por ejemplo, Apache Airflow, SageMaker Pipelines).
- Selección de implementaciones de varios modelos o varios contenedores.
- Seleccionar el destino de implementación correcto (por ejemplo, puntos de enlace de SageMaker, Kubernetes, Amazon Elastic Container Service [Amazon ECS], Amazon Elastic Kubernetes Service [Amazon EKS], Lambda).
- Elección de estrategias de implementación de modelos (por ejemplo, en tiempo real, por lotes).
3.2. Crear y crear scripts de infraestructura basados en la arquitectura y los requisitos existentes- Aplicación de prácticas recomendadas para habilitar soluciones de ML fáciles de mantener, escalables y rentables (por ejemplo, escalado automático en puntos de enlace de SageMaker, adición dinámica de instancias de spot, mediante el uso de instancias de Amazon EC2, mediante el uso de Lambda detrás de los puntos de enlace).
- Automatización del aprovisionamiento de recursos informáticos, incluida la comunicación entre pilas (por ejemplo, mediante CloudFormation, AWS CDK).
- Creación y mantenimiento de contenedores (por ejemplo, Amazon Elastic Container Registry [Amazon ECR], Amazon EKS, Amazon ECS, mediante el uso de Bring Your Own Container [BYOC] con SageMaker).
- Configuración de puntos de enlace de SageMaker dentro de la red de VPC.
- Implementación y alojamiento de modelos mediante el SDK de SageMaker.
- Elegir métricas específicas para el escalado automático (por ejemplo, latencia del modelo, uso de la CPU, invocaciones por instancia).
3.3. Uso de herramientas de orquestación automatizadas para configurar canalizaciones de integración continua y entrega continua (CI/CD)- Configuración y solución de problemas de CodeBuild, CodeDeploy y CodePipeline, incluidas las etapas.
- Aplicación de estructuras de flujo de implementación continua para invocar canalizaciones (por ejemplo, Gitflow, GitHub Flow).
- Uso de los servicios de AWS para automatizar la organización (por ejemplo, para implementar modelos de ML, automatizar la creación de modelos).
- Configuración de trabajos de entrenamiento e inferencia (por ejemplo, mediante el uso de reglas de Amazon EventBridge, SageMaker Pipelines, CodePipeline).
- Creación de pruebas automatizadas en canalizaciones de CI/CD (por ejemplo, pruebas de integración, pruebas unitarias, pruebas de un extremo a otro).
- Creación e integración de mecanismos para reentrenar modelos.
Sección 4: Supervisión, mantenimiento y seguridad de soluciones de ML
4.1. Supervisar la inferencia del modelo- Supervisión de modelos en producción (por ejemplo, mediante el Monitor de modelos de SageMaker).
- Supervisión de flujos de trabajo para detectar anomalías o errores en el procesamiento de datos o la inferencia de modelos.
- Detección de cambios en la distribución de datos que pueden afectar al rendimiento del modelo (por ejemplo, mediante el uso de SageMaker Clarify).
- Supervisión del rendimiento del modelo en producción mediante pruebas A/B.
4.2. Supervisar y optimizar la infraestructura y los costes- Configuración y uso de herramientas para solucionar problemas y analizar recursos (por ejemplo, registros de CloudWatch, alarmas de CloudWatch).
- Creación de registros de seguimiento de CloudTrail.
- Configuración de paneles para monitorear métricas de rendimiento (por ejemplo, mediante el uso de Amazon QuickSight, paneles de CloudWatch).
- Supervisión de la infraestructura (por ejemplo, mediante eventos de EventBridge).
- Ajustar el tamaño de las familias y los tamaños de las instancias (por ejemplo, mediante el uso de SageMaker Inference Recommender y AWS Compute Optimizer).
- Supervisión y resolución de problemas de latencia y escalado.
- Preparar la infraestructura para la supervisión de costos (por ejemplo, mediante la aplicación de una estrategia de etiquetado).
- Solución de problemas de capacidad que implican costos y rendimiento (por ejemplo, simultaneidad aprovisionada, cuotas de servicio, escalado automático).
- Optimización de costos y establecimiento de cuotas de costos mediante el uso de herramientas de administración de costos adecuadas (por ejemplo, AWS Cost Explorer, AWS Trusted Advisor, AWS Budgets).
- Optimización de los costos de infraestructura mediante la selección de opciones de compra (por ejemplo, instancias de spot, instancias bajo demanda, instancias reservadas, planes de ahorro de SageMaker).
4.3. Protección de los recursos de AWS- Configuración del acceso con privilegios mínimos a los artefactos de ML.
- Configuración de políticas y roles de IAM para usuarios y aplicaciones que interactúan con sistemas de ML.
- Supervisión, auditoría y registro de sistemas de ML para garantizar la seguridad y el cumplimiento continuos.
- Solución de problemas y depuración de problemas de seguridad.
- Creación de VPC, subredes y grupos de seguridad para aislar de forma segura los sistemas de ML.