Retail Store en Google Cloud Platform

1

Lo que aprenderás sobre GCP para ecommerce

2

Etapas clave y MLOps

3

Arquitectura de alto nivel

4

Tour de la aplicación de retail

5

Backend as a Service y modelo de seguridad

6

Introducción al proyecto

7

Medición de interacciones

8

Setup de Google Tag Manager

9

Etiquetando con Google Tag Manager

10

Etiquetas relevantes para CLV

11

Integración con servicios

Exposición de servicios con Apigee

12

Servicios expuestos con APIs

13

¿Qué son las APIs?

14

Apigee

15

Creación de tu primer API Proxy en Apigee

16

Administración de APIs con Apigee

17

Creando un portal de desarrolladores

18

Interactuando con el portal de desarrolladores

19

Insights to Actions

Generación de modelos AI/ML

20

Machine Learning con datos estructurados

21

BigQuery para modelos de Forecasting y LTV

22

Bigquery ML - Manos a la Obra

23

Auto ML vs. Bigquery ML

24

Consideraciones para entrenar un modelo en BigQueryML

25

Entrenamiento del modelo en BigQuery ML

26

Cómo exportar modelos hechos en BQML

27

Exportando un modelo hecho con BQML

Consumo de servicios de AI/ML

28

Cómputo Serverless y Contenedores

29

¿Qué es Kubernetes?

30

Consumo de modelos ML mediante BigQuery API

31

Almacenamiento de predicciones

32

Ejecución de predicciones y persistencia

33

Despliegue continuo con Cloud Run

34

Ejecución de despliegue con Cloud Run

35

Escalamiento de servicios en Cloud Run

36

AuthN y AuthZ con Cloud Run

Google Marketing Platform

37

Análisis de las predicciones

38

Segmentamos nuestras Predicciones

39

Caso práctico para definir tu estrategia de activación

40

Generemos nuestros modelos en la plataforma

41

Segmentamos nuestras audiencias en BigQuery

42

Carga tus audiencias y conecta tu medio de activación

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Consideraciones para entrenar un modelo en BigQueryML

24/42
Recursos

¿Qué necesitas considerar antes de entrenar un modelo de Machine Learning con BigQuery?

Antes de comenzar con las rondas de entrenamiento de Machine Learning utilizando BigQuery, es importante tener presente algunas consideraciones clave. Aunque la emoción por comenzar a entrenar tu modelo pueda ser grande, asegúrate de que estás siguiendo el pipeline correcto para obtener resultados precisos y optimizados.

¿Cómo funciona el pipeline en BigQuery ML?

El pipeline en BigQuery ML, el cual hemos revisado anteriormente, incluye los siguientes pasos:

  • Recolectar datos: Obtener la información necesaria desde varias fuentes como Analytics, Ads, YouTube, etc.
  • Preprocesar datos: Realizar una selección de las características relevantes y un análisis de distribución.
  • Crear el modelo: Utilizar sintaxis estándar de SQL para especificar el tipo de modelo y generar rondas de entrenamiento.
  • Evaluar el modelo: Verificar cómo se desempeña el modelo con métricas como precisión, pérdida y curvas ROC.
  • Predecir y despliegue: Hacer predicciones basadas en el modelo entrenado y exportarlo para uso en aplicaciones.

¿Cómo se escriben las queries en BigQuery ML?

La creación del modelo en BigQuery ML se realiza de manera parecida a la creación de tablas en SQL. Las queries clásicas se ajustan para decantarse hacia el entorno de Machine Learning:

CREATE OR REPLACE MODEL 'tu_modelo'
OPTIONS (model_type='logistic_reg') AS (
  SELECT * FROM 'tu_dataset'
)

¿Cómo se evalúa y se validan los resultados del modelo?

Se emplean queries para evaluar el modelo en BigQuery:

SELECT *
FROM ML.EVALUATE(MODEL 'tu_modelo', (SELECT * FROM 'tu_test_dataset'))

Este tipo de consulta te proporciona los resultados del modelo en formato de tabla, mostrando detalles como precisión, f1-score, y curvas de pérdida.

¿Cómo seleccionar características para el modelo?

La selección de características precisa es vital para el rendimiento óptimo de tu modelo. Esto se enfoca en:

  • Identificar los atributos del usuario y el engagement con el sitio web.
  • Considerar características como el tiempo en el sitio, visitas a páginas, país y medio de adquisición.
  • Seleccionar variables que tengan sentido lógico para predecir el comportamiento deseado.

¿Cómo dividir tus datos para entrenamiento y evaluación?

Un paso crucial es dividir adecuadamente tus datos en conjuntos de entrenamiento y prueba para asegurar la precisión. El objetivo es tener un conjunto reservado para evaluar el desempeño del modelo sin sobreajuste.

¿Cómo evaluar el desempeño y simpleza del modelo?

Mantén las cosas simples al inicio. Usa modelos estándar antes de pasar a la hiperparametrización avanzada. Define con el equipo qué significa buen y mal desempeño para evitar pérdidas de tiempo en el entrenamiento.

Además, considera cómo integrar el modelo en tu aplicación desde el principio, pensando siempre en la implementación y las funcionalidades reales para los usuarios.

Herramientas útiles para el benchmarking

Una herramienta útil en este proceso es What If Tool, la cual permite hacer benchmarks entre distintos tipos de algoritmos y te ayuda a mantener simples las pruebas iniciales. Es open source y accesible para experimentación.

Ahora que sabes qué debes considerar antes de correr tu modelo, estás listo para llevar tus habilidades de Machine Learning al siguiente nivel con BigQuery. ¡Adelante, y buena suerte en tu camino de aprendizaje!

Aportes 0

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?