- 1

Google Cloud para Retail: Optimización y Modernización en E-commerce
08:50 - 2

MLOps: Integración y Operacionalización en Ciencia de Datos Retail
12:17 - 3

Arquitectura de Alto Nivel para Aplicaciones en la Nube
08:41 - 4

Desarrollo de Aplicaciones con Firebase y Vue: Configuración Inicial
18:49 - 5

Firebase: Autenticación y Seguridad en Aplicaciones Web
12:07 - 6
Instalación y Configuración de Google Cloud y Firebase para Apps
07:05 - 7

Medición de Interacciones con Google Tag Manager y Analytics
08:42 - 8

Configuración de Google Tag Manager y Google Analytics
16:23 - 9

Tageo Avanzado con Google Tag Manager para Customer Lifetime Value
12:33 - 10
Uso estratégico del Customer Lifetime Value (CLV)
01:11 - 11

Integración de Servicios y APIs en Arquitecturas Modernas
11:25
Análisis de Datos con SQL y Modelos K-Means en Google Analytics
Clase 39 de 42 • Curso de Google Cloud Platform para E-commerce
Contenido del curso
- 12

Integración de APIs en Tiendas en Línea
09:17 - 13

Fundamentos y Creación de APIs con APIG de Google Cloud
09:33 - 14

Creación y Gestión de APIs con APIG
06:48 - 15

Creación de API Proxy con APIG y OpenAPI Specification
10:40 - 16

Creación y Gestión de API Products y Developer Apps
11:05 - 17

Creación y gestión de portales para desarrolladores con APIG
12:22 - 18

Configuración de Portales para Desarrolladores en APIG
06:04 - 19

Buenas prácticas para desarrollar APIs eficaces
01:46
- 20

Datos Estructurados en Machine Learning para Marketing
13:12 - 21

Modelos de Forecasting y Customer Lifetime Value con BigQuery
06:45 - 22

Integración de BigQuery con Jupyter para Análisis de Datos
15:34 - 23

Cuándo usar AutoML Tables vs BigQuery ML en Machine Learning
12:44 - 24

Entrenamiento de Modelos de Machine Learning con BigQuery ML
10:08 - 25

Entrenamiento y Evaluación de Modelos con BigQuery ML y Jupyter
13:39 - 26

Exportación de Modelos en BigQuery ML: Métodos y Consideraciones
07:09 - 27

Exportación de Modelos de Machine Learning a Cloud Storage
05:43
- 28

Despliegue de Modelos Machine Learning en Google Cloud Run
11:16 - 29

Introducción a Kubernetes y su Uso en la Orquestación de Contenedores
09:42 - 30

Implementación de Modelos de Machine Learning con BigQuery API
09:31 - 31

Almacenamiento de Predicciones con Google Cloud Storage y BigQuery
08:21 - 32

Implementación de Modelos ML en BigQuery y Almacenamiento en GCS
12:56 - 33

Despliegue Continuo con Google Cloud: Herramientas y Estrategias
12:13 - 34

Despliegue Continuo en Google Cloud con Cloud Run y Docker
10:31 - 35

Configuración de Escalamiento en Google Cloud Run
14:32 - 36

Control de Autenticación y Autorización en Google Cloud Run
25:41
- 37

Google Cloud Platform para Estrategias de Marketing Digital
10:45 - 38

Integración de Google Analytics con BigQuery para Segmentación Avanzada
09:29 - 39

Análisis de Datos con SQL y Modelos K-Means en Google Analytics
13:25 - 40

Creación y Evaluación de Modelos en BigQuery con Datos de Google Analytics
17:14 - 41

Segmentación de Audiencias en BigQuery y Predicciones de Compra
03:30 - 42

Integración de Audiencias en Google Marketing Platform
09:43
¿Cómo estructurar los datos de Google Analytics con SQL?
Vamos a adentrarnos en el emocionante mundo del manejo de datos con SQL, específicamente relativo a Google Analytics para mejorar nuestras campañas de marketing. Este proceso es esencial para entender mejor a nuestros clientes, así como sus comportamientos, y crear estrategias basadas en datos concretos. Es crucial tener una visión clara sobre cuánto tiempo pasan los clientes en nuestras pantallas y cuántas veces regresan, ya que esto puede ser indicativo de su interés. ¡Comencemos a descubrir cómo estructurar estos datos de manera eficiente!
¿De qué manera se puede agregar la información de Google Analytics?
Cuando hablamos de datos de Google Analytics, estos suelen venir desagregados y a un nivel bastante granular. Por ello, lo primero es agregar esta información a nivel de cliente, enfocándonos en:
- Tiempo en cada pantalla: Medir cuánto tiempo cada usuario pasa viendo una determinada pantalla.
- Frecuencia de sesiones: Contabilizar cuántas veces un cliente ha interactuado con la pantalla.
Para procesar esta información utilizamos SQL. La sentencia de SQL básica para agregar estos datos sería:
SELECT
usuario,
SUM(tiempo_en_pantalla) AS time_on_screen,
SUM(sesiones_unicas) AS unique_screen_views
FROM
dataset
GROUP BY
usuario;
En este código, reemplazamos "dataset" por el nombre específico de nuestro proyecto, y agrupamos los resultados según los usuarios.
¿Cómo se integra la data del CRM?
El siguiente paso es fusionar esta información con la de nuestro CRM para obtener un panorama completo de cada cliente. Este include:
- ID del usuario: Corroborado con el "Danielito ID" creado en los sistemas de nuestra empresa.
- Ingresos anuales: Conocer cuánto ha generado en ingresos cada cliente.
- Programas de fidelidad: Sumar el programa de puntos al análisis.
- Demografía: Incorporar edad y otros datos demográficos relevantes.
Implementamos la siguiente consulta SQL para realizar este emparejamiento:
SELECT
user_id,
account_number,
annual_revenue,
time_on_screen,
unique_screen_views,
loyalty_program,
age
FROM
your_crm_dataset
En esta sección, estamos uniendo la data del usuario con los valores que ya agregamos en la parte anterior.
¿Qué pasos seguir para la segmentación y modelado?
Después de estructurar y combinar la información, es hora de segmentar los datos mediante un modelo de K Means, ideal para clústerizar audiencias. Este modelo nos ayuda a identificar patrones como:
- Clientes VIP
- Nuevos clientes
- Clientes con alto potencial de compra
El proceso de K Means implica definir uno o más centroids, y puede ser iniciado utilizando el siguiente script SQL:
CREATE MODEL `project.dataset.model_name`
OPTIONS(
model_type='kmeans',
num_clusters = 9,
distance_type = 'euclidean')
AS
SELECT
variable_1,
variable_2
FROM
data;
¿Cómo determinar el número adecuado de clusters?
No es prudente implementar demasiadas campañas al mismo tiempo. La estrategia del "codo" o "elbow" en inglés, nos permite optimizar el número de clústers. Esto implica analizar la curva de inercia versus número de clústers para identificar un punto donde agregar más clústers no mejora sustancialmente la compactación del modelo.
Al graficar los resultados de esta técnica, buscaremos un punto en el gráfico donde la pendiente empieza a aplanarse, indicando el número óptimo de clústers. Este análisis ayudará a negociar eficientemente con los departamentos de marketing.
Conclusión
Este proceso de estructuración y segmentación de datos, aunado a un análisis correcto del número de clústers, optimiza de manera efectiva las campañas de marketing. La importancia de un enfoque basado en datos para la toma de decisiones empresariales no puede subestimarse. Prueba estas técnicas y prepárate para potenciar las interacciones con tus clientes. ¡Sigue aprendiendo y mejorando!