- 1

Guía de Instalación de Google Cloud para Desarrolladores
01:27 - 2
Crear Cuentas en Google Cloud y Qwiklabs paso a paso
01:30 - 3

Uso de Quick Labs para Entrenamiento en Google Cloud
07:50 - 4

Google Cloud: Beneficios y Seguridad en la Nube Pública
13:30 - 5

Opciones de Cómputo en la Nube con Google Cloud
05:50 - 6

Máquinas Virtuales en Google Cloud: Uso, Optimización y Descuentos
07:32 - 7
Instalación de Qwiklabs paso a paso
00:18 - 8

Creación y Gestión de Máquinas Virtuales en Google Cloud
17:34 - 9

App Engine: Despliegue de Aplicaciones sin Infraestructura
07:30 - 10

Despliegue de Aplicaciones en App Engine con Java 11 y SpringBoot
12:50 - 11
Introducción a Docker y Contenerización de Aplicaciones
02:48 - 12

App Engine Estándar vs Flexible: Ventajas y Usos Prácticos
11:23 - 13

Implementación de Cloud Run: Serverless y Contenedores en Google Cloud
08:10 - 14

Cloud Functions: Creación y Conexión de Servicios Serverless
12:56
Uso de AutoML Tables en Google Cloud para Modelos de Clasificación
Clase 44 de 48 • Entrenamiento de Google Cloud Platform
Contenido del curso
- 15

Continuous Integration y Delivery en Google Cloud Platform
10:13 - 16

Estrategias de Despliegue de Aplicaciones en Producción
10:02 - 17

Repositorios en Google Cloud: Cloud Source y Container Registry
07:33 - 18

Construcción y Despliegue en Google Cloud Platform
09:32 - 19

Infraestructura como Código: Conceptos y Herramientas Clave
09:28 - 20

Despliegue de Aplicaciones Serverless en Google Cloud Platform
08:38
- 21

Fundamentos de Kubernetes y Google Kubernetes Engine
10:10 - 22

Creación y Despliegue de Clúster Kubernetes en Google Cloud
09:25 - 23

Planificación de Ambientes de Despliegue en Kubernetes
12:37 - 24

Implementación y Gestión de Anthos para Aplicaciones en la Nube
09:07 - 25

Cloud Run: Despliegue de Contenedores Serverless en Google Cloud
09:51 - 26

Despliegue de Servicios en Cloud Run con GKE
08:49 - 27

Anthos Service Mesh: Observabilidad y Seguridad en Kubernetes
06:22 - 28

Tour Completo de Anthos: Despliegue y Gestión en Google Cloud
06:52
- 29

Integración de Datos en Tiempo Real con Google Cloud Data Fusion
15:27 - 30

Construcción de Flujos de Datos con Google Cloud Data Fusion
15:51 - 31

Ingesta de Datos Confiable en Google Cloud Platform
11:07 - 32

Ingesta de Eventos en Google Cloud con Apache Kafka y Dataflow
06:30 - 33

Configuración de Apache Kafka y Debezium en Linux para SQL Server y PubSub
12:39 - 34

Visualización de Mensajes en Google Cloud con Dataflow y BigQuery
04:58 - 35

Construcción de un Data Lakehouse con Google BigQuery
09:11 - 36

Ventajas de BigQuery como Data Lakehouse
11:48 - 37

Opciones de Almacenamiento en Google Cloud Platform
06:18 - 38

Gestión de Datos en Google Cloud: Portafolio y Migración
10:59 - 39

Gobierno de Datos en Google Cloud: Mejores Prácticas y Herramientas
09:54 - 40

Calidad y Monitoreo de Datos en Google Cloud
07:53
- 41

Conceptos Básicos de Inteligencia Artificial y Aprendizaje Automático
13:00 - 42

Soluciones de IA y Machine Learning en Google Cloud para Desarrolladores
12:40 - 43

AutoML Tables: Modelado Predictivo con Datos Estructurados
11:50 - 44

Uso de AutoML Tables en Google Cloud para Modelos de Clasificación
05:17 - 45

Predicción de Tarifas con Jupyter Notebooks en Google Cloud
07:33 - 46

Análisis de Datos de Taxis en iNotebook con Google Cloud y BigQuery
13:34 - 47

Implementación de Pipelines con TensorFlow Extended
13:48
¿Cómo identificar el servicio de AutoML en Google Cloud?
AutoML es una herramienta poderosa dentro de Google Cloud que te permite construir modelos de aprendizaje automático personalizados sin necesidad de un profundo conocimiento técnico. Para acceder a AutoML, primero debes dirigirte a la consola de Google Cloud. Allí, encuentra la sección de inteligencia artificial que incluye la plataforma AI en la que se presentan varios servicios vitales para el aprendizaje automático. El servicio conocido como Tables Data sets es el que utilizarás para crear y gestionar tus conjuntos de datos.
¿Cómo se genera un nuevo data set en AutoML?
Crear un nuevo data set en AutoML es un proceso sencillo y fundamental del laboratorio que debes completar. El proceso se inicia generando un data set con los parámetros por defecto, aunque puedes personalizar el nombre según tu preferencia. Es aquí donde la interoperabilidad con otros servicios analíticos de Google cobra importancia, ya que permite importar rápidamente datos desde un data warehouse o un repositorio ya existente en Google Cloud.
¿Cuál es el proceso de importación y etiquetado de datos?
Al importar los datos, AutoML ejecuta automáticamente un proceso de detección del esquema. Esta etapa es crucial ya que ayuda a identificar tanto la estructura de los datos como el etiquetado, proporcionando una vista previa automática de las columnas, tipos de datos y categorizaciones. AutoML se encarga de mostrar la distribución de los datos, lo que facilita el análisis preliminar sin necesidad de intervención manual.
¿Cómo entrenar y evaluar un modelo en AutoML?
Una vez que has configurado tu data set, el siguiente paso es entrenar un modelo. En el laboratorio, debes definir si el objetivo es clasificación binaria, tal como determinar la probabilidad de compra. Puedes ajustar el entrenamiento dividiendo los datos en conjuntos de prueba, entrenamiento y validación de forma automática o personalizada.
¿Qué implica el proceso de entrenamiento del modelo?
El entrenamiento inicia cuando seleccionas la opción train model. Cabe destacar que este es un proceso que consume tiempo ya que se realizan múltiples tareas en segundo plano: levantamiento de contenedores, provisión de datos, y la ejecución de algoritmos. Como resultado, obtienes métricas significativas como las curvas de precisión y listas de las columnas involucradas en el entrenamiento, permitiendo evaluar el desempeño de las rondas de entrenamiento realizadas.
¿Cómo se lleva a cabo la evaluación del modelo?
La evaluación del modelo es el siguiente paso crítico. Con los datos de prueba no utilizados anteriormente, AutoML ejecuta el modelo entrenado y proporciona métricas clave como precisión, curvas de aprendizaje, y gráficos de falsos positivos y negativos. Un modelo con precisión superior al 96-97% suele considerarse aceptable para producción. La función de pérdida también debe estar minimizada para garantizar el óptimo rendimiento del modelo antes de su implementación.
¿Cómo exportar y utilizar el modelo entrenado?
Finalizado el entrenamiento y evaluación, tienes dos opciones para utilizar el modelo. Puedes exportarlo para realizar predicciones en batch o implementarlo en la nube para hacer predicciones en tiempo real a través de una API. Estas funcionalidades expanden significativamente el impacto que el modelo puede tener en aplicaciones o servicios en tiempo real, maximizando el valor que se obtiene de los datos analizados.
¡Estamos seguros de que con estas instrucciones podrás concluir tu laboratorio con éxito, adquiriendo habilidades valiosas en el uso de AutoML!