- 1

Guía de Instalación de Google Cloud para Desarrolladores
01:27 - 2
Crear Cuentas en Google Cloud y Qwiklabs paso a paso
01:30 - 3

Uso de Quick Labs para Entrenamiento en Google Cloud
07:50 - 4

Google Cloud: Beneficios y Seguridad en la Nube Pública
13:30 - 5

Opciones de Cómputo en la Nube con Google Cloud
05:50 - 6

Máquinas Virtuales en Google Cloud: Uso, Optimización y Descuentos
07:32 - 7
Instalación de Qwiklabs paso a paso
00:18 - 8

Creación y Gestión de Máquinas Virtuales en Google Cloud
17:34 - 9

App Engine: Despliegue de Aplicaciones sin Infraestructura
07:30 - 10

Despliegue de Aplicaciones en App Engine con Java 11 y SpringBoot
12:50 - 11
Introducción a Docker y Contenerización de Aplicaciones
02:48 - 12

App Engine Estándar vs Flexible: Ventajas y Usos Prácticos
11:23 - 13

Implementación de Cloud Run: Serverless y Contenedores en Google Cloud
08:10 - 14

Cloud Functions: Creación y Conexión de Servicios Serverless
12:56
Análisis de Datos de Taxis en iNotebook con Google Cloud y BigQuery
Clase 46 de 48 • Entrenamiento de Google Cloud Platform
Contenido del curso
- 15

Continuous Integration y Delivery en Google Cloud Platform
10:13 - 16

Estrategias de Despliegue de Aplicaciones en Producción
10:02 - 17

Repositorios en Google Cloud: Cloud Source y Container Registry
07:33 - 18

Construcción y Despliegue en Google Cloud Platform
09:32 - 19

Infraestructura como Código: Conceptos y Herramientas Clave
09:28 - 20

Despliegue de Aplicaciones Serverless en Google Cloud Platform
08:38
- 21

Fundamentos de Kubernetes y Google Kubernetes Engine
10:10 - 22

Creación y Despliegue de Clúster Kubernetes en Google Cloud
09:25 - 23

Planificación de Ambientes de Despliegue en Kubernetes
12:37 - 24

Implementación y Gestión de Anthos para Aplicaciones en la Nube
09:07 - 25

Cloud Run: Despliegue de Contenedores Serverless en Google Cloud
09:51 - 26

Despliegue de Servicios en Cloud Run con GKE
08:49 - 27

Anthos Service Mesh: Observabilidad y Seguridad en Kubernetes
06:22 - 28

Tour Completo de Anthos: Despliegue y Gestión en Google Cloud
06:52
- 29

Integración de Datos en Tiempo Real con Google Cloud Data Fusion
15:27 - 30

Construcción de Flujos de Datos con Google Cloud Data Fusion
15:51 - 31

Ingesta de Datos Confiable en Google Cloud Platform
11:07 - 32

Ingesta de Eventos en Google Cloud con Apache Kafka y Dataflow
06:30 - 33

Configuración de Apache Kafka y Debezium en Linux para SQL Server y PubSub
12:39 - 34

Visualización de Mensajes en Google Cloud con Dataflow y BigQuery
04:58 - 35

Construcción de un Data Lakehouse con Google BigQuery
09:11 - 36

Ventajas de BigQuery como Data Lakehouse
11:48 - 37

Opciones de Almacenamiento en Google Cloud Platform
06:18 - 38

Gestión de Datos en Google Cloud: Portafolio y Migración
10:59 - 39

Gobierno de Datos en Google Cloud: Mejores Prácticas y Herramientas
09:54 - 40

Calidad y Monitoreo de Datos en Google Cloud
07:53
- 41

Conceptos Básicos de Inteligencia Artificial y Aprendizaje Automático
13:00 - 42

Soluciones de IA y Machine Learning en Google Cloud para Desarrolladores
12:40 - 43

AutoML Tables: Modelado Predictivo con Datos Estructurados
11:50 - 44

Uso de AutoML Tables en Google Cloud para Modelos de Clasificación
05:17 - 45

Predicción de Tarifas con Jupyter Notebooks en Google Cloud
07:33 - 46

Análisis de Datos de Taxis en iNotebook con Google Cloud y BigQuery
13:34 - 47

Implementación de Pipelines con TensorFlow Extended
13:48
¿Cómo ejecutar un iNotebook en Google Cloud?
En el mundo rápido del análisis de datos, preparar el entorno ideal de trabajo puede ser la diferencia entre el éxito y un gran dolor de cabeza. Google Cloud ofrece una solución óptima para aquellos que desean ejecutar iNotebooks con facilidad y potencia escalable. ¡Sigue leyendo para descubrir cómo hacerlo!
Para empezar, la interfaz de la consola de Google Cloud te guiará a través de los pasos necesarios para configurar un ambiente de desarrollo robusto. Dentro de la sección de inteligencia artificial, encontrarás un menú llamado iPlatform. Aquí, al entrar en notebooks, verás una pantalla donde puedes crear libretas personalizadas según tus necesidades.
¿Qué librerías y configuraciones necesitas?
Al configurar un nuevo iNotebook, puedes seleccionar librerías y paquetes según tus necesidades de análisis. Google Cloud proporciona opciones con librerías como:
- Python (versiones 2 y 3)
- R
- Paquetes necesarios para análisis numérico preinstalados: Pandas, Scikit-learn
- Librerías de mayor proyección en machine learning: TensorFlow, PyTorch, XGBoost
Además, si vas a utilizar un procesador gráfico, necesitarás CUDA para manipular los arreglos de gráficos de manera eficiente.
¿Cómo crear una instancia y configurarla correctamente?
Crear una instancia es rápido, pero es fundamental elegir adecuadamente las características de la máquina virtual:
- Configuración del GPU: Puedes seleccionar un GPU específico; si quieres más velocidad de entrenamiento, elige hasta cuatro GPUs.
- Customización de la zona y el tipo de máquina: Al darle a "customize", puedes definir estos parámetros según las capacidades requeridas para tu proyecto.
Una vez que creas la instancia, puedes abrir Jupyter Lab, donde podrás acceder a un basto repositorio de demos y laboratorios que puedes descargar para practicar.
¿Cómo interactuar con BigQuery desde un iNotebook?
Una vez configurado el entorno, puedes comenzar a trabajar directamente con BigQuery, el potente data warehouse de Google Cloud. La clave está en conectar eficientemente tu iNotebook y el entorno de trabajo con BigQuery. A continuación, exploramos paso a paso cómo hacerlo.
¿Cómo realizar consultas hacia BigQuery?
Para demostrar cómo realizar la interfaz con BigQuery desde un entorno enriquecido con Python, seguimos estos pasos:
- Importar librerías: Utiliza paquetes como NumPy, Pandas, Matplotlib y Seaborn para análisis visual.
- Ejecutar consultas: Utiliza el SDK de Google para conectarte y extraer información del dataset de taxis amarillos de Nueva York, tal como tarifas, número de pasajeros y coordenadas.
Con cada consulta, puedes visualizar los datos en tiempo real y comenzar a depurar y filtrar información para obtener resultados significativos.
¿Cómo limpiar y preprocesar los datos?
En el análisis de datos, la limpieza es crucial. Esta tarea consiste en:
- Eliminar datos no válidos: Remover tarifas o distancias iguales a cero.
- Filtrar outliers: Identificar y eliminar datos fuera de lo común que podrían distorsionar los resultados.
¿Qué técnicas de visualización puedes utilizar?
Una vez filtrada la información, las herramientas de visualización como Seaborn (SNS) y Matplotlib permiten observar la distribución y características de los datos, cruciales para cualquier análisis numérico.
¿Cómo preparar datos para modelos de Machine Learning?
El siguiente paso importante es preparar y estructurar tus datos antes de alimentar un modelo de machine learning.
¿Cómo dividir el dataset?
Divide tu dataset en tres conjuntos diferentes:
- Entrenamiento
- Validación
- Pruebas
Esto asegura que puedas evaluar eficientemente el rendimiento del modelo y ajustar las predicciones en base a sets de datos específicos.
¿Cómo realizar predicciones iniciales?
Basado en los frames de datos estructurados, utiliza funciones para realizar predicciones sobre las tarifas esperadas de taxi. Esto se logra calculando métricas de error como root mean square (RMS) que evalúan la precisión del modelo ante datos reales.
Conclusión
Explorar la sinergia entre Python, BigQuery y Google Cloud es un emocionante desafío diseñado para los entusiastas de la ciencia de datos. A través de este tutorial práctico, has interactuado activamente con herramientas avanzadas, facilitando la producción de modelos de machine learning con eficiencia y precisión. Continúa explorando, aprendiendo y optimizando tus habilidades. ¡El mundo del análisis de datos está esperando tu contribución!