Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

BigData Demo

17/24
Recursos

Aportes 31

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

La consola de GCP actualmente ha cambiado mucho. Faltan los archivos que usan de ejemplo para hacer la practica.

creo que el ejemplo fue muy pero muy corto, en el video anterior indicaron que la demo iba a ser con varias herramientas, pero solo se uso 2

Que bonito es lo bonito!

no dejan los archivos de ejemplos y cuando quieres hacer dicha practica no puedes por que te manda errores es demasiada explicación de lo que puedes hacer pero muy poca practica

Meencanta es lo que estaba necesitando

datastudio es muy util si estamos usando firebase.

Con BigQuery podemos utilizar dos tipos de modelos para Machine learning: Regresión lineal(Forecasting) y regresión logística binaria/multiclase(Clasificación.)

Justo necesito hacer esto, espero no sea tan diferente la nueva version

Súper interesante este ejemplo. Siento que el tiempo destinado para esta clase quedó muy corto…

Excelente.

HAY EJEMPLOS DE PAGINAS QUE ESTEN UTILIZANDO ESTA PLATAFORMA

Simplemente Monstruo

  • Buen Ejemplo

Que genial y buenísimo es el manejo de datos en GCP

Seria genial q pongas los documentos del ejemplo

Que buena esta clase

Que útil Datastudio!!

DataStudio sera mi próximo curso

Muy útil!!!

Excelente DataStudio

Muy bueno!

En las opciones avanzadas, al activar la memoria Cache (que solo dura 24 horas), reducimos el tiempo de tarda el gestor en procesar las consultas.

Excelente!

Así como Google nos limita a 1000 registros por consulta, si nuestra querty ocupa muchos recursos, podemos modificar el LIMIT a 200 o a 50 para no generar costos.

Excelente el ejemplo para ir conociendo las herramienta

c:

Hay algo errado frente al limit. Aún cuando este la instrucción limit en la sentencia, se realiza un escaneo a toda la tabla para retornar los datos que solicita la consulta, pero solo se muestran la cantidad de registros que estén definidos en el limit (1000, 200, 500…) Se recomienda utilizar columnas particionadas para controlar los costos. Pueden leerlo en este enlace

Ojo, el LIMIT no determina el coste asociado a un query, ya que no te cobran por cuantos resultados te devuelve si no por la cantidad de bytes leído por la query. Aquí un enlace con buenas prácticas.
https://cloud.google.com/bigquery/docs/best-practices-costs

Urgente actualizar el curso Bigquery como lo presentan aquí ya fue remplazado

Me hubiera gustado mas un ETL con DataFlow haciendo extracion de una DB SQL y llevando Big Query

Este enlace les facilita la creación de datos genéricos aleatorios, para cargar en su tabla.

mockaroo