A煤n no tienes acceso a esta clase

Crea una cuenta y contin煤a viendo este curso

BigData Demo

17/24
Recursos

Aportes 31

Preguntas 2

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesi贸n.

La consola de GCP actualmente ha cambiado mucho. Faltan los archivos que usan de ejemplo para hacer la practica.

creo que el ejemplo fue muy pero muy corto, en el video anterior indicaron que la demo iba a ser con varias herramientas, pero solo se uso 2

Que bonito es lo bonito!

no dejan los archivos de ejemplos y cuando quieres hacer dicha practica no puedes por que te manda errores es demasiada explicaci贸n de lo que puedes hacer pero muy poca practica

Meencanta es lo que estaba necesitando

datastudio es muy util si estamos usando firebase.

Con BigQuery podemos utilizar dos tipos de modelos para Machine learning: Regresi贸n lineal(Forecasting) y regresi贸n log铆stica binaria/multiclase(Clasificaci贸n.)

Justo necesito hacer esto, espero no sea tan diferente la nueva version

S煤per interesante este ejemplo. Siento que el tiempo destinado para esta clase qued贸 muy corto鈥

Excelente.

HAY EJEMPLOS DE PAGINAS QUE ESTEN UTILIZANDO ESTA PLATAFORMA

Simplemente Monstruo

  • Buen Ejemplo

Que genial y buen铆simo es el manejo de datos en GCP

Seria genial q pongas los documentos del ejemplo

Que buena esta clase

Que 煤til Datastudio!!

DataStudio sera mi pr贸ximo curso

Muy 煤til!!!

Excelente DataStudio

Muy bueno!

En las opciones avanzadas, al activar la memoria Cache (que solo dura 24 horas), reducimos el tiempo de tarda el gestor en procesar las consultas.

Excelente!

As铆 como Google nos limita a 1000 registros por consulta, si nuestra querty ocupa muchos recursos, podemos modificar el LIMIT a 200 o a 50 para no generar costos.

Excelente el ejemplo para ir conociendo las herramienta

c:

Hay algo errado frente al limit. A煤n cuando este la instrucci贸n limit en la sentencia, se realiza un escaneo a toda la tabla para retornar los datos que solicita la consulta, pero solo se muestran la cantidad de registros que est茅n definidos en el limit (1000, 200, 500鈥) Se recomienda utilizar columnas particionadas para controlar los costos. Pueden leerlo en este enlace

Ojo, el LIMIT no determina el coste asociado a un query, ya que no te cobran por cuantos resultados te devuelve si no por la cantidad de bytes le铆do por la query. Aqu铆 un enlace con buenas pr谩cticas.
https://cloud.google.com/bigquery/docs/best-practices-costs

Urgente actualizar el curso Bigquery como lo presentan aqu铆 ya fue remplazado

Me hubiera gustado mas un ETL con DataFlow haciendo extracion de una DB SQL y llevando Big Query

Este enlace les facilita la creaci贸n de datos gen茅ricos aleatorios, para cargar en su tabla.

mockaroo