gcloud functions deploy photo_analysis_service --runtime=python39 --trigger-resource=<NAME-BUCKET> --trigger-event=google.storage.object.finalize --set-env-vars BUCKET=<NAME-BUCKET>
Manejo de Big Data
Bienvenida
Introducción a big data
Google Cloud Platform para big data
Explorando Google Cloud Platform para big data e IA
Cloud Dataflow
BigQuery
Integración de datos con BigQuery y Data Studio
Cloud Pub/Sub
Casos de uso en tiempo real con Cloud Pub/Sub y Dataflow
Herramientas de inteligencia artificial
Introducción a machine learning
Cómo funciona Vertex AI
Flujo de trabajo con Vertex AI
Visión artificial con Vertex AI
Machine Learning API
Uso de AutoML
Conclusiones
Proyecto: Clon de Google Photos (Parte 4 de 4)
Terminemos el proyecto
Utilización de Vision API
Creación de la base de datos y prueba del sistema
En Google Cloud Platform, automatizar el análisis de imágenes es una tarea factible gracias a la interacción entre diferentes servicios. Este proceso no solo permite identificar objetos en las imágenes, sino que también almacena estos datos de manera eficiente. La integración incluye la activación de la API de Vision, la creación de funciones en Python, y la configuración de despliegue en GCP.
Para habilitar la API de Vision en Google Cloud, es esencial seguir estos pasos:
Una vez que la API está habilitada, desarrollarás una función escrita en Python que se divide en dos partes principales. Este flujo usa un sencillo archivo 'main.py' que, a través de sus métodos auxiliares, ejecuta las siguientes acciones:
def fotoanalisis_service():
# Inicializa el cliente de Vision
client = initialize_vision_client()
# Genera imagen desde Cloud Storage
image = create_image(bucket, image_file)
# Análisis de objetos presentes
response = analyze_image(client, image)
# Guarda los resultados
store_results(response)
Estas operaciones permiten que, al momento de detectar la subida de una imagen al Cloud Storage, automáticamente se inicie el análisis a través de Vision API.
El despliegue es realizado utilizando Google Cloud SDK, lo cual asegura una efectiva integración en el entorno:
Dirígete al directorio donde se encuentran tus funciones.
Ejecuta el siguiente comando en la terminal para desplegar la función:
gcloud functions deploy fotoanalisis_service \
--runtime python39 \
--trigger-resource big-moments-dev-live-bucket \
--trigger-event google.storage.object.finalize \
--set-env-vars BUCKET=big-moments-dev-live-bucket
Este comando despliega la función en el entorno cloud y asegura que se ejecute cada vez que se sube una nueva imagen.
Tras analizar las imágenes, lo siguiente es manejar adecuadamente los datos obtenidos. Se almacena esta información en una base de datos con Firestore, permitiendo consultas futuras mediante lenguaje natural. Sin embargo, asegúrate de habilitar el servicio de Firestore, ya que es esencial para completar el ciclo de almacenamiento de los resultados.
En resumen, este sistema representa un uso integrador de múltiples herramientas de Google Cloud Platform, facilitando procesos que antes requerían complejas configuraciones. ¡Ya estás listo para maximizar el potencial de tus proyectos haciendo uso de GCP! Sonsé potencial de estos recursos, y no olvides interactuar a través de los comentarios para hacer preguntas o compartir tus impresiones.
Aportes 5
Preguntas 1
gcloud functions deploy photo_analysis_service --runtime=python39 --trigger-resource=<NAME-BUCKET> --trigger-event=google.storage.object.finalize --set-env-vars BUCKET=<NAME-BUCKET>
¿Me perdí de alguna clase? de la nada ya estaba maquetado un html con funciones y conección por consola a SSH
Al intentar crear la función no me reconocía el comando python39. Por algún motivo no estaba entre las variables de entorno de mi windows 10. Lo agregué en PATH y listo salió funcionando.
esta buenísimo
Como se podría hacer el script (el que se encuentra en function), con JavaScript
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?