Machine Learning APIs: Análisis Predictivo y Prescriptivo

Clase 14 de 19Curso de Big Data y Machine Learning con Google Cloud Platform

Resumen

Comprender cómo las APIs de machine learning de Google Cloud transforman el análisis de datos es fundamental para cualquier profesional que quiera pasar del análisis descriptivo tradicional al análisis predictivo y prescriptivo. Estas herramientas permiten resolver problemas de negocio complejos sin necesidad de construir modelos desde cero, aprovechando servicios preentrenados y plataformas guiadas que aceleran la obtención de resultados.

¿Qué tipos de análisis puedes lograr con inteligencia artificial?

El punto de partida es entender los cuatro niveles de sofisticación analítica [0:28]. En la base encontramos el análisis descriptivo, que responde a la pregunta "¿qué pasó?" con baja complejidad. Le sigue el análisis de diagnóstico, que explora las causas. Los niveles más avanzados son el análisis predictivo, que anticipa lo que podría ocurrir, y el análisis prescriptivo, que recomienda acciones concretas. Estos dos últimos son precisamente donde las APIs de machine learning aportan mayor valor.

Google Cloud estructura sus APIs alrededor de tres pilares [1:07]: modelos y servicios de alta calidad respaldados por la inversión en investigación de Google, facilidad de personalización e implementación para que cualquier equipo pueda adoptarlas, y un modelo comercial de pago por uso que permite escalar según la necesidad.

¿Cuáles son las APIs disponibles en Google Cloud?

Por el lado de visión [1:50], existen APIs para captura y procesamiento de imágenes y videos, junto con AutoML Vision, que ofrece una interfaz gráfica amigable para usuarios que prefieren trabajar sin código, y también permite a desarrolladores avanzados codificar sus propios modelos.

En el ámbito del lenguaje natural [2:24], encontramos APIs de traducción, AutoML de traducción, APIs de procesamiento de lenguaje natural y su versión AutoML correspondiente.

Las APIs de conversación [2:50] habilitan agentes virtuales disponibles en múltiples idiomas. Estos asistentes pueden responder preguntas frecuentes o incluso realizar transacciones cuando se integran con datos de cliente, como en servicios financieros. Complementan este ecosistema las APIs de Speech-to-Text para transcripción de audio a texto, y Text-to-Speech para convertir texto en voz [3:28].

Para datos estructurados, AutoML Tables [3:48] permite generar modelos definiendo una variable objetivo y variables independientes en un sistema guiado. Recommendation AI funciona como un sistema autónomo que predice la mejor siguiente acción o recomendación de compra para un cliente.

¿Cómo integra Vertex AI todas estas capacidades?

Vertex AI [4:22] es la plataforma integral de extremo a extremo que consolida todos estos servicios. Su arquitectura se organiza en tres capas:

  • Infraestructura fundacional que soporta el procesamiento.
  • Flujo de trabajo personalizable para desarrollar modelos detalladamente.
  • Componentes sin código a través de AutoML para usuarios no técnicos.

¿Qué casos de uso puedes resolver con datos estructurados y no estructurados?

Los casos de uso con datos estructurados [4:55] incluyen:

  • Clasificación y regresión: abandono de clientes, diagnóstico de productos y forecasts de ventas.
  • Detección de anomalías: fraude, diagnóstico de sensores en maquinaria y anomalías en métricas de registro.
  • Modelos de recomendación: predicción de la próxima mejor oferta basada en comportamiento histórico de compra.

Para datos no estructurados [6:00], las posibilidades abarcan:

  • Análisis de imágenes: identificar envíos dañados, clasificar contenido explícito en videos o evaluar siniestros en empresas de seguros.
  • Análisis de texto: transcripción de audio seguida de procesamiento con la API de lenguaje natural para detectar intenciones, traducir entre idiomas o clasificar documentos automáticamente.
  • Análisis de sentimientos [7:20]: asignar un score a correos o llamadas de clientes para identificar si expresan enfado o sugerencias, permitiendo gestionar reclamos de forma más efectiva.

¿Cómo se estructura el ciclo de vida de un modelo de machine learning?

Para que un proyecto tenga éxito necesitas tres componentes [7:58]: conocimiento de las APIs disponibles, claridad sobre el problema de negocio y datos relevantes.

El ciclo de vida consta de diez pasos [8:28]:

  1. Definir un caso de uso donde aplique machine learning.
  2. Realizar exploración de datos con análisis descriptivo: distribuciones, valores mínimos, máximos y datos faltantes.
  3. Seleccionar el algoritmo adecuado según el tipo de problema.
  4. Crear un pipeline de datos con generación de nuevas características.
  5. Construir el modelo.
  6. Iterar buscando la solución óptima.
  7. Presentar los resultados de forma clara.
  8. Realizar el despliegue a producción.
  9. Mantener el flujo continuo entre producción y operación.
  10. Establecer una metodología de monitoreo [9:47] que permita detectar cuándo el modelo pierde capacidad predictiva y necesita reentrenamiento.

Este ciclo es continuo: cada modelo que implementes en tu empresa debe seguir esta dinámica para mantenerse vigente y útil. Si ya estás explorando alguna de estas APIs o tienes un caso de uso en mente, comparte tu experiencia en los comentarios.