Open AI API
Domina la API de OpenAI: Transforma tus Ideas con Inteligencia Artificial
Fundamentos de la API de OpenAI
Introducción a OpenAI API
Administración de proyectos OpenAI
Exploración de documentos
Modelos de Lenguaje en OpenAI
Control de Respuestas
Chat Completion API
Herramientas
Uso de herramientas
Manejo de Imágenes en GPT-4o
Desarrollo de 'PlatziVision'
Arquitectura de 'PlatziVision'
Integración de GPT-4o con streaming en 'PlatziVision'
Soporte de procesamiento de imágenes en 'PlatziVision'
Generación de imágenes con DALL E 3
Generación de imágenes en 'PlatziVision'
Fine-Tuning
Introducción a Fine-Tuning
Preparación de Datos para Fine-Tuning
Ejecución del Fine-Tuning y Monitoreo
OpenAI Batch
Introducción a OpenAI Batch
Uso de OpenAI Batch
OpenAI Assistants
¿Cómo funciona OpenAI Assistants?
Generando una conversación usando OpenAI Assistants y Code Interpreter
Proyecto Final y Cierre del Curso
OpenAI Speech & Transcriptions
Finalizando el Proyecto 'PlatziVision'
Notas de OpenAI API
Recomendaciones finales hacia el futuro
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
Imagina tener un asistente que, al recibir consultas de los estudiantes sobre lo que desean aprender, responda recomendando cursos específicos con enlaces directos. Este asistente se centraría exclusivamente en ofrecer cursos de Platzi, evitando responder a preguntas fuera de este ámbito. Para lograr esto, podemos utilizar Engineering Prompt para ajustar el prompt del sistema con información relevante, o emplear un entrenamiento más sofisticado a través de AI y fine-tuning.
Fine Tuning o ajuste fino es una técnica que permite ajustar modelos de IA para responder de manera más precisa a situaciones específicas, como recomendar cursos de Platzi en este caso. Emplearemos un conjunto de datos que contiene múltiples interacciones entre estudiantes y el asistente para entrenar un modelo que siga patrones y dé respuestas precisas. Con Fine Tuning, es posible definir cuáles respuestas del asistente se deben enfatizar durante el entrenamiento.
En algunos casos, el asistente puede proporcionar varias respuestas durante una interacción. Por lo tanto, es vital seleccionar la respuesta correcta que queremos que el sistema enfoque. Esto se hace asignando valores denominados "peso" a las respuestas. Por ejemplo, si el asistente falla dos veces y acierta en una tercera, esa respuesta correcta recibe un mayor peso en el entrenamiento.
Para realizar fine-tuning con OpenAI necesitamos un archivo en formato JSONL (JSON Lines). Este formato es esencialmente un archivo con líneas individuales de JSON, similar a un CSV pero únicamente compuesto por objetos.
Platzi proporciona datasets preparados para este propósito: uno para entrenamiento y otro para validación, disponible en la sección de recursos. El primero entrena al modelo para responder adecuadamente, y el segundo verifica su precisión y corrección.
Varios parámetros automáticos gestionan el entrenamiento, y aunque no es necesario modificarlos, son interesantes de conocer:
1 - Batch Size (tamaño del lote):
2 - Learning Rate Multiplier (multiplicador de tasa de aprendizaje):
3 - Number of Epochs (número de épocas):
4 - Seed (semilla):
Estos parámetros ayudan a ajustar la precisión y eficiencia del modelo durante su entrenamiento.
Para familiarizarse más con este enfoque y explorar cómo se configuran estos archivos, los usuarios pueden descargar y examinar los datasets para entrenamiento en JSONL, lo que les permitirá experimentar en sus propias aplicaciones.
Aportes 4
Preguntas 1
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?