- 1

Uso de Modelos GPT para Análisis de Texto en Python
09:22 - 2

Uso de la Documentación de OpenAI para Fine Tuning y Text Completion
03:47 - 3

Configuración y Uso de Chat Completions en OpenAI GPT
12:18 - 4

Ajuste de Parámetros en Modelos de OpenAI para Mejorar Resultados
09:47 - 5

Juego de adivinanza de animales con OpenAI en Python
10:46 - 6

Gestión de Límites y Facturación en OpenAI
06:31 - 7
Actualización de Modelos y Funcionalidades de OpenAI
01:14 Quiz de OpenAI API
Conversión de CSV a JSON-L para Fine Tuning en OpenAI
Clase 13 de 24 • Curso de Desarrollo de Chatbots con OpenAI
Contenido del curso
- 8

Personalización de Modelos OpenAI para Soluciones Empresariales
04:03 - 9
Modelos de OpenAI para Fine-Tuning: Guía Completa
00:49 - 10

Tokenización de Texto y Estimación de Costos en OpenAI con TikToken
04:22 - 11
Configuración de entorno local de OpenAI con Anaconda
03:06 - 12

Reglas para formatear datos en fine tuning de OpenAI
02:06 - 13

Conversión de CSV a JSON-L para Fine Tuning en OpenAI
06:05 - 14

Fine Tuning de Modelos OpenAI: Proceso y Solución de Errores
02:38 - 15

Uso del Playground de OpenAI para Probar Modelos sin Programación
03:33 - 16

Evaluación de Modelos de IA: Técnicas y Aplicaciones Prácticas
04:09 - 17

Optimización de Hiperparámetros en Modelos de OpenAI
05:36 Quiz de Fine-tuning de modelos de OpenAI
- 18
Creación de Chatbots en Telegram con BotFather
01:17 - 19

Procesamiento de Mensajes en Telegram con Python
11:35 - 20

Recepción y Procesamiento de Mensajes de Telegram con Python
03:04 - 21

Conexión de PlatziBot con OpenAI usando Python
06:53 - 22

Integración de OpenAI y Telegram en PlatziBot con Python
10:59 - 23

Manejo de Errores y Excepciones en la API de OpenAI con Python
05:18 Quiz de Integración de LLM a chat
Transformación de datos para Fine Tuning en OpenAI
La personalización de modelos de inteligencia artificial es una tarea claramente exigente pero crucial en la búsqueda de asistentes virtuales más eficientes y adaptados a necesidades específicas. Cuando nos referimos al fine tuning de modelos de OpenAI, se hace imperativo contar con una estructura de datos definida que permita entrenar de manera óptima a estos modelos. Hoy exploraremos cómo dar ese paso esencial mediante una herramienta automatizada que facilita el proceso.
¿Cuál es la estructura de datos requerida por OpenAI?
OpenAI demanda un formato particular denominado JSON-L para llevar a cabo el fine tuning de sus modelos. Este formato se organiza en registros que incluyen las partes "prompt" y "completion": el prompt representa la entrada proporcionada al modelo, y el completion es la respuesta deseada a esa entrada. Visualmente, estos registros se presentan entre llaves {}, clave en la preparación de los datos.
¿Cómo transformar datos al formato JSON-L?
Para transformar datos desde formatos comunes como CSV, TSV o JSON al formato JSON-L requerido, OpenAI ofrece herramientas convenientes dentro de su documentación, en la sección "Fine Tuning, Prepare Training Data." Es aquí donde el proceso se simplifica y deviene accesible incluso para aquellos con menos experiencia técnica.
El caso práctico de PlatziBot
Tomemos como ejemplo el ficticio "PlatziBot", un asistente pensado para interactuar con usuarios y recomendar cursos y rutas de aprendizaje de Platzi. Durante este ejercicio, se parte de un archivo CSV que contiene múltiples ejemplos, con prompts como "qué tipo de cursos o programas educativos ofrece Platzi" seguidos de su correspondiente completion. Este archivo con 1,955 ejemplos es el punto de partida para procesar los datos.
Pasos para la conversión de datos
-
Análisis Preliminar: Es esencial revisar nuestros datos y conocer la cantidad exacta de ejemplos disponibles, así como identificar posibles duplicados o registros vacíos que no aportarían al entrenamiento.
-
Ejecución del Comando: A través de la terminal, empleamos el comando proporcionado por OpenAI, adaptándolo al nombre de nuestro CSV, para iniciar la transformación hacia JSON-L.
-
Limpieza de Datos: OpenAI asiste eliminando duplicados y registros vacíos automáticamente, asegurando que solo se utilicen datos idóneos para el entrenamiento del modelo.
-
Ajustes Finales: El proceso incluye añadir sufijos específicos y espacios requeridos como parte de las reglas de OpenAI, para que los datos cumplan con los estándares necesarios.
Visualización y verificación de la transformación
Una vez realizado el proceso, es prudente revisar el nuevo archivo JSON-L, preferiblemente utilizando un editor de código como Visual Studio Code. De esta manera, podemos confirmar que la conversión se haya efectuado correctamente, verificando que cada prompt y completion poseen los caracteres y espacios añadidos que garantizan su compatibilidad con el modelo de OpenAI.
A medida que nos desarrollamos en este campo, se vuelve imperativo destacar la importancia de la calidad de los datos. Un modelo de IA será tan bueno como los datos con los que fue entrenado. Es por ello que no solo debemos concentrarnos en la transformación de formatos, sino también en el contexto, la extracción, transformación y limpieza de datos, elementos que juntos contribuirán al rendimiento óptimo del modelo personalizado. Continuaremos aprendiendo y profundizando en este proceso en nuestras próximas sesiones, siempre con datos precisos y métodos eficaces para alcanzar la excelencia en la personalización de IA.