No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Curso de Desarrollo de Chatbots con OpenAI

Curso de Desarrollo de Chatbots con OpenAI

Carla Marcela Florida Rom谩n

Carla Marcela Florida Rom谩n

Fine-tuning de modelo de OpenAI

14/25
Recursos

Aportes 7

Preguntas 4

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Sab铆an que?
Ada: Nombrado en honor a Ada Lovelace, una matem谩tica y escritora del siglo XIX, considerada la primera programadora de la historia. El modelo 鈥淎da鈥 destaca por su enfoque en la precisi贸n y la l贸gica en el procesamiento del lenguaje natural.

Curie: Inspirado en Marie Curie, la famosa f铆sica y qu铆mica del siglo XIX y XX. El modelo 鈥淐urie鈥 se destaca por su capacidad para descubrir patrones y generar respuestas creativas y cient铆ficamente precisas.

Babbage: Homenaje a Charles Babbage, un matem谩tico e ingeniero del siglo XIX, conocido como el 鈥減adre de las computadoras鈥. El modelo 鈥淏abbage鈥 se enfoca en el procesamiento eficiente y la capacidad de realizar c谩lculos complejos.

DaVinci: En honor a Leonardo da Vinci, un genio renacentista con talentos en arte, ciencia y muchas otras disciplinas. El modelo 鈥淒aVinci鈥 es una obra maestra en el procesamiento del lenguaje, con habilidades excepcionales en creatividad, resoluci贸n de problemas y comprensi贸n contextual.

Para no asustarse con los precios:

  • El dataset que utiliza la profe tiene unas 1200 entradas con un costo de fine-tuning utilizando el modelo davinci (el cual es el m谩s caro) de $27 d贸lares.

  • El dataset que pasaron en los recursos es m谩s chico, tiene 200 entradas (una sexta parte), por lo que podr铆amos suponer un costo de $27/6 ~= $4,5 d贸lares.

  • Y si adem谩s cambiamos el modelo a ada, el cual tiene un precio 75 veces m谩s barato que davinci, por lo tanto podr铆amos suponer un costo de $4,5 d贸lares / 75 ~= $0.06 d贸lares.

Mejores pr谩cticas generales
El fine tuning funciona mejor con m谩s ejemplos de alta calidad. Para afinar un modelo que funciona mejor idealmente deben ser examinados por humanos. A partir de ah铆, el rendimiento tiende a aumentar linealmente con cada duplicaci贸n del n煤mero de ejemplos. Aumentar el n煤mero de ejemplos suele ser la forma mejor y m谩s fiable de mejorar el performance.

Los clasificadores son los modelos m谩s f谩ciles para comenzar. Para los problemas de clasificaci贸n, se deberia usar ada, que generalmente tiende a funcionar solo un poco peor que los modelos m谩s capaces una vez ajustados, mientras que es significativamente m谩s r谩pido y m谩s barato.

Si est谩 ajustando un conjunto de datos preexistente en lugar de escribir indicaciones desde cero, aseg煤rense de revisar manualmente sus datos para datos inexactos.
Fuente:https://platform.openai.com/docs/guides/fine-tuning/preparing-your-dataset

openai api fine_tunes.get -i [Id_modelo]

Te da una perspectiva mas amplia de lo que esta pasando con tu entrenamiento. Si les pasa como a mi que entrenando con curie, se demora much铆simo. (30 min +)

A alguien m谩s le pasa que con la nueva versi贸n de Platzi no aparecen los recursos?

Llevo dos horas intentando y no avanza

Stream interrupted (client disconnected).
To resume the stream, run:
openai api fine_tunes.follow -i ft-SAXHdL7uUeOEXWYt11eI777X

Se supone que tengo un internet sim茅trico de 300 Mbps

que triste historia la m铆a

Por si alguien desea entrenar con el modelo gpt-3.5-turbo los comandos de esta clase ya no funcionan, voy a averiguar como hacerlo y actualizo este post