OpenAI API
¿Cómo usar la API de OpenAI en tu producto?
Conociendo la documentación de la API de OpenAI
Chat Completions: modelos de Chat de OpenAI
Parámetros de Chat Completions: temperature, top_p y n
Aplicación de ejemplo utilizando modelos de OpenAI
Buenas prácticas al usar modelos de OpenAI
Modelos de texto disponibles de OpenAI
Quiz: OpenAI API
Fine-tuning de modelos de OpenAI
¿Por qué hacer fine-tuning a modelos de OpenAI?
Modelos disponibles para fine-tuning en OpenAI
Costos de uso de OpenAI: tokenización de texto
Configuración de entorno local de OpenAI con Anaconda
Formato de datos para fine-tuning
Preparar datos para fine-tuning
Fine-tuning de modelo de OpenAI
¿Cómo usar el Playground de OpenAI para probar modelos?
Pruebas al modelo con fine-tuning
Optimizar el modelo: ajuste de parámetros en Playground
Quiz: Fine-tuning de modelos de OpenAI
Integración de modelo a aplicación de chat
¿Cómo crear un chatbot con Telegram?
Procesando la entrada del usuario para el chatbot
Prueba de envío de mensajes del chatbot
Función main() del chatbot
Integración del modelo de OpenAI a Telegram
Manejo de errores y excepciones de la API de OpenAI
Quiz: Integración de modelo a aplicación de chat
Conclusión
Recomendaciones finales y proyectos alternativos con la API de OpenAI
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
En la era de la tecnología emergente, el manejo eficaz de modelos de inteligencia artificial como los de OpenAI define las fronteras de lo que podemos hacer con las máquinas. Hoy profundizaremos sobre cómo afinar los parámetros cuando trabajamos con estos modelos para obtener los resultados más ajustados a nuestras necesidades.
Al trabajar con inteligencia artificial, especialmente en tareas como la generación de texto, los parámetros juegan un rol crítico para definir la precisión y utilidad de las respuestas obtenidas. Veamos, por ejemplo, cómo al calibrar adecuadamente algunos de ellos, podemos influir directamente en la calidad del output.
Al implementar estos conceptos, nos encontramos con ejemplos concretos que ilustran la aplicación práctica de estos ajustes en problemas reales.
Cuando preguntamos "¿Quién descubrió América?" con una temperatura cercana a cero, esperamos respuestas más directas y menos variadas. Al contrario, una temperatura más alta permite observar una diversificación en el contenido producido.
Una disminución en "topP" restringe la gama de respuestas, enfocándose en la probabilidad más alta, lo que se traduce en una menor variabilidad en el texto generado.
Claramente, la manipulación de estos parámetros transforma la manera en que los modelos de OpenAI responden a nuestros prompts. Experimentar y testear diferentes configuraciones es la clave para adaptar la IA a nuestras necesidades específicas.
Te invito a explorar estas configuraciones por tu cuenta, modifica los parámetros y observa los cambios en los resultados. ¿Qué combinación se adapta mejor a lo que buscas? Próximamente seguiremos explorando, aprendiendo y descubriendo juntos el vasto universo de las posibilidades que nos brinda la inteligencia artificial. ¡Nos vemos en la siguiente lección!
Nota: Para obtener una comprensión más exhaustiva y técnica de estos parámetros, consulta la sección de 'API Reference' en la documentación oficial de OpenAI.
Aportes 14
Preguntas 1
A tomar en cuenta, según la documentación el parametro temperature y el parametro top_p se recomienda que no sean modificados al mismo tiempo en el mismo prompt, cito.
temperature: número Opcional Predeterminado a 1 Qué temperatura de muestreo usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Por lo general, recomendamos modificar esto o top_p, pero no ambos.
top_p: Una alternativa al muestreo con temperature, llamado muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Por lo tanto, 0.1 significa que solo se consideran las fichas que comprenden el 10 % de la masa de probabilidad superior.
Por lo general, recomendamos modificar esta o temperature, pero no ambas.
UX Tip:
Con el argumento stream=True
podemos ir capturando pequeños fragmentos de la respuesta para mostrarlos en tiempo real y no esperar hasta que el modelo termine para visualizar el resultado.
response = openai.Completion.create(
model="text-davinci-003",
prompt="Qué son LLM models",
max_tokens=300,
temperature=0.3,
n=1,
stream=True,
)
for chunk in response:
print(chunk.choices[0].text, end="")
Según leo en la documentación, menciona que si usas el parámetro temperature, no uses el parámetro top_p y viceversa.
siento que la profesora no domina bien el tema, por ejemplo uso top_p y temperatura al mismo tiempo, y openIA dice que no use mabos al mismo tiempo,
Para puntualizar una cosa.
En la documentación OpenAI recomienda modificar el parámetro temperature
o top_p
pero no ambos.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?