Parametros de Text Completion
Aqui un endpoint post para probar completions:
https://api.openai.com/v1/completions
model
: ID del modelo a utilizar.prompt
: Las solicitudes para generar finalizaciones, codificadas como una cadena, una matriz de cadenas, una matriz de tokens o una matriz de matrices de tokens.suffix
:Predeterminado a nulo
El sufijo que viene después de completar el texto insertado.max_tokens
: Predeterminado a 16
El número máximo de tokens a generar en la finalización.temperature
: Predeterminado a 1
Qué temperatura de muestreo usar, entre 0 y 2. Los valores más altos, como 0,8, harán que la salida sea más aleatoria, mientras que los valores más bajos, como 0,2, la harán más enfocada y determinista.
Usa esto o top_p pero no ambos.top_p
: Predeterminado a 1
Una alternativa al muestreo con temperatura, llamado muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Por lo tanto, 0.1 significa que solo se consideran las fichas que comprenden el 10 % de la masa de probabilidad superior.n
: Predeterminado a 1
Cuántas completions generar para cada prompt.
Nota: debido a que este parámetro genera muchas finalizaciones, puede consumir rápidamente su cuota de token. Úselo con cuidado y asegúrese de tener configuraciones razonables para max_tokens y stop.stream
: Predeterminado a falso
Ya sea para transmitir el progreso parcial. Si se establece, los tokens se enviarán como eventos enviados por el servidor solo de datos a medida que estén disponibles, y la secuencia terminará con un mensaje de data: [DONE]. Ejemplo en pythonlogprobs
: Si logprobs es 5, la API devolverá una lista de los 5 tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 elementos en la respuesta.echo
: Repita el prompt además de la finalización(Predeterm: Falso)stop
: Hasta 4 secuencias donde la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de parada.best_of
: Predeterminado a 1
Genera el mejor de completions del lado del servidor y devuelve el “mejor” (el que tiene la mayor probabilidad de registro por token). Los resultados no se pueden transmitir(stream).user
: Un identificador único que representa a su usuario final, que puede ayudar a OpenAI a monitorear y detectar abusos. Aprende más.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?
o inicia sesión.