- 1

Uso de Modelos GPT para Análisis de Texto en Python
09:22 - 2

Uso de la Documentación de OpenAI para Fine Tuning y Text Completion
03:47 - 3

Configuración y Uso de Chat Completions en OpenAI GPT
12:18 - 4

Ajuste de Parámetros en Modelos de OpenAI para Mejorar Resultados
09:47 - 5

Juego de adivinanza de animales con OpenAI en Python
10:46 - 6

Gestión de Límites y Facturación en OpenAI
06:31 - 7
Actualización de Modelos y Funcionalidades de OpenAI
01:14 Quiz de OpenAI API
Integración de OpenAI y Telegram en PlatziBot con Python
Clase 22 de 24 • Curso de Desarrollo de Chatbots con OpenAI
Contenido del curso
- 8

Personalización de Modelos OpenAI para Soluciones Empresariales
04:03 - 9
Modelos de OpenAI para Fine-Tuning: Guía Completa
00:49 - 10

Tokenización de Texto y Estimación de Costos en OpenAI con TikToken
04:22 - 11
Configuración de entorno local de OpenAI con Anaconda
03:06 - 12

Reglas para formatear datos en fine tuning de OpenAI
02:06 - 13

Conversión de CSV a JSON-L para Fine Tuning en OpenAI
06:05 - 14

Fine Tuning de Modelos OpenAI: Proceso y Solución de Errores
02:38 - 15

Uso del Playground de OpenAI para Probar Modelos sin Programación
03:33 - 16

Evaluación de Modelos de IA: Técnicas y Aplicaciones Prácticas
04:09 - 17

Optimización de Hiperparámetros en Modelos de OpenAI
05:36 Quiz de Fine-tuning de modelos de OpenAI
- 18
Creación de Chatbots en Telegram con BotFather
01:17 - 19

Procesamiento de Mensajes en Telegram con Python
11:35 - 20

Recepción y Procesamiento de Mensajes de Telegram con Python
03:04 - 21

Conexión de PlatziBot con OpenAI usando Python
06:53 - 22

Integración de OpenAI y Telegram en PlatziBot con Python
10:59 - 23

Manejo de Errores y Excepciones en la API de OpenAI con Python
05:18 Quiz de Integración de LLM a chat
ACTUALIZACIÓN FUNCIÓN get_openai_response()
def get_openai_response(prompt):
system = '''
Eres un asistente de atención a clientes
y estudiantes de la plataforma de educación online en tecnología,
inglés y liderazgo llamada Platzi
'''
response = openai.chat.completions.create(
model='INGRESA EL NOMBRE DE TU MODELO CON FINE-TUNING',
messages=[
{"role": "system", "content" :f'{system}'},
{"role": "user", "content" : f'{prompt}'}],
max_tokens=150,
n=1,
temperature=0.2)
return response.choices[0].message.content.strip()
En el mundo de la programación y la interacción con inteligencias artificiales, la creación de un bot que se conecte con modelos de procesamiento de lenguaje natural es una tarea que despierta gran interés y posibilidades. En este viaje tecnológico, es fascinante ver cómo podemos enlazar estas herramientas para crear soluciones innovadoras.
Integrando OpenAI con PlatziBot
Al trabajar en proyectos de esta magnitud, es esencial tener claridad en cada uno de los pasos a seguir. Así, logramos configurar con éxito la conexión entre nuestro bot de Telegram y el modelo de OpenAI personalizado.
¿Cómo configuramos las claves API y los tokens?
El primer paso fundamental es la configuración segura de las claves que permitirán la comunicación entre las plataformas:
- API Key de OpenAI: Esta nos permite interactuar con los servicios de OpenAI.
- Token de Telegram: Es el identificador que nos da acceso al bot creado en esta plataforma.
Es crucial que actualices estos valores con los correspondientes a tu propio bot y conexión a OpenAI.
¿Qué funciones necesitamos para el bot?
La funcionalidad de un bot residirá en las operaciones que pueda realizar a través de su código. Aquí están las esenciales:
-
GetUpdate: Esta función obtiene la información de los mensajes que recibimos en Telegram utilizando una URL específica y el token asignado.
- Establece un
timeoutpara las respuestas, con el objetivo de optimizar la interacción. - Recibe un parámetro
offsetpara continuar la actualización desde la última acción conocida.
- Establece un
-
sendMessages: Después de procesar la información recibida, usamos esta función para responder al usuario. Necesitarás:
- El
chat IDdel usuario para devolver la respuesta. - El texto (
text) que deseamos enviar.
- El
-
getOpenAIResponse: Esta función activa a PlatziBot para que responda preguntas con el modelo de IA.
- Selecciona el modelo personalizado (
modelEngine) previamente configurado. - Define el ‘prompt’, ‘maxTokens’, y otros parámetros para ajustar la respuesta deseada.
- Estructura la respuesta para que sea legible y pertinente a la pregunta realizada.
- Selecciona el modelo personalizado (
Estas funciones son cruciales para facilitar una conversación fluida con el usuario y para asegurar que nuestro bot sea interactivo y útil.
¿Cómo depuramos y ejecutamos nuestro bot?
Después de implementar las funciones principales, es hora de corregir errores tipográficos y de sintaxis. Asimismo, nombrar correctamente las funciones y parámetros mejora la legibilidad y el mantenimiento del código.
Una vez todo esté en orden, es momento de ejecutar nuestro bot y realizar pruebas reales, como enviar una pregunta relacionada con cursos de HTML al modelo de OpenAI personalizado y recibir una respuesta adecuada. Este es un proceso de prueba y error donde ajustamos y mejoramos continuamente.
¿Qué hacemos con las respuestas redundantes de Telegram?
Al interactuar con el bot, puede ocurrir que Telegram envíe respuestas repetidas a la última pregunta realizada. El próximo reto es implementar una solución para este inconveniente, ajustando el manejo de los offsets y la secuencia de mensajes recibidos.
¿Cómo continuar al toparse con desafíos?
A lo largo del proceso de desarrollo, es común toparse con errores y desafíos técnicos. Ante estas situaciones, es importante:
- Mantener una actitud de aprendizaje y experimentación.
- Buscar apoyo y consejos en comunidades y foros de desarrolladores.
- Documentar los problemas y las soluciones encontradas.
Recuerda que cada problema es una oportunidad para mejorar y aprender más sobre estas fascinantes tecnologías. La próxima clase estará repleta de más consejos y prácticas para seguir puliendo nuestro PlatziBot. ¡Continúa tu aventura de aprendizaje con entusiasmo y dedicación!