Output parsers

7/26

Lectura

Google AI ofrece una gama de modelos de chat avanzados que podemos usar en LangChain, permitiendo el uso de características como invocación de herramientas, streaming de tokens, y mucho más.

...

Regístrate o inicia sesión para leer el resto del contenido.

Aportes 7

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

se ve divertido.
`HarmBlockThreshold`: 1. **HARM\_BLOCK\_THRESHOLD\_UNSPECIFIED (0):** No se especifica un umbral de bloqueo; la configuración predeterminada es incierta. 2. **BLOCK\_LOW\_AND\_ABOVE (1):** Bloquea contenido clasificado como de bajo riesgo y superior (medio y alto). 3. **BLOCK\_MEDIUM\_AND\_ABOVE (2):** Bloquea contenido de riesgo medio y alto; permite contenido de bajo riesgo. 4. **BLOCK\_ONLY\_HIGH (3):** Solo bloquea contenido clasificado como de alto riesgo; permite contenido de bajo y medio riesgo. 5. **BLOCK\_NONE (4):** No se bloquea ningún contenido; permite todo tipo de contenido. 6. **OFF (5):** Desactiva todas las configuraciones de seguridad; no se aplican restricciones.
Si en el modelo les sale error, miren bien que modelo les sale en su curl cuando ingresan para crear la API Key, ya que si en el caso del grupo es con "gemini-1.5-pro" y me fije en el curl que aparece y en mi caso es "gemini-1.5-flash" y funciono bien. ![](https://static.platzi.com/media/user_upload/image-8765fb05-a647-4c52-a1e7-e80e310880ca.jpg)
En la sección encadenar El modelo, para poder obtener la respuesta que se nos muestra es necesario agregar chain.invoke a una variable. en mi caso lo hice con una variable llamada \_messages\_ y quedó así `# Invocar la cadena con parámetros específicosmessage = chain.invoke(    {        "input_language": "English",        "output_language": "German",        "input": "I love programming, though.",    })` `# Visualizar la respuesta del modelo sin toda la información de respuesta` `message.content` Y por respuesta obtengo lo que se muestra en el texto de la clase: `'Ich liebe das Programmieren aber. \n'` Si se quisiera obtener el texto solamente sin el utimo par de caracteres, se puede usar la función print: `print(message.content)`
```js from langchain_google_genai import GoogleGenerativeAI # Inicializar el modelo de Google AI llm = GoogleGenerativeAI( model="gemini-1.5-pro", temperature=0, max_tokens=None, timeout=None, max_retries=2, # otros parámetros según sea necesario... ) # Crear los mensajes para la traducción messages = [ ( "system", "You are a helpful assistant that translates English to French. Translate the user sentence.", ), ("human", "I love programming."), ] # Invocar el modelo con los mensajes ai_msg = llm.invoke(messages) # Imprimir el contenido de la respuesta print(ai_msg) ```Asi estructuramos los ejemplo anteriores con google Ai herramienta gratuita
Lo que hace `chain = prompt | llm` donde tengo entendido agrega como un pipeline para procesar la información, esperaría que igual se pudiera pasar mas template antes de un invoke como `chain = promptGenerateContent | promptReviewContent | promptSelect | llm` (?)
excelente para hacer mi profesor de ingles personal