No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

No se trata de lo que quieres comprar, sino de quién quieres ser. Invierte en tu educación con el precio especial

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

12 Días
7 Hrs
43 Min
19 Seg

Tus primeros modelos pre-entrenados usando pipeline

4/17
Recursos

texto = “”"

Brazil has a strong track record of free, fair and transparent elections and the United Sates trusts that its electoral system will reflect the will of the people in the October election, a U.S. State Department spokesperson said on Tuesday.

The endorsement came one day after Brazilian President Jair Bolsonaro questioned the country’s electronic voting system in a briefing to foreign diplomats.

Bolsonaro told some 40 members of the diplomatic corps in Brasilia that the voting system was vulnerable to fraud, an allegation he has repeatedly made to cast doubt on the October election in which he will seek re-election. “
”""

summarization(texto, min_length = 30)

texto = “”"

Las personas con orientaciones sexuales y de género diversas históricamente han sido una población excluida de la participación política electoral en Colombia. Sin embargo, durante los últimos veinte años la consolidación del movimiento LGBTIQ+, que hoy tiene un gran potencial de movilización y organización, ha llevado a la conquista de espacios donde antes solo eran posibles estando “enclosetados”. (Así se vivió la marcha del Orgullo LGBTIQ+ 2022 | La Disidencia)

Las elecciones legislativas del 13 de marzo de 2022 fueron un hito para la población diversa. Por un lado, hubo 26 candidaturas abiertamente LGBTIQ+, que representan un aumento del 85,7 % de participación en comparación a las catorce del 2018. Esto llevó a que, por primera vez, estas personas vayan a ocupar siete curules en el Congreso: una senadora y seis representantes a la Cámara.

Angélica Lozano (Alianza Verde) repite su curul del Senado. Las otras seis personas son Susana Boreal (Pacto Histórico), quien ganó un escaño en la Cámara de Representantes por Antioquia; María del Mar Pizarro (Pacto Histórico), en la Cámara por Bogotá; Andrés Cancimance (Pacto Histórico), quien llegará a la Cámara por Putumayo; Carolina Giraldo (Alianza Verde) y Alejandro García (Alianza Verde y Polo), por Risaralda, y Tamara Argote (Pacto Histórico), quien es la primera persona no binaria en llegar al Congreso de la República, estará en la Cámara por Bogotá.

Este Congreso 2022-2026, que se posiciona como el más diverso en la historia del país, representa una ampliación del espectro democrático. Alejandro García, representante a la Cámara por Risaralda, lo celebra, pero resalta que “todavía faltan identidades en este espacio de representación y se tiene que velar por construir espacios seguros para pensarnos la diversidad y cuestionarnos cómo integrarla a nuestras vidas desde el ejercicio de la ciudadanía”.

Más allá de ganar visibilidad, esta nueva corporación tiene una responsabilidad de hacer control político a promesas que llevan años esperando a ser resueltas, como, por ejemplo, la Política Pública Nacional LGBTIQ+. También, abre la posibilidad para tramitar leyes que respondan a la lucha de las diversidades sexuales y de género, así como de feministas, movimientos étnicos, ambientalistas y otros grupos poblaciones tradicionalmente excluidos.
"""

summarization_es(texto, min_length=30, max_length=150)

Aportes 32

Preguntas 9

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Elegí bloom para esta practica

Esto me está gustando…

Con cada clase me voy enamorando mas de la IA, este es de lejos el mejor curso de Inteligencia Artificial de Platzi, lo dice alguien que ya acabo toda la escuela de IA, hay cursos buenos pero este curso ha superado todas mis espectatitvas y no voy ni por la mitad, de verdad, no me esperaba un curso taaaan genial

Haber conocido el metodo pipeline antes hubiese sido de mucha utilidad, que buen dato 💚

Los pipelines de Hugging Face permiten cargar modelos de machine learning con una sola línea de código; estos fueron diseñados para hacer inferencia de manera sencilla a partir de solamente la selección de un modelo y una task, permitiéndole al pipeline interactuar con la task determinada. Al ejecutar un pipeline con una task asignada, será el propio comando del pipeline el que indagará en los modelos para buscar el match más eficiente para la labor asignada.

clasificacion_imagenes = pipeline(task="image-classification")

La construcción de estos comandos se genera a partir de la selección de uno de los tasks que Hugging Face mantiene dentro de su pestaña de “Tasks”, la cual nos permite obtener un repertorio más especializado en la función de la que requerimos. Todo esto parte gracias a transformers, el cual contiene múltiples API’s y herramientas para llevar a cabo el transfer learning, esta página contiene la lista de los transformers. Para instalarse se debe ejecutar el código:

!pip install transformers
!pip install timm

Para usarse de manera posterior las pipelines, se debe ejecutar el código:

from transformers import pipeline

Muchos de estos modelos permiten emplear filtros en los resultados (e.j. longitudes de cadenas); en caso de querer ahora ocupar un modelo específico de machine learning para una labor, sólo debemos especificarlo, esto es:

Realmente estoy sorprendido de la facilidad en como se muestra el uso de modelos que, como el instructor dice, están en el estado del arte.
Ya había interactuado con Hugging Face pero no sabia que podía extrapolar los modelos con tanta sencillez.

Si tienen problema con `IIC/mt5-spanish-mlsum` pueden usar `josmunpen/mt5-small-spanish-summarization` que es muy parecido.

Probando un poco la task image-segmentation con el modelo que sugiere google/vit-base-patch16-224 conoce muy bien los platanos pero las peras no se las han presentado 😂

Y tampoco conoce los mangos 😜

¿Tendrá alguna explicación estas situaciones? Habrá que explorar un poco más 🧐

Hola , estoy buscando a alguien que quiera aprovechar éste curso practicando , quiero hacer reconocimiento facial de vacas para poder llevar en memoria , nombre , vacunacion , etc su bitacora y que este accesible al solo hecho de apuntar con el celular, es para nuestra finca , estoy aprendiendo a manejar la finca y veo que hace falta ésto , seria super bueno

Elegí el modelo bigscience-bloom560m, a continuación el resultado 😀:

Un poco incoherente la última frase 😅, pero igual es interesante cómo funciona.

A la fecha el modelo para summarization en español que se usa en esta clase, ya no está. Dejo el link para que puedan consultar y usar otro: <https://huggingface.co/models?pipeline_tag=summarization&language=es&sort=trending>

Reconoce la piña, y tambien reconoce que tiene lentes 😮

;-;

Esta conexión a través de pipelines está muy buena para conectar a los modelos 🚀🔥

Sí me he reído 😂

spanish_text_generator = pipeline("text-generation", model='mrm8488/spanish-gpt2')
spanish_text_generator("Me gustaría poder trabajar en Inteligencia ")
[{'generated_text': 'Me gustaría poder trabajar en Inteligencia italoamericana con un futuro americano sólido y seguro para la inteligencia americana de mierda.¿Lo harías?Sí¡Sí!Y por eso me llaman el chico duro.Bien, Sr. Presidente, lo haremos.'}]

El reto haciendo uso del modelo “bigscience/bloom-560m”

En las primeras pruebas, evidencié sesgos de género marcados, algo en lo que según sé, están trabajando para eliminar.

Traté adicionalmente de probar otros modelos como el “bigscience/bloom-7b1” y el “sberbank-ai/mGPT” pero son aparentemente muy pesados para los recursos que brinda Colab sin suscripción.

Hola, una duda, use el modelo “mt5-spanish-mlsum” pero por alguna razón me devuelve el resumen repetido, ¿es algo normal?. Btw el curso está fantástico, gracias.

![]()![](https://static.platzi.com/media/user_upload/imagen-6da81dc8-ae49-4c25-b361-34d062c80fc6.jpg)
El notebook está acá?
Hola, para futuros estudiantes: summarization\_es = pipeline(    task="summarization",    model="IIC/mt5-spanish-mlsum") Les saldrá este error: HTTPError Traceback (most recent call last) /usr/local/lib/python3.10/dist-packages/huggingface\_hub/utils/\_errors.py in hf\_raise\_for\_status(response, endpoint\_name) 285 try: \--> 286 response.raise\_for\_status() 287 except HTTPError as e: 12 frames HTTPError: 401 Client Error: Unauthorized for url: <https://huggingface.co/IIC/mt5-spanish-mlsum/resolve/main/config.json> The above exception was the direct cause of the following exception: RepositoryNotFoundError Traceback (most recent call last) RepositoryNotFoundError: 401 Client Error. (Request ID: Root=1-65e9ece5-1c05d23a0e0e628330b3201f;980aa780-d3c6-4794-9f11-621f7655321f) Carguen otro modelo, y listo
Buenas noches, alguien sabe por que despues de ejecutar la ultima linea de codigo de sentimiento no me da el output? me sale ejectuado correctamente pero no me hace el analisis de sentimiento. ![](https://static.platzi.com/media/user_upload/image-31187afa-6b50-4871-900c-974935ca5f77.jpg) Agradezco la ayuda.

Gracias

Muy buena aclaración: Los pipelines, fueron diseñados para hacer inferencia muy sencilla.

El reto lo realicé con bloomz-1b1, el cual segun la documentación tiene mil cien millones de parámetros, siendo el 5 mas grande de los bloomz, y descargo como 2 gigas de información.

generacion_texto = pipeline( task="text-generation", model="bigscience/bloomz-1b1"
)

texto = "La ciencia de datos es una disciplina que todas las empresas requieren tener en sus equipos de trabajo, ya que"
generacion_texto(texto, max_length=200)
Respuesta:
[{'generated_text': 'La ciencia de datos es una disciplina que todas las empresas requieren tener en sus equipos de trabajo, ya que es una herramienta fundamental para la toma de decisiones.'}]

Cantidad de parametros por modelos bloomz:

| Parameters     | Finetuned Model |
|----------------|-----------------|
| 560M           | bloomz-560m     |
| 1.1B           | bloomz-1b1      |
| 1.7B           | bloomz-1b7      |
| 3B             | bloomz-3b       |
| 7.1B           | bloomz-7b1      |
| 176B           | bloomz          |
tras la mas reciente actualización de apariencia, los recursos han desaparecido para descargar, puede alguien @platziteam ayudar

muy interesante ejercicio. Aqui mis resultados:
texto_generado = pipeline(task=“text-generation”,model=“PlanTL-GOB-ES/gpt2-large-bne”)
texto_origen = "Hoy en dia no conocemos mucho de la IA y por eso"
texto_generado(texto_origen,num_return_sequences=3)

[{‘generated_text’: 'Hoy en dia no conocemos mucho de la IA y por eso no la podemos usar para casi nada; aun así los ordenadores, no han dejado de ser herramientas que usamos para comunicarnos. '},
{‘generated_text’: ‘Hoy en dia no conocemos mucho de la IA y por eso, de vez en cuando, nos sorprenden los resultados en la escala de inteligencia con sus resultados, en concreto hoy os presentamos un proyecto de IA que ha llamado la atención a muchos y cuya aplicación’},
{‘generated_text’: 'Hoy en dia no conocemos mucho de la IA y por eso mismo en el post no me extiendo mas. '}]

Creo que el modelo que escogí le falta un poco 😃

Me encanta este profe, gracias por ponerle pasión a las clases, me siento inspirado.

Bastante inclusivo este curso, ya parecen Netflix.

Buenas, Aqui estoy iniciando el curso y pues yo cargue este modelo:

Se me puso profundo el modelo generador de texto como que lo entrenaron con un libro que habla del amor.
el texto que me dio:

Hoy me siento con ganas de aprender, pero mi cuerpo no me deja trabajar, simplemente se sumerge en lo mas profundo de la procrastinacion. Todo va como debe ser. Me da la sensación de que la gente no puede sentir dolor, de que sólo somos una clase de personas que no estamos enteradas de la existencia del amor y de las emociones. Yo pienso en cualquier cosa que no sea un amor real, en algo que por cierto no nos pueda ayudar por lo que hemos perdido

Interesante como cambia el % de probabilidad 6 meses después, supongo que estos modelos siguen evolucionando y ahora tienen en cuenta más factores

generar texto en español
generarNewTexto = pipeline(task=‘text-generation’,model=‘bigscience/bloom-560m’)

generarNewTexto('los programadores estan ',max_length=30)

ouput [{‘generated_text’: ‘los programadores estan icos, pero no es asi. Los programadores estan en el mundo de los datos, y no en el mundo de los’}]

Divirtiendome con Hugging Face