Los transformers merecen un curso completo!
Introducción al Hub de Hugging Face
Introducción al transfer learning
Machine learning abierto para todo el mundo
Las tasks en machine learning
Quiz: Introducción al Hub de Hugging Face
Primeros pasos con transfer learning y transformers
Tus primeros modelos pre-entrenados usando pipeline
Explorando los datasets
Introducción a los Transformers
Aplicando transfer learning
Quiz: Primeros pasos con transfer learning y transformers
Computer vision
Carga de dataset para computer vision
Procesamiento de dataset para computer vision
Configurando un Trainer para computer vision
Entrenamiento y evaluación de modelo de computer vision
Quiz: Computer vision
Procesamiento de lenguaje natural
Carga de dataset para NLP
Procesamiento de dataset para NLP
Configurando un Trainer para NLP
Entrenamiento y evaluación de modelo de NLP
Quiz: Procesamiento de lenguaje natural
Comparte en el Hub
El Hub como tu curriculum para machine learning
Compartir tu modelo en el Hub de Hugging Face
No tienes acceso a esta clase
¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera
No se trata de lo que quieres comprar, sino de quién quieres ser. Invierte en tu educación con el precio especial
Antes: $249
Paga en 4 cuotas sin intereses
Termina en:
Omar Espejel
Aportes 9
Preguntas 0
Los transformers merecen un curso completo!
A grandes rasgos, los transformers son modelos especializados en detectar las formas en que los elementos de un dataset se influecian y se relacionan entre sí. Con base en ello pueden explicar cosas como generar resumenes.
Recomiendo mucho este video donde explican muy bien que es un transformer: Las REDES NEURONALES ahora prestan ATENCIÓN! - TRANSFORMERS ¿Cómo funcionan?
El presente y futuro proximo de machine learning
Transformers como GPT-3
existen para areas como
Funcionan con la union de dos modelos un encoder que maneja el input y un decoder que da un output
El encoder y el decoder pueden funcionar como modelos separados, modelos que son solo Encoders y modelos que son solo Decoders
Encoder: Input
El encoder crea una abstracción de los datos ingresados que entiende el modelo
Existen modelos que son únicamente encoders como:
pueden hacer tasks como:
Decoder: Output
En base a la información abstraída se crea el output
Modelos decoders:
Pueden realizar tareas como
algunos modelos que son encoder-decoder o secuencia a secuencia
Algunas de las aplicaciones/tasks de los modelos encode decoder las cuales son tareas multimodales
Crear estos modelos desde 0 es muy costoso y muy complicado para un individuo u organización pequeña, para eso usamos el transfer learning
Yo actualmente trabajo en NER clínico con el formato de etiquetado BIO haciendo fine tuning con un modelo de unos españoles 😄, vine a seguir aprendiendo de este maravilloso mundo de los transformers. ¡Me pone muy feliz que un Latino labore en Hugging face, super crack, Omar!
Transformers: BERT - AKBERT - XLM - DistilBERT - RoBERTa
BERT es un método que permite realizar un entrenamiento previo de representaciones lingüísticas.
Lo acabo de saber!!
Gracias
Este curso cada vez se pone mejor 🚀🔥🏅
Un Transformer es una arquitectura de red neuronal que fue introducida en 2017 en el artículo “Attention Is All You Need” por Vaswani et al. A diferencia de las redes neuronales recurrentes (RNN) que procesan una secuencia de entrada de forma secuencial, los Transformers procesan toda la secuencia de entrada simultáneamente utilizando mecanismos de atención.
En un Transformer, la entrada se transforma a través de múltiples capas, cada una de las cuales consiste en dos subcapas: la capa de atención y la capa de alimentación hacia adelante. La capa de atención permite que el Transformer se centre en partes específicas de la entrada relevante para la tarea que está realizando, mientras que la capa de alimentación hacia adelante proporciona una red neuronal clásica que procesa la salida de la capa de atención.
Los Transformers se han utilizado en una amplia variedad de aplicaciones, incluyendo el procesamiento del lenguaje natural (NLP), la visión por computadora y la generación de texto. La arquitectura ha demostrado ser muy efectiva para tareas de NLP, en particular para el modelado de lenguaje y la traducción automática.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?