¿Cómo funcionan los embeddings?

1

Cómo Entender y Aplicar Embeddings en IA: De Teoría a Práctica

2

Introducción a One-Hot Encoding y TF-IDF en IA

3

Representación Vectorial de Palabras

4

Evaluación de Similitudes Semánticas: Métodos y Aplicaciones

Quiz: ¿Cómo funcionan los embeddings?

Creación de embeddings

5

Creación y entrenamiento de modelos Word2Vec con Gensim

6

Procesamiento y Limpieza de Datos para IA con Word2Vec y Gensim

7

Entrenamiento de Modelos Word2Vec con GenSim y Análisis de Similitud

8

Word2Vec: Entrenando IA para Comprender el Lenguaje

Quiz: Creación de embeddings

Usando embeddings preentrenados

9

Uso práctico de Sentence Transformers en procesamiento de textos

10

Análisis Semántico: Buscar Textos con Sentence Transformers

11

Manejo de Embeddings con OpenAI: API, Instalación y Datasets

12

Manejo y Visualización de Embeddings con OpenAI: Guía Práctica

13

Creación de un Motor de Búsqueda Semántico con Python

14

Transformación de Texto a Embeddings con Sentence Transformer

Quiz: Usando embeddings preentrenados

Bases de datos vectoriales

15

Qué es y cómo usar una base de datos vectorial

16

Gestión de Bases de Datos Vectoriales con ChromaDB: Instalación y Uso

17

Generación y manejo de embeddings en Chroma con Sentence Transformer

18

Consultas avanzadas y filtrado en bases de datos con Chroma

19

Cargar colección de Chroma previamente creada

20

Configuración y Uso de Pinecone: Desde la Instalación hasta la Inserción de Datos

21

Optimización de Ingesta de Datos en Pinecone: Procesos y Estrategias

22

Consultas Avanzadas en Pinecone: De Texto a Vector y Filtros

23

Carga de índices en Pinecone: Gestión eficiente en la nube

24

Carga de embeddings en Pinecone para búsqueda semántica

25

Creación de buscador semántico con Gradio y Sentence Transformer

Quiz: Bases de datos vectoriales

Conclusiones

26

Potenciando los LLMs: Integración de Embeddings y Datos Vectoriales

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Evaluación de Similitudes Semánticas: Métodos y Aplicaciones

4/26
Recursos

Aportes 8

Preguntas 2

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Un aporte para el reto de la distancia entre vectores:

Siguiendo el ejemplo ilustrado en el video anterior (acerca de los espacios vectoriales y dimensionalidad) podemos representar las palabras para el reto mediante una tabla simple (sólo a modo ilustrativo, pues ya vimos que en realidad se trata de vectores en múltples dimensiones) con:

Palabra Género Edad Realeza
reina 9 7 8
rey 1 7 8
mujer 9 7 0
hombre 1 7 0
niña 9 2 0
niño 1 2 0

Notebook con solución propuesta en Colab

Como dato interesante: El producto interno A\*B entre dos vectores es 0 si son perperdiculares y crece cuando son paralelos (Uno encima de otro) Por eso es que la distancia del coseno mide similitud eficientemente
**Regresión logística**
¿Los valores de gato y perro de donde los sacó? o solo son inventados para dar el ejemplo
Corrección: La similitud por coseno es una métrica con un rango de valores que van de -1 a 1 (no 0 a 1). 1 significa que son iguales 0 que son diferentes -1 que son opuestos.
Hay que tener que el coseno está definido entre -1 y 1. Siendo -1 un vector con se sentidos opuestos y 1 misma orientación
Acá les dejo enlace a github donde podrán ver resumen realizado de las primeras clases, el cual continuare actualizando a medida q avance en el curso. Agradecería sus aportes y correcciones si las hubiera. <https://github.com/OlayonChingon/Embeddings-y-base-de-Datos-Vectoriales-para-NLP/blob/main/Apunte/apunte.md>
que bueno ver que la matemáticas vectoriales son la herramienta por medio del cual se construye un sistema de representación semantica que permite a la ia básicamente leer y escribir oraciones con sentido semántico