¿Cómo funcionan los embeddings?

1

Cómo Entender y Aplicar Embeddings en IA: De Teoría a Práctica

2

Introducción a One-Hot Encoding y TF-IDF en IA

3

Representación Vectorial de Palabras

4

Evaluación de Similitudes Semánticas: Métodos y Aplicaciones

Quiz: ¿Cómo funcionan los embeddings?

Creación de embeddings

5

Creación y entrenamiento de modelos Word2Vec con Gensim

6

Procesamiento y Limpieza de Datos para IA con Word2Vec y Gensim

7

Entrenamiento de Modelos Word2Vec con GenSim y Análisis de Similitud

8

Word2Vec: Entrenando IA para Comprender el Lenguaje

Quiz: Creación de embeddings

Usando embeddings preentrenados

9

Uso práctico de Sentence Transformers en procesamiento de textos

10

Análisis Semántico: Buscar Textos con Sentence Transformers

11

Manejo de Embeddings con OpenAI: API, Instalación y Datasets

12

Manejo y Visualización de Embeddings con OpenAI: Guía Práctica

13

Creación de un Motor de Búsqueda Semántico con Python

14

Transformación de Texto a Embeddings con Sentence Transformer

Quiz: Usando embeddings preentrenados

Bases de datos vectoriales

15

Qué es y cómo usar una base de datos vectorial

16

Gestión de Bases de Datos Vectoriales con ChromaDB: Instalación y Uso

17

Generación y manejo de embeddings en Chroma con Sentence Transformer

18

Consultas avanzadas y filtrado en bases de datos con Chroma

19

Cargar colección de Chroma previamente creada

20

Configuración y Uso de Pinecone: Desde la Instalación hasta la Inserción de Datos

21

Optimización de Ingesta de Datos en Pinecone: Procesos y Estrategias

22

Consultas Avanzadas en Pinecone: De Texto a Vector y Filtros

23

Carga de índices en Pinecone: Gestión eficiente en la nube

24

Carga de embeddings en Pinecone para búsqueda semántica

25

Creación de buscador semántico con Gradio y Sentence Transformer

Quiz: Bases de datos vectoriales

Conclusiones

26

Potenciando los LLMs: Integración de Embeddings y Datos Vectoriales

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Carga de embeddings en Pinecone para búsqueda semántica

24/26
Recursos

Aportes 3

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

a mi el código para verificar si ya existia ese index no me funciono, aquí dejo el mío ```js dimension_embeddings = len(df['embeddings'][0]) index_name = 'movies-embeddings' all_index = pinecone.list_indexes() index_exists = any(index_info['name'] == index_name for index_info in all_index.indexes) if index_exists: index = pinecone.Index(index_name) else: pinecone.create_index( name=index_name, dimension=dimension_embeddings, metric='cosine', spec=PodSpec(environment='gcp-starter') ) index = pinecone.Index(index_name) ```dimension\_embeddings = len(df\['embeddings']\[0]) index\_name = 'movies-embeddings' all\_index = pinecone.list\_indexes() index\_exists = any(index\_info\['name'] == index\_name for index\_info in all\_index.indexes) if index\_exists: index = pinecone.Index(index\_name) else: pinecone.create\_index( name=index\_name, dimension=dimension\_embeddings, metric='cosine', spec=PodSpec(environment='gcp-starter') ) index = pinecone.Index(index\_name)
1. Depurar data 2. Crear los embeddings 1. metadata 2. indices 3. Crear la db pinecone 4. ingesta en batch de los embeddings
Resumen: ■■■■■ En esencia en esta clase se repitieron los procesos de: 1. Instanciar base de datos vectorial y/o conexiones 2. Ingestar por lotes los datos para embeberlos/vectorizarlos. 3. Subirlos a la base de datos Este patrón puede volverse componentes en función de nuestras necesidades.