¿Cómo funcionan los embeddings?

1

Cómo Entender y Aplicar Embeddings en IA: De Teoría a Práctica

2

Introducción a One-Hot Encoding y TF-IDF en IA

3

Representación Vectorial de Palabras

4

Evaluación de Similitudes Semánticas: Métodos y Aplicaciones

Quiz: ¿Cómo funcionan los embeddings?

Creación de embeddings

5

Creación y entrenamiento de modelos Word2Vec con Gensim

6

Procesamiento y Limpieza de Datos para IA con Word2Vec y Gensim

7

Entrenamiento de Modelos Word2Vec con GenSim y Análisis de Similitud

8

Word2Vec: Entrenando IA para Comprender el Lenguaje

Quiz: Creación de embeddings

Usando embeddings preentrenados

9

Uso práctico de Sentence Transformers en procesamiento de textos

10

Análisis Semántico: Buscar Textos con Sentence Transformers

11

Manejo de Embeddings con OpenAI: API, Instalación y Datasets

12

Manejo y Visualización de Embeddings con OpenAI: Guía Práctica

13

Creación de un Motor de Búsqueda Semántico con Python

14

Transformación de Texto a Embeddings con Sentence Transformer

Quiz: Usando embeddings preentrenados

Bases de datos vectoriales

15

Qué es y cómo usar una base de datos vectorial

16

Gestión de Bases de Datos Vectoriales con ChromaDB: Instalación y Uso

17

Generación y manejo de embeddings en Chroma con Sentence Transformer

18

Consultas avanzadas y filtrado en bases de datos con Chroma

19

Cargar colección de Chroma previamente creada

20

Configuración y Uso de Pinecone: Desde la Instalación hasta la Inserción de Datos

21

Optimización de Ingesta de Datos en Pinecone: Procesos y Estrategias

22

Consultas Avanzadas en Pinecone: De Texto a Vector y Filtros

23

Carga de índices en Pinecone: Gestión eficiente en la nube

24

Carga de embeddings en Pinecone para búsqueda semántica

25

Creación de buscador semántico con Gradio y Sentence Transformer

Quiz: Bases de datos vectoriales

Conclusiones

26

Potenciando los LLMs: Integración de Embeddings y Datos Vectoriales

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Uso práctico de Sentence Transformers en procesamiento de textos

9/26
Recursos

Aportes 4

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Notas

  • sentes-transformers es una biblioteca y framework de embeddings de oraciones o textos completos.
    • Características:
      • Utiliza modelos pre-entrenados (como BERT, RoBERTa, DistilBERT entre otros) y técnicas de aprendizaje por transferencia para generar representaciones de texto de alta calidad.
      • A diferencia de Bag of Words o TF-IDF, considera el contexto y la semántica de las oraciones. Lo que permite representaciones más ricas y significativa
    • Ventajas:
      • Mejora de la semántica: captura significados semánticos y relaciones entre palabras en las oraciones
      • Facilidad de uso: proporciona una API sencilla para calcular representaciones de oraciones y textos
      • Interoperabilidad: Puede trabajar con una variedad de modelos pre-entrenados y permite la comparación de oraciones entre diferentes idiomas
        • Admite modelos pre-entrenados de varios idiomas, lo significa que puede utilizar modelos diseñados específicamente para un idioma en particular. Algunos modelos pre-entrenados son multilingües lo que permite procesar y comparar oraciones en múltiples idiomas
        • Es compatible con varias arquitecturas de modelos pre-entrenados. Esta flexibilidad permite elegir la arquitectura que mejor se adapte a las necesidades y datos específicos
        • Se pude hacer transformaciones de texto y obtener representaciones vectoriales de oraciones y textos en diferentes idiomas.
        • Facilita la comparación de oraciones y textos utilizando diferentes modelos pre-entrenados, lo que permite evaluar la representación de los datos cuando se procesan con diferentes modelos, ayudando a seleccionar el modelo que mejor se adapte a la tarea
        • Se puede transferir e conocimiento aprendido en un idioma a tareas en otro idioma. Útil en aplicaciones de traducción automática, análisis de sentimientos y procesamiento de texto en general
        • Flexibilidad den la elección de modelos según necesidad y recursos computacionales disponibles. Podemos seleccionar modelos más grandes y precisos para tareas críticas o modelos más ligeros para aplicaciones con restricciones o recursos.
      • Alto rendimiento: Ofrece una representación eficiente de textos y es útil en una amplia gama de aplicaciones NLP
Corrección menor de la clase: el limite de 256, no es de caracteres sino de tokens (palabras en la mayoría de casos)
Recomendado el curso de Pandas, ahora tiene más sentido jaja.
sentence\_transformers es muy util! así utilizas grandes modelos de lenguaje sin bajarlos a tu computadora o a colab.