Cómo los LLMs transforman palabras en vectores multidimensionales

Clase 2 de 16Curso de Prompt Engineering

Resumen

El funcionamiento de los modelos de lenguaje, conocidos como Large Language Models (LLMs), está estrechamente relacionado con los conceptos de vectores y embeddings. Al interactuar con plataformas como ChatGPT, estos modelos transforman palabras en relaciones y características que permiten interpretarlas adecuadamente. Entender qué son los vectores y cómo funcionan los embeddings será clave para aprovechar al máximo el potencial de estos modelos.

¿Qué son los vectores y cómo se relacionan con los LLMs?

Un vector es una representación matemática que ubicamos dentro de un plano definido por dimensiones. Usualmente, aprendemos sobre vectores en contextos como las coordenadas X y Y utilizadas en física para posicionar elementos.

Cuando aumentamos dimensionalidad –por ejemplo, añadiendo profundidad (tercera dimensión)–, obtenemos una representación espacial más completa. De manera similar, la representación vectorial que usan los LLMs emplea múltiples dimensiones, no solo tres, para representar semánticamente las palabras.

¿Qué rol juegan los embeddings en la comprensión del lenguaje?

Los embeddings son vectores n dimensionales que caracterizan palabras a través de múltiples dimensiones. Estas dimensiones pueden incluir características lingüísticas y semánticas, como el contexto de uso, valor emocional, categoría gramatical e incluso relaciones con otros términos en distintos idiomas.

Tomemos un ejemplo simple: al evaluar un restaurante en una aplicación, utilizamos diversas dimensiones, incluyendo:

  • Calidad de la comida.
  • Ambiente del local.
  • Servicio recibido.
  • Frescura de alimentos.
  • Música del lugar.

De la misma forma, un embedding define palabras considerando estas múltiples dimensiones que les brindan un significado más específico y útil en distintos contextos.

¿Cómo ayudan los embeddings a relacionar palabras en distintos idiomas?

Gracias a la similitud semántica, un embedding permite relacionar palabras en diferentes idiomas por atributos similares. Por ejemplo, la palabra "aguacate" en español y "avocado" en inglés comparten dimensiones como fruta y color verde, permitiendo a un modelo como ChatGPT identificar similitudes semánticas entre distintos idiomas sin una traducción directa.

¿Por qué cada palabra en un prompt es crucial?

Cada palabra en las conversaciones con un LLM tiene un peso importantísimo porque dirige al modelo hacia diferentes espacios vectoriales y dimensiones. Cambiar incluso una palabra en un prompt puede modificar considerablemente la respuesta obtenida, dado que esto afecta las relaciones semánticas exploradas por el modelo.

Te invitamos a reflexionar sobre cómo utilizas las palabras e interactúas con modelos como ChatGPT, y considerar el impacto significativo que estas elecciones pueden tener en los resultados obtenidos.