Qué son los embeddings en los LLMs
Clase 3 de 18 • Curso de Prompt Engineering
Contenido del curso
Clase 3 de 18 • Curso de Prompt Engineering
Contenido del curso
Gabriel Obregón
Carlos Enrique Rodríguez Alcántara
Engelbert Fanor Juárez Bonilla
Juan Carlos Gutiérrez Ayala
Javier Ramos
Engelbert Fanor Juárez Bonilla
Samuel Steven Bernal Martínez
Juan Daniel Salgado Reyes
Juan nieva
Juan Daniel Salgado Reyes
Manuel Felipe García Rincón
Arianna Corona
Héctor Alonso Padilla Ramírez
Juan Miguel Jimenez
Luis Caicedo Caicedo Valbuena
Jorge Eduardo Vidal Becerra
MARIA DEL SAGRARIO SERRANO VIRGEN
Jonh Osses Castro
Javier Muñoz
Jesus David Posada Escobar
Lizeth De La Espriella
Santiago Rojas Colunge
Mauricio ospina
Annette Lions Ramírez
Pedro Esteban Bedoya Castaño
Paola Ximena Montaña Correa
🧩EMBEDDINGS Y LLM
🔑 IDEA CLAVE
📍 Las palabras se representan en un espacio vectorial multidimensional.
📚 Igual que una biblioteca organizada, los embeddings permiten que el modelo entienda y encuentre relaciones.
📌 ¿QUÉ SON LOS EMBEDDINGS?
✨ Representación matemática de una palabra.
✨ Secuencia de números = su ADN semántico.
✨ Sirven para medir similitudes y diferencias según el contexto.
🐶 EJEMPLO
➡️ “perro” → (0.2, −0.5, 0.8, 0.3, …)
➡️ “gato” → valores muy cercanos 🐕🐈
✔️ Ambos = animales, mamíferos, domésticos.
👉 Si los vectores se parecen, el significado también.
🧭 CERCANÍA SEMÁNTICA
🔗 “rey” ↔ “reina”
🔗 “hospital” ↔ “médico”
🔗 “azul” ↔ “rojo”
⚡ Lo que es sentido común para nosotros, el LLM lo procesa como operaciones matemáticas.
➕➖ OPERACIONES VECTORIALES
🧮 Ejemplo clásico:
➡️ rey − hombre + mujer = reina
💡 Restar y sumar factores semánticos = nuevas palabras con sentido.
🌐 VISUALIZACIÓN (Embedding Projector)
🔹 Muestra palabras en una nube 3D.
🔹 Solo en inglés y con 3 dimensiones (los LLM usan cientos o miles).
🔹 Ejemplo: buscando “queen” aparecen cerca → Elizabeth, King, Mary, Princess… ⚠️ Recuerda: lo que se ve “cercano” en 3D puede variar al rotar → es solo una proyección.
⌨️ LLM VS TECLADO PREDICTIVO
❌ Predictivo: propone la próxima palabra sin intención real.
✅ LLM: enfoca en zonas semánticas relevantes.
Ejemplo:
✍️ “El cielo es…”
➡️ LLM dirige la atención hacia el clima y completa de forma coherente.
✍️ PRÁCTICAS PARA MEJORES PROMPTS
🪄 Tips clave:
Tus resumenes son excelentes! Gracias por compartirlos!
mucho texto, se mas conciso y no te pases de 120 caracteres
Con todo respeto para el profesor y en aras de mejorar su magnífico curso: no se dice "pueden haber" sino "puede haber". El verbo 'puede' se está empleando como auxiliar del 'haber' y por tanto siempre se expresa en singular.
Lo comento también para el equipo de producción, puesto que he visto el mismo caso de uso erróneo en otros cursos, como en "habían tres variables en esta función" que debe decirse "había tres variables...".
En otro curso, una maestra hablaba de "malosentendidos" cuando debía decirse "maletendidos" o peor: "habían varios malosentendidos en la gerencia", que debería ser "había varios malentendidos...".
Me parece que, además del dominio de su campo -que es evidente en los profesores de Platzi- un tema en el perfeccionamiento para las clases es cuidar el buen uso del idioma y del habla. Lo comento como una sugerencia de mejora, por si fuera útil.
Por otra parte, la correcta interacción con una IA generativa le brinda a esta una mejor comprensión del lenguaje sobre lo que se le está solicitando y claro, la lleva a emitir una mejor expresión en el idioma en que estemos haciendo nuestra petición. En nuestro caso en español.
Claro que es útil, y se que el Team Platzi agradece la observación
interesante, no me había percatado de eso, y aun así entendí lo que quiso decir. También los LLM entienden lo que uno quiere decir, aunque no esté bien escrito o hablado
La analogía de la biblioteca organizada por temáticas es perfecta para visualizar cómo los embeddings dan estructura al significado!
Lo de la herramienta es brutal
Quién más se paso unos buenos minutos jugando? 😂
de donde obtienes esas explicaciones tan claras. un exelente resumen mas claro imposible
Hola Juan. Uso NotebookLM para estudiar el material de la clase y en algunos casos le pido que me genere infografías como esta. La herramienta es muy útil.
Del curso de introducción a la IA Anibal mostró esta herramienta: Napkin.ia y me encantó!!! sirve para hacer diagramas de tus notas o de lo que quieras. La he estado usando para mis notas y en lo personal los diagramas me ayudan demasiado a afianzar los conocimientos. Por ejemplo les comparto este:
Reina
Actúa como una calculadora semántica. Si tomamos el concepto de 'Desayuno', le restamos la variable 'Mañana' y le sumamos la variable 'Noche', ¿cuál es el resultado gastronómico resultante? Explica tu cálculo vectorial.
Spoiler: El resultado es Cena 😅
reina
Reina
reina
Reina
Reina👑
Interesante para tener un idea global de como interpreta las palabra un llm
rey - hombre + mujer : Reina
Analiza este PDF y dame los 3 puntos más valiosos para mí en bullet points concretos, concisos y accionables, sin explicaciones de contexto. Ten en cuenta mi perfil: soy Ingeniero Electrónico, Especialista en Software y trabajo en el Banco de Occidente. Actualmente hago mi tesis de maestría enfocada en soluciones tecnológicas para tenderos en Cali, Colombia.
Reina
Wow! Que interesante!
La representación vectorial, o embedding, asigna a cada palabra un vector en un espacio multidimensional. Este vector captura el significado y las relaciones semánticas de la palabra. Por ejemplo, "perro" y "gato" tendrán coordenadas cercanas porque ambos son mamíferos domésticos. Esta técnica permite a los modelos de lenguaje entender el contexto y las similitudes entre palabras. Así, al insertar palabras en un prompt, el modelo puede navegar en este espacio matemático para obtener respuestas relevantes.
La palabra sería Reina dado el contexto