Resumen

La descomposición en valores singulares (SVD) explica con claridad la estructura de cualquier matriz, incluso cuando es rectangular. A diferencia del análisis de eigenvectores, que se limita a matrices cuadradas, la SVD ofrece una visión geométrica potente: rotar, escalar y, si hace falta, cambiar de dimensión para capturar la esencia de los datos.

¿Por qué la SVD resuelve las limitaciones de los eigenvectores?

El análisis de eigenvectores solo funciona en matrices cuadradas. La SVD supera esa barrera porque funciona en cualquier forma. Para entenderlo, basta ver cómo una matriz rectangular transforma vectores entre espacios de distinta dimensión.

  • Matriz ancha: “borrador de dimensiones”. Reduce dimensiones. Por ejemplo, A de 2×3 parecida a la identidad transforma v = (1, 2, 3) en (1, 2); pasamos de R3 a R2 porque una dimensión “se borra”.
  • Matriz alta: “agregador de dimensiones”. Incrusta en más dimensiones. Por ejemplo, A de 3×2 similar a la identidad lleva v = (1, 2) a (1, 2, 0); pasamos de R2 a R3 añadiendo un cero como nuevo componente.
  • Idea clave: una matriz rectangular actúa como un mapeo entre RN y RM, pudiendo rotar, estirar y cambiar la dimensión del vector de entrada.

¿Cómo se compone A = U Σ V^T y qué hace cada matriz?

La SVD descompone cualquier matriz A en tres transformaciones: V transpuesta (rotación de entrada), Σ o sigma (escalamiento y cambio de dimensión) y U (rotación de salida). Juntas, alinean, escalan y colocan el resultado en su orientación final.

¿Qué hace V transpuesta?

  • Es una matriz ortogonal cuadrada N×N: una rotación pura sin estiramientos.
  • Sus columnas (filas de V^T) son los vectores singulares derechos: eigenvectores de A^T A.
  • Rol geométrico: alinea el vector de entrada con los ejes principales de estiramiento de A (direcciones V1, V2, …).
  • Intuición: “girar para alinear” antes de procesar; prepara el vector para un escalado limpio.

¿Qué es sigma y por qué importa?

  • Es una matriz diagonal M×N: solo la diagonal principal tiene valores distintos de cero.
  • Sus entradas son los valores singulares σ1, σ2, …: raíces cuadradas de los eigenvalores de A^T A (o de A A^T), siempre positivos.
  • Orden por convención: σ1 ≥ σ2 ≥ σ3 ≥ …; σ1 es el máximo estiramiento que A puede ejercer.
  • Doble rol: escalamiento por cada eje alineado y cambio de dimensión (borrador si A es ancha; agregador si A es alta).
  • Ejemplos de forma: en 2×3, Σ se parece al “borrador” con σ1 y σ2 en la diagonal; en 3×2, Σ actúa como “agregador” con σ1 y σ2 y un cero agregado.

¿Qué hace U?

  • Es una matriz ortogonal cuadrada: otra rotación pura, ahora en el espacio de salida.
  • Sus columnas son los vectores singulares izquierdos: eigenvectores de A A^T.
  • Rol geométrico: después del escalamiento y cambio de dimensión de Σ, rota el resultado a su orientación final en RM.

¿Para qué sirve en machine learning y qué habilidades refuerza?

La SVD muestra que cualquier matriz es suma de matrices de rango uno, cada una como una “capa” de información. Imagina una pintura: la primera capa es el boceto principal, luego colores base, detalles y, al final, ruido. Al quedarnos con las primeras capas (valores singulares más altos), logramos aproximaciones de bajo rango muy fieles con menos información.

  • Suma de rangos uno: cada capa aporta estructura; las últimas suelen ser ruido.
  • Aproximación de bajo rango: conserva esencia, reduce complejidad.
  • Aplicaciones directas: compresión de datos; sistemas de recomendación (patrones clave entre usuarios y productos); PCA como aplicación directa de SVD sobre una matriz de datos.
  • Habilidades y conceptos reforzados: producto matriz–vector. Matrices rectangulares como mapeos RN→RM. Matrices ortogonales como rotaciones puras. Matrices simétricas (A^T A y A A^T) con eigenvectores ortogonales. Valores singulares como raíces de eigenvalores, positivos y ordenados. Ejes principales de estiramiento. Importancia de σ1 como máximo estiramiento.

¿Te surgieron dudas o quisieras ver un ejemplo numérico paso a paso en código? Comparte tus preguntas y lo construimos juntos.