Cálculo de valores propios de una matriz

21/25

Lectura

Como viste en la clase anterior, cuando tenemos un conjunto de datos con muchas variables, la matriz de covarianza es el objeto matemático que permite identificar cuáles variables están altamente correlacionadas.

...

Regístrate o inicia sesión para leer el resto del contenido.

Aportes 28

Preguntas 4

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

En esta clase, hay un error muy grave, sobre todo para quienes no conocen los vectores propios. Me refiero a que los vectores propios que entreganp.linalg.eig(A)
son vectores columnas, es decir v[:, 0], esta asociado al valor propio lambda_0, v[:, 1]
será el vector asociado a lambda_1 y así sucesivamente. Para este ejemplo la matriz construida a raíz de los vectores propios es:

array([[ 0.89442719, -0.70710678 ],
	        [ 0.4472136 , 0.70710678 ]])

y los valores propios

array([ 2., -1.])

Esto quiere decir que el vector

array([[0.89442719],
		[0.4472136]])

está asociado al eigen valor 2
el vector

array([[-0.70710678 ],
		[0.70710678]])

esta asociado al valor propio -1
otro dato, esque los vectores que entrega está función están normalizados y se cumple que sqrt((0.89442719)^2 + (0.4472136)^2)=1
sqrt((-0.70710678)^2 + (0.70710678)^2)=1
Esto pasa desapercibido en este ejemplo, pero es importante

Este video me fue de ayuda a la hora de comprender el texto , explica la diagonalización de matrices
https://www.youtube.com/watch?v=-duROaTigUE

Creo que aquí me bajo de la escuela de Data Science, hasta luegooooooooooo!

Les dejo una explicación muy buena de vectores y valores propios de una matriz:
en youtube

Hace 10 anios aprox tome el curso de algebra lineal en la universidad y lo que recuerdo es muy poco. Recuerdo que me gustaba mucho pero en mi carrera nunca le vi un uso. Hoy que estoy ampliando mis conocimientos me cruzo nuevamente con este bello tema con la sorpresa de que he olvidado un 70% de aquello que un dia sabia realizar facilmente.

Retomar apuntes y estudiar de nuevo que se viene lo bueno.

Pienso que aquí hay un error:
Si tal vector existe y está asociado a un valor específico de , entonces decimos que el vector X es un vector propio de la matriz A y x es su valor propio correspondiente.

Debería ser:
Si tal vector existe y está asociado a un valor específico de λ, entonces decimos que el vector X es un vector propio de la matriz A y λ es su valor propio correspondiente.

Acabo de hacer algunas pruebas, aprovechando que estoy dando matrices en la facultad. No es muy comodo calcular la inversa con numpy ya que da números horribles en lugar de fracciones. Probé pasar los números irracionales a fracciones con los métodos conocidos y no tuve buenos resultados tampoco.

También probé la multiplicacion de una matriz conocida con su inversa, y no me dio la identidad. No estoy muy conforme con el funcionamiento de numpy en estos casos.

me dolió la cabeza

Para entender toda los conceptos detrás de algebra lineal, particularmente matrices y lo que representan sus operaciones y derivados (como los valores y vectores propios) les recomiendo ampliamente la lista de videos de 3blue1brown. Es de los mejores contenidos para entender las nociones principales en este tema, en parte gracias a que explica todo con representaciones gráficas y animaciones. ¡Espero les sea de utilidad!

https://www.youtube.com/playlist?list=PLZHQObOWTQDPD3MizzM2xVFitgF8hE_ab

Está demasiado fuerte de digerir esta clase 🤯 de verdad, tardé como tres días solo en esta clase, y mira que no me considero mala en matemáticas pero siento que para ver el curso se necesitaba algo que yo no ví, igual ya la acabo de terminar de leer, hice mis apuntes, hice mis preguntas y respuestas y lo seguiré estudiando a lo largo de esta semana.

Información resumida de esta clase
#EstudiantesDePlatzi

  • Cuando dos variables están altamente correlacionadas significa que están aportando la misma información y no tiene sentido usar las dos, lo mejor es solo usar una de ellas

  • La reducción de variables se hace con una técnica llamada PCA = Principal Component Analysis

  • Con las matrices podemos hacer una operación especial llamada transponer, lo que buscamos con está operación es reacomodar las filas en columnas

  • También podemos sumas matrices

  • Podemos multiplicar matrices y es importante practicarlo

  • En Python todo es mucho más fácil

  • Las matrices igual que los números pueden tener sus inversos

  • Podemos encontrar vectores y así mismo hacer operaciones entre ellos

  • El resultado de multiplicar 2 vectores es un solo número

  • Es importante tomar un curso sobre vectores y matrices

Valores y vectores propios

  • Permiten diagonalizar una matriz, así podemos compactar variables con alto gramo de correlación.
  • Enpython usamos el método np.linakg.eig(matriz) que nos devuelve los autovalores y autovectores (valores o vectores propios)

Nota:

  • El método eig() devuelve la matriz de autovectores ordenados en columnas

Recomiendo ampliamente este canal (dejo en español, pero el original está en inglés), explica el tema de una manera intuitiva.

El curso de Javier Santaolalla aquí mismo en Platzi es brutal para entender estos temas

Si no se tienen fundamentos de algebra lineal, es recomendable parar aquí y ver cursos de algebra lineal para luego continuar.

Si alguien no entendió esto, en el siguiente video lo explica super fácil:
Análisis de Componentes Principales - YouTube

saludos !!
aquí dejo una buena pagina para hacer cálculos de matrices y sacar valores propios EN FRACCIONES

¿Sabías que los valores propios de una matriz son esenciales para entender cómo se transforman los datos en análisis de datos? 📊 Cuando calculamos los valores propios, estamos descubriendo las direcciones clave que no cambian incluso después de que una transformación se aplique a nuestros datos. Estos valores son la base para técnicas avanzadas como el Análisis de Componentes Principales (PCA), que se utiliza para reducir la complejidad de grandes conjuntos de datos. ¡Así que esos números complicados son más útiles de lo que parecen! 🔢🚀
Me encantó esta clase, definitivamente es cine 🚬🚬🚬🚬🗿🗿🗿🗿
Que bonita clase.

Donde el inverso se define como aquel número tal que la multiplicación de ambos da 1, se llama recíproco. El inverso es un número con igual valor modular, pero con signo opuesto, por ejemplo: -2 es el inverso de 2 y 10 es el inverso de -10

Buena clase.

A = np.array([[2, 4], [-1, 2]])
Ainversa = np.linalg.inv(A)
em=np.matmul(A, Ainversa)
import numpy as np

A = np.array([[1,2],[1,0]])
values, vectors = np.linalg.eig(A)

Esto me dejó un poco mareado, no sé si es porque no tengo muchos conceptos matemáticos claros. Aún así seguiré estudiando para aprender y entender estas clases.
En realidad no creo que sea tan complicado de entender.

Definiciones.- Dada una matriz cuadrada A de orden 3 se dice que el n´umero
λ0 es un valor propio de A si existe un vector columna tridimensional c no nulo
t.q.
Ac = λ0 c.
El vector c se llama vector propio de A asociado al valor propio λ0.
Otras terminolog´ıas equivalentes
λ0 c
valor propio vector propio
autovalor autovector
valor caracter´ıstico vector caracter´ıstico
eigenvalor eigenvect

https://www.cartagena99.com/recursos/alumnos/apuntes/Algebra Capitulo 05 Diagonalizacion.pdf

Hago mi aporte de recursos para esclarecer los temas tratados en esta clase. Esta página explica los temas de una forma super simple de entender.

wow, realmente díficil, por la gran cantidad de conceptos matemáticos involucrados.