¿Qué condiciones debe cumplir una matriz para que un sistema de ecuaciones lineales tenga solución?
Para que un sistema de ecuaciones lineales tenga solución, es esencial que la matriz ( A ) que representa el sistema tenga ciertas características. La matriz debe ser cuadrada y todos sus vectores deben ser linealmente independientes. Esto significa que ninguno de los vectores que componen la matriz puede ser expresado como una combinación lineal de otros vectores. Ahora, veamos un ejemplo práctico.
Utilizar herramientas como NumPy en Python facilita la identificación de vectores linealmente dependientes en una matriz. Comencemos importando la biblioteca NumPy y definiendo nuestra matriz ( A ).
import numpy as np
A = np.array([[0,0,0,1],[0,0,1,0],[0,1,1,0],[1,0,0,1]])
A primera vista, esta matriz parece cuadrada, puesto que tiene tantas filas como columnas. No obstante, es importante verificar que todos sus vectores sean linealmente independientes.
¿Cómo se determina la dependencia lineal en una matriz?
Una forma eficaz de identificar dependencias lineales es mediante el cálculo de los autovalores y autovectores de la matriz. Los autovalores iguales a cero son indicativos de dependencia lineal.
Utilicemos NumPy para calcular estos valores.
from numpy.linalg import eig
valores, vectores = eig(A)# Detectamos los autovalores que son cero
Podemos observar que la tercera fila de la matriz ( A ), que se expresa como ([0, 1, 1, 0]), es linealmente dependiente, ya que puede escribirse como la suma de los vectores ([0, 1, 0, 0]) y ([0, 0, 1, 0]).
¿Qué implicaciones tiene la dependencia lineal en una matriz?
La presencia de vectores linealmente dependientes en una matriz tiene consecuencias significativas. Principalmente, esto implica que no se puede calcular la inversa de dicha matriz, y es conocida como una matriz singular. Probemos calcular la inversa de nuestra matriz ( A ).
from numpy.linalg import LinAlgError
try: A_inv = np.linalg.inv(A)except LinAlgError:print("La matriz es singular y no tiene inversa.")
Esta singularidad se debe a la presencia de al menos un vector que es una combinación lineal de otros vectores de la matriz. Si removemos los vectores dependientes, la matriz resultante perdería su forma cuadrada, al no tener la misma cantidad de filas y columnas.
Estrategias para identificar vectores dependientes
Otra estrategia es analizar las columnas de la matriz. En el ejemplo presentado, observamos que la primera y la cuarta columna son idénticas, indicando que una depende de la otra. La eliminación de estas similitudes puede facilitar la conversión de la matriz en una versión cuadrada y funcional para encontrar soluciones a los sistemas de ecuaciones.
Conocer estas técnicas no solo es útil para las matemáticas teóricas, sino que también se aplica en diversos campos donde los sistemas de ecuaciones lineales juegan un papel fundamental, como la ingeniería, la economía y las ciencias computacionales. ¡Continúa explorando este fascinante mundo de las matrices y descubre cómo puedes aplicar estos conocimientos!
Excelente profesor, explica bien y se nota que ama lo que hace
De eso si no queda duda.. Ahí hay conocimiento y pasión por lo que hace!
Sií total se le ve esa alegría <3
matematicamente pasa lo siguiente:
para calcular la matriz inversa se calcula primero la transpuesta de la matriz adjunta y esta se divide por el determinante de la matriz.
Cuando en una matriz tenemos vectores LD tantos en columnas como en filas el determinante es 0, SIEMPRE haciendo que la division no se pueda resolver
Cual es el determinante?
Para que entiendan de determinantes, les recomiendo el curso del profesor Sergio, sobre algebra lineal
También quiero mencionarles que existe una versión de inversa cuando la matriz “no es cuadrada”. se llama la “inversa generalizada” o “inversa de Penrose-Moore”. Pueden buscar si les interesa
Algo que el profesor no mencionó, aprovechando el cálculo que se hizo es que al hallar los lambdas(valores propios) de la matriz dada, se obtiene:
[ 1.61803399, -0.61803399, 0, 1 ]
y otra manera de saber si hay solución única para un sistema de ecuaciones o ver si hay inversa de la matriz, es ver que “cero” no sea un valor propio de la matríz.Luego en este caso la matriz no seria invertible.
Gran corolario:) Una prueba de él es que dada una matriz, los autovalores estan dados por las entradas de la diagonal de la matriz diagonal asociada, si existe una entrada 0, el determinante es cero.
Datazo, gracias !
Para que un sistema de ecuaciones lineales tenga solución no puede haber ni filas ni columnas que puedan ser escrito como combinación de otras filas o columnas.
O tambien que la matriz no sea singular o tenga inversa, ya que AX = B, entonces X = A^-1*B, si A no tiene inversa la ecuacion no tendria solucion(incompatible), esto se puede determinar por la determinante la cual debe ser diferente de 0 para que exista inversa o verificando que ninguna columna se repita.
Gracias brother
Los valores propios son aquello escalares que nos permite escribir:
Ax = lambda*x
donde x es un vector propio.
Validar una matriz inversa:
Para que una matriz tenga una inversa esta debe ser cuadrada y sus vectores deben ser linealmente independientes.
Una forma de detectar si hay algún vector linealmente dependiente es a través del uso de autovalores y autovectores (consiste en la descomposición de una matriz en otras tres)
Para que un Sistema de Ecuaciones Lineales tenga solución, la matriz A que lo representa no tiene que tener vectores linealmente dependientes. Es decir, no tienen que haber filas y columnas que puedan ser escritas como combinación de otras filas o columnas.
algo que no mencionó el profesor, es que si veamos los valores propios(lambdas) de esa matriz que se usó. Resulta que se obtiene:
[ 1.61803399, -0.61803399, 0, 1 ]
De hecho, se puede saber si una matriz tiene inversa, o si el sistema tiene única solución corroborando que "cero" no sea un valor propio. Luego fácilmente se vería que no es invertible.
Estas clases son muy desafiantes para mí >-<
Gracias a toda la gente de los comentarios que dejan recursos adicionales para terminar de comprender lo que el profesor dice
Veo a estudiantes con comentarios confusos, que desaniman a los demás.
No te preocupes si alguien sabe algo adicional, tu ve a tu ritmo no tienes que aprenderlo todo de golpe.
Si el profe no menciono algo, es por que aun no estamos listos para saberlo.
No entiendo la línea:
A[lamdas ==0,:]
¿Qué es lo que hace?
Parece slicing pero tiene el lamdas == 0 de más.
Tengo la misma duda :/
Estuve buscando un poco y experimentando, tal vez este link te sirva
Parece ser que A[lambdas == 0, : ] imprime sólo los vectores dentro de la matriz donde lambdas es igual a 0.
Prueba experimentando cambiando los parámetros y agregando más, y muy probablemente descubras cómo funciona.
El calculo que hace la línea de código
lambdas,V= np.linalg.eig(A.T)
Primero saca la traspuesta a la matriz A y le resta lambda a la matriz diagonal, y a partir de cualquier método se calcula la determinante a la matriz resultante.
Ayudaaa, pls :(
No se que hice mal
Para que un sistema de ecuaciones lineales tenga solución se necesita que la matriz que representa el sistema de ecuaciones sea cuadrada y que todos sus vectores sean linealmente independientes.
Seguramente lo han explicado y he olvidado el concepto pero, que es un lambda? y que significa que en la matriz sea igual a 0?
Una lambda es una funciona anónima, que puede tomar varios argumentos pero solo una expresión.
Es una manera rápida de crear una función
Espero que te quede un poco más claro!
Hola, como podemos saber cuando tenemos un vector dependiente?
cuando no puede ser escrito como una combinación lineal de los otros vectores.
Un vector v1 es linealmente dependiente cuando puede ser escrito como una combinación lineal de otro u otros vectores
(la respuesta de Andrés Felipe esta mal, cuidado)
¿Por qué calcula los autovalores y autovectores de la transpuesta y no de la matriz original?
No soy el experto. Me parece que eso confunde, pues para calcular los eigens no tienes que transponer pues los resultados son distintos (que no se compensan transponiendo al resultado por si acaso se piensa que sí).
.
Entonces, el momento clave es cuando el profesor define la matriz A con los cuatro vectores que definen el espacio 4d y los pone en 'horizontal', uno por cada array 'literalmente'. Por lo que se de algebra lineal y su interpretación en el espacio, los vectores que definen los espacios (como los unitarios i j k pero de forma general) se leen verticalmente en una matriz, y cuando se opera se a parte a partir de esto.
.
O sea es algo muy relativo, y como uno esta acostumbrado a escribir sus matrices en python para interpretar mejor. Al profesor le toca transponer para poder hacer el calculo de los eigens pero otros ya habrian escrito la matriz 'ya transpuesta'. Y que esta bien y que esta mal, que fue primero que fue segundo, para eso estan las convenciones y esta no esta muy clara en el curso a mi entender.
.
Si no me has entendido jeje no culpo, puede que este video haga entender mejor como conviene interpretar una matriz: Video.
Recomiendo ver toda la serie, me ha ayudado a no confundirme con este curso.
Les recomiendo muchísimo que vean esta serie de videos:
https://www.youtube.com/playlist?list=PLIb_io8a5NB2DddFf-PwvZDCOUNT1GZoA
Muestra de forma muy intuitiva lo que son las matrices (transformaciones lineales), eigenvalores y eigenvectores. En general, el cómo formar estas intuiciones respecto al álgebra lineal.
En álgebra lineal, los eigenvalores (o valores propios) son un concepto importante que se utiliza para describir la transformación lineal que representa una matriz cuadrada.
Dada una matriz cuadrada A, un vector no nulo x se dice que es un eigenvector (vector propio) de A si se cumple que:
A x = λ x
donde λ es un escalar, que se llama eigenvalor (valor propio) de la matriz A correspondiente al eigenvector x.
En otras palabras, los eigenvectores son los vectores que, cuando se les aplica la transformación lineal representada por la matriz A, se multiplican por un factor constante (el eigenvalor) y se mantienen en la misma dirección.
Los eigenvalores y eigenvectores son importantes porque nos permiten entender cómo una matriz cuadrada afecta los vectores en un espacio. En particular, los eigenvectores nos dan una idea de las direcciones especiales en el espacio que se mantienen invariantes bajo la acción de la transformación lineal representada por la matriz, mientras que los eigenvalores nos dan una idea de la magnitud de la transformación en cada una de estas direcciones.
Por ejemplo, consideremos la matriz A = [[2, 1], [1, 2]]. Los eigenvectores de A son los vectores no nulos x tales que:
A x = λ x
donde λ es un eigenvalor de A. Se puede demostrar que los eigenvectores de A son los vectores de la forma x = [1, -1] o x = [1, 1], y que los eigenvalores correspondientes son λ = 3 y λ = 1, respectivamente. Esto significa que A transforma los vectores en estas direcciones de manera distinta, multiplicando los vectores por 3 y 1, respectivamente.