TITULO.PNG





algebra lineal.gif

La historia del álgebra lineal moderna se remonta a los años de 1843 cuando William Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones; y de 1844 cuando Hermann Grassmann publicó su libro Die Lineale Ausdehnungslehre (La teoría lineal de extensión).
El álgebra lineal es la rama de las matemáticas que estudia conceptos importantes como los vectores, matrices, sistemas de ecuaciones lineales y en un enfoque más formal, espacios vectoriales, y sus transformaciones lineales. Es un área activa que tiene conexiones con muchas áreas dentro y fuera de las matemáticas como análisis funcional, ecuaciones diferenciales, investigación de operaciones, gráficas por computadora, ingeniería, etc.

Para ilustrar los conceptos básicos estudiados en álgebra lineal suele tomarse como ejemplo el espacio vectorial, por ser el más simple y a la vez el más usado en aplicaciones de uso.

Los objetos básicos de estudio son las n-tuplas ordenadas de números reales que se denominan vectores y el conjunto de todos los vectores con n elementos forma un espacio vectorial.

Las operaciones básicas entre los vectores (Condiciones de linealidad) son dos: la suma de vectores y el producto por escalar.

Suma de vectores
DefiniciónLa suma de los vectores A=(a1,a2) y B=(b1,b2) es el vector A+B definido por
A + B = (a1+b1,a2+b2)

Producto por escalar
DefiniciónSi c es un escalar y A es el vector (a1,a2), entonces el producto de c y A, denotado por cA, es el vector definido por:
cA=c(a1,a2)
cA= (ca1,ca2)
La interpretación gráfica del producto por escalar es una contracción o dilatación del vector (dependiendo de la magnitud del escalar, es decir, si es mayor o menor de 1), junto con una posible inversión de su sentido (si el signo es negativo, es decir, si es menor de 0).
Las funciones de interés para el álgebra lineal, entre los espacios vectoriales descritos, son aquellas que satisfacen las dos condiciones siguientes con las operaciones básicas para todo par de vectores y todo escalar.
Las funciones que cumplen las condiciones anteriores se denominan transformaciones lineales y en el ejemplo que estamos usando corresponden a vectores de números reales, pero puede extenderse a matrices del espacio que son las matrices de números reales de tamaño.
El álgebra lineal estudia entonces las distintas propiedades que poseen estos conceptos y las relaciones entre los mismos. Por ejemplo, estudia cuándo una "ecuación" de la forma Au=v (donde u,v son vectores y A es una matriz) tiene solución, problema que es equivalente a determinar si un sistema de ecuaciones lineales tiene solución o no.

CONTEXTO GENERAL
De manera más formal, el álgebra lineal estudia conjuntos denominados espacios vectoriales, los cuales constan de un conjunto de escalares (que tiene estructura de campo, con una operación de suma de vectores y otra de producto entre escalares) y vectores que satisfacen ciertas propiedades:
Si A,B y C son tres vectores cualesquiera de V2, y c y d son dos escalares cualesquiera, entonces la adición vectorial y la multiplicación por un escalar satisfacen las siguientes propiedades:
• A+B=B+A (ley conmutativa)
•A+(B+C)=(A+B)+C (ley asociativa)
•Existe un vector 0 en V2 para el cual A+0=A (existencia del identico aditivo)
•Existe un vector -A en V2 tal que A+(-A)=0 (existencia del inverso aditivo y negativo)
•(cd)A=c(dA) (ley asociativa)
•c(A+B)=cA+cB (ley distributiva)
•(c+d)A=cA+dA (ley distributiva)
•1(A)=A (existencia del idéntico multiplicativo escalar)
Estudia también transformaciones lineales, que son funciones entre espacios vectoriales que satisfacen las condiciones de linealidad.

titulo matriz.PNG

Concepto
Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
Cada uno de los números de que consta la matriz se denomina elemento. Un elemento se distingue de otro por la posición que ocupa, es decir, la fila y la columna a la que pertenece.
El número de filas y columnas de una matriz se denomina dimensión de una matriz. Así, una matriz será de dimensión: 2x4, 3x2, 2x5,... Sí la matriz tiene el mismo número de filas que de columna, se dice que es de orden: 2, 3.
El conjunto de matrices de m filas y n columnas se denota por Amxn o (aij), y un elemento cualquiera de la misma, que se encuentra en la fila i y en la columna j, por aij. Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas, son iguales
  • Matriz fila

Una matriz fila está constituida por una sola fila.
Ejemplo:
A=( 2 3 4 )
  • Matriz columna

La matriz columna tiene una sola columna
Ejemplo:
matriz columna.PNG

  • Matriz rectangular

La matriz rectangular tiene distinto número de filas que de columnas, siendo su dimensión mxn.

Ejemplo:

matriz rectangular.PNG
  • Matriz cuadrada

La matriz cuadrada tiene el mismo número de filas que de columnas.
Los elementos de la forma aii constituyen la diagonal principal.
La diagonal secundaria la forman los elementos con i+j = n+1.

Ejemplo:
matriz cuadrada.PNG

  • Matriz nulo

En una matriz nula todos los elementos son ceros.

Ejemplo:
matriz nula.PNG

  • Matriz triangular superior
En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.
Ejemplo:

matriz triangular superior.PNG
  • Matriz triangular inferior

En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros.
Ejemplo:

matriz triangular inferior.PNG

  • Matriz diagonal

En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos.
Ejemplo:

matriz diagonal.PNG
  • Matriz escalar

Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales.
Ejemplo:

matriz escalar.PNG
  • Matriz identidad o unidad

Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1.
Ejemplo:
matriz unidad.PNG
  • Matriz transpuesta

Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas.
(At)t = A ; *La matriz transpuesta (At)t de la matriz transpuesta (At) es igual a la matriz A*
(A + B)t = At + Bt
(α ·A)t = α· At
(A · B)t = Bt · At

Dibujo23.JPG
  • Matriz regular

Una matriz regular es una matriz cuadrada que tiene inversa.
  • Matriz singular

Una matriz singular no tiene matriz inversa.
  • Matriz idempotente

Una matriz, A, es idempotente si:
A^2 = A ; Si la matriz resultante de A*A es igual a la matriz A entonces se trata de una matriz idempotente.
  • Matriz involutiva

Una matriz, A, es involutiva si:
A^2 = I ; Si la matriz resultante de A*A=A^2 es igual a la matriz Identidad, se trata de la matriz involutiva.
  • Matriz simétrica

Una matriz simétrica es una matriz cuadrada que verifica:
A = At ; La matriz A debe ser igual a la matriz transpuesta de A para que sea simétrica.
  • Matriz anti-simétrica o hemisimétrica

Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica:
A = -At ; *La matriz A debe ser igual a la matriz transpuesta de A negativa *
  • Matriz ortogonal

Una matriz es ortogonal si verifica que:
A·At = I ; Si la matriz A por la matriz transpuesta de A es igual a la matriz inversa entonces queda verificado que se trata de una matriz ortogonal.

•SUMA DE MATRICES
Dadas dos matrices de la misma dimensión, A=(aij) y B=(bij), se define la matriz suma como: A+B=(aij+bij). Es decir, aquella matriz cuyos elementos se obtienen: sumando los elementos de las dos matrices que ocupan la misma posición.
003a.JPG

Dibujo24.JPG



•Propiedades de la suma de matrices
Interna:La suma de dos matrices de orden m x n es otra matriz dimensión m x n.

  • Asociativa:
A + (B + C) = (A + B) + C

  • Elemento neutro:
A + 0 = A

Donde O es la matriz nula de la misma dimensión que la matriz A.

  • Elemento neutro:

A + (-A) = O

La matriz opuesta es aquella en que todos los elementos están cambiados de signo.

  • Conmutativa:

A + B = B + A

•Producto de un número real por una matriz

Dada una matriz A = (aij) y un número real k R, se define el producto de un número real por una matriz: a la matriz del mismo orden que A, en la que cada elemento está multiplicado por k.

k · A=(k aij)
Dibujo25.JPG













Propiedades
a · (b · A) = (a · b) · A ; A Mmxn, a, b
a · (A + B) = a · A + a ; BA,B Mmxn , a
(a + b) · A = a · A + b ; A A Mmxn , a, b
1 · A = A ; A Mmxn+

•PRODUCTO DE MATRICES
Dos matrices A y B se dicen multiplicables si el número de columnas de A coincide con el número de filas de B.

Mm x n x Mn x p = M m x p

El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la fila i de la matriz A por cada elemento de la columna j de la matriz B y sumándolos.


Dibujo26.JPG









Propiedades del producto de matrices
  • Asociativa:

A * (B * C) = (A * B) * C

  • Elemento neutro:

A * I = A
Donde I es la matriz identidad del mismo orden que la matriz A.

  • No es conmutativa por lo general:

A * B ≠ B * A

*Nota: Existen matrices en las cuales el producto A*B si es igual al producto de B*A.
  • Distributiva del producto respecto de la suma:

A · (B + C) = A · B + A · C

  • Matriz inversa:

A · A-1 = A-1 · A = I
Cálculo por el método de Gauss
Sea A una matriz cuadrada de orden n. Para calcular la matriz inversa de A, que denotaremos como A-1, seguiremos los siguientes pasos:

1) Construir una matriz del tipo M = (A | I), es decir, A está en la mitad izquierda de M y la matriz identidad I en la derecha.

Consideremos una matriz 3x3 arbitraria

Dibujo27.JPG
.
La ampliamos con la matriz identidad de orden 3
Dibujo28.JPG

2) Utilizando el método Gauss vamos a transformar la mitad izquierda, A, en la matriz identidad, que ahora está a la derecha, y la matriz que resulte en el lado derecho será la matriz inversa: A-1.
F2 - F1 ; se resta la fila dos de la fila uno.

Dibujo29.JPG
F3 + F2 ; sumamos la fila tres con la fila dos.


Dibujo30.JPG


F2 - F3 ; restamos la fila dos de la fila tres.
Dibujo31.JPG

F1 + F2 ; sumamos la fila uno con la fila dos.
Dibujo32.JPG

La matriz inversa es:

Dibujo34.JPG







RANGO DE UNA MATRIZEs el número de líneas de esa matriz (filas o columnas) que son linealmente independientes.
Una línea es linealmente dependiente de otra u otras cuando se puede establecer una combinación lineal entre ellas.
Una línea es linealmente independiente de otra u otras cuando no se puede establecer una combinación lineal entre ellas.
El rango de una matriz A se simboliza: rang(A) o r(A).

Cálculo por el método de Gauss
Podemos descartar una línea si:

  • Todos sus coeficientes son ceros.
  • Hay dos líneas iguales.
  • Una línea es proporcional a otra.
  • Una línea es combinación lineal de otras.


matriz b.PNG

F3 = 2F1; fila tres es igual a dos veces la fila uno.
F4 es nula; la fila cuatro es nula.
F5 = 2F2 + F1; la fila cinco es igual a la suma de la fila uno más dos veces la fila dos.
r(A) = 2; por lo tanto el rango de la matriz B es igual a 2.

En general consiste en hacer nulas el máximo número de líneas posible, y el rango será el número de filas no nulas.

Dibujo36.JPG


F2 = F2 - 3F1; Fila dos es igual a la fila dos menos tres veces la fila uno.
F3= F3 - 2F1; Fila tres es igual a la fila tres menos dos veces la fila uno.
Por lo tanto r(A) = 3; El rango de la matriz A es de tres.








Cálculo del rango de una matriz por determinantes.Si tenemos la siguiente matriz B, entonces:

matriz 1.gif

Suprimimos la tercera columna porque es combinación lineal de las dos primeras: c3 = c1 + c2.

matrices
matrices

Comprobamos si tiene rango mayor o igual que 1, para ello se tiene que cumplir que al menos un elemento de la matriz no sea cero y por tanto su determinante no será nulo.
|2|=2≠0
Tendrá rango mayor o igual que 2 si existe alguna submatriz cuadrada de orden 2, tal que su determinante no sea nulo.
determinante
determinante

Tendrá rango mayor o igual que 3 si existe alguna submatriz cuadrada de orden 3, tal que su determinante no sea nulo.
determinante
determinante

Como todos los determinantes de las submatrices son nulos tiene rango menor que 3, por tanto r(B)= 2.

SISTEMA DE ECUACIONES LINEALES
Es aquella en donde en cada término de la ecuación aparece únicamente una variable o incógnita elevada a la primera potencia. Por ejemplo:

a 11 X1 + a 12 X2 + a 13 X3 + ... + a 1n Xn = C1 (1)

Es una ecuación algebraica lineal en las variables X1, X2, X3, ... , Xn. Se admite que los coeficientes a11, a12, a13, ... , a1n y el término independiente C1, son constantes reales.

SISTEMA DE ECUACIONES
Es un conjunto de ecuaciones que deben resolverse simultáneamente. En lo sucesivo se considerarán únicamente sistemas de ecuaciones algebraicas lineales, o sea conjuntos de ecuaciones de la forma:

a11 X 1 + a 12 X2 + a13 X 3 +... + a 1n X n = C 1 (a)

a 21 X 1 + a 22 X 2 + a 23 X 3 +... + a 2n X n = C 2 (b) (2)
a n1 X 1 + a n2 X 2 + a n3 X 3 + ... + a nn X n = C n (c)

Aplicando la definición de producto entre matrices, este sistema de n ecuaciones algebraicas lineales con n incógnitas puede escribirse en forma matricial.

clip_image001.gif


Este sistema de ecuaciones puede escribirse simbólicamente como:

A X = C
en donde A se llama Matriz del Sistema. La matriz formada por A, a la que se le ha agregado el vector de términos independientes como última columna, se le llama la Matriz Ampliada del Sistema, que se representa con (A, C).

Entonces la matriz ampliada será:


FGH.gif


SOLUCIÓN DE UN SISTEMA DE ECUACIONESEs un conjunto de valores de las incógnitas que verifican simultáneamente a todas y cada una de las ecuaciones del sistema.
De acuerdo con su solución, un sistema puede ser: Consistente, si admite solución; o Inconsistente, si no admite solución.
Un sistema Consistente puede ser: Determinado, si la solución es única o Indeterminado, si la solución no es única. En este caso se demuestra que existe una infinidad de soluciones.

  • TEOREMAS SOBRE RANGOS

El rango de una matriz es el orden de determinante no nulo de mayor orden que puede obtenerse de esa matriz. El rango de la matriz A se representa con la notación r(A) y el de la matriz ampliada con r(A, C).

En álgebra se demuestra que:

  1. 1. Para cualquier sistema, r(A) <= r(A, C)
  2. 2. Si r(A) < r(A, C) el sistema es inconsistente
  3. 3. Si r(A) = r(A, C) el sistema de ecuaciones es consistente

En este caso, si además r(A) = n, el sistema es determinado e indeterminado si r(A) < n, siendo n el número de variables en el sistema.

En general, hay dos tipos de técnicas numéricas para resolver ecuaciones simultáneas: Directas, que son finitas; e Indirectas, que son infinitas.

Naturalmente, ninguna técnica práctica puede ser infinita. Lo que queremos decir es que en un principio los métodos directos (despreciando errores por redondeo) producirán una solución exacta, si la hay, en un número finito de operaciones aritméticas.

Por otra parte, un método indirecto requerirá en principio un número infinito de operaciones aritméticas para producir una solución exacta.

Dicho de otra manera, un método indirecto tiene un error por truncamiento mientras que un método directo no lo tiene.

Sin embargo, la expresión "en principio" del párrafo anterior es crucial: en realidad se tienen errores por redondeo. Tendremos que considerar más cuidadosamente esta cuestión. En un sistema grande, mal comportado, los errores por redondeo de un método directo puede hacer que la "solución" carezca de sentido. A pesar de su error teórico por truncamiento, un método indirecto puede ser mucho más deseable porque en él los errores por redondeo no se acumulan.

  • MÉTODO DE ELIMINACIÓN DE GAUSS

El primer método que se presenta usualmente en álgebra, para la solución de ecuaciones algebraicas lineales simultáneas, es aquel en el que se eliminan las incógnitas mediante la combinación de las ecuaciones. Este método se conoce como Método de Eliminación. Se denomina eliminación Gaussiana si en el proceso de eliminación se utiliza el esquema particular atribuido a Gauss.

Utilizando el método de Gauss, un conjunto de n ecuaciones con n incógnitas se reduce a un sistema triangular equivalente (un sistema equivalente es un sistema que tiene iguales valores de la solución), que a su vez se resuelve fácilmente por "sustitución inversa"; un procedimiento simple que se ilustrará con la presentación siguiente.

El esquema de Gauss empieza reduciendo un conjunto de ecuaciones simultáneas, tal como se muestra anteriormente a un sistema triangular equivalente como:


clip_image001.gif


En el cual los superíndices indican los nuevos coeficientes que se forman en el proceso de reducción. La reducción real se logra de la siguiente manera:
1. La primera ecuación (2) se divide entre el coeficiente de X1 en esa ecuación para obtener:

clip_image001.gif
2. La ec. (7) se multiplica entonces por el coeficiente de X1 de la segunda ecuación (2) y la ecuación que resulta se resta de la misma, eliminando así X1. La ec. (7) se multiplica entonces por el coeficiente de X1 de la tercera ecuación (2), y la ecuación resultante se resta de la misma para eliminar X1 de esa ecuación. En forma similar, X1 se elimina de todas las ecuaciones del conjunto excepto la primera, de manera que el conjunto adopta la forma:

1.GIF

3. La ecuación utilizada para eliminar las incógnitas en las ecuaciones que la siguen se denomina Ecuación Pivote.En la ecuación pivote, el coeficiente de la incógnita que se va a eliminar de las ecuaciones que la siguen se denomina el Coeficiente Pivote (a11 en los pasos previos).

4. Siguiendo los pasos anteriores, la segunda ecuación (8) se convierte en la ecuación pivote, y los pasos de la parte 1 se repiten para eliminar X2 de todas las ecuaciones que siguen a esta ecuación pivote.

Esta reducción nos conduce a:
2.GIF(9)

A continuación se utiliza la tercer ecuación (9) como ecuación pivote, y se usa el procedimiento descrito para eliminar X3 de todas las ecuaciones que siguen a la tercer ecuación (9). Este procedimiento, utilizando diferentes ecuaciones pivote, se continúa hasta que el conjunto original de ecuaciones ha sido reducido a un conjunto triangular tal como se muestra en la ecuación. (6).

5. Una vez obtenido el conjunto triangular de ecuaciones, la última ecuación de este conjunto equivalente suministra directamente el valor de Xn (ver ec. 6). Este valor se sustituye entonces en la antepenúltima ecuación del conjunto triangular para obtener un valor de Xn-1, que a su vez se utiliza junto con el valor de Xn en la penúltima ecuación del conjunto triangular para obtener un valor Xn-2 y así sucesivamente. Este es el procedimiento de sustitución inversa al que nos referimos previamente.

Para ilustrar el método con un conjunto numérico, apliquemos estos procedimientos a la solución del siguiente sistema de ecuaciones:

X1 + 4 X2 + X3 = 7

X1 + 6 X2 - X3 = 13 (10)
2 X1 - X2 + 2 X3 = 5

Utilizando como ecuación pivote la primera ecuación (el coeficiente pivote es unitario), obtenemos:

X1 + 4 X2 + X3 = 7
2 X2 - 2 X3 = 6 (11)
9 X2 + (0) X3 = -9

continuación, utilizando la segunda ecuación del sistema (11) como ecuación pivote y repitiendo el procedimiento, se obtiene el siguiente sistema triangular de ecuaciones:

X1 + 4 X2 + X3 = 7

2 X2 - 2 X3 = 6 (12)
- 9 X3 = 18

Finalmente mediante sustitución inversa, comenzando con la última de las ecuaciones. (12) se obtienen los siguientes valores:

X3 = -2

X2 = 1
X1 = 5

  • MÉTODO DE GAUSS - JORDAN

Este método, que constituye una variación del método de eliminación de Gauss, permite resolver hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos significativos en las operaciones aritméticas de la computadora. Este procedimiento se distingue del método Gaussiano en que cuando se elimina una incógnita, se elimina de todas las ecuaciones restantes, es decir, las que preceden a la ecuación pivote así como de las que la siguen.

El método se ilustra mejor con un ejemplo. Resolvamos el siguiente conjunto de ecuaciones

3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500

0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3
0.3 X1 - 0.2 X2 + 10 X3 = 71.4000

Primero expresemos los coeficientes y el vector de términos independientes como una matriz aumentada.

3.GIF


Se normaliza el primer renglón dividiendo entre 3 para obtener:


4.gif


El término X1 se puede eliminar del segundo renglón restando 0.1 veces el primero del segundo renglón. De una manera similar, restando 0.3 veces el primero del tercer renglón se elimina el término con X1 del tercer renglón.

5.gif


En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:

6.gif


Reduciendo los términos en X2 de la primera y la tercera ecuación se obtiene:


7.gif


El tercer renglón se normaliza dividiéndolo entre 10.010:


8.gif

Finalmente, los términos con X3 se pueden reducir de la primera y segunda ecuación para obtener:
9.gif

Nótese que no se necesita sustitución hacia atrás para obtener la solución.

Las ventajas y desventajas de la eliminación gaussiana se aplican también al método de Gauss-Jordan.

Aunque los métodos de Gauss-Jordan y de eliminación de Gauss pueden parecer casi idénticos, el primero requiere aproximadamente 50% menos operaciones. Por lo tanto, la eliminación gaussiana es el método simple por excelencia en la obtención de soluciones exactas a las ecuaciones lineales simultáneas. Una de las principales razones para incluir el método de Gauss-Jordan, es la de proporcionar un método directo para obtener la matriz inversa.


INVERSIÓN DE MATRICESSea A una matriz cuadrada no singular, es decir, que su determinante sea diferente de cero lAl ≠ 0. Por definición de matriz inversa, se tiene que A -1 es la inversa de A si:

A * A -1 = I (13)

Haciendo X = A -1 y sustituyendo en la ecuación anterior, se obtiene
A X = I (14)
Puede considerarse que esta ecuación matricial representa un sistema de ecuaciones simultáneas, en donde no hay un solo vector de términos independientes sino n, los n vectores básicos que forman la matriz unitaria I. Además, no existe un solo vector de incógnitas, sino n, los que corresponden a cada columna de la matriz unitaria.

Por lo anterior, es posible determinar la inversa de una matriz con el método de Gauss-Jordan de eliminación completa. Para lograrlo, bastará con aplicar las operaciones elementales sobre los renglones de la matriz ampliada (A, I) de manera de transformar A en I. Cuando se haya hecho, se obtendrá la matriz ampliada (I, A -1) con lo que se tendrá la inversa buscada.

EJEMPLO
Invertir la matriz


10.gif


Auméntese la matriz de coeficientes con una matriz identidad.


11.GIF


Usando a11 como pivote, el renglón 1 se normaliza y se usa para eliminar a X1 de los otros renglones.

12.GIF

En seguida, se usa a22 como pivote y X2 se elimina de los otros renglones.

13.GIF

Finalmente, se usa a33 como pivote y X3 se elimina de los renglones restantes:

14.GIF


Por lo tanto, la inversa es:

15.GIF

Se puede resolver un sistema de ecuaciones con la inversa de la matriz de coeficientes, de la siguiente manera:

X = A -1 C

Donde C es el vector de términos independientes.
Comparando ambos métodos, es evidente que el método de inversión de matrices no es práctico para la solución de un sólo conjunto (o dos o tres conjuntos) de ecuaciones simultáneas, porque la cantidad de cálculos que intervienen para determinar la matriz inversa es muy grande. Sin embargo, si se desea resolver 20 conjuntos de 10 ecuaciones simultáneas que difieren únicamente en sus términos independientes, una matriz aumentada que contiene 20 columnas de constantes (que se utilizarían en el método de eliminación) sería difícil de reducir, y se podría usar con ventaja el método de inversión de matrices.

  • DETERMINANTES


Se llama determinante de una matriz cuadrada a un número que se obtiene operando de cierta forma con los elementos de la matiz.
Se define determinante de una matriz de orden 2 como el número obtenido de la siguiente manera.

det(A) = |A| = a11.a22 - a12.a21

Se define determinante de una matriz de orden 3 como el numero obtenido de la siguiente manera

det(A) = |A| = a1.a22.a33 + a21.a32.a13 + a12.a23.a31 - a13.a22.a31 - a11.a23.a32 - a21.a12.a33

Regla de Sarrus:Es una regla mnemotécnica que permite obtener de manera sencilla el determinante de una matriz.










PROPIEDADES DE LOS DETERMINANTES
1) El determinante de una matriz coincide con el de su traspuesta.

2) Si una matriz tiene una línea de ceros su determinante es 0.

3) Si permutamos dos líneas de una matriz su determinante cambia de signo.

4) Si una matriz tiene 2 líneas iguales, su determinante es 0.

5) Si multiplicamos cada elemento de una línea de una matriz por un número, el determinante de la matriz queda multiplicado por ese número.

6) Si una matriz tiene dos líneas proporcionales su determinante es 0.

7) Sean A, B y C 3 matrices cuadradas iguales excepto en una línea, de tal forma que la línea distinta en C sea la suma de sus correspondientes en A y B.
|C| = |A| + |B|

8) Si una línea de una matriz le sumamos otra línea multiplicada por un número, el determinante de la nueva matriz es igual a la primera.

9) Si una matriz cuadrada tiene una línea que es combinación lineal de las restantes, su determinante es 0.

10) El determinante de un producto de matrices es igual al producto de los determinantes.

11) Si los elementos de una línea se multiplican por los adjuntos de otra paralela y se suman, el resultado es 0.


12) Si los elementos de una línea se multiplican por sus respectivos adjuntos y se suman los resultados se obtiene el valor del determinante de la matriz.

Esta última propiedad proporciona un procedimiento para obtener el desarrollo de determinantes de cualquier orden.

Se llama submatriz de una matriz Aij a cualquier matriz que se obtiene suprimiendo cierto número de filas y cierto número de columnas de la misma matriz A.

Se llama menor de orden n al determinante de una submatriz cuadrada de orden n.

Se llama submatriz asociada a un elemento Aij a la submatriz que resulta de suprimir la fila i y la columna j.

Se llama menor complementario del elemento Aij al determinante de una submatriz cuadrada asociada al elemento Aij.

Se llama adjunto de una elemento al menor complementario de dicho elemento afectado del signo + o - según sea par o impar la suma de los subi­ndices i + j. se representa por Aij.

De acuerdo con estas definiciones podemos anunciar las siguientes propiedades de los determinantes ( 11 y 12 ya puestas arriba ).

CÁLCULO DE UNA MATRIZ INVERSA
Dada una matriz A se llama adjunta de A ( adjA) a la matriz que resulta de sustituir cada elemento de A por su correspondiente adjunto.
La condición necesaria y suficiente para que una matriz cuadrada A tenga inversa, es que su determinante sea distinto de 0.

Existe A-1 ó |A| desigual a 0
A-1 = (adj A)t/|A|

RESOLUCIÓN DE SISTEMAS LINEALES POR DETERMINANTES
  • SISTEMA DE CRAMER

Todos los sistemas de Cramer son compatibles y además el valor de cada incógnita Xi viene dado por la expresión:
X = |Ai| / |A|

Donde A es la matriz de coeficientes y Ai la matriz que resulta de sustituir en la matriz A la columna de coeficientes Xi por la columna de los términos independientes.

a11X1 + a12X2 + a13X3 = C1
a21X1 + a22X2 + a23X3 = C2
a31X1 + a32X2 + a33X3 = C3

AX = C ó X = A-1C


TEOREMA DE ROUCHÃ FROBENIUSLa condición necesaria y suficiente para que un sistema de ecuaciones lineales sea compatible es que el rango de una matriz de coeficientes sea igual que el rango de una matriz ampliada.

Sist. Compatible ó rgA = rgA*

SISTEMAS HOMOGENEOS
Un sistema de ecuaciones lineales se dice que es homogéneos si todos los términos independientes son iguales a 0.

Estos sistemas siempre admiten la solución x = y = z = ….esta es la llamada solución trivial.

Teorema: la condición necesaria y suficiente para que un sistema homogóneo tenga solución distinta de la trivial es que el rango de la matriz de coeficientes sea menor que el numero de incógnitas.






titulo vectores.PNG


En matemáticas, un vector de un espacio euclídeo o espacio vectorial real de dimensión n es un conjunto ordenado de n números reales‍‍‍X1,X2.png‍‍‍R11.png
Definición5a21a85a927445d8e98cc1dad7e5bc0a.png
Así, un vector V perteneciente a un espacio V.pngse representa como: V1.png, donde V2.png.

Un vector también se puede ver desde el punto de vista de la geometría como vector geométrico (usando frecuentemente el espacio tridimensional R1.pngó bidimensional R11.png.

Un vector fijo del plano es un segmento orientado, en el que hay que distinguir dos características:
  • dirección: la orientación de la recta
  • módulo: la longitud del segmento

Los vectores fijos del plano se denotan con dos letras mayúsculas, por ejemplo AB, que indican su origen y extremo respectivamente.

Operaciones y propiedades:

Suma y resta de vectores
Suma de Vectores
La suma es una operación interna
suma de vectores 6.PNG
suma de vectores 5.PNG
Producto escalar de vectores

El producto escalar de vectores es una operación externa.
producto_escalar.png
Dados dos vectores.prod_escalar_3.pngy prod_escalar_4.png

Se representa mediante un punto y se define como:

prod_punto.png

También lo podemos expresar a partir de sus coordenadas como:

prod_escalar_2.png

Producto de un escalar por un vector
El producto escalar por un vector es una operación externa.

El producto de unprod_escalar_6.pngnúmero escalar cualquiera alfa.pngpor un vector se define como

Fundamentales

Una vez definidas las principales, se muestran las propiedades fundamentales. Así, para todo
a, b, c, u, v, perteneciente a

, y para todo alfa_u.pngperteneciente a r.png, se tienen las siguientes propiedades:

Asociativa: asociatividad.png

Conmutativa: conmutatividad.png

Elemento opuesto: elemento_opuesto.png

Elemento neutro: elemento_neutro.png







ESPACIO VECTORIALSea V un espacio vectorial sobre un cuerpo K
.Los vectores

{v1, ..., vn} ⊆ V, generan V
si y sólo sí:

{v1, ..., vn}i = V

En matemáticas un espacio vectorial es una estructura algebraica creada a partir de un conjunto no vacío con una operación interna suma de vectores y una operación externa producto, entre dicho conjunto y un cuerpo, cumpliendo una serie de propiedades o requisitos iniciales.


A los elementos de un espacio vectorial se les llamará vectores y a los elementos del cuerpo se les llamará escalares.










Subespacio Vectorial

En álgebra lineal, un subespacio vectorial es el subconjunto de un espacio vectorial, que satisface por sí mismo la definición de espacio vectorial con las mismas operaciones que V.

Definición de subespacio vectorial

Sea V un espacio vectorial sobre K y U elementos de V no vacio,
U es un subespacio vectorial de V si:

condicion 1.PNG
condicion 2.PNG

  • Independencia lineal

Diremos que un conjunto de vectores es linealmente independiente si el vector 0 no se puede expresar como combinación lineal no nula de los vectores de es decir:

Si
Diremos que un conjunto de vectores es linealmente dependiente si no es linealmente independiente.

  • Base de un espacio vectorial

Las bases revelan la estructura de los espacios vectoriales de una manera concisa. Una base es el menor conjunto (finito o infinito) B = {vi}i ∈ I de vectores que generan todo el espacio. Esto significa que cualquier vector v puede ser expresado como una suma (llamada combinación lineal) de elementos de la base.

a1vi1 + a2vi2 + ... + anvin,

Donde los ak son escalares y vik (k = 1, ..., n) elementos de la base B. La minimalidad, por otro lado, se hace formal por el concepto de independencia lineal. Un conjunto de vectores se dice que es linealmente independiente si ninguno de sus elementos puede ser expresado como una combinación lineal de los restantes. Equivalentemente, una ecuación.

a1vi1 + ai2v2 + ... + anvin = 0

Sólo se consigue si todos los escalares a1, ..., an son iguales a cero. Por definición de la base cada vector puede ser expresado como una suma finita de los elementos de la base. Debido a la independencia lineal este tipo de representación es única. Los espacios vectoriales a veces se introducen desde este punto de vista.
  • Si tiene base finita, diremos dimensión al número de elementos de dicha base.
  • Si tiene base no finita, diremos que es de dimensión infinita.


Para regresar a indice click aqui home