BENITO SONORA PARRA
UNIDAD 3
UNDICE
SISTEMAS DE ECUACIONES LINEALES
• 3.1 MATRICES
• 3.1.1 OPERACIONES CON MATRICES
• 3.2 VECTORES
• 3.3 ELIMINACIÓN GAUSS.
• 3.4 MÉTODO DE GAUSS-JORDAN.
• 3.5 ESTRATEGIAS DE PIVOTEO.
• 3.6 MÉTODO DE CHOLESKY
• 3.7 MÉTODO DE DESCOMPOSICIÓN
LU.
• 3.8 MÉTODO DE GAUSS-SEIDEL.
• 3.9 METODO ITERATIVO
• 3.9.1 MÉTODO JACOBI
• 3.9.2 APLICACIONES
1.- INTRODUCCION
En esta unidad aprenderemos todo acerca de las ecuaciones lineales y sus resoluciones con los metodos numericos.
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo.
Algún procedimiento consiste en una fila que es finita de procedimientos e instrucciones que son precisas y especifican una secuencia de operaciones algebraicas y lógicas, que producen o bien hacen una aproximación de la solución del problema. La eficiencia del cálculo del cálculo de la aproximación depende, en parte, a la facilidad que se tenga el implementar el algoritmo y de las características especiales y las limitaciones de los instrumentos que son de cálculo.
3.- SISTEMA DE ECUACIONES LINEALES
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:
El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.
En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma normal como:
Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial:
Si representamos cada matriz con una única letra obtenemos:
Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes. La matriz A se llama matriz de coeficientes de este sistema lineal. A b se le llama vector de términos independientes del sistema y a x se le llama vector de incógnitas.
Tipos de sistemas lineales
Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:
- Sistema compatible si tiene solución, en este caso además puede distinguirse entre:
- Sistema compatible determinado cuando tiene una única solución.
- Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.
- Sistema incompatible si no tiene solución.
Quedando así la clasificación:
Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:
Algoritmo para determinar si un sistema es compatible
Podemos averiguar si un sistema es o no compatible mediante el Teorema de Rouché-Frobenius que establece que un sistema de ecuaciones lineales es compatible sólo si el rango de su matriz ampliada coincide con el de su matriz de coeficientes. Supongamos que el sistema es compatible. Si el valor común de los rangos de las matrices coincide con el número de variables, el sistema es compatible determinado; en caso contrario, es compatible indeterminado.
Sistemas compatibles indeterminados
Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:
Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es y que pasa por el punto , por lo que ambas coinciden en todos los puntos de dicha recta. El sistema es compatible por tener solución o puntos comunes entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.
- En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.
- La condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero al igual que el rango de la matriz ampliada y menor al número de incógnitas(y por tanto uno de sus autovalores será 0):
- De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.
3.1.- MATRICES
En matemática, una matriz es un arreglo bidimensional de números. Dado que puede definirse tanto la suma como el producto de matrices, en mayor generalidad se dice que son elementos de un anillo. Una matriz se representa por medio de una letra mayúscula(A,B..) y sus elementos con la misma letra en minúscula (a,b...), con un doble subíndice donde el primero indica la fila y el segundo la columna a la que pertenece.
Los elementos individuales de una matriz x , a menudo denotados por y , donde el máximo valor de sus elementos (, ) en es , y el máximo valor de es . Siempre que la matriz tenga el mismo número de filas y de columnas que otra matriz, estas se pueden sumar o restar elemento por elemento.
Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para representar los coeficientes de los sistemas de ecuaciones lineales o para representar transformaciones lineales dada una base. En este último caso, las matrices desempeñan el mismo papel que los datos de un vector para las aplicaciones lineales.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el campo del álgebra lineal.
El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.2
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de matrices para resolver un sistema de ecuaciones simultáneas. En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años antes de su publicación por el matemático japonés Seki Kōwa en 1683 y el matemático alemán Gottfried Leibniz en 1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).2
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para facilitar la resolución de ecuaciones lineales, a finales del siglo XVII, Cramer presentó en 1750la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX
3.1.1.- OPERACIONES CON MATRICES
Para obtener los elementos de unas matrices se suman los elementos correspondientes A, B.


Determine las raíces reales de f(x) = -25182x-90x2+44x5-8x4+0.7x5
Las raíces de f(x)=-1+5.5x-4x2+0.5x3
problema
Realizar las operaciones de la fila en toda la matriz aumentada de tal forma de la matriz A se transformé en la matriz identidad y la matriz de identidad original se convierta en la matriz inversa de A.
3x+5y=7
2x-y= - 4
Encontrar A-1

3.2.- VECTORES
En física, un vector (también llamado vector euclidiano o vector geométrico) es una magnitud física definida en un sistema de referencia que se caracteriza por tener módulo (o longitud), dirección y orientación.123
En matemáticas se define un vector como un elemento de un espacio vectorial. Esta noción es más abstracta y para muchos espacios vectoriales no es posible representar sus vectores mediante el módulo y la dirección. En particular los espacios de dimensión infinita sin producto escalar no son representables de ese modo. Los vectores en un espacio euclídeo se pueden representar geométricamente como segmentos de recta , en el plano (bidimensional), o en el espacio (tridimensional).
Algunos ejemplos de magnitudes físicas que son magnitudes vectoriales: la velocidad con que se desplaza un móvil, ya que no queda definida tan solo por su módulo que es lo que marca el velocímetro, en el caso de un automóvil, sino que se requiere indicar la dirección (hacia donde se dirige), la fuerza que actúa sobre un objeto, ya que su efecto depende además de su magnitud o módulo, de la dirección en la que actúa; también, el desplazamiento de un objeto, pues es necesario definir el punto inicial y final del movimiento.

3.3.- ELIMINACION DE GAUSS
El método de eliminación de Gauss o simplemente método de Gauss consiste en convertir un sistema lineal de n ecuaciones con n incógnitas, en uno escalonado, en el que la primera ecuación tiene n incógnitas, la segunda ecuación tiene n - 1 incógnitas, ..., hasta la última ecuación, que tiene 1 incógnita. De esta forma, será fácil partir de la última ecuación e ir subiendo para calcular el valor de las demás incógnitas.
En matemáticas, la eliminación de Gauss, llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal
3.4.-METODO DE GAUSS-JORDAN
Es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.
El método de eliminación de Gauss-Jordan aparece en el capítulo ocho del importante texto matemático chino Jiuzhang suanshu o Los nueve capítulos sobre el arte matemático. Su uso se ilustra en dieciocho problemas, con de dos a cinco ecuaciones. La primera referencia al libro por este título data del 179 DC, pero algunas de sus partes fueron escritas tan pronto como alrededor del 150 a. C., en este año fue señalado por Liu Hui en el III siglo.
Algoritmo
- Ir a la columna no cero extrema izquierda
- Si la primera fila tiene un cero en esta columna, intercambiarlo con otra que no lo tenga.
- Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él.
- Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en forma escalonada).
- Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener 1 delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los renglones correspondientes. Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida.
Supongamos que es necesario encontrar los números "x", "y", "z", que satisfacen simultáneamente estas ecuaciones:
Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:
- Multiplicar una ecuación por un escalar no nulo.
- Intercambiar de posición dos ecuaciones
- Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.
En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:
Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.
Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.
Despejando, podemos ver las soluciones:
Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:
Primero:
Después,
Por último.
Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:
Que representa la ecuación: , donde a ≠ 0. Es decir, , lo que supone una contradicción y, por tanto, no tiene solución
3.5.- ESTRATEGIAS DE PIVOTEO
Objetivos. Resolver sistemas de ecuaciones lineales aplicando varias técnicas de pivoteo;
programar estos algoritmos.
Requisitos. Operaciones elementales, experiencia de resolver sistemas de ecuaciones lineales,
programacion de la eliminacion de Gauss con pivotes diagonales.
Motivación: la eliminación de Gauss puede no funcionar
Para motivar el estudio de varias tecnicas de pivoteo consideremos dos ejemplos cuando
la eliminacion con pivotes diagonales no procede. Luego veremos un ejemplo cuando la
eliminacion con pivotes diagonales funciona mal por cuestiones de redondeo.
Cuando se aplica una operación elemental sobre una determinada fila para lograr un 0 en el coeficiente apq, con p = q + 1, q + 2, . . . ,N utilizo el elemento aqq de la matriz, y dicho elemento recibe el nombre de pivote. Los números mpq = apq/aqq se llaman multiplicadores y son los que se multiplican en la fila pivote para restarla de las correspondientes filas.
Al estar trabajando con sistemas de cómputos, cuya precisión está fijada de antemano, cada vez que se produce una operación aritmética se comete un error, en este caso de redondeo. Es por eso que la elección del pivote en cada paso la tomo por algún criterio no trivial de tal forma de tratar que dicho sea el menor posible.
Existen varias estrategias una de ellas consiste en la denominada estrategia de pivoteo parcial. La idea de este método consiste en lo siguiente: comparo el tamaño de todos los elementos de la columna de la fila q-´e sima (a partir del coeficiente que se encuentra en la diagonal) hasta la última fila, y me quedo con aquel elemento que tenga mayor valor absoluto. Una vez encontrada la fila que cumpla lo anterior, la llamo fila i-´e sima, aplico la operación de intercambio de filas entre la q-´e sima y la i-´e sima, de forma tal de lograr multiplicadores mpq menores a uno en valor absoluto.
Durante la derivación del algoritmo de la eliminación Gaussiana con sustitución hacia atrás, se encontró que para obtener un cero para el elemento pivote a(k) kk era necesario un intercambio de filas de la forma (Ek) $ (Ep) donde k + 1 · p · n era el entero más pequeño con a(k) pk 6= 0. En la práctica frecuentemente es deseable realizar intercambios de las filas que contienen a los elementos pivote, aun cuando estos no sean cero. Cuando los cálculos se realizan usando aritmética de dígitos finitos, como será el caso de las soluciones generadas con calculadora u ordenador, un elemento pivote que sea pequeño comparado con los elementos de debajo del en la misma columna puede llevar a un error de redondeo sustancial.
Pivoteo parcial
La onda con el pivoteo es hacer Gauss-Jordan pero eligiendo el mejor valor para hacer cuentas, de manera tal que los errores de las cuentas de la maquinita sean los menores. Así, se implementa un criterio para reordenar filas de manera tal que se queden los valores mayores al momento de dividir. El método consiste en elegir en la iteración i-ésima, el elemento de la columna que sea el de mayor valor absoluto entre todos los que están por encima de la diagonal, el menor valor de p≥i
3.6.-METODO DE CHOLESKI
En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU.
En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como
donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L* representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky.
La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es Hermitiana y definida positiva.
El requisito de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.
En el caso especial que A es una matriz simétrica definida positiva con entradas reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal (valores propios de A), es factorizable como , donde es matriz cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:
La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso realizamos la factorizacón superior ):
para los elementos de la diagonal principal, y:
para el resto de los elementos. Donde son los elementos de la matriz U.
para los elementos de la diagonal principal, y:
para el resto de los elementos. Donde son los elementos de la matriz U.
3.7.- METODO DE DESCOMPOSICION LU.
Para encontrar la matriz triangular inferior se busca hacer ceros los valores de arriba de cada pivote, así como también convertir en 1 cada pivote. Se utiliza el mismo concepto de "factor" explicado anteriormente y se ubican todos los "factores" debajo de la diagonal según corresponda en cada uno.
Esquemáticamente se busca lo siguiente:
Originalmente se tenía:
Debido a que [A] = [L][U], al encontrar [L] y [U] a partir de [A] no se altera en nada la ecuación y se tiene lo siguiente:
Por lo tanto, si Ax = b, entonces LUx = b, de manera que Ax = LUx = b.
- Obtener la matriz triangular inferior L y la matriz triangular superior U.
- Resolver Ly = b (para encontrar y).
- El resultado del paso anterior se guarda en una matriz nueva de nombre "y".
- Realizar Ux = y (para encontrar x).
- El resultado del paso anterior se almacena en una matriz nueva llamada "x", la cual brinda los valores correspondientes a las incógnitas de la ecuación.
EJEMPLO 1 DE DESCOMPOSICIÓN LU
PROBLEMA: Encontrar los valores de x1, x2 y x3 para el siguiente sistema de ecuaciones:
NOTA: Recuérdese que si la matriz es 2x2 se hará 1 iteración; si es 3x3, 2 iteraciones; si es 4x4, 3 iteraciones; y así sucesivamente.
SOLUCIÓN:
4
|
- 2
|
- 1
|
9
| |||
[A] =
|
5
|
1
|
- 1
|
[B] =
|
7
| |
1
|
2
|
- 4
|
12
|
ITERACIÓN 1
factor 1 = (a21 / a11) = 5 / 4 = 1.25
factor 2 = (a31 / a11) = 1 / 4 = 0.25
Encontrando [U]
fila 2 = - (factor 1) * (fila 1) + (fila 2)
fila 3 = - (factor 2) * (fila 1) + (fila 3)
a11 = a11
a12 = a12
a13 = a13
a21 = - (1.25) * (4) + (5) = 0
a22 = - (1.25) * (- 2) + (1) = 3.5
a23 = - (1.25) + (- 1) + (- 1) = 0.25
a31 = - (0.25) * (4) + (1) = 0
a32 = - (0.25) * (- 2) + (2) = 2.5
a33 = - (0.25) * (- 1) + (- 1) = - 0.75
4
|
- 2
|
- 1
| |
[U] =
|
0
|
3.5
|
0.25
|
0
|
2.5
|
- 0.75
|
Encontrando [L]
1
|
0
|
0
| |
[L] =
|
1.25
|
0
|
0
|
0.25
|
0
|
0
|
ITERACIÓN 2
factor 3 = (u32 / u22) = 2.5 / 3.5 = 0.7142857143
Encontrando [U]
fila 3 = - (factor 3) * (fila 2) + (fila 3)
a31 = - (2.5 / 3.5) * (0) + (0) = 0
a32 = - (2.5 / 3.5) * (3.5) + (2.5) = 0
a33 = - (2.5 / 3.5) * (0.25) + (- 0.75) = - 0.9285714286
4
|
- 2
|
- 1
| |
[U] =
|
0
|
3.5
|
0.25
|
0
|
0
|
- 0.9285714286
|
Encontrando [L]
1
|
0
|
0
| |
[L] =
|
1.25
|
1
|
0
|
0.25
|
0.7142857143
|
1
|
Ahora ya se tiene la matriz [U] y la matriz [L]. El siguiente paso es resolver
Ly = b para encontrar la matriz y. En pocas palabras es como que se pidiera resolver el siguiente sistema de ecuaciones, encontrando los valores de y1, y2 y y3:
Al resolver el sistema anterior, se obtienen los siguientes valores para y1, y2 y y3:
El último paso es resolver Ux = y para encontrar la matriz x. En otras palabras es como que se pidiera resolver el siguiente sistema de ecuaciones, encontrando los valores de x1, x2 y x3:
La solución del sistema es:
Este es finalmente el valor de x1, x2 y x3; es decir, la respuesta del ejercicio utilizando la descomposición LU.
3.8.- METODO DE GAUSS-SEIDEL
Actividad
3x1-0.1x2-0.2x3=7.85
0.1x1+7x2-0.3x3=-19.3
0.3x1-0.2x2+10x3=71.4


En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.
Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez, definida positiva.
3.9.- METODO ITERATIVO
Un método iterativo trata de resolver un problema matemático (como una ecuación o un sistema de ecuaciones) mediante aproximaciones sucesivas a la solución, empezando desde una estimación inicial. Esta aproximación contrasta con los métodos directos, que tratan de resolver el problema de una sola vez (como resolver un sistema de ecuaciones Ax=b encontrando la inversa de la matriz A). Los métodos iterativos son útiles para resolver problemas que involucran un número grande de variables (a veces del orden de millones), donde los métodos directos tendrían un coste prohibitivo incluso con la potencia del mejor computador disponible.
Si una ecuación puede ponerse en la forma f(x) = x, y una solución x es un punto fijo atractivo de la función f, entonces puede empezar con un punto x1 en la base de atracción de x, y sea xn+1 = f(xn) para n ≥ 1, y la secuencia {xn}n ≥ 1 convergerá a la solución x.

3.9.1.- METODO DE JACOBI
En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas como iteración de punto fijo.
La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema.
La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema.La sucesión se construye descomponiendo la matriz del sistema
en la forma siguiente:
, es una matriz diagonal y
, es la suma de una matriz triangular inferior
y una matriz triangular superior
, luego
. Partiendo de
, podemos reescribir dicha ecuación como:
es el contador de iteración, Finalmente tenemos:
donde
Luego,
Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser expresado de la forma:
donde
Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puede sobre escribir xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Esta es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un copiado explícito.
ACTIVADADES , EJERCICIOS


CONCLUCION
Bueno como se pudo observar con esta unidad 3 nos damos cuenta d la gran importancia que tienen los metodos numericos.
Un gran factor de los métodos números es que son aplicables en distintas ramas y aspectos, pero más sin embargo no siempre se encuentra el resultado más óptimo pues todos son valores con su grado de aproximación.
BIBLIOGRAFIA
Apuntes en clase
https://www.aiu.edu/cursos/matematica/pdf%20leccion%203/lecci%C3%B3n%203.4.pdf
http://www.sinewton.org/numeros/numeros/57/Articulo01.pdf
https://www.uv.es/lonjedo/esoProblemas/3eso6ecuaciones1grado.pdf
No hay comentarios:
Publicar un comentario