Please enable JavaScript.
Coggle requires JavaScript to display documents.
MÉTODOS DE SOLUCIÓN DE ECUACIONES - Coggle Diagram
MÉTODOS DE SOLUCIÓN DE ECUACIONES
MÉTODO DE JACOBI
Un método iterativo con el cual se resuelve el sistema lineal Ax = b comienza con una aproximación inicial x(0)a la solucion x y genera una sucesión de vectores x(k) que converge a x. Los métodos iterativos traen consigo un proceso que convierte el sistema Ax = b en otro equivalente de la forma x = Tx + c para alguna matriz fija T y un vector c.
Luego de seleccionar el vector inicial x(0) la sucesión de los vectores de la solución aproximada se genera calculando:
x(k) = Tx(k-1) + c
MÉTODO DE GAUSS-JORDÁN
Como hemos visto, el método de Gauss transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal unitaria (aij=0 para cualquier $i \neq j$).
Su procedimiento se distingue del método Gaussiano en que cuando se elimina una incógnita, se elimina de todas las ecuaciones restantes, es decir, las que preceden a la ecuación pivote así como de las que la siguen. Por lo tanto, la eliminación gaussiana es el método simple por excelencia en la obtención de soluciones exactas a las ecuaciones lineales simultáneas. Una de las principales razones para incluir el método de Gauss-Jordan, es la de proporcionar un método directo para obtener la matriz inversa. Es importante mencionar que este método es muy adecuado para obtener la matriz inversa de una matriz.
Ventajas
Con este método la solución se obtiene directamente sin la necesidad de la sustitución inversa que utiliza el método de Gauss. Con este procedimiento de normalización y eliminación se puede obtener, además la matriz inversa de la matriz de coeficientes, A-1. Si a la matriz aumentada se le adhiere o aumenta la matriz unidad o identidad y se le aplica el método de Gauss-Jordan.
METODO DE GAUSS-SEIDEL
Este método es iterativo o de aproximación y es similar a las técnicas para obtener raíces vistas en el tema anterior. Aquellos métodos consisten en la determinación de un valor inicial a partir del cual, mediante una técnica sistemática se obtiene una mejor aproximación a la raíz. La razón por la cual los métodos iterativos son útiles en la disminución de los errores de redondeo en sistemas, se debe a que un método de aproximación se puede continuar hasta que converga dentro de alguna tolerancia de error previamente especificada.
Las técnicas iterativas se emplean rara vez para resolver problemas de dimensiones pequeñas ya que el tiempo requerido para lograr una precisión suficiente excede al de las técnicas directas. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta técnica es eficiente. Los sistemas de este tipo surgen frecuentemente en la solución numérica de problemas de valores frontera y de ecuaciones diferenciales parciales.
Determinantes o Regla de Cramer
La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su aplicación para la resolución del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es más eficiente que la eliminación gaussiana para matrices pequeñas, particularmente cuando son usadas operaciones SIMD.
Donde {\displaystyle \mathbf {A}
{j}}{\displaystyle \mathbf {A}
{j}} es la matriz resultante de reemplazar la j-ésima columna de {\displaystyle \mathbf {A} }{\mathbf {A}} por el vector columna {\displaystyle \mathbf {b} }{\mathbf {b}}. Hágase notar que para que el sistema sea compatible determinado, el determinante de la matriz {\displaystyle \mathbf {A} }{\mathbf {A}} ha de ser no nulo.
Sustitución.
es un procedimiento utilizado para resolver determinados tipos de ecuaciones, reemplazando una variable por una expresión en función de otra variable,1 lo que permite transformar la ecuación inicial en un tipo cuya resolución se conoce
Para la resolución de ecuaciones bicuadráticas, se puede utilizar la sustitución {\displaystyle z=x^{2}}{\displaystyle z=x^{2}}, bajando así el grado de la ecuación dada y permitiendo la obtención de una ecuación de segundo grado en la variable {\displaystyle z}z, cuya resolución ya se conoce. Se obtienen los valores de la nueva ecuación por radicación, y finalmente se igualan a la variable inicial {\displaystyle x}x, que puede despejarse fácilmente
Método de mínimos cuadrados.
Es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares (o ternas, etc), se intenta encontrar la función que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático.
En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger.
Método de diferencias finitas.
El Método de Diferencias Finitas es un método de carácter general que permite la resolución aproximada de ecuaciones diferenciales en derivadas parciales definidas en recintos finitos. Es de una gran sencillez conceptual y constituye un procedimiento muy adecuado para la resolución de una ecuación bidimensional como la que hemos planteado.
El primer paso para la aplicación del método consiste en discretizar el recinto del plano en el que se quiere resolver la ecuación con una malla, por conveniencia cuadrada. Los puntos de la malla están separados una distancia h en ambas direcciones x e y.