Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Итерационные методы (метод Якоби, метод Зейделя, метод релаксации)
Итерационные методы решения СЛАУ позволяют найти решение лишь с заданной точностью. Пусть требуется решить систему Ax=f. Представим матрицу A в виде A=L+D+U, где L - нижнетреугольная матрица, D - диагональная матрица, U - верхнетреугольная матрица. Запишем систему (6.1) в развернутом виде: где ( i=1, 2, …, n ), и приведем к виду Обозначим В векторно-матричном виде система запишется в виде: x=B x+C, где B={bij}i, j=1, …, n, C={ci}i=1, …, n, x=(x1, x2, …, xn)Т. Построим итерационный процесс по формуле x(k+1)=B x(k)+C, где x0 - задано, k - номер итерации, x(k)=(x1k, x2k, …, xnk)Т. В качестве условия остановки итерационного процесса, можно использовать условие , где e - заданная точность вычисления. Достаточным условием сходимости метода простой итерации является: или условие диагонального преобладания матрицы A, т. е. Необходимым и достаточным условием сходимости итерационных методов является условие max|li(B)| < 1. Оценка погрешности итерационного процесса запишется в виде: , где x*- точное решение. Определяя необходимое число итераций для достижений заданной точности из формулы, получим Итерационная формула метода Якоби имеет вид: , где Для метода Зейделя каждый вычисленный элемент вектора x на (k+1) -й итерации используется при вычислении следующего элемента: В общем виде получим: . Для метода релаксации введем числовой параметр w так, что при w > 1 будет метод верхней релаксации, при w = 1 - метод полной релаксации (метод Зейделя), при w < 1 - метод нижней релаксации. Если A=A* > 0, a w такое, что 0< w < 2, то метод релаксации сходится. Параметр w выбирается из условия минимума спектрального радиуса оператора перехода от итерации к итерации. Оптимизация скорости сходимости итерационного процесса Рассмотрим канонический вид итерационной схемы: , А=АT > 0. (6.3) Если B=E, то схема называется явной: . Если tk+1 =t , то схема называется стационарной. При этом параметр t выбирается из минимума нормы разрешающего оператора Tn, 0 = Sn× Sn-1× …× S1, где x(n)=Tn, 0 × x0, Si - оператор перехода от (i-1) к (i) итерации. Имеет место оценка . Итерационные параметры выбираются из условия , где Pn(t)= - это полином, построенный по параметрам tk на отрезке [g1, g2]. Оптимальным значением параметра t является , где - собственные значения матрицы А. Итерационные методы вариационного типа Рассмотрим канонический вид итерационной схемы (6.3). Введем понятия невязки r(k)=A x(k) - f и погрешности v(k) = D1/2 (x(k)-x*), где x* - точное решение и D - самосопряженный, положительно определенный оператор в вещественном гильбертовом пространстве H. Назовем w(k) = B-1 r(k) поправкой. Будем выбирать параметр tk+1 из условия минимума нормы погрешности при переходе от одной итерации к другой. Умножим итерационную схему на D1/2 : D1/2 x(k+1)=D1/2 x(k)-tk+1(D1/2 Ax(k)-D1/2 Ax*), v(k+1)=v(k)-tk+1(D1/2 A D -1/2 D1/2(x(k)-x*)), v(k+1)=v(k)-tk+1 C v(k), где обозначено C=D1/2 A D -1/2. Имеем . Из условия найдем . Рассмотрим следующие методы. Mетод скорейшего спуска Неявная схема: B=B*> 0, D=A, А=АT> 0. . Явная схема: B=E, . Метод минимальных невязок Явная схема: B=E, D=A* A, А> 0. Если A=A*, то D1/2=A и C=A. v(k+1)=D1/2(x(k)-x*)=A (x(k)-x*)=A x(k)-f = r(k), . Метод минимальных поправок Неявная схема: B=B*> 0, D=A* B-1 A, А> 0, . Метод минимальных погрешностей Неявная схема: B=(A*)-1B0, D=B0> 0, B0= B0T, B0w(k)=A*r(k), . Явная схема: B=E, A*=B0, . Методы сопряженных направлений Рассмотрим схему . (6.4) В каноническом виде (6.4) итерационные параметры tk+1, α k+1 выбираются из условия минимума нормы разрешающего оператора, а не оператора перехода от итерации к итерации. Запишем итерационные формулы в общем виде:
где r(k)=Ax(k) - f – невязка, w(k)=B-1r(k) – поправка, z(k)=x(k) - x* - погрешность, x* - точное решение. Если B=E, то схема является явной и имеет вид Методы сопряженных направлений являются трехслойными и сходятся гораздо быстрее, чем методы вариационного типа. Рассмотрим некоторые из них. Метод сопряженных градиентов (явная схема): D=A, . Метод сопряженных невязок (явная схема): D=A*A, . Метод сопряженных погрешностей (неявная схема): D=B0> 0, B=(A*)-1B0,
Задания 1. Найти число обусловленности заданной матрицы A. 2. Найти решение СЛАУ Ax=f, используя точные методы: метод Гаусса и метод Гаусса с выбором главного элемента. 3. Найти определитель матрицы A и обратную матрицу A-1, используя метод Гаусса и метод Гаусса с выбором главного элемента. 4. Найти приближенное решение СЛАУ Ax=f с заданной точностью ε, используя а) один из итерационных методов: - метод Якоби, - метод Зейделя, - метод релаксации; б) один из методов вариационного типа: - явный метод скорейшего спуска, - неявный метод скорейшего спуска, - метод минимальных невязок, - метод минимальных поправок, - метод минимальных погрешностей; в) один из трехслойных методов: - метод сопряженных градиентов, - метод сопряженных невязок, - метод сопряженных погрешностей. 5. Привести пример плохо обусловленной матрицы A и проверить устойчивость методов к ошибкам округления правой части f. Популярное: |
Последнее изменение этой страницы: 2016-04-10; Просмотров: 892; Нарушение авторского права страницы