Реферат: Решение системы линейных уравнений

Министерство образования и науки Республики Беларусь

Белорусский государственный университет

информатики и радиоэлектроники

Факультет информационных технологий и управления

Кафедра Вычислительных Методов и Программирования

ПОЯСНИТЕЛЬНАЯ ЗАПИСКА

к курсовой работе

по программированию

на тему:

«Решение системы линейных уравнений»

Выполнил: Принял:

ст.гр.020603 Навроцкий А.А.

Червоный А.В.

Минск 2001г.

Содержание

Введение.

Анализ существующих методов решения задачи.

Описание используемого метода.

Анализ результатов.

Вывод.

Список использованной литературы.

Приложение (распечатка программы, результатов).

Введение

Решение систем линейных алгебраических уравнений (СЛАУ) является одной из основных задач линейной алгебры. Эта задача имеет важное прикладное значение при решении научных и технических проблем. Кроме того, является вспомогательной при реализации многих алгоритмов вычислительной математики, математической физики, обработки результатов экспериментальных исследований.

Применяемые на практике численные методы решения СЛАУ делятся на две группы -прямые и итерационные.

В прямых (или точных) методах решение системы получают за конечное число арифметических действий. К ним относятся известное правило Крамера нахождения решения с помощью определителей, метод последовательного исключения неизвестных (метод Гаусса) и его модификации, метод прогонки и другие. Сопоставление различных прямых методов проводится обычно по числу арифметический действий, необходимых для получения решения. Прямые методы являются универсальными и применяются для решения систем до порядка 103. Отметим, что вследствие погрешностей округления при решении задач на ЭВМ прямые методы на самом деле не приводят к точному решению системы.

Итерационные (или приближенные) методы являются бесконечными и находят решение системы как предел при k®¥последовательных приближений x(k), где k — номер итерации. Обычно задается точность e, и вычисления проводятся до тех пор, пока не будет выполнена оценка ºx(k)x(k-1)º< e. Число итераций n(e), которое необходимо провести для получения заданной точности, для многих методов можно найти из теоретических рассмотрений. Качество различных итерационных методов можно сравнивать по необходимому числу итераций n(e). Эти методы особенно предпочтительны для систем с матрицами специального вида — симметричными, трехдиагональными, ленточными и большими разреженными матрицами.

Выбор среды программирования.

После проведенного обзора программных средств мы выбрали среду программирования наиболее подходящую нам как очень удобное средство для разработки данного программного продукта. DELPHI 5.0 является наиболее выгодной нам средой программирования.

1. Анализ существующих методов решения задачи

Прямые методы решения СЛАУ. К прямым (или точным) методам решения СЛАУ относятся алгоритмы, которые в предположении, что вычисления ведутся без округлений, позволяют получить точное решение системы за конечное число арифметических действий. Чаще всего решение задач такими методами осуществляется поэтапно: на первом этапе систему преобразуют к тому или иному простому виду, на втором — решают упрощенную систему и получают значения неизвестных.

Запишем систему линейных алгебраических уравнений в развернутом виде:

/>

где x1, x2,..., xn — неизвестные величины, b1, b2,..., bn — элементы правой части. Если определитель системы отличен от нуля, то она имеет единственное решение. Для удобства дальнейших преобразований обозначим элементы правой части аi(n+1) и запишем расширенную матрицу размерами n´(n+1), которая содержит всю информацию о системе:

A =/>.

С этой матрицей можно обращаться так же, как и с системой — переставлять строки, прибавлять кратное одной строки к другой, исключая неизвестные и приводя матрицу к треугольному или диагональному виду.

Приведем формальное описание схем некоторых прямых методов.

Метод Гаусса (схема единственного деления). Алгоритм метода состоит из двух этапов. Первый этап называется прямым ходом метода и заключается в последовательном исключении неизвестных из уравнений, т.е. в приведении матрицы А к верхнему треугольному виду (ниже главной диагонали все нули). Для этого на первом шаге разделим первое уравнение системы на а11 (предположим, что коэффициента11 ¹ 0, в противном случае осуществляем перестановку уравнений системы). Обозначим коэффициенты полученного приведенного уравнения />, домножим его на коэффициент а21 и вычтем из второго уравнения системы, исключая тем самым х1 из второго уравнения (обнуляя коэффициента12 матрицы). Поступим аналогично с остальными уравнениями и получим новую систему, матрица которой в первом столбце, кроме первого элемента, содержит только нули, т.е.

/>.

Первое уравнение в дальнейших преобразования не участвует. Описанный выше процесс исключения неизвестных применим к матрице /> размерами (n-1) n. После k аналогичных шагов получим k приведенных уравнений с коэффициентами

/>

и матрицу /> размерами (nk) (nk+1), элементы которой вычисляются по формулам

/>.

Элементы />, на которые осуществляется деление, называются ведущими элементами метода Гаусса и не должны равняться нулю. Прямой ход метода Гаусса заканчивается после n шагов определением />.

Обратный ход метода Гаусса заключается в последовательном определении компонент решения, начиная схn и заканчивая х1, по следующим формулам:

/>

Метод Гаусса с выбором главного элемента. Метод заключается в том, что при прямом ходе в алгоритме метода Гаусса на каждом шаге исключения производится выбор наибольшего по модулю элемента в качестве ведущего. Этого достигают перестановкой строк или столбцов матрицы коэффициентов. Наиболее распространённой в вычислительной практике является стратегия выбора главного элемента столбца — нахождение максимального по модулю элемента k-го столбца матрицы /> и использование его в качестве ведущего элемента на k-м шаге исключения. В этом случае для невырожденных систем гарантируется, что ведущие элементы не равны нулю, и уменьшается погрешность при делении и последующем вычитании при преобразованиях. Рекомендуется также масштабировать предварительно каждое уравнение исходной системы, разделив на его наибольший по абсолютной величине коэффициент. Это делает рост элементов промежуточных матриц ограниченным.

Метод оптимального исключения.В целях экономии оперативной памяти (примерно в 4 раза) операции прямого и обратного хода метода Гаусса выполняются попеременно. На первом шаге после приведения первого уравнения исключается неизвестное x1 из второго уравнения, а затем с помощью приведенного второго уравнения — неизвестноеx2 из первого. После (k-1) таких шагов матрица системы имеет вид

/>.

На k-м шаге, используя первыеk уравнений, исключаем неизвестные x1,..,xk из (k+1)-го уравнения. Затем посредством этого уравнения исключается неизвестное xk+1 из первых kуравнений и т.д. В результате прямого хода матрица системы приводится к диагональному виду с единицами на главной диагонали. При этом отпадает необходимость обратного хода, поскольку столбец правой части приведенной матрицы /> и является вектором решения.

Метод Гаусса-Жордана. Эта модификация метода Гаусса незначительно отличается от метода оптимального исключения. Операции исключения переменных для каждого приводимого уравнения осуществляют не только ниже, но и выше главной диагонали. Операции с первым уравнением системы полностью аналогичны стандартной схеме. Второе уравнение системы после приведения и домножения на соответствующие коэффициенты вычитаем не только из третьего и последующих уравнений, но и из первого. В результате k таких шагов получаем матрицу

--PAGE_BREAK--

/>.

Как и в методе оптимального исключения, матрица системы приводится к диагональному виду и вектором решения является столбец />.

LU -разложение. Матрицу A можно представить в виде произведения нижней треугольной матрицы (включая диагональ) L (lower) и верхней треугольной матрицы U ( upper ), т.е. A=LU. Это равенство равносильно n2числовым равенствам

/>.

Разложение матрицы A на множители обычно получают посредством алгоритма, который называется компактной схемой метода Гаусса. Элементыlim и Umi могут быть вычислены по формулам

/>

Тогда решение системы Ax=b сводится к последовательному решению двух систем — Ly=b и Ux=y.

Рассмотренный метод можно применять к решению серии систем с одной и той же матрицей.

Метод простых итераций (Якоби).

Для решения итерационным методом система линейных алгебраических уравнений Ax= bдолжна быть приведена к виду x= Gx+f, где G — некоторая матрица, f- преобразованный вектор свободных членов. Затем выбирается начальное приближение — произвольный вектор x(0) — и строится рекуррентная последовательность векторов x(1), x(2),...,x(k),... по формуле

/>.

Для сходимости этой последовательности при любом начальном приближении необходимо и достаточно, чтобы все собственные значения матрицы G были по абсолютной величине меньше единицы. На практике это трудно проверить, и обычно пользуются достаточными условиями сходимости — итерации сходятся, если какая-нибудь норма матрицы меньше единицы, т.е.

/>или />.

Чем меньше норма матрицы G, тем быстрее сходится итерационный процесс.

Преобразование системы можно осуществить, просто решая каждое i-е уравнение относительноxi :

/>.

Метод Якоби использует следующий алгоритм построения приближений:

/>.

Если A — матрица с доминирующей диагональю, т.е. />, то метод Якоби сходится при любом начальном приближении x(0).

Метод Якоби относится к одношаговым итерационным методам, когда для нахождения x(k+1) требуется помнить только одну предыдущую итерацию x(k). Для исследования сходимости удобнее записывать итерационные методы не в координатной, а в матричной форме, придерживаясь стандартной формы записи итерационных методов.

Канонической формой одношагового итерационного метода решения СЛАУ называется его запись в виде

/>,

где Bk+1 — матрица, задающая тот или иной итерационный метод, tk+1 — итерационный параметр. Числовые параметры tk вводят для ускорения сходимости. Способ выбора итерационных параметров определяется при исследовании сходимости метода, когда выясняется при каких значениях параметров метод сходится и когда сходимость будет наиболее быстрой (соответствующие параметры называются оптимальными).

Итерационный метод называют явным, если Bk+1 — единичная матрица. Неявные итерационные методы имеет смысл применять лишь в том случае, когда решение системы уравнений с матрицей Bk требует меньше машинной памяти или времени или алгоритмически проще, чем решение исходной системы.

Методом простой итерации называют явный метод с постоянм параметром

/>, или/>,

где r(k) = Ax(k)-b — вектор невязки. Метод сходится для симметричных положительно определенных матриц при />.

Дляокончания итерационного процесса используют три способа. При первом определяют величину стабилизации и прекращают вычисления, если она меньше e, т.е.

/>.

Недостатком этого способа является то, что при медленно сходящихся итерациях величина стабилизации может быть малой, хотя приближенное решение сильно отличается от точного.

При втором способе вычисляют нормы невязки до начала итераций и на каждой итерации. Итерации прекращают при выполнении неравенства

/>.

При третьем способе предварительно оценивается число итераций, необходимое для получения заданной точностиe. Если для погрешности итерационного метода выполняются оценки

/>,

где q (0,1), то метод сходится со скоростью геометрической прогрессии со знаменателемq. Можно определить, потребовав, чтобы qn< e, число итераций n, достаточное для того, чтобы начальная погрешность уменьшилась в заданное число раз:

/>.

Целая часть числа n(e) является минимальным числом итераций, необходимым для получения заданной точности e.

Величина ln(1/q) является скоростью сходимости итерационного метода.

2. Описание используемого метода

Для решения методом Зейделя система линейных алгебраических уравнений Ax= bдолжна быть приведена к виду x= Gx+f, где G — некоторая матрица, f- преобразованный вектор свободных членов. Затем выбирается начальное приближение — произвольный вектор x(0) — и строится рекуррентная последовательность векторов x(1), x(2),...,x(k),... по формуле

/>.

Для сходимости этой последовательности при любом начальном приближении необходимо и достаточно, чтобы все собственные значения матрицы G были по абсолютной величине меньше единицы. На практике это трудно проверить, и обычно пользуются достаточными условиями сходимости — итерации сходятся, если какая-нибудь норма матрицы меньше единицы, т.е.

/>или />.

Чем меньше норма матрицы G, тем быстрее сходится итерационный процесс.

Преобразование системы можно осуществить, просто решая каждое i-е уравнение относительноxi :

/>.

Метод Зейделя использует следующий алгоритм построения приближений:

/>

Если A — матрица с доминирующей диагональю, т.е. />, то метод Зейделя сходится при любом начальном приближении x(0).

/>

Метод Зейделя сходится примерно так же, как геометрическая прогрессия со знаменателем ||G||. Если норма матрицы Gблизка к 1, то скорость сходимости очень медленная. Для ускорения сходимости используется метод релаксации. Суть его в том, что полученное по методу Зейделя очередное значение пересчитывается по формуле:

    продолжение
--PAGE_BREAK--

Здесь 0<w£2 – параметр релаксации. Если w<1 — нижняя релаксация, если w>1 – верхняя релаксация. Параметр wподбирают так, чтобы сходимость метода достигалась за минимальное число итераций.

Метод Зейделя является одношаговым итерационным методам, когда для нахождения x(k+1)требуется помнить только одну предыдущую итерацию x(k).

Погрешность итерации вычисляется по формуле:

/>

n— порядок матрицы A.

Если dменьше заданной точности e, то итерационный процесс прекращают.

Элементы главной диагонали называются главными. Заметим, что если в ходе расчётов по данному алгоритму на главной диагонали окажется нулевой элемент, то произойдет сбой программы. Для того, чтобы избежать этого, следует перестановку строк таким образом, чтобы на главной диагонали находились максимальные элементы строк. Т. е., если в k-й строке максимальным является i-й элемент, необходимо поменять местами k-ю и i-ю строки, и поменять местами соответствующие элементы вектора b. Такой выбор главного элемента необходим для сходимости итерационного процесса.

Приведём блок-схему реализации данного метода:

/>

/>/>

/>

/>

/>/>/>/>/>/>/>/>/>/>/>/>/>

/>

/>

/>

/>/>/>

/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>

/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>/>

3. Анализ результатов.

Скорость сходимости итерационного процесса зависит от заданной матрицы коэффициентов. В зависимости от вида исходных данных( матрицы коэффициентов и матрицы b) программа подбирает оптимальный параметр релаксации w(при котором решение достигается за минимальное число итераций).

Для достижения наивысшей скорости сходимости итерационного процесса для уравнения, заданного на рис.3 программой был выбран параметр релаксации w=1,26. Таким образом, была применена верхняя релаксация. Заданная точность e=0,0001 была достигнута за 40 итераций.

График зависимости количества итераций от параметра релаксации приведен на рис 1.

/>Рис. 1

Для достижения наивысшей скорости сходимости итерационного процесса для уравнения, заданного на рис.4 программой был выбран параметр релаксации w=0,98. Таким образом, была применена нижняя релаксация. Заданная точность e=0,0001 была достигнута за 17 итераций. График зависимости количества итераций от параметра релаксации приведен на рис 2.

/>

Рис. 2

Правильность решения СЛАУ была проверена с помощью программного пакета Mathcad 2000 professional. Отметим, что программа даёт правильное решение СЛАУ почти во всех случаях, когда каждый элемент главной диагонали является максимальным в своей строке.

Вывод

Программа, разработанная в данной курсовой работе, реализует метод Зейделя для решения СЛАУ 6-го порядка. Она даёт гарантированно правильное решение системы линейных уравнений, если каждый элемент главной диагонали матрицы коэффициентов является единственным максимальным в своей строке, ненулевым, либо справедливы условия: максимальный элемент строки является единственным максимальным в своём столбце, ненулевым, а ни один из остальных элементов столбца не является максимальным в своей строке, все элементы каждой строки кроме максимального одинаковы.

При исходных данных:

/>/>

была достигнута точность 0,0001 в решении:

/>за 2 итерации при параметре релаксации w=0,97.

Программа строит график зависимости количества итераций от параметра релаксации для данной СЛАУ, находит параметр релаксации w, при котором решение достигается за минимальное количество итераций и, разумеется, само решение. Программа проста в эксплуатации и нетребовательна к ресурсам. Реализованная в современной среде разработки Delphi5.0, она без труда может быть доработана или исправлена.

Недостатки программы: 1) применима не для всех систем линейных уравнений; 2)оптимальный параметр релаксации wвычисляется методом подбора, и, поэтому, количество итераций, требуемое для его отыскания достаточно велико(около 18000), однако, для современных ПК, это не является затруднением.

Список использованной литературы

Волков Е.А. Численные методы. ¾ М.: Наука, 1987. ¾ 254 с.

Калиткин Н.Н. Численные методы. ¾ М.: Наука, 1978. ¾ 512 с.

Мудров А.Е. Численные методы для ПЭВМ на языках БЕЙСИК, ФОРТРАН и ПАСКАЛЬ. ¾ Томск, МП «Раско», 1992. ¾270 с.

Самарский А.А., Гулин А.В. Численные методы. ¾ М.: Наука, 1989. ¾432с.

Кэнту М. Delphi 4 для профессионалов ¾ СПб: «Питер», 1999 ¾1200с.

Delphi 5.0 help.

Приложение(распечатка программы, результатов)

Распечатка программы:

unit kurs1;

interface

uses

Windows, Messages, SysUtils, Classes, Graphics, Controls, Forms, Dialogs,

Grids, StdCtrls, ComCtrls, ToolWin, Menus, Unit1, TeEngine, Series,

ExtCtrls, TeeProcs, Chart;

type

TFormk1 = class(TForm)

StringGrid1: TStringGrid;

Label2: TLabel;

Label3: TLabel;

Label4: TLabel;

StringGrid2: TStringGrid;

Label5: TLabel;

Label6: TLabel;

StringGrid3: TStringGrid;

Label7: TLabel;

Label8: TLabel;

Button1: TButton;

MainMenu1: TMainMenu;

Chart1: TChart;

N2: TMenuItem;

    продолжение
--PAGE_BREAK--

N3: TMenuItem;

N4: TMenuItem;

N1: TMenuItem;

Label1: TLabel;

Series1: TFastLineSeries;

procedure FormCreate(Sender: TObject);

procedure matrix;

procedure Button1Click(Sender: TObject);

procedure N1Click(Sender: TObject);

procedure N3Click(Sender: TObject);

procedure N4Click(Sender: TObject);

procedure decision;

private

{ Private declarations }

public

{ Public declarations }

end;

var

Formk1: TFormk1;

// formk1: Tmainmenu;

implementation

var

n,m,i,j,k,l,number_of_iteration,min :integer;

delta,E,sum,max,W,tmp :extended;

A: array[1..6,1..6] of extended;

B: array[1..6] of extended;

X: array[1..6] of extended;

Xp: array[1..6] of extended;

am: array[1..200] of integer;

W_all:array[1..200] of extended;

procedure TFormk1.matrix;

begin

randomize;

for i:=1 to n do stringgrid1.cells[i-1,0]:='*X'+inttostr(i);

for i:=0 to n-1 do

for j:=1 to m do

StringGrid1.cells[i,j]:='2';

for i:=0 to n-1 do

StringGrid1.cells[i,i+1]:='3';

end;

{$R *.DFM}

procedure Tformk1.decision;

begin

delta:=E+1;

number_of_iteration:=0;

for i:=1 to 6 do X[i]:=B[i]/A[i,i];

while (delta>E) and (number_of_iteration < 100) do

begin

for i:=1 to 6 do Xp[i]:=X[i];

for i:=1 to 6 do

begin

sum:=0;

for j:=1 to 6 do sum:=sum+A[j,i]*X[j];

X[i]:=W*(B[i]- sum + A[i,i]*X[i])/A[i,i] + (1-W)*Xp[i];

end;

delta:=abs(X[1]-Xp[1]);

for i:=1 to 6 do

if abs(X[i]-Xp[i])>delta then delta:=abs(X[i]-Xp[i]);

inc(number_of_iteration);

end;

end;

procedure TFormk1.FormCreate(Sender: TObject);

begin

n:=6;m:=6;

matrix;

randomize;

stringgrid2.cells[0,0]:='*1';

for j:=1 to m do

StringGrid2.cells[0,j]:='5';

end;

procedure TFormk1.Button1Click(Sender: TObject);

begin

series1.clear;

for i:=0 to n-1 do

for j:=1 to m do

A[i+1,j]:=strtofloat(StringGrid1.cells[i,j]);

for j:=1 to m do

B[j] :=strtofloat(StringGrid2.cells[0,j]);

for i:=1 to 6 do

begin

max:=abs(A[1,i]);

for j:=1 to 6 do

if abs(A[j,i])>=abs(max) then

begin

max:=A[j,i];

m:=j;

end;

if m<>i then

begin

for l:=1 to 6 do

begin

tmp:=A[l,m];

A[l,m]:=A[l,i];

A[l,i]:=tmp;

end;

tmp:=b[m];

b[m]:=b[i];

b[i]:=tmp;

end;

end;

E:=0.0001;

W:=0.2;

l:=0;

while W<=1.8 do

begin

decision;

inc(l);

am[l]:=number_of_iteration;

W_all[l]:=W;

series1.addxy(W,number_of_iteration,'',clteecolor);

W:=W+0.01;

end;

min:=am[1];

for i:=1 to 200 do

if (am[i]<=min) and (am[i]<>0) then

begin

min:=am[i];

W:=W_all[i];

end;

decision;

if (number_of_iteration>100) or (delta>E) then

begin

label2.Caption:='Программа не может решить данную СЛАУ.';

label3.Visible:=false;

end

else

begin

Chart1.BottomAxis.Automatic:=false;

Chart1.BottomAxis.minimum:=0.2;

Chart1.BottomAxis.maximum:=1.8;

Chart1.BottomAxis.increment:=0.1;

Chart1.LeftAxis.Automatic:=false;

Chart1.LeftAxis.minimum:=0;

Chart1.LeftAxis.maximum:=100;

Chart1.LeftAxis.increment:=5;

label6.visible:=false;

label7.visible:=true;

label8.visible:=true;

label1.visible:=true;

StringGrid3.visible:=true;

stringgrid3.cells[0,0]:='*1';

for i:=1 to 6 do

StringGrid3.cells[0,i]:=floattostr(X[i]);

end;

end;

procedure TFormk1.N1Click(Sender: TObject);

begin

close;

end;

procedure TFormk1.N3Click(Sender: TObject);

begin

chart1.visible:=true;

end;

procedure TFormk1.N4Click(Sender: TObject);

begin

chart1.Visible:=false;

end;

end.

Результаты, рис. 3 и 4:

/>

Рис. 3

/>Рис. 4


еще рефераты
Еще работы по информатике