Реферат: Расчет систем управления при случайных воздействиях



--PAGE_BREAK--1. Основные понятия и определения
В данном материале даётся введение в дисциплину “Расчёт систем управления при случайных воздействиях”, далее РСУ при СВ.
1.1. Значение и место учебной дисциплины
Дисциплина РСУ при СВ – часть технической кибернетики, куда входят ряд дисциплин, которые изучаются на факультете и в университете.

Что же такое кибернетика?

Кибернетика (от греческого kybernetike – искусство управления) – наука об управлении, связи и переработке информации. Основной объект исследования – так называемые кибернетические системы, рассматриваемые абстрактно, вне зависимости от их материальной природы.

Кибернетика как наука об управлении изучает общие свойства и законы, присущие различным системам управления. А так как в автоматическом и автоматизированном производстве задача управления является важнейшей, кибернетика стала, например, теоретической основой автоматизации производства.

Техническая же кибернетика – это отрасль науки, изучающая технические системы управления, используя идеи и методы кибернетики; научная основа автоматизации производства.

В основе дисциплины РСУ при СВ лежит статистическая динамика систем, а также – теория вероятностей, теория автоматического управления.

В то время, если в классической теории автоматического управления поведение систем исследовалось, как правило при определенных задающих и возмущающих воздействиях, таких как ступенчатое, импульсное, гармоническое и т.д., то в РСУ при СВ характер воздействия является случайным.

В качестве примеров систем, подверженным случайным воздействиям можно привести: радиолокационная станция, система управления летательным аппаратом и т.д.
1.2. Основные понятия (из теории вероятностей)
Ниже приведен ряд терминов, встречающихся в посвященной данной теме литературе.

Событие – результат опыта, т.е. такое явление, которое может произойти или не произойти.

В качестве примера можно привести:

Опыт 1. Бросание монеты 1 раз.

Событие 1 – «Г» – появление герба.

Событие 2 – «Ц» – появление цифры.

W={Г, Ц} – пространство всех исходов опыта

Опыт 2. Бросание игральной кости.

А
k
 – появление k очков (<img width=«52» height=«27» src=«ref-2_1980993918-262.coolpic» v:shapes="_x0000_i1089">)

W={A1, А2, А3, А4, А5, А6}

В таблице 1 приведена основная классификация событий.

Таблица 1.1

Основная классификация событий

События

Случайные А, В, С,… (происходящие иногда)

Достоверные W
(происходят всегда)

Невозможные Ø
(не происходят никогда)



События

Несовместные
(не могут появиться в одном опыте)

Совместные
(могут появиться в одном опыте)



Частота события – число появлений события в одном опыте (1.1).

                                                       <img width=«95» height=«48» src=«ref-2_1980994180-406.coolpic» v:shapes="_x0000_i1090">                                                (1.1)

где m – число появлений события; N – число опытов.

В теории вероятностей каждому событию A ставится в соответствие определенное число P(A), которое называется вероятностью события A. Потребуем, чтобы эта вероятность удовлетворяла следующим аксиомам:

1) Вероятность любого события заключена между нулем и единицей 0 ≤ P(A) ≤ 1;

2) Вероятность достоверного события равна единице P(Ω) = 1;

3) Вероятность невозможного события равна нулю P(Ø) = 0;

4) Аксиома сложения: если A и B – несовместные события, то: P (A + B= P (A+ P (B);

5) Аксиома умножения <img width=«199» height=«24» src=«ref-2_1980994586-581.coolpic» v:shapes="_x0000_i1091">

где <img width=«69» height=«24» src=«ref-2_1980995167-312.coolpic» v:shapes="_x0000_i1092"> – условная вероятность, т.е. вероятность события B, определяемая при условии, что событие A уже наступило.

Вероятность события P(A) связана с частотой следующим образом:

                                                <img width=«164» height=«33» src=«ref-2_1980995479-493.coolpic» v:shapes="_x0000_i1093">                                         (1.2)

или

                                                    <img width=«119» height=«49» src=«ref-2_1980995972-507.coolpic» v:shapes="_x0000_i1094">.                                             (1.3)

Если событие A может наступить лишь при условии, что наступит одно из событий H1, H2, ..., Hn, образующих полную группу событий (обязательно не совместных), и называемых гипотезами, то P(A) вычисляется как сумма произведений вероятности каждой гипотезы на вероятность события A при этой гипотезе. Формула полной вероятности имеет вид:

                                           <img width=«206» height=«54» src=«ref-2_1980996479-768.coolpic» v:shapes="_x0000_i1095">,                                    (1.4)

где P(Hi) – вероятность i-ой гипотезы.

Формула Байеса (теорема гипотез). Пусть имеется полная группа несовместных событий H1, H2, ..., Hn. Вероятности этих гипотез до опыта известны и равны соответственно P(H1), P(H2), ..., P(Hn). Произведен опыт, в результате которого наблюдается появление некоторого события A. Тогда вероятность гипотезы Hj в связи с появлением этого события следует пересчитать по формуле

                               <img width=«323» height=«77» src=«ref-2_1980997247-1342.coolpic» v:shapes="_x0000_i1099">.                         (1.5)

Случайная величина – такая величина, которая в результате опыта принимает то или иное значение, причем заранее не известно, какое.

Таблица 1.2

Типы случайных величин

Случайные величины

Непрерывные

Дискретные

Смешанного типа

Могут попасть в любую точку числовой оси

Значения величины разделены интервалами

Значения величины не всегда разделены интервалами и не равновероятны

Пример: расстояние от орудия до точки падения снаряда

Пример: Бросание игральной кости

Пример: стрельба по площадной цели



  <img width=«2» height=«7» src=«ref-2_1980998589-73.coolpic» v:shapes="_x0000_s1229"><img width=«2» height=«7» src=«ref-2_1980998589-73.coolpic» v:shapes="_x0000_s1228"><img width=«2» height=«7» src=«ref-2_1980998589-73.coolpic» v:shapes="_x0000_s1226"><img width=«200» height=«114» src=«ref-2_1980998808-733.coolpic» v:shapes="_x0000_s1223 _x0000_s1222 _x0000_s1224 _x0000_s1225 _x0000_s1231 _x0000_s1230 _x0000_s1235 _x0000_s1236 _x0000_s1239 _x0000_s1240 _x0000_s1243 _x0000_s1244 _x0000_s1246 _x0000_s1245 _x0000_s1251 _x0000_s1252 _x0000_s1253 _x0000_s1254 _x0000_s1256 _x0000_s1257 _x0000_s1258 _x0000_s1259 _x0000_s1260 _x0000_s1262 _x0000_s1263 _x0000_s1264 _x0000_s1265 _x0000_s1266 _x0000_s1267 _x0000_s1268 _x0000_s1269 _x0000_s1270 _x0000_s1271 _x0000_s1273 _x0000_s1274 _x0000_s1275 _x0000_s1277"><img width=«196» height=«112» src=«ref-2_1980999541-73.coolpic» v:shapes="_x0000_i1096">



  <img width=«200» height=«114» src=«ref-2_1980999614-696.coolpic» v:shapes="_x0000_s1278 _x0000_s1279 _x0000_s1280 _x0000_s1286 _x0000_s1287 _x0000_s1288 _x0000_s1289 _x0000_s1290 _x0000_s1291 _x0000_s1315 _x0000_s1316 _x0000_s1317 _x0000_s1319 _x0000_s1321"><img width=«196» height=«112» src=«ref-2_1980999541-73.coolpic» v:shapes="_x0000_i1097">



  <img width=«200» height=«114» src=«ref-2_1981000383-766.coolpic» v:shapes="_x0000_s1323 _x0000_s1324 _x0000_s1325 _x0000_s1326 _x0000_s1327 _x0000_s1328 _x0000_s1329 _x0000_s1330 _x0000_s1331 _x0000_s1332 _x0000_s1333 _x0000_s1334 _x0000_s1335 _x0000_s1336 _x0000_s1337 _x0000_s1339 _x0000_s1340 _x0000_s1341 _x0000_s1342 _x0000_s1343 _x0000_s1344 _x0000_s1345 _x0000_s1346 _x0000_s1347 _x0000_s1348"><img width=«196» height=«112» src=«ref-2_1980999541-73.coolpic» v:shapes="_x0000_i1098">
    продолжение
--PAGE_BREAK--1.3.  Вероятностные характеристики дискретных случайных величин
Для расчёта дискретной случайной величины необходимо иметь:

1) все возможные значения, которые она может принимать,

2) вероятность появления каждого из них.

Одной из простых характеристик определяющую случайную величину является среднее значение или математическое ожидание случайной величины.

                                            <img width=«197» height=«55» src=«ref-2_1981001222-629.coolpic» v:shapes="_x0000_i1100">.                                     (1.6)

Основные свойства математического ожидания случайной величины следующие:

1. Для любых случайных величин среднее значение их суммы равно сумме средних значений этих величин:

                        <img width=«394» height=«29» src=«ref-2_1981001851-710.coolpic» v:shapes="_x0000_i1101">;                 (1.7)

2. Среднее значение произведения случайных величин, независимых друг от друга, равно произведению средних значений этих величин:

                              <img width=«337» height=«29» src=«ref-2_1981002561-632.coolpic» v:shapes="_x0000_i1102">.                       (1.8)

Последняя формула не распространяется на общий случай любых случайных величин. В виде обобщения среднего значения введено понятие момента порядка m случайной величины x.

                                               <img width=«173» height=«55» src=«ref-2_1981003193-591.coolpic» v:shapes="_x0000_i1103">                                        (1.9)

Момент первого порядка есть среднее значение (математическое ожидание) случайной величины. Момент второго порядка – это средний квадрат случайной величины.

                                                <img width=«156» height=«55» src=«ref-2_1981003784-564.coolpic» v:shapes="_x0000_i1104">.                                       (1.10)

Часто используют так называемое среднеквадратичное значение случайной величины, представляющее собой корень квадратный из среднего квадрата случайной величины:

                                                        <img width=«79» height=«33» src=«ref-2_1981004348-272.coolpic» v:shapes="_x0000_i1105">.                                               (1.11)

Иногда рассматриваются центрированное значение случайной величины <img width=«15» height=«33» src=«ref-2_1981004620-97.coolpic» v:shapes="_x0000_i1106">

<img width=«69» height=«33» src=«ref-2_1981004717-229.coolpic» v:shapes="_x0000_i1107">, где<img width=«16» height=«20» src=«ref-2_1981004946-154.coolpic» v:shapes="_x0000_i1108"> – среднее значение. Тогда можно ввести понятие центрального момента m-го порядка.

                                            <img width=«202» height=«55» src=«ref-2_1981005100-774.coolpic» v:shapes="_x0000_i1109">.                                   (1.12)

Из формулы следует, что центральный момент первого порядка всегда равен нулю.

Обратимся теперь к характеристикам рассеяния дискретной случайной величины.

Если x – случайная величина, а <img width=«16» height=«21» src=«ref-2_1981005874-157.coolpic» v:shapes="_x0000_i1110"> – среднее значение этой величины, то величина <img width=«42» height=«21» src=«ref-2_1981006031-189.coolpic» v:shapes="_x0000_i1111"> есть отклонение случайной величины от ее среднего значения. Это отклонение является случайной величиной, как и сама величина x.

Средним отклонением D называется среднее значение (математическое ожидание) абсолютной величины отклонения, т.е.

                                            <img width=«198» height=«55» src=«ref-2_1981006220-711.coolpic» v:shapes="_x0000_i1112">.                                   (1.13)

Дисперсией называется средний квадрат отклонения случайной величины от её среднего значения. Она совпадает с центральным моментом второго порядка

                                        <img width=«233» height=«55» src=«ref-2_1981006931-821.coolpic» v:shapes="_x0000_i1113">.                                (1.14)

Дисперсия может быть только положительным числом: <img width=«46» height=«21» src=«ref-2_1981007752-246.coolpic» v:shapes="_x0000_i1114">.

Корень квадратный из дисперсии называется среднеквадратичным отклонением случайной величины:

                                                          <img width=«60» height=«25» src=«ref-2_1981007998-160.coolpic» v:shapes="_x0000_i1115">.                                                 (1.15)

Укажем простейшие свойства среднеквадратичных отклонений.

1. При сложении независимых случайных величин

                                                    <img width=«125» height=«22» src=«ref-2_1981008158-222.coolpic» v:shapes="_x0000_i1116">                                           (1.16)

дисперсии складываются:

                                              <img width=«178» height=«28» src=«ref-2_1981008380-312.coolpic» v:shapes="_x0000_i1117">.                                     (1.17)

Поэтому среднеквадратичное отклонение суммы независимых случайных величин

                             <img width=«344» height=«37» src=«ref-2_1981008692-768.coolpic» v:shapes="_x0000_i1118">.                     (1.18)

Эта формула часто применяется в вычислительной технике и автоматики  для вычисления среднего квадрата ошибки.

2. Пусть имеется n случайных величин

                                                     <img width=«111» height=«25» src=«ref-2_1981009460-283.coolpic» v:shapes="_x0000_i1119">

с одинаковыми средними значениями <img width=«15» height=«20» src=«ref-2_1981009743-154.coolpic» v:shapes="_x0000_i1120"> и с одинаковыми законами распределения. Тогда их среднеарифметическое

                                              <img width=«186» height=«48» src=«ref-2_1981009897-399.coolpic» v:shapes="_x0000_i1121">                                     (1.19)

тоже будет случайной величиной с тем же самым средним значением <img width=«45» height=«24» src=«ref-2_1981010296-211.coolpic» v:shapes="_x0000_i1122">, но среднеквадратичное отклонение его будет в <img width=«28» height=«27» src=«ref-2_1981010507-128.coolpic» v:shapes="_x0000_i1123"> раз меньше, чем для каждой из составляющих (в случае независимых случайных величин):

                                                         <img width=«69» height=«50» src=«ref-2_1981010635-329.coolpic» v:shapes="_x0000_i1124">                                                 (1.20)

Например, если производится n измерений одной и той же физической величины, то их среднее арифметическое, хотя является случайной величиной, но всегда надежнее (имеет меньшее среднеквадратичное отклонение), чем каждое измерение в отдельности. Здесь случайные ошибки измерения в известной мере компенсируются. Но надо помнить, что систематические ошибки приборов при этом остаются в полной мере в составе среднего арифметического и никакой массовостью измерений скомпенсированы быть не могут.

3. Для n случайных величин, независимых, имеющих одно и то же среднеквадратичное значения <img width=«15» height=«20» src=«ref-2_1981009743-154.coolpic» v:shapes="_x0000_i1125">, среднее арифметическое будет при достаточно большом <img width=«13» height=«15» src=«ref-2_1981011118-86.coolpic» v:shapes="_x0000_i1126"> как угодно мало отличатся от среднего значения <img width=«15» height=«20» src=«ref-2_1981009743-154.coolpic» v:shapes="_x0000_i1127"> (с вероятностью, как угодно близкой к единице). Замечание в скобках означает, что это практически достоверно, но не абсолютно, потому что среднее арифметическое есть все же случайная величина. Таким образом, при большом n и указанных условиях

                                   <img width=«193» height=«48» src=«ref-2_1981011358-488.coolpic» v:shapes="_x0000_i1128"> при <img width=«53» height=«16» src=«ref-2_1981011846-218.coolpic» v:shapes="_x0000_i1129">.                          (1.21)


    продолжение
--PAGE_BREAK--1.4. Законы распределения случайных величин
Закон распределения случайной величины – некоторая функция, устанавливающая взаимнооднозначное соответствие между возможными значениями случайных величин и вероятностями этих значений.

<img width=«623» height=«192» src=«ref-2_1981012064-8539.coolpic» v:shapes="_x0000_i1130">

Рис. 1.1. Формы закона распределения случайных величин
Таблица 1.3

Табличная форма закона распределения

Значение величины

x1

x2



xn

Вероятность значения

P1

P2



Pn

<img width=«357» height=«166» src=«ref-2_1981020603-948.coolpic» v:shapes="_x0000_i1131">

Рис. 1.2. Графическая форма – многоугольник распределения

Данные формы применимы только для дискретных случайных величин.

Функция распределения – вероятность того, что случайная величина X примет значение меньше некоторого фиксированного x.

                                                   <img width=«129» height=«24» src=«ref-2_1981021551-443.coolpic» v:shapes="_x0000_i1132">,                                          (1.22)

где F(x) – неубывающая функция аргумента x.

<img width=«439» height=«106» src=«ref-2_1981021994-1453.coolpic» v:shapes="_x0000_i1133">

Рис. 1.3. Попадание случайной величина на числовую ось

<img width=«293» height=«155» src=«ref-2_1981023447-4378.coolpic» v:shapes="_x0000_i1025">

Рис. 1.4. Функция распределения для дискретных случайных
величин (непрерывная слева)

<img width=«300» height=«158» src=«ref-2_1981027825-4007.coolpic» v:shapes="_x0000_i1026">

Рис. 1.5. Функция распределения для непрерывных
случайных величин

Плотность вероятности для одномерной случайной величины – предел отношения вероятности попадания случайной величины X на отрезок ∆x к длине этого отрезка, когда ∆x стремится к нулю.

                                        <img width=«233» height=«49» src=«ref-2_1981031832-894.coolpic» v:shapes="_x0000_i1134">.                                (1.23)

Плотность вероятности имеет следующие свойства:

1.    <img width=«67» height=«24» src=«ref-2_1981032726-348.coolpic» v:shapes="_x0000_i1135">;

2.    <img width=«107» height=«57» src=«ref-2_1981033074-482.coolpic» v:shapes="_x0000_i1136">.
1.5.  Типовые законы распределения непрерывных случайных величин 1.5.1.Показательное распределение
Плотность вероятности для показательного закона распределения имеет вид:

                                                     <img width=«108» height=«31» src=«ref-2_1981033556-420.coolpic» v:shapes="_x0000_i1137">,                                            (1.24)

где x > 0 и λ > 0.

Функция распределения:

                                           <img width=«208» height=«60» src=«ref-2_1981033976-698.coolpic» v:shapes="_x0000_i1138">.                                  (1.25)

<img width=«323» height=«342» src=«ref-2_1981034674-12917.coolpic» v:shapes="_x0000_i1027">

Рис. 1.6. Плотность вероятности и функция распределения
показательного закона распределения

Математическое ожидание, дисперсия и среднеквадратичное отклонение для показательного распределения имеют вид:

                                                          <img width=«60» height=«48» src=«ref-2_1981047591-297.coolpic» v:shapes="_x0000_i1139">,                                                 (1.26)

                                                         <img width=«68» height=«51» src=«ref-2_1981047888-313.coolpic» v:shapes="_x0000_i1140">,                                                (1.27)

                                                           <img width=«47» height=«48» src=«ref-2_1981048201-284.coolpic» v:shapes="_x0000_i1141">.                                                  (1.28)

Пример: время безотказной работы системы при постоянной интенсивности отказов.
1.5.2.Равномерное распределение
Плотность вероятности для равномерного закона распределения имеет вид:

                                                   <img width=«125» height=«48» src=«ref-2_1981048485-433.coolpic» v:shapes="_x0000_i1142">.                                           (1.29)

Функция распределения:

                                             <img width=«197» height=«108» src=«ref-2_1981048918-1107.coolpic» v:shapes="_x0000_i1143">                                    (1.30)

<img width=«292» height=«156» src=«ref-2_1981050025-4489.coolpic» v:shapes="_x0000_i1028"> <img width=«298» height=«158» src=«ref-2_1981054514-4672.coolpic» v:shapes="_x0000_i1029">

Рис. 1.7. Плотность вероятности и функция распределения
равномерного закона распределения

Математическое ожидание, дисперсия и среднеквадратичное отклонение для равномерного распределения имеют вид:

                                                       <img width=«84» height=«47» src=«ref-2_1981059186-323.coolpic» v:shapes="_x0000_i1144">;                                               (1.31)

                                                     <img width=«109» height=«52» src=«ref-2_1981059509-470.coolpic» v:shapes="_x0000_i1145">;                                            (1.32)

                                                        <img width=«73» height=«49» src=«ref-2_1981059979-382.coolpic» v:shapes="_x0000_i1146">.                                                (1.33)

Например: ошибка измерения линейкой длины бруска или игральная рулетка.
    продолжение
--PAGE_BREAK--1.5.3.Нормальное распределение (Гаусса)
Плотность вероятности для нормального закона распределения имеет вид:

                              <img width=«341» height=«81» src=«ref-2_1981060361-1201.coolpic» v:shapes="_x0000_i1147">,                     (1.34)

где f – функциональная зависимость.

<img width=«322» height=«153» src=«ref-2_1981061562-6259.coolpic» v:shapes="_x0000_i1030">

Рис. 1.8. График плотности вероятности нормального распределения

Правило 3σ:

                                               <img width=«164» height=«28» src=«ref-2_1981067821-644.coolpic» v:shapes="_x0000_i1148">.                                       (1.35)

Если рассматривается Е – вероятное отклонение, то

                                         <img width=«224» height=«25» src=«ref-2_1981068465-605.coolpic» v:shapes="_x0000_i1149">.                                 (1.36)
1.6.  Характеристические функции
Рассмотрим характеристические функции одномерных случайных величин. Характеристической функцией g(t) или g(jλ) действительной случайной величины X с плотностью распределения вероятностей w(x) называется математическое ожидание функции, e jλx, где λ – параметр (аргумент), а j – мнимая единица (j2 = –1). Если аргумент λ имеет размерность времени, то аргумент x имеет размерность частоты.

                                     <img width=«272» height=«60» src=«ref-2_1981069070-971.coolpic» v:shapes="_x0000_i1150">.                            (1.37)

Аналог – амплитудно-фазовая характеристика для W(jω) – преобразование Фурье от весовой функции g(t). Комплексная форма интеграла Фурье имеет следующий вид:

                                          <img width=«216» height=«60» src=«ref-2_1981070041-823.coolpic» v:shapes="_x0000_i1151">.                                 (1.38)

Сравнивая (1.37) с преобразованием Фурье видим, что характеристическая функция есть преобразование по Фурье функции распределения вероятностей. Следовательно, функция w(x) – есть обратное преобразование по Фурье характеристической функции g(jλ):

                                          <img width=«219» height=«60» src=«ref-2_1981070864-952.coolpic» v:shapes="_x0000_i1152">.                                 (1.39)

Характеристическая функция используется для решения ряда теоретических и практических задач теории вероятностей и статистической динамики.

Свойства характеристической функции:

1.    При λ = 0 по определению следует, что g(0) = 1, то есть

                                    <img width=«275» height=«60» src=«ref-2_1981071816-1060.coolpic» v:shapes="_x0000_i1153">;                            (1.40)

2.    Модуль характеристической функции не превышает единицы:

                                                        <img width=«77» height=«28» src=«ref-2_1981072876-420.coolpic» v:shapes="_x0000_i1154">;                                               (1.41)

3.    Характеристическая функция gy(jλ) суммы двух независимых случайных величин x1 и x2 равна произведению характеристических функций g1(jλ) и g2(jλ) этих случайных величин:

                                  <img width=«301» height=«28» src=«ref-2_1981073296-875.coolpic» v:shapes="_x0000_i1155">;                         (1.42)

4.    Для случайной величины y = ax + b, где a и b – неслучайные числа, характеристическая функция имеет вид:

                                               <img width=«168» height=«33» src=«ref-2_1981074171-542.coolpic» v:shapes="_x0000_i1156">,                                      (1.43)

где g(jλ) – характеристическая функция случайной величины x.

Доказательство данного выражения можно привести, исходя из определения характеристической функции:

                      <img width=«427» height=«33» src=«ref-2_1981074713-944.coolpic» v:shapes="_x0000_i1157">

                                      <img width=«260» height=«31» src=«ref-2_1981075657-696.coolpic» v:shapes="_x0000_i1158">;                             (1.44)

5.    Если существует начальный момент m-го порядка M[xm] случайной g(jλ) величины x, то при всех m £ n значение производной порядка m от характеристической функции этой случайной величины при λ = 0 равно начальному моменту m-го порядка случайной величины х, умноженному на jk, т.е.

                   <img width=«447» height=«31» src=«ref-2_1981076353-1075.coolpic» v:shapes="_x0000_i1159">.          (1.45)

Формулу (1.45) используют для вычисления моментов случайных величин:

                                        <img width=«237» height=«31» src=«ref-2_1981077428-724.coolpic» v:shapes="_x0000_i1160">,                               (1.46)

                                               <img width=«163» height=«31» src=«ref-2_1981078152-534.coolpic» v:shapes="_x0000_i1161">,                                       (1.47)

               <img width=«491» height=«31» src=«ref-2_1981078686-1380.coolpic» v:shapes="_x0000_i1162">.      (1.48)

Подставив в формулу (1.37) выражение для w(x), можно определить g(jλ) для разных законов распределения.

Например, для нормального закона распределения:

                              <img width=«345» height=«63» src=«ref-2_1981080066-1432.coolpic» v:shapes="_x0000_i1163">

                         <img width=«389» height=«63» src=«ref-2_1981081498-1601.coolpic» v:shapes="_x0000_i1164">

               <img width=«489» height=«63» src=«ref-2_1981083099-1769.coolpic» v:shapes="_x0000_i1165">,      (1.49)

где <img width=«280» height=«63» src=«ref-2_1981084868-1176.coolpic» v:shapes="_x0000_i1166"> – интеграл Эйлера-Пуассона.

Таким образом, для нормального распределения:

                             <img width=«352» height=«75» src=«ref-2_1981086044-1272.coolpic» v:shapes="_x0000_i1168">.                    (1.50)
    продолжение
--PAGE_BREAK--1.7.  Векторные случайные величины
Примеры векторных (многомерных) величин:

1. Отклонение точки падения снаряда от цели:

                                                      <img width=«100» height=«31» src=«ref-2_1981087316-227.coolpic» v:shapes="_x0000_i1169">.

2. Случайное положение центра тяжести самолёта в пространстве:

                                                   <img width=«127» height=«31» src=«ref-2_1981087543-247.coolpic» v:shapes="_x0000_i1170">.

3. Случайные сигналы X и Y (векторные величины) на входе и выходе САУ (системы автоматического управления) показаны на рис. 1.9.

<img width=«358» height=«114» src=«ref-2_1981087790-4678.coolpic» v:shapes="_x0000_i1031">

Рис. 1.9. Случайные сигналы на входе и выходе САУ

                                                 <img width=«144» height=«31» src=«ref-2_1981092468-287.coolpic» v:shapes="_x0000_i1171">,

                                                 <img width=«147» height=«31» src=«ref-2_1981092755-288.coolpic» v:shapes="_x0000_i1172">.

Рассмотрим закон распределения на примере двумерного случайного вектора:

Таблица 1.4

Матрица вероятностей для дискретных случайных величин

                                              <img width=«173» height=«28» src=«ref-2_1981093418-463.coolpic» v:shapes="_x0000_i1173">.                                      (1.51)

Функция распределения имеет вид:

                                             <img width=«191» height=«24» src=«ref-2_1981093881-575.coolpic» v:shapes="_x0000_i1174">.                                    (1.52)

Графически – это вероятность попадания вектора [XY] в бесконечный квадрант, т.е. часть плоскости, ограниченную осями (рис. 1.10).

Плотность вероятности вычисляется по формуле:

                                         <img width=«224» height=«65» src=«ref-2_1981094456-1085.coolpic» v:shapes="_x0000_i1175">.                                 (1.53)

Вероятность попадания в область Ω рассчитывается по формуле:

                                       <img width=«252» height=«45» src=«ref-2_1981095541-916.coolpic» v:shapes="_x0000_i1176">.                              (1.54)

<img width=«348» height=«213» src=«ref-2_1981096457-9537.coolpic» v:shapes="_x0000_i1032">

Рис. 1.10. Графическое изображение функции распределения
векторных случайных величин

Функция распределения имеет следующий вид:

                                         <img width=«224» height=«61» src=«ref-2_1981105994-826.coolpic» v:shapes="_x0000_i1177">.                                 (1.55)

Плотность вероятности рассчитывается по формуле:

                                                 <img width=«151» height=«56» src=«ref-2_1981106820-766.coolpic» v:shapes="_x0000_i1178">.                                        (1.56)

Для n-мерного вектора расчеты производятся аналогично.

Для векторных случайных величин вводят следующие понятия:

1. Смешанный начальный момент m-го порядка (m = q + s). Для двумерного вектора он имеет вид:

                              <img width=«339» height=«60» src=«ref-2_1981107586-1026.coolpic» v:shapes="_x0000_i1179">.                     (1.57)

2. Смешанный центральный момент:

   <img width=«605» height=«60» src=«ref-2_1981108612-1596.coolpic» v:shapes="_x0000_i1180">.(1.58)

3. Если q = s = 1, то получим корреляционный момент:

                         <img width=«392» height=«60» src=«ref-2_1981110208-1142.coolpic» v:shapes="_x0000_i1181">                (1.59)

для независимых x1 и x2r12 = 0.

4. Иногда применяют коэффициент корреляции – относительное значение корреляционного момента:

                                             <img width=«191» height=«55» src=«ref-2_1981111350-607.coolpic» v:shapes="_x0000_i1182">.                                    (1.60)

Для случайного вектора <img width=«144» height=«31» src=«ref-2_1981111957-284.coolpic» v:shapes="_x0000_i1183"> обычно задают вектор математических ожиданий <img width=«172» height=«31» src=«ref-2_1981112241-364.coolpic» v:shapes="_x0000_i1184"> и матрицу корреляционных моментов:

                                              <img width=«180» height=«113» src=«ref-2_1981112605-969.coolpic» v:shapes="_x0000_i1185">.

Составляющие корреляционной матрицы показывают степень связи между отдельными случайными величинами. По диагонали корреляционной матрицы находятся дисперсии.

Внимание! Независимые величины всегда некоррелированы, а зависимые могут быть как коррелированными, так и не коррелированными.
    продолжение
--PAGE_BREAK--2. Случайные процессы 2.1.  Понятие случайного процесса
В математике существует понятие случайной функции.

Случайная функция – такая функция, которая в результате опыта принимает тот или иной конкретный вид, причем заранее не известный какой именно. Аргумент такой функции – неслучайный. Если аргумент – время, то такая функция называется случайным процессом. Примеры случайных процессов:

·        координаты цели, измеряет РЛС;

·        угол атаки самолета;

·        нагрузка в электрической цепи.

Особенность случайной функции (процесса) в том, что при фиксированном значении аргумента (t) случайная функция является случайной величиной, т.е. при t = ti  Х(t) = X(ti) – случайная величина.

<img width=«641» height=«302» src=«ref-2_1981113574-19548.coolpic» v:shapes="_x0000_i1033">

Рис. 2.1. Графическое представление случайной функции

Значения случайной функции при фиксированном аргументе называются его сечением. Т.к. случайная функция может иметь бесконечное множество сечений, а в каждом сечении она представляет собой случайную величину, то случайную функцию можно рассматривать как бесконечномерный случайный вектор.

Теория случайных функций часто называется теорией случайных (стохастических) процессов.

Для каждого сечения случайного процесса можно указать mx(ti), Dx(ti), sx(ti) и в общем случае – wх(ti).

Кроме случайных функций времени иногда используются случайные функции координат точки пространства. Эти функции приводят в соответствие каждой точке пространства некоторую случайную величину.

Теория случайных функций координат точки пространства называют теорией случайных полей. Пример: вектор скорости ветра в турбулентной атмосфере.

В зависимости от вида функции и вида аргумента различают 4 типа случайных процессов.

Таблица 2.1

Типы случайных процессов

Значение аргумента t

Значение функции Х

Примеры случайных процессов

дискретное

дискретное

Случайный процесс в ЦВМ

дискретное

непрерывное

Падение капель дождя - ti,
Х – размер лужи

непрерывное

дискретное

Количество звонков через АТС

непрерывное

непрерывное

Высота полёта самолёта



Кроме того различают:

1. Стационарный случайный процесс – вероятностные характеристики которого не зависит от времени, т.е. wх(х1, t1) = wх(х2, t2) = … wх(х
n
t
n
).

2. Нормальный случайный процесс – совместная плотность вероятности сечений t1 … tn – нормальная.

3. Марковский случайный процесс (процесс без последствия) состояние в каждый момент времени которого зависит только от состояния в предшествующий момент и не зависит от прежних состояний. Марковская цель – последовательность сечений марковского случайного процесса.

4. Случайный процесс типа белого шума – в каждый момент состояния не зависит от предшествующего.

Существуют и другие случайные процессы.
2.2.  Вероятностные характеристики случайных процессов
В общем случае, в каждом сечении случайного процесса имеется свой закон распределения wх(х1, t1), wх(х2, t2), … wх(х
n
t
n
), со своими характеристиками.

Вероятностные характеристики сечения случайного процесса определяются также как и для случайных величин:

·        математическое ожидание (среднее по множеству):

                                             <img width=«183» height=«60» src=«ref-2_1981133122-739.coolpic» v:shapes="_x0000_i1186">;                                       (2.1)

·        дисперсия:

                                             <img width=«192» height=«64» src=«ref-2_1981133861-781.coolpic» v:shapes="_x0000_i1187">,                                      (2.2)

где <img width=«107» height=«40» src=«ref-2_1981134642-210.coolpic» v:shapes="_x0000_i1188">.

Графически:

<img width=«561» height=«220» src=«ref-2_1981134852-10343.coolpic» v:shapes="_x0000_i1034">

Рис. 2.2. Графическое представление множества реализаций
случайного процесса

В некоторых случаях необходимо найти среднее значение случайной величины по отдельной реализации (осреднение по времени):

                                                  <img width=«135» height=«60» src=«ref-2_1981145195-646.coolpic» v:shapes="_x0000_i1189">.                                           (2.3)

<img width=«606» height=«169» src=«ref-2_1981145841-8359.coolpic» v:shapes="_x0000_i1035">

Рис. 2.3. Графическое представление средней величины

Для решения задач, в которых приходится рассматривать совместно два и более сечений случайной функции, необходимо ввести совместные законы распределения для нескольких её сечений. Двухмерная плотность вероятности случайного процесса X(t) – совместная плотность вероятности двух её сечений X(t1) и X(t2). Обозначается w2(х1, х2, t1, t2) или w2(х1, t1, x2, t2). Соответственно, n-мерная плотность вероятности – wn(х1, t1, … xntn). Зная n-мерную плотность вероятности, можно определить все её плотности вероятности меньше, чем n размерности. Например, для получения плотности вероятности wm(х1, t1, … xmtm) (m < n) достаточно проинтегрировать n-мерную плотность по переменным xm + 1 … хn.

                   <img width=«445» height=«60» src=«ref-2_1981154200-1294.coolpic» v:shapes="_x0000_i1190">.            (2.4)

Для решения инженерных задач использовать многомерные законы распределения неудобно. Для этого используют аппарат простейших характеристик, к которым относятся:

·        математические ожидания;

·        дисперсии;

·        корреляционные функции;

·        взаимные корреляционные функции.

Реже применяют другие моментные характеристики (кумулянты, семиинварианты и т.д.)

Математическим ожиданием случайной функции X(t) называется такая неслучайная функция mx(t), которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения случайной функции X(t).

При известной одномерной плотности вероятности w1(хt)

                                              <img width=«182» height=«60» src=«ref-2_1981155494-731.coolpic» v:shapes="_x0000_i1191">.                                       (2.5)

Дисперсия случайной функции X(t) – такая неслучайная функция Dx(t), которая при каждом значении аргумента t равна дисперсии соответствующего сечения случайной функции X(t).

                                       <img width=«249» height=«60» src=«ref-2_1981156225-944.coolpic» v:shapes="_x0000_i1192">                                (2.6)

или

                                                 <img width=«156» height=«109» src=«ref-2_1981157169-1329.coolpic» v:shapes="_x0000_i1193">

Для случайного процесса применимо «правило 3-х сигм», т.е.
[mx – 3s; mx + 3s] образуют «коридор» внутри которого заключены почти все реализации случайного процесса X(t).
    продолжение
--PAGE_BREAK--2.3.  Стационарные случайные процессы
В стационарном случайном процессе закон распределения один и тот же для каждого момента времени, т.е. wx(xt) – не зависит от времени т.е.

                                                     w(xt) = w(t).                                               (2.7)

Следовательно mx(t) = mx = const, sx(t) = sx = const вдоль всего процесса. Пример: колебание напряжения и тока в установившемся режиме электрической цепи. Следует заметить, что если mx(t) ¹ const, а sx(t) = sx = const для ряда задач такая нестационарность несущественна, т.к. можно перейти к центрированному случайному процессу:

                                                <img width=«159» height=«40» src=«ref-2_1981158498-555.coolpic» v:shapes="_x0000_i1194">,

который будет стационарным, т.к. <img width=«153» height=«40» src=«ref-2_1981159053-530.coolpic» v:shapes="_x0000_i1195">. Отсюда следуют важные практические свойства:

1) ограничиваясь только стационарными процессами, можно определить только установившиеся (стационарные) динамические ошибки автоматических систем при случайных воздействиях. (По аналогии с исследованием динамических свойств систем в установившемся режиме);

2) эргодическое свойство стационарных случайных процессов (эргодическая гипотеза): стационарный процесс обладает эргодическим свойством, если для него среднее значение по множеству наблюдений (множеству реализаций) равно среднему значению по времени наблюдения (по длине реализации) т.е. среднее по множеству равно среднему по времени.

<img width=«648» height=«257» src=«ref-2_1981159583-22189.coolpic» v:shapes="_x0000_i1036">

а

Рис. 2.4. Случайный процесс обладает (а), и не обладает (б)
эргодическим свойством

<img width=«641» height=«264» src=«ref-2_1981181772-17869.coolpic» v:shapes="_x0000_i1037">

б

Рис. 2.4. Окончание (начало см. на с. 24)

Следовательно, математическое ожидание для любого ti

                             <img width=«345» height=«60» src=«ref-2_1981199641-1274.coolpic» v:shapes="_x0000_i1196">.

Аналогичным образом могут быть определены и моменты более высоких порядков: D, τ и т.д.

Эргодическая гипотеза значительно упрощает многие расчёты и эксперименты. Так вместо одновременного испытания многих систем в один момент времени можно испытывать систему в течение длительного времени. Таким образом, одна реализация стационарного случайного процесса на бесконечном (большом) промежутке времени полностью определяет весь процесс со всеми бесконечными его реализациями. Заметим, что этим свойством не обладают другие случайные процессы.
2.4.  Выбросы стационарных случайных процессов
Выбросом случайного процесса  называют превышение реализацией этого процесса некоторого определённого предела.

Рассмотрим процесс X(t). На рисунке 2.5 приведена реализация x(t) случайного процесса X(t), пересекающая фиксированный уровень C.

Если рассматриваются только положительные выбросы, то величину Θ называют длительностью интервалов между выбросами.

Знание статистических характеристик выбросов случайных процессов необходимо при решении многих практических задач. Например, под действием выбросов может произойти срыв слежения за целью пеленгатора. Выбросы токов и напряжений за допустимые пределы могут вызвать отказы элементов автоматики и радиотехнических систем.

<img width=«642» height=«324» src=«ref-2_1981200915-18316.coolpic» v:shapes="_x0000_i1038">

Рис. 2.5. Выбросы случайного процесса

На рисунке 2.5 обозначено:

Н – локальный максимум процесса X(t);

Н
m
 – абсолютный максимум функции X(t);

τ0 – момент первого выброса;

τ – длительность положительного выброса – пересечения реализацией X(t) уровня C снизу вверх <img width=«69» height=«24» src=«ref-2_1981219231-399.coolpic» v:shapes="_x0000_i1197">;

<img width=«19» height=«20» src=«ref-2_1981219630-184.coolpic» v:shapes="_x0000_i1198">– длительность отрицательного выброса пересечения реализаций x(t) уровня с верху вниз <img width=«69» height=«24» src=«ref-2_1981219814-400.coolpic» v:shapes="_x0000_i1199">

Т – длительность реализации x(t);

N – число выбросов.

Определим среднее число положительных выбросов нормального стационарного случайного процесса X(t) за уровень C на интервале (0, T).

Очевидно, что число выбросов N(T) случайного процесса за уровень C на интервале (0, T) случайно зависит от длительности этого интервала и определяется следующим выражением:

           <img width=«524» height=«66» src=«ref-2_1981220214-2642.coolpic» v:shapes="_x0000_i1200">.    (2.8)

Действительно, подинтегральная функция вследствие свойств дельта-функции и единичной ступенчатой функции равна нулю всюду, кроме тех точек, где случайный процесс X(t) пересекает уровень C (условие x(t) – C = 0).

<img width=«421» height=«238» src=«ref-2_1981222856-8084.coolpic» v:shapes="_x0000_i1039">

Рис. 2.6. Пересечение процессом <img width=«33» height=«24» src=«ref-2_1981230940-237.coolpic» v:shapes="_x0000_i1201"> уровня С

В точках tk(k = 1,2, …) подынтегральная функция бесконечна (так как <img width=«68» height=«24» src=«ref-2_1981231177-376.coolpic» v:shapes="_x0000_i1202">) и в каждой из этих точек интеграл скачком возрастает на единицу.

Для объяснения этого рассмотрим N(t) на интервале (tk – e, tk + e), в котором случайный процесс пересекает уровень снизу. Сделаем замену переменных

                   <img width=«269» height=«142» src=«ref-2_1981231553-2035.coolpic» v:shapes="_x0000_i1203">(так как <img width=«103» height=«48» src=«ref-2_1981233588-524.coolpic» v:shapes="_x0000_i1204">).            (2.9)

Следовательно, интеграл (2.8) равен числу положительных пересечений случайного процесса <img width=«33» height=«24» src=«ref-2_1981230940-237.coolpic» v:shapes="_x0000_i1205"> с уровнем C на интервале [0, T].

Среднее число положительны выбросов случайного процесса X(t) за уровень C равно математическому ожиданию случайной величины N(t) – числа выбросов на [0, T].

                      <img width=«420» height=«60» src=«ref-2_1981234349-1530.coolpic» v:shapes="_x0000_i1206">,             (2.10)

где <img width=«94» height=«24» src=«ref-2_1981235879-476.coolpic» v:shapes="_x0000_i1207"> – двумерная плотность вероятности случайного процесса <img width=«33» height=«24» src=«ref-2_1981230940-237.coolpic» v:shapes="_x0000_i1208"> и его производной <img width=«33» height=«24» src=«ref-2_1981236592-241.coolpic» v:shapes="_x0000_i1209">, которая для стационарного нормального случайного процесса со средним нулевым значением равна

                                      <img width=«259» height=«80» src=«ref-2_1981236833-992.coolpic» v:shapes="_x0000_i1210">.                             (2.11)

Подставляя формулу (2.8) для Nc(T) в (2.10), получим

                  <img width=«457» height=«60» src=«ref-2_1981237825-1811.coolpic» v:shapes="_x0000_i1211">.         (2.12)

Используем известное правило интегрирования произвольной функции <img width=«109» height=«24» src=«ref-2_1981239636-475.coolpic» v:shapes="_x0000_i1212"> на дельта-функцию <img width=«63» height=«24» src=«ref-2_1981240111-307.coolpic» v:shapes="_x0000_i1213">

                                             <img width=«189» height=«60» src=«ref-2_1981240418-839.coolpic» v:shapes="_x0000_i1214">.                                    (2.13)

Проинтегрируем подинтегральное выражение по переменной x

                                    <img width=«277» height=«61» src=«ref-2_1981241257-1147.coolpic» v:shapes="_x0000_i1215">.                           (2.14)

Для стационарного случайного процесса внутренний интеграл не зависит от времени. Поэтому выражение (2.14) можно записать в следующем виде:

                                           <img width=«210» height=«60» src=«ref-2_1981242404-840.coolpic» v:shapes="_x0000_i1216">.                                  (2.15)

Выражение (2.15) позволяет определить среднее число положительных выбросов стационарного нормального предела X(t) за уровень c.

Среднее число отрицательных выбросов случайного процесса за произвольный уровень h определяется аналогично:

                                          <img width=«214» height=«60» src=«ref-2_1981243244-865.coolpic» v:shapes="_x0000_i1217">.                                  (2.16)

Среднее число положительных и отрицательных выбросов случайного процесса определяется как сумма (за уровень c и уровень h)

                                     <img width=«263» height=«25» src=«ref-2_1981244109-829.coolpic» v:shapes="_x0000_i1218">.                             (2.17)

Зная среднее число выбросов случайного процесса за заданный уровень, можно определить интенсивность λ числа выбросов на интервале [0, T], разделив среднее число выбросов на длину интервала

                                    <img width=«280» height=«60» src=«ref-2_1981244938-1085.coolpic» v:shapes="_x0000_i1219">.                           (2.18)

Подставляя формулу (2.11) для плотности вероятности <img width=«68» height=«24» src=«ref-2_1981246023-331.coolpic» v:shapes="_x0000_i1220">, в которой заменён параметр xна c, в (2.18) и вычисляя полученный интеграл, окончательно получим

                                              <img width=«181» height=«77» src=«ref-2_1981246354-808.coolpic» v:shapes="_x0000_i1221">.                                     (2.19)

Число выбросов Nc(T) случайного процесса X(T) за уровень c на интервале [0, T] представляет собой дискретную случайную величину, возможными значениями которой являются неотрицательные целые числа.

При достаточно большом уровне <img width=«94» height=«25» src=«ref-2_1981247162-339.coolpic» v:shapes="_x0000_i1222"> выбросы нормально стационарного процесса X(T) становятся редкими явлениями, а интервалы Θ между выбросами будут настолько велики по сравнению с длительностью выбросов τ, что сечения случайного процесса, разделённые такими интервалами, будут практически независимыми. Следовательно, моменты t1, t2, … выбросов также будут независимыми.

При таких предположениях закон распределения числа выбросов будет близок к пуассоновскому закону, для которого

                    <img width=«437» height=«53» src=«ref-2_1981247501-1107.coolpic» v:shapes="_x0000_i1223">,           (2.20)

где Pm – вероятность того, что число положительных выбросов за уровень c случайного процесса X(t) на интервале [0, T] равна числу m.

                                          <img width=«213» height=«25» src=«ref-2_1981248608-597.coolpic» v:shapes="_x0000_i1224">.                                  (2.21)

Известно, что для пуассоновского распределения дисперсия и математическое ожидание совпадают

                                              <img width=«182» height=«25» src=«ref-2_1981249205-604.coolpic» v:shapes="_x0000_i1225">,                                     (2.22)

поэтому при несовпадении этих параметров пользуются законами, выраженными линейными комбинациями пуассоновских распределений с разными параметрами.

Для вычисления интенсивности λc(T) числа выбросов (2.19) необходимо знать величины <img width=«24» height=«21» src=«ref-2_1981249809-100.coolpic» v:shapes="_x0000_i1226"> и <img width=«29» height=«25» src=«ref-2_1981249909-107.coolpic» v:shapes="_x0000_i1227">, которые определяются по известной корреляционной функции <img width=«133» height=«25» src=«ref-2_1981250016-433.coolpic» v:shapes="_x0000_i1228">стационарного случайного процесса

                                               <img width=«172» height=«31» src=«ref-2_1981250449-506.coolpic» v:shapes="_x0000_i1229">,                                      (2.23)

                                 <img width=«311» height=«75» src=«ref-2_1981250955-1291.coolpic» v:shapes="_x0000_i1230">.                        (2.24)

Важными для практики исследования систем управления являются вероятность отсутствия выбросов P0и вероятность хотя бы одного выброса на интервале (0, T), определяемые на основе (2.20) выражениями:

                                                  <img width=«142» height=«32» src=«ref-2_1981252246-291.coolpic» v:shapes="_x0000_i1231">       <img width=«63» height=«24» src=«ref-2_1981252537-323.coolpic» v:shapes="_x0000_i1232">                      (2.25)

                                            <img width=«204» height=«32» src=«ref-2_1981252860-415.coolpic» v:shapes="_x0000_i1233"><img width=«56» height=«24» src=«ref-2_1981253275-274.coolpic» v:shapes="_x0000_i1234">.                      (2.26)

В заключение отметим, что систематическое и полное изложение теории и практических вопросов, связанных с выбросами случайных процессов даётся в книгах В.И. Тихонова (Стат. радиотехника, Тихонов, Миронов и т.д.).
    продолжение
--PAGE_BREAK--3.  Корреляционные функции случайных процессов 3.1.  Понятие корреляционной функции
Ранее были рассмотрены вероятностные характеристики случайных процессов:

·        математическое ожидание случайной x(t) функции – такая неслучайная функция mx(t) аргумента t, которая в каждом сечении случайной функции равна математическому ожиданию соответствующей (этому сечению) случайной величины:

                                              <img width=«182» height=«60» src=«ref-2_1981253549-795.coolpic» v:shapes="_x0000_i1235">;                                       (3.1)

·        дисперсия случайной функции x(t) – такая неслучайная функция Dx(t) аргумента t, которая в каждом сечении случайной функции равна дисперсии соответствующей (этому сечению) случайной величины:

                                     <img width=«264» height=«60» src=«ref-2_1981254344-1011.coolpic» v:shapes="_x0000_i1236">;                              (3.2)

·        среднее квадратическое отклонение:

                                                    <img width=«120» height=«31» src=«ref-2_1981255355-476.coolpic» v:shapes="_x0000_i1237">.                                             (3.3)

Достаточно ли всех этих характеристик, чтобы полностью описать случайный процесс, например: процессы с одинаковыми mxи Dx? Оказывается, что нет (рис. 3.1.). Для полного описания случайных процессов вводится понятие корреляционной функции.

<img width=«458» height=«233» src=«ref-2_1981255831-13184.coolpic» v:shapes="_x0000_i1040">

а

Рис. 3.1. Различие двух процессов <img width=«43» height=«24» src=«ref-2_1981269015-257.coolpic» v:shapes="_x0000_i1238">и Y(t) при
равных математическом ожидании, дисперсии, СКО

<img width=«642» height=«226» src=«ref-2_1981269272-16045.coolpic» v:shapes="_x0000_i1041">

б

Рис. 3.1. Окончание (начало см. на с. 30)

Предполагаем, что закон распределения нормальный. На графиках видно резкое отличие процессов, несмотря на их равные вероятностные характеристики.

                                                    <img width=«121» height=«92» src=«ref-2_1981285317-1066.coolpic» v:shapes="_x0000_i1239">

Чтобы охарактеризовать структуру случайного процесса (изменчивость реализации во времени) необходимо ввести характеристику зависимости (корреляции) двух сечений случайного процесса.

Что же такое корреляция? Приведем пример для наглядного пояснения.

Так, например, если речь идет о слежении за самолетом, то он не может как угодно быстро менять свое положение и скорость. Поэтому если он в момент времени t занял положение х1 то этим самым его возможное положение х2 в следующий момент t2 ограничено, т. е. события (x1, t1) и (x2, t2) не будут независимыми. Чем более инерционен изучаемый объект, тем больше эта взаимозависимость, или корреляция. Корреляционная функция математически выражает корреляцию двух функций или корреляцию функции с самой собой (автокорреляционная функция).

Корреляционная функция описывается в следующем виде:

                                           <img width=«204» height=«57» src=«ref-2_1981286383-821.coolpic» v:shapes="_x0000_i1240">,                                    (3.4)

где t1 и t2 – любые моменты времени, то есть t1 и t2 Î Т

Корреляционная функция – такая неслучайная функция Rx(t1, t2) двух аргументов, которая для любой пары фиксированных значений аргументов t1 и t2 равна корреляционному моменту, соответствующих этим сечениям случайных величин x(t1) и x(t2).

<img width=«495» height=«389» src=«ref-2_1981287204-15642.coolpic» v:shapes="_x0000_i1042">

Рис. 3.2. Корреляционные функции двух различных процессов x(t) и y(t)

При совпадении моментов t1 и t2 корреляционная функция равна дисперсии. Нормированная корреляционная функция вычисляется по формуле:

                                             <img width=«191» height=«52» src=«ref-2_1981302846-934.coolpic» v:shapes="_x0000_i1241">,                                      (3.5)

                                                  <img width=«133» height=«25» src=«ref-2_1981303780-411.coolpic» v:shapes="_x0000_i1242">,

где sx(t1) и sx(t2) с.к.о. случайной функции x(t) при t = t1 и t = t2 соответственно. Для вычисления корреляционной функции требуется знать вторую плотность (двумерную) вероятности <img width=«121» height=«25» src=«ref-2_1981304191-410.coolpic» v:shapes="_x0000_i1243">

              <img width=«499» height=«60» src=«ref-2_1981304601-1512.coolpic» v:shapes="_x0000_i1244">       (3.6)

Замечания.

1) Знание первой плотности вероятности w1(xt) позволяет вычислять математическое ожидание случайного процесса M[xt], дисперсию случайного процесса и с.к.о.

                                         <img width=«226» height=«25» src=«ref-2_1981306113-700.coolpic» v:shapes="_x0000_i1245">.

Для определения корреляционной функции нужно знать вторую плотность вероятности.

                                          <img width=«222» height=«25» src=«ref-2_1981306813-604.coolpic» v:shapes="_x0000_i1246">.

Знание о случайном процессе будет тем полнее, чем больше сечений мы будем рассматривать совместно и, следовательно, чем больше размерность плотности вероятности. Следовательно рассматривая n сечений нужно знать n-мерную плотность.

                                                 <img width=«143» height=«25» src=«ref-2_1981307417-433.coolpic» v:shapes="_x0000_i1247">.

Для полного описания случайного процесса необходимо знать бесконечномерную плотность вероятности. На практике обычно ограничиваются знанием первой и второй плотности вероятности.

2) Иногда для решения практических задач используют второй начальный момент (начальный момент второго порядка).

                                    <img width=«284» height=«54» src=«ref-2_1981307850-1306.coolpic» v:shapes="_x0000_i1248">                             (3.7)

Если t1 = t2 = t, то

                                         <img width=«229» height=«43» src=«ref-2_1981309156-809.coolpic» v:shapes="_x0000_i1249">.

Чтобы установить связь, между X(t) и Y(t) вводится понятие взаимной корреляционной функции (корреляционная функция связи), показывающая связь двух и более сечений процессов x(t) и y(t).

<img width=«642» height=«149» src=«ref-2_1981309965-8686.coolpic» v:shapes="_x0000_i1043">Рис. 3.3. Сечения процессов X(t) и Y(t)

При этом

                                          <img width=«220» height=«106» src=«ref-2_1981318651-1641.coolpic» v:shapes="_x0000_i1250">

Нельзя произвольно менять местами или индексы или аргументы.

Для вычисления корреляционной функции нужно знать <img width=«112» height=«25» src=«ref-2_1981320292-393.coolpic» v:shapes="_x0000_i1251">. Тогда

                  <img width=«460» height=«60» src=«ref-2_1981320685-1454.coolpic» v:shapes="_x0000_i1252">.           (3.8)

Введём нормированную корреляционную функцию связи.

                                            <img width=«200» height=«59» src=«ref-2_1981322139-987.coolpic» v:shapes="_x0000_i1253">,                                     (3.9)

где <img width=«140» height=«28» src=«ref-2_1981323126-503.coolpic» v:shapes="_x0000_i1254">.
    продолжение
--PAGE_BREAK--3.2.  Операции над случайными функциями (процессами) 3.2.1.Сложение
Пусть Z(t) = Х(t) + Y(t).

<img width=«331» height=«87» src=«ref-2_1981323629-2914.coolpic» v:shapes="_x0000_i1044">

Рис. 3.4. Сумматор случайных функций

Т.е. имеем сумматор.

Известны: характеристики входных сигналов:

                                               <img width=«170» height=«89» src=«ref-2_1981326543-1292.coolpic» v:shapes="_x0000_i1255">

Требуется найти:

1)      <img width=«49» height=«25» src=«ref-2_1981327835-280.coolpic» v:shapes="_x0000_i1256"> Rz(t1, t2); Dz(t) = Rz(tt);

<img width=«44» height=«25» src=«ref-2_1981328115-258.coolpic» v:shapes="_x0000_i1257">= mx(t) + my(t).

2)      <img width=«500» height=«40» src=«ref-2_1981328373-1508.coolpic» v:shapes="_x0000_i1258">

         <img width=«540» height=«71» src=«ref-2_1981329881-2399.coolpic» v:shapes="_x0000_i1259">

                    <img width=«436» height=«28» src=«ref-2_1981332280-1112.coolpic» v:shapes="_x0000_i1260">.           (3.10)

Если случайные функции не коррелированны, то получим:

                                      <img width=«259» height=«25» src=«ref-2_1981333392-701.coolpic» v:shapes="_x0000_i1261">.                             (3.11)

При t1 = t2 = t из (3.7) получим

3)                           <img width=«337» height=«28» src=«ref-2_1981334093-934.coolpic» v:shapes="_x0000_i1262">.                     (3.12)

Для некоррелированных случайных функций дисперсия суммы равна сумме дисперсий.

                                              <img width=«175» height=«28» src=«ref-2_1981335027-569.coolpic» v:shapes="_x0000_i1263">.

Если <img width=«108» height=«57» src=«ref-2_1981335596-534.coolpic» v:shapes="_x0000_i1264">, то получим

                                                  <img width=«137» height=«58» src=«ref-2_1981336130-604.coolpic» v:shapes="_x0000_i1265">.                                         (3.13)

Для некоррелированных функций

                                             <img width=«189» height=«57» src=«ref-2_1981336734-733.coolpic» v:shapes="_x0000_i1266">.                                    (3.14)

Для некоррелированных случайных функций

                                            <img width=«202» height=«44» src=«ref-2_1981337467-726.coolpic» v:shapes="_x0000_i1267">,                                   (3.15)

где <img width=«189» height=«29» src=«ref-2_1981338193-565.coolpic» v:shapes="_x0000_i1268">.


3.2.2.Сложение случайной функции и неслучайной
<img width=«356» height=«95» src=«ref-2_1981338758-3348.coolpic» v:shapes="_x0000_i1045">

Рис. 3.5. Сумматор случайной и неслучайной функции

W(t) = X(t) + j(t), где φ(t) – неслучайная функция, например:

                                          <img width=«179» height=«31» src=«ref-2_1981342106-665.coolpic» v:shapes="_x0000_i1269"> и т.д.

Известно также: mx(t), Kx(t1, t2).

Нужно определить: mw(t), Rw(t1, t2), Dw(t).

1) mw(t) = mx(t) + j(t).

2) <img width=«440» height=«40» src=«ref-2_1981342771-1298.coolpic» v:shapes="_x0000_i1270">                            (3.16)

где <img width=«211» height=«40» src=«ref-2_1981344069-706.coolpic» v:shapes="_x0000_i1271">.

Вывод: если к случайной функции прибавить неслучайную, то корреляционная функция не изменится.
3.2.3.Умножение случайной функции на неслучайную функцию
Обозначим: U(t) = ψ(t)X(t), ψ(t) – неслучайная функция.

Известно также: mx(t), Rx(t1, t2).

Требуется определить: mu(t), Ru(t1, t2).

<img width=«347» height=«103» src=«ref-2_1981344775-3718.coolpic» v:shapes="_x0000_i1046">

Рис. 3.6. Мультиплексор случайной и неслучайной функций

1) mu(t) = mu(t) ψ(t).

2) <img width=«597» height=«40» src=«ref-2_1981348493-1824.coolpic» v:shapes="_x0000_i1272">

где <img width=«237» height=«40» src=«ref-2_1981350317-821.coolpic» v:shapes="_x0000_i1273">.

Вывод. Если случайная функция умножается на неслучайную, то её корреляционная функция умножается на неслучайную дважды: один раз при аргументе t1, другой раз при t2.

Приложение. Комплексная случайная функция

                                               <img width=«167» height=«25» src=«ref-2_1981351138-533.coolpic» v:shapes="_x0000_i1274">,                                      (3.17)

для которой известны характеристики X1(t) и X2(t):

1)                                          <img width=«191» height=«29» src=«ref-2_1981351671-582.coolpic» v:shapes="_x0000_i1275">.                                    (3.18)

         <img width=«555» height=«76» src=«ref-2_1981352253-2569.coolpic» v:shapes="_x0000_i1276">(3.19)

где <img width=«421» height=«44» src=«ref-2_1981354822-1186.coolpic» v:shapes="_x0000_i1277"> –                          (3.20)

центрированная комплексно-сопряжённая функция в сечении t2.

Примечание: если X1(t) и X2(t) не коррелированны, то:

                                     <img width=«263» height=«29» src=«ref-2_1981356008-734.coolpic» v:shapes="_x0000_i1278">.                             (3.21)

3)              <img width=«468» height=«64» src=«ref-2_1981356742-1594.coolpic» v:shapes="_x0000_i1279">

                              <img width=«339» height=«44» src=«ref-2_1981358336-1067.coolpic» v:shapes="_x0000_i1280">.                     (3.22)
    продолжение
--PAGE_BREAK--3.2.4.Дифференцирование случайных функций (процессов).
Обозначим произведение случайного процесса:

                                                   <img width=«131» height=«101» src=«ref-2_1981359403-1042.coolpic» v:shapes="_x0000_i1281">

Дано: <img width=«144» height=«56» src=«ref-2_1981360445-636.coolpic» v:shapes="_x0000_i1282">, <img width=«69» height=«48» src=«ref-2_1981361081-318.coolpic» v:shapes="_x0000_i1283"> (можно менять местами операции дифференцирования и математического ожидания).

                                               <img width=«163» height=«48» src=«ref-2_1981361399-618.coolpic» v:shapes="_x0000_i1284">.

Об X(t) известно: mx(t) и Dx(t).

Требуется найти <img width=«136» height=«32» src=«ref-2_1981362017-516.coolpic» v:shapes="_x0000_i1285">;

                 <img width=«176» height=«32» src=«ref-2_1981362533-568.coolpic» v:shapes="_x0000_i1286">;

                       <img width=«412» height=«48» src=«ref-2_1981363101-1294.coolpic» v:shapes="_x0000_i1287">.

Т.о. получили <img width=«160» height=«37» src=«ref-2_1981364395-525.coolpic» v:shapes="_x0000_i1288">.

Математическое ожидание производной равно производной от математического ожидания:

             <img width=«509» height=«119» src=«ref-2_1981364920-2522.coolpic» v:shapes="_x0000_i1289">

где           <img width=«472» height=«55» src=«ref-2_1981367442-1465.coolpic» v:shapes="_x0000_i1290">,

              <img width=«497» height=«55» src=«ref-2_1981368907-1494.coolpic» v:shapes="_x0000_i1291">.

Таким образом <img width=«217» height=«57» src=«ref-2_1981370401-765.coolpic» v:shapes="_x0000_i1292">.

Для производных более высокого порядка, если <img width=«131» height=«33» src=«ref-2_1981371166-475.coolpic» v:shapes="_x0000_i1293">, то

                                      <img width=«260» height=«97» src=«ref-2_1981371641-1270.coolpic» v:shapes="_x0000_i1294">

Пусть имеем: Yq(t) = X(q)(t), тогда:

                                        <img width=«239» height=«57» src=«ref-2_1981372911-780.coolpic» v:shapes="_x0000_i1295">.                               (3.23)

Замечание. В общем случае, определение производной не применимо к случайным функциям т.к. определение предела не применимо к случайным величинам в строгом его понимании. Действительно,

                          <img width=«376» height=«52» src=«ref-2_1981373691-1339.coolpic» v:shapes="_x0000_i1296">.                 (3.24)

Величина YD(t) равна отношению приращения случайной величины при фиксированном t к Dt.

Если последовательность Dt стремится к нулю Dt ® 0, то последовательность {YD(t)} стремится к какому-то пределу в вероятностном смысле, а не в обычном.

Будем рассматривать предел в среднем квадратическом. Случайная функция X(t) со скалярным аргументом t дифференцируема, если существует случайная функция Y1(t), называемая производной X(t), такая что

                                   <img width=«292» height=«59» src=«ref-2_1981375030-1193.coolpic» v:shapes="_x0000_i1297">.                          (3.25)

Из определения следует, что производная случайной функции X(t) – предел в среднем квадратическом отношения приращения функции к приращению аргумента Dt. Это записывается как

                                         <img width=«231» height=«48» src=«ref-2_1981376223-895.coolpic» v:shapes="_x0000_i1298">.                                (3.26)

Обоснуем замену <img width=«71» height=«48» src=«ref-2_1981377118-318.coolpic» v:shapes="_x0000_i1299">.

Для этого найдём <img width=«53» height=«31» src=«ref-2_1981377436-281.coolpic» v:shapes="_x0000_i1300">.

<img width=«593» height=«87» src=«ref-2_1981377717-2403.coolpic» v:shapes="_x0000_i1301">
3.2.5.Интегрирование случайной функции
Рассмотрим интеграл Дюамеля:

                                               <img width=«168» height=«64» src=«ref-2_1981380120-761.coolpic» v:shapes="_x0000_i1302">,                                      (3.27)

где g(t, τ) – некоторая функция двух переменных (весовая функция), X(τ) – случайная функция, t – t0 T – область интегрирования. Известно также: mx(τ); Rx(τ1, τ2).

Требуется определить: <img width=«117» height=«28» src=«ref-2_1981380881-472.coolpic» v:shapes="_x0000_i1303">.

<img width=«248» height=«112» src=«ref-2_1981381353-1283.coolpic» v:shapes="_x0000_i1304">

Рис. 3.7. Интегратор случайных функций

Пример: система счисления пути (рис. 3.8).

<img width=«430» height=«91» src=«ref-2_1981382636-1752.coolpic» v:shapes="_x0000_i1305">

<img width=«311» height=«274» src=«ref-2_1981384388-2022.coolpic» v:shapes="_x0000_i1306">

Рис. 3.8. Система счисления пути по карте

1) Определение математического ожидания.

                          <img width=«387» height=«92» src=«ref-2_1981386410-1988.coolpic» v:shapes="_x0000_i1307">                 (3.28)

2) Определение корреляционной функции:

                                            <img width=«199» height=«42» src=«ref-2_1981388398-703.coolpic» v:shapes="_x0000_i1308">.                                   (3.29)

Вычитаем из выражения для Y(t) выражение для <img width=«47» height=«28» src=«ref-2_1981389101-268.coolpic» v:shapes="_x0000_i1309">

         <img width=«544» height=«57» src=«ref-2_1981389369-1795.coolpic» v:shapes="_x0000_i1310">.

                     <img width=«432» height=«57» src=«ref-2_1981391164-1446.coolpic» v:shapes="_x0000_i1311">

                                  <img width=«293» height=«45» src=«ref-2_1981392610-1034.coolpic» v:shapes="_x0000_i1312">.

3) Определение дисперсии.

Берём одно сечение t1 = t2 = t

                     <img width=«427» height=«46» src=«ref-2_1981393644-1446.coolpic» v:shapes="_x0000_i1313">.            (3.30)

Отсюда следует, что корреляционная функция – положительно определённая функция.

Замечание. Данное выше решение задачи: определение математического ожидания и корреляционной функции интеграла от случайной функции является пока не строгим по двум причинам:

1) не строгим было изменение порядка операций интеграла и М[…];

2) обычное определение интеграла не применимо к случайным функциям по тем же причинам, что и при дифференцировании.

Случайную функцию X(t) будем называть интегрируемой по области Т с весом g(t, t), если существует случайная функция Y(t), называемая интегралом такая, что

                            <img width=«360» height=«65» src=«ref-2_1981395090-1406.coolpic» v:shapes="_x0000_i1314">.                   (3.31)

Для любых tk, разбивающих область интегрирования на произвольные участки Dtk.

<img width=«414» height=«55» src=«ref-2_1981396496-3754.coolpic» v:shapes="_x0000_i1047">

Рис. 3.9. Разбиение области интегрирования

Из определения интегрируемости случайной функции следует, что интеграл Y(t) – предел в среднем квадратическом от интегральной суммы:

                       <img width=«408» height=«45» src=«ref-2_1981400250-1438.coolpic» v:shapes="_x0000_i1315">.              (3.32)
    продолжение
--PAGE_BREAK--3.3. Свойства корреляционных и взаимно корреляционных функций
1.     Корреляционная функция Rx(t1, t2) симметрична относительно своих аргументов:

                                                 
Rx
(t1, t2) = Rx(t2, t1)                                         (3.33)

в соответствии с определением корреляционной функции X(t).

Корреляционная функция комплексной случайной функции при перестановке аргументов заменяется комплексной сопряжённой функцией:

                                                <img width=«161» height=«28» src=«ref-2_1981401688-541.coolpic» v:shapes="_x0000_i1316">.                                       (3.34)

так же <img width=«585» height=«71» src=«ref-2_1981402229-2068.coolpic» v:shapes="_x0000_i1317">

2.     При добавлении к случайной функции X(t) произвольного неслучайного слагаемого j(t), корреляционная функция случайной величины не изменяется, т.е. если

                                                  <img width=«143» height=«24» src=«ref-2_1981404297-539.coolpic» v:shapes="_x0000_i1318">                                         (3.35)

то Rz(t1, t2) = Rx(t1, t2).

3.     При умножении случайной функции X(t) на произвольный неслучайный множитель ψ(t) корреляционная функция Rx(t1, t2) умножается на ψ(t1)ψ(t2):

                                       <img width=«248» height=«55» src=«ref-2_1981404836-1245.coolpic» v:shapes="_x0000_i1319">

4.     <img width=«214» height=«31» src=«ref-2_1981406081-735.coolpic» v:shapes="_x0000_i1320">.

5.     Корреляционная функция является положительно определённой функцией, т.е.

                                     <img width=«267» height=«46» src=«ref-2_1981406816-1100.coolpic» v:shapes="_x0000_i1321">,                            (3.36)

где j(τ1), j(τ2) – произвольные функции при t = τ1 и t = τ2. Так как

                        <img width=«393» height=«46» src=«ref-2_1981407916-1424.coolpic» v:shapes="_x0000_i1322">,                (3.37)

т.е. дисперсия случайной функции всегда неотрицательна. Аналогичными свойствами обладает и взаимная корреляционная функция двух случайных функций.

                     <img width=«431» height=«28» src=«ref-2_1981409340-1187.coolpic» v:shapes="_x0000_i1323">.            (3.38)

Для комплексных случайных функций <img width=«176» height=«31» src=«ref-2_1981410527-580.coolpic» v:shapes="_x0000_i1324">.

6.     Взаимная корреляционная функция двух случайных функций X(t) и Y(t) не изменяется при добавлении к этим случайным функциям произвольных неслучайных функций.

7.     Если U(t) = ψ1(t)X(t); V(t) = ψ2(t)Y(t), то RUV(t1, t2) = ψ1(t1)ψ2(t2)Rxy(t1, t2).

8.     <img width=«223» height=«33» src=«ref-2_1981411107-756.coolpic» v:shapes="_x0000_i1325">.

Кроме указанных выше свойств корреляционной функции и взаимно корреляционной функции следует, что

                                                     <img width=«117» height=«57» src=«ref-2_1981411863-804.coolpic» v:shapes="_x0000_i1326">                                            (3.39)

где ρx(t1, t2), ρxy(t1, t2) – нормированные корреляционные функции.
3.4.  Экспериментальное определение корреляционных функций
Корреляционную функцию процесса можно определить экспериментально на основании снятой кривой (реализации) данного процесса при достаточно длительной записи.

Обработка имеющейся записи процесса (осциллограммы) производится следующим образом.

<img width=«616» height=«324» src=«ref-2_1981412667-18224.coolpic» v:shapes="_x0000_i1048">

Рис. 3.10. Определение корреляционной функции
по снятой экспериментально кривой

Весь интервал записи осциллограммы Т делится на N равных частей, длительность которых составляет <img width=«58» height=«40» src=«ref-2_1981430891-193.coolpic» v:shapes="_x0000_i1327">; T >>Dt.

Для различных значений t = mDt находят средние значения произведений ординат (формула математической статики):

                                     <img width=«272» height=«59» src=«ref-2_1981431084-1007.coolpic» v:shapes="_x0000_i1328">.                            (3.40)

При этом необходимо выделить постоянную составляющую

                                       <img width=«245» height=«57» src=«ref-2_1981432091-949.coolpic» v:shapes="_x0000_i1329">.                               (3.41)

По этим значениям строится график корреляционной функции в зависимости от интервала m или времени t = mDt.

Корреляционную функцию можно найти по результатам эксперимента при помощи специальных приборов-корреляторов, которые автоматически вычисляют среднее произведение двух ординат осциллограммы (реализации процесса), отстоящих друг от друга на время t.
    продолжение
--PAGE_BREAK--4. Спектральная плотность стационарных случайных процессов 4.1. Спектральное разложение стационарных случайных функций (процессов) в дискретный спектр дисперсии
Проведем поэтапный вывод спектрального разложения:

1) Представим стационарную случайную функцию X(t) как сумму синусоидальных функций частоты w1, w2, … – разложим X(t) в ряд Фурье:

                                <img width=«320» height=«57» src=«ref-2_1981433040-1160.coolpic» v:shapes="_x0000_i1330">,                         (4.1)

или то же самое представим в комплексной форме:

                                                 <img width=«153» height=«56» src=«ref-2_1981434200-581.coolpic» v:shapes="_x0000_i1331">                                          (4.2)

Коэффициенты разложения ZkUkCk определяются по формулам Эйлера-Фурье. В выражении (4.1) ZkUk – некоррелированные центрированные случайные величины (амплитуды колебаний) с дисперсиями, одинаковыми для каждой пары случайных величин Zk и Ukс одним и тем же индексом k:

                                                <img width=«158» height=«25» src=«ref-2_1981434781-365.coolpic» v:shapes="_x0000_i1332">,                                         (4.3)

где Ck – соответственно комплексная случайная величина.

Координатными функциями разложения (4.1) являются функции sin wk
t
и cos wk
t
при различных частотах wk. Такое разложение называется спектральным разложениемстационарной случайной функции. Частоты wk(k = 1, 2, …) являются кратными некоторой основной частоте (первой):

                                                      <img width=«97» height=«46» src=«ref-2_1981435146-374.coolpic» v:shapes="_x0000_i1333">,                                               (4.4)

соответствующей периоду 2T:

                                                     <img width=«112» height=«46» src=«ref-2_1981435520-287.coolpic» v:shapes="_x0000_i1334">.                                              (4.5)

Спектральное разложение представляет собой случайную функцию X(t) в виде гармонических колебаний различных частот со случайными амплитудами (рис. 4.1). Спектр стационарного случайного процесса характеризует распределение дисперсий случайных амплитуд по частотам. Спектральное разложение (4.1) является разложением случайной функции X(t) на конечном интервале наблюдения T.

<img width=«526» height=«257» src=«ref-2_1981435807-14847.coolpic» v:shapes="_x0000_i1049">

Рис. 4.1. Колебания различных частот со случайными амплитудами

Такое разложение находит широкое применение при исследовании автоматических, радиотехнических и других систем. Для исследования спектрального разложения удобно представлять его в комплексной форме.

2) Рассмотрим входящую в (4.1) гармонику частоты wk:

                                      <img width=«262» height=«25» src=«ref-2_1981450654-679.coolpic» v:shapes="_x0000_i1335">,                               (4.6)

где ZkUk – случайные амплитуды с характеристиками:

                      <img width=«421» height=«25» src=«ref-2_1981451333-1007.coolpic» v:shapes="_x0000_i1336">.               (4.7)

Представим Zk(t) в комплексной форме с помощью формул Эйлера:

                             <img width=«345» height=«56» src=«ref-2_1981452340-931.coolpic» v:shapes="_x0000_i1337">;

                                             <img width=«192» height=«52» src=«ref-2_1981453271-665.coolpic» v:shapes="_x0000_i1338">.                                      (4.8)

Подставим выражение (4.8) в (4.6):

<img width=«599» height=«49» src=«ref-2_1981453936-1387.coolpic» v:shapes="_x0000_i1339">.(4.9)

Введём обозначения:

                                       <img width=«257» height=«47» src=«ref-2_1981455323-656.coolpic» v:shapes="_x0000_i1340">                              (4.10)

Тогда выражение (4.9) примет следующий вид:

                                        <img width=«233» height=«32» src=«ref-2_1981455979-575.coolpic» v:shapes="_x0000_i1341">.                                (4.11)

3) Определим вероятностные (моментные) характеристики комплексных случайных величин VkVk. Очевидно, что они центрированы:

                                                <img width=«156» height=«25» src=«ref-2_1981456554-478.coolpic» v:shapes="_x0000_i1342">,                                       (4.12)

так как составляющие их случайные величины также центрированы (4.7), то можно определить корреляционный момент VkVk:

         <img width=«12» height=«23» src=«ref-2_1981457032-73.coolpic» v:shapes="_x0000_i1343"><img width=«537» height=«113» src=«ref-2_1981457105-2703.coolpic» v:shapes="_x0000_i1344">(4.13)

Так как по условию D[Uk] = D[Zk] = Dk; Uk, Zk – некоррелированы, определим дисперсии VkVk соответственно:

                <img width=«482» height=«114» src=«ref-2_1981459808-2212.coolpic» v:shapes="_x0000_i1345">,

                      <img width=«420» height=«54» src=«ref-2_1981462020-1173.coolpic» v:shapes="_x0000_i1346">.             (4.14)

Таким образом

                                               <img width=«164» height=«47» src=«ref-2_1981463193-512.coolpic» v:shapes="_x0000_i1347">.                                       (4.15)

Следовательно, как видно из выражений (4.11) и (4.14) случайные величины VkVk – амплитуды гармонического колебания Xk(t) с частотами wk, (–wk). А VkVk – комплексные центрированные некоррелированные случайные величины с одинаковыми дисперсиями <img width=«31» height=«47» src=«ref-2_1981463705-231.coolpic» v:shapes="_x0000_i1348">.

4) Определим корреляционную функцию случайного процесса Xk(t):

                                     <img width=«269» height=«68» src=«ref-2_1981463936-1060.coolpic» v:shapes="_x0000_i1349">,                            (4.16)

где

                                      <img width=«256» height=«40» src=«ref-2_1981464996-629.coolpic» v:shapes="_x0000_i1350">;

                                        <img width=«235» height=«44» src=«ref-2_1981465625-643.coolpic» v:shapes="_x0000_i1351">.                                (4.17)

Подставляя (4.17) в (4.16), получим:

      <img width=«585» height=«124» src=«ref-2_1981466268-2999.coolpic» v:shapes="_x0000_i1352">     

где t1 – t2 = τ.

Учитывая выражение (4.14) и некоррелированность VkVk, получим:

                              <img width=«337» height=«47» src=«ref-2_1981469267-971.coolpic» v:shapes="_x0000_i1353">.                     (4.18)

Таким образом, дисперсия случайной гармоники Xk(t) при представлении её в комплексной форме делится пополам между гармоникой положительной частоты wk и отрицательной частоты (–wk), что представлено на рис. 4.2.

<img width=«445» height=«212» src=«ref-2_1981470238-7477.coolpic» v:shapes="_x0000_i1050">

Рис. 4.2. Дисперсия случайной гармоники Xk(t)

5) Рассмотрим распределение по частотам w1, w2, … wkдисперсий гармоник Xk(t), соответствующих этим частотам.

В соответствии с (4.1) и (4.11) представим случайный процесс X(t) в комплексной форме:

                                 <img width=«308» height=«58» src=«ref-2_1981477715-922.coolpic» v:shapes="_x0000_i1354">.                        (4.19)

Обозначим отрицательные частоты:

                                               <img width=«176» height=«25» src=«ref-2_1981478637-407.coolpic» v:shapes="_x0000_i1355">                                      (4.20)

Суммируем отдельно слагаемые, соответствующие положительным и отрицательным частотам:

                                 <img width=«317» height=«57» src=«ref-2_1981479044-945.coolpic» v:shapes="_x0000_i1356">                        (4.21)

Заметим, что сумму отрицательных слагаемых можно выразить таким же образом, как и сумму положительных слагаемых:

                                        <img width=«235» height=«57» src=«ref-2_1981479989-729.coolpic» v:shapes="_x0000_i1357">.                                (4.22)

С учётом (4.22) выражение (4.19) примет вид:

                                          <img width=«213» height=«58» src=«ref-2_1981480718-719.coolpic» v:shapes="_x0000_i1358">.                                  (4.23)

Здесь мы объединили две суммы в одну, так как первая сумма содержит слагаемые с номерами k Î [1, ¥], а вторая – с номерами k Î [–¥, 1], поэтому можно рассматривать сумму членов с номерами k Î [–¥, ¥] за исключением номера k = 0. Полученное выражение (4.23) представляет собой стационарный случайный процесс X(t), составленный из случайных гармоник частоты wkk Î (–¥, ¥), k ¹ 0 в виде линейных комбинаций показательных функций со случайными коэффициентами.

6) Определим корреляционную функцию и дисперсию случайного процесса X(t). Корреляционная функция процесса X(t) является чётной (Rx(τ) = Rx(–τ)), т.к. процесс стационарный. Следовательно, на графике она представлена симметричной кривой (рис. 4.3).

<img width=«353» height=«152» src=«ref-2_1981481437-4734.coolpic» v:shapes="_x0000_i1051">

Рис. 4.3. Корреляционная функция процесса X(t)

Свойства X(t), представленного в виде ряда Фурье:

а) при изменении t1, t2 от 0 до Tаргумент τ = t1 – t2 изменяется от –T доT;

б) корреляционная функция Rxk(t1, t2) гармоники wk определяется формулой (4.18);

в) Случайная функция (процесс) X(t) представляется в виде суммы гармоник различных частот (4.23);

г) Так как члены суммы (4.23) некоррелированы, то корреляционная функция Rx(t1, t2) равна сумме корреляционных функций слагаемых.

На основании данных свойств и с учётом выражений (4.18), (4.20) и (4.22), получим:

                                     <img width=«264» height=«75» src=«ref-2_1981486171-977.coolpic» v:shapes="_x0000_i1359">.                             (4.24)

д) Для определения дисперсии случайного процесса X(t) достаточно в выражении (4.24) представить t1 = t2 = t.

                                <img width=«313» height=«74» src=«ref-2_1981487148-1202.coolpic» v:shapes="_x0000_i1360">,                        (4.25)

где введено обозначение <img width=«70» height=«47» src=«ref-2_1981488350-308.coolpic» v:shapes="_x0000_i1361">, т.е. ряд Фурье можно представить в виде:

                                      <img width=«260» height=«75» src=«ref-2_1981488658-944.coolpic» v:shapes="_x0000_i1362">.                             (4.26)

Выражение (4.24) или (4.26) показывает, что частотам ±wk соответствуют дисперсии случайных амплитуд гармоник Xk(t), т.е. корреляционная функция разложена в ряд Фурье.

Распределение дисперсии по частотам определяет так называемый спектр дисперсий стационарной случайной функции. Спектр дисперсий можно изобразить на графике в виде линейчатого спектра (рис. 4.4).

<img width=«615» height=«210» src=«ref-2_1981489602-6936.coolpic» v:shapes="_x0000_i1052">

Рис. 4.4. Спектр дисперсий

На рис. 4.4 по оси абсцисс откладываются частоты wkв соответствии с формулой (4.5), а по оси ординат – соответствующие этим частотам дисперсии.

7) Перейдём от математической абстракции к физическим процессам. Так как отрицательные частоты физически не существуют, формулы (4.24), (4.25), (4.26) можно переписать только для положительных частот w1, w2, … wk. При этом дисперсии, соответствующие этим частотам, необходимо удвоить.

                                               <img width=«170» height=«57» src=«ref-2_1981496538-631.coolpic» v:shapes="_x0000_i1363">;                                      (4.27)

                                                     <img width=«12» height=«23» src=«ref-2_1981457032-73.coolpic» v:shapes="_x0000_i1364"><img width=«93» height=«57» src=«ref-2_1981497242-388.coolpic» v:shapes="_x0000_i1365">.                                             (4.28)

Спектр дисперсий, соответствующий только положительным частотам представлен на рис. 4.5. Формула (4.28) показывает, что дисперсия стационарного процесса X(t) равна дисперсий всех гармоник его спектрального разложения. Формула (4.26) даёт разложение корреляционной функции Rx(τ) случайного процесса X(t), t Î [0, T] в ряд Фурье, коэффициентами которого являются дисперсии dk. А dk вычисляются как коэффициенты ряда Фурье:

                               <img width=«220» height=«60» src=«ref-2_1981497630-783.coolpic» v:shapes="_x0000_i1366">, k = ±1, ±2, …                      (4.29)

<img width=«521» height=«198» src=«ref-2_1981498413-6298.coolpic» v:shapes="_x0000_i1053">

Рис. 4.5. Спектр дисперсий, соответствующий положительным частотам

Таким образом, X(t) и её корреляционная функция Rx(τ) разложены в ряд Фурье. Дисперсии гармоник dk – коэффициенты ряда Фурье для корреляционной функции.
    продолжение
--PAGE_BREAK--4.2.  Спектральное разложение стационарных случайных функций (процессов) в непрерывный спектр дисперсии
Перейдём к рассмотрению непрерывного спектра дисперсий стационарной случайной функции X(t).

Для этого будем рассматривать X(t) при T ® ¥. Тогда расстояния между опорными частотами <img width=«67» height=«46» src=«ref-2_1981504711-209.coolpic» v:shapes="_x0000_i1367"> будут неограниченно уменьшаться, так как при <img width=«190» height=«46» src=«ref-2_1981504920-471.coolpic» v:shapes="_x0000_i1368">.

При этом дискретный спектр дисперсии будет неограниченно приближаться к непрерывному, в котором бесконечно малому интервалу частот Dwk = wk – wk–1 будет соответствовать элементарная дисперсия dk(wk).

Прежде, чем перейти к пределу, рассмотрим допредельный случай, когда интервал Dw ® 0, но ещё не равен нулю (рис. 4.6). Физический смысл мы рассматривали ранее.

<img width=«525» height=«195» src=«ref-2_1981505391-5999.coolpic» v:shapes="_x0000_i1054">

Рис. 4.6. Дискретный спектр дисперсий

Примем следующие допущения:

1) по оси абсцисс (ось частот) отложим отрезки <img width=«99» height=«47» src=«ref-2_1981511390-438.coolpic» v:shapes="_x0000_i1369">:

<img width=«504» height=«195» src=«ref-2_1981511828-8717.coolpic» v:shapes="_x0000_i1055">

Рис. 4.7. Средняя плотность дисперсий

2) по оси ординат (ось дисперсий) будем откладывать среднюю плотность дисперсии – дисперсию dk, отнесённую к величине Dw

                                                    <img width=«115» height=«48» src=«ref-2_1981520545-570.coolpic» v:shapes="_x0000_i1370">,                                            (4.3)

т.е. на каждом отрезке Dw как на основании построим прямоугольник площадью dk. Это напоминает гистограмму статистического распределения случайной величины.

Таким образом, ордината <img width=«31» height=«48» src=«ref-2_1981521115-308.coolpic» v:shapes="_x0000_i1371"> имеет физический смысл средней плотности дисперсии и называется спектральной плотностью, т.е.

                                                     <img width=«104» height=«48» src=«ref-2_1981521423-551.coolpic» v:shapes="_x0000_i1372">,                                             (4.31)

здесь эта величина и есть спектральная плотность процесса X(t).

Очевидно, что сумма площадей всех прямоугольников равна дисперсии Dx случайной функции X(t) в соответствии с приведённой ранее формулой:

                                                <img width=«161» height=«75» src=«ref-2_1981521974-709.coolpic» v:shapes="_x0000_i1373">.                                       (4.32)

Ранее были получены формулы, выражающие спектральное разложение стационарной случайной функции X(t), t Î [1, T] в дискретный спектр дисперсий:

                                               <img width=«173» height=«75» src=«ref-2_1981522683-733.coolpic» v:shapes="_x0000_i1374">                                      (4.33)

                                                      <img width=«103» height=«75» src=«ref-2_1981523416-487.coolpic» v:shapes="_x0000_i1375">                                             (4.34)

                                <img width=«320» height=«60» src=«ref-2_1981523903-996.coolpic» v:shapes="_x0000_i1376">                        (4.35)

Заменим случайные величины Vk (комплексные амплитуды гармонических колебаний) случайными величинами V(wk)×Dw, т.е.

                                     <img width=«271» height=«180» src=«ref-2_1981524899-2069.coolpic» v:shapes="_x0000_i1377">                            (4.36)

Соответственно в формулах (4.34) и (4.35) заменим дисперсии dk произведениями zx(wk)×Dw, т.е.

                                        <img width=«237» height=«75» src=«ref-2_1981526968-1011.coolpic» v:shapes="_x0000_i1378">;                               (4.37)

                                               <img width=«167» height=«75» src=«ref-2_1981527979-806.coolpic» v:shapes="_x0000_i1379">.                                      (4.38)

Преобразуем формулу (4.36) для dk. Для этого разделим обе части формулы на величину Dw ¹ 0<img width=«51» height=«19» src=«ref-2_1981528785-142.coolpic» v:shapes="_x0000_i1380"> и учтём, что:

                      <img width=«416» height=«48» src=«ref-2_1981528927-1285.coolpic» v:shapes="_x0000_i1381">.             (4.39)

Формула (4.36) примет вид:

                                       <img width=«252» height=«60» src=«ref-2_1981530212-965.coolpic» v:shapes="_x0000_i1382">.                              (4.4)

Осуществим предельный переход:

                                                <img width=«153» height=«52» src=«ref-2_1981531177-905.coolpic» v:shapes="_x0000_i1383">.

С учётом этого формулы (4.37) и (4.41) примут вид:

                                         <img width=«237» height=«60» src=«ref-2_1981532082-858.coolpic» v:shapes="_x0000_i1384">                                (4.41)

                                           <img width=«212» height=«61» src=«ref-2_1981532940-828.coolpic» v:shapes="_x0000_i1385">                                  (4.42)

                                               <img width=«175» height=«60» src=«ref-2_1981533768-770.coolpic» v:shapes="_x0000_i1386">                                      (4.43)

                                        <img width=«240» height=«60» src=«ref-2_1981534538-944.coolpic» v:shapes="_x0000_i1387">                                (4.44)

Формула (4.43), выражающая корреляционную функцию стационарного случайного процесса через её спектральную плотность, была впервые получена в начале 30-х годов для ограниченного класса случайных процессов американским математиком, «отцом» кибернетики Норбертом Винером (1894-1964). Несколько позже эту формулу для любых стационарных случайных процессов вывел советский математик Александр Яковлевич Хинчин (1894-1959). Поэтому формулы (4.43) и (4.45), связывающие Rx(τ), Sx(w) называют формулами Винера-Хинчина.

Графический смысл предельного перехода от конечного интервала [0, T] к бесконечному при T ® ¥, Dw ® 0 выражается в том, что ступенчатая функция sx(wk) будет неограниченно приближаться к непрерывной функции sx(w), которая будет изображать плотность распределения дисперсии случайных амплитуд по частотам непрерывного спектра.

Непрерывная функция sx(w) называется спектральной плотностью стационарного случайного процесса. sx(w) характеризует частотный состав стационарного случайного процесса X(t) и полностью определяется его корреляционной функцией Rx(τ) (4.45).

<img width=«631» height=«195» src=«ref-2_1981535482-11660.coolpic» v:shapes="_x0000_i1056">

Рис. 4.8. Спектральная плотность стационарного случайного процесса

Формула (4.44) представляет собой разложение дисперсии Dx на сумму элементарных слагаемых sx(w)dw, каждая из которых представляет собой дисперсию, приходящуюся на элементарный бесконечно малый интервал частот dw, прилежащей к точке w при (– ¥ < w < ¥).

Если рассматривать спектр дисперсии в физически возможном диапазоне частот w Î [0, ¥), то спектральная плотность Sx(w) в этом диапазоне удваивается по амплитуде с тем, чтобы площадь под кривой спектральной плотности не изменилась.

В отличие от спектральной плотности zx(w), рассматриваемой на всём диапазоне частот, будем рассматривать спектральную плотность только для положительных частот и обозначим ее Sx(w).

С учётом этого дисперсия процесса X(t) будет вычисляться по формуле:

                                                  <img width=«136» height=«60» src=«ref-2_1981547142-619.coolpic» v:shapes="_x0000_i1388">,                                         (4.45)

где

                                  <img width=«293» height=«60» src=«ref-2_1981547761-1117.coolpic» v:shapes="_x0000_i1389">,                          (4.46)

                                            <img width=«197» height=«60» src=«ref-2_1981548878-800.coolpic» v:shapes="_x0000_i1390">.                                   (4.47)

На практике иногда пользуются так называемой нормированной спектральной плотностью:

                                                    <img width=«116» height=«52» src=«ref-2_1981549678-633.coolpic» v:shapes="_x0000_i1391">,                                           (4.48)

                                                    <img width=«119» height=«52» src=«ref-2_1981550311-601.coolpic» v:shapes="_x0000_i1392">.                                           (4.49)

Так как Rx(τ) и sx(τ) представляют собой чётные вещественные функции, то иногда формулы (4.47) и (4.48) для Rx(τ) и sx(w) представляют в вещественной форме:

                                          <img width=«213» height=«60» src=«ref-2_1981550912-952.coolpic» v:shapes="_x0000_i1393">,                                  (4.5)

                                         <img width=«224» height=«60» src=«ref-2_1981551864-989.coolpic» v:shapes="_x0000_i1394">.                                 (4.51)

Выражения (4.51), (4.52) получены на основе равенств

                                             <img width=«195» height=«63» src=«ref-2_1981552853-1080.coolpic» v:shapes="_x0000_i1395">

после подстановки и отбрасывания мнимых частей (слагаемых). Графически связь sx(w) с R(t) можно представить следующим образом (рис. 4.9):

<img width=«625» height=«324» src=«ref-2_1981553933-3550.coolpic» v:shapes="_x0000_i1396">

Рис. 4.9. Связь процесса со спектральной плотностью и корреляционной функцией

Чем шире спектр sx(w), тем большие частоты представлены в X(t), т.е. тоньше структура X(t), и быстрее происходят изменения X(t) во времени.

Свойства спектральной плотности:

a) Спектральная плотность действительного стационарного случайного процесса является чётной действительной функцией аргумента w, т.е.

                             sx(w) = –
sx
(–w), Im
sx
(w) = 0 – мнимая часть.

б) Дисперсия действительного стационарного случайного процесса равна интегралу от спектральной плотности этого процесса в бесконечных пределах:

                                     <img width=«265» height=«60» src=«ref-2_1981557483-1035.coolpic» v:shapes="_x0000_i1397">.

в) Спектральная плотность стационарного случайного процесса – функция неотрицательная, т.е.

                                                        <img width=«75» height=«25» src=«ref-2_1981558518-340.coolpic» v:shapes="_x0000_i1398">.

Зная спектральный состав случайного процесса, можно рационально конструировать системы различного назначения. Например, сенсорное устройство.

<img width=«516» height=«200» src=«ref-2_1981558858-2080.coolpic» v:shapes="_x0000_i1399">

Рис. 4.10. Спектральная плотность сенсорного устройства

[w1, w2] – чувствительность сенсорного устройства.
    продолжение
--PAGE_BREAK--

еще рефераты
Еще работы по коммуникациям